JP6000862B2 - Imaging device - Google Patents
Imaging device Download PDFInfo
- Publication number
- JP6000862B2 JP6000862B2 JP2013007597A JP2013007597A JP6000862B2 JP 6000862 B2 JP6000862 B2 JP 6000862B2 JP 2013007597 A JP2013007597 A JP 2013007597A JP 2013007597 A JP2013007597 A JP 2013007597A JP 6000862 B2 JP6000862 B2 JP 6000862B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- alignment
- images
- unit
- recording
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000003384 imaging method Methods 0.000 title claims description 14
- 238000001514 detection method Methods 0.000 claims description 46
- 230000002194 synthesizing effect Effects 0.000 claims description 25
- 230000003287 optical effect Effects 0.000 claims description 14
- 239000000203 mixture Substances 0.000 description 23
- 210000001747 pupil Anatomy 0.000 description 13
- 238000000034 method Methods 0.000 description 11
- 230000015572 biosynthetic process Effects 0.000 description 8
- 238000003786 synthesis reaction Methods 0.000 description 8
- 239000002131 composite material Substances 0.000 description 7
- 239000004973 liquid crystal related substance Substances 0.000 description 7
- 238000010586 diagram Methods 0.000 description 5
- 238000004091 panning Methods 0.000 description 5
- 230000004907 flux Effects 0.000 description 2
- 238000006243 chemical reaction Methods 0.000 description 1
- 210000003128 head Anatomy 0.000 description 1
- 238000001454 recorded image Methods 0.000 description 1
- 230000011514 reflex Effects 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
Landscapes
- Focusing (AREA)
- Lens Barrels (AREA)
- Automatic Focus Adjustment (AREA)
- Adjustment Of Camera Lenses (AREA)
- Studio Devices (AREA)
Description
本発明はデジタルカメラやビデオカメラなどの撮像装置に関する。 The present invention relates to an imaging apparatus such as a digital camera or a video camera.
特許文献1は、動画の垂直期間毎に、1垂直期間よりも短い露光時間で撮影された複数の画像をずらしながら重ね合わせて1つの画像を出力し、撮影により得られた画像に基づいてフォーカスレンズを駆動して焦点調節を行う撮像装置を開示している。 In Patent Document 1, for each vertical period of a moving image, a plurality of images captured with an exposure time shorter than one vertical period are shifted and superimposed to output one image, and the focus is based on the image obtained by capturing An imaging apparatus that performs focus adjustment by driving a lens is disclosed.
しかしながら、特許文献1は、撮影されたフレーム毎の画像位置合わせを合成枚数分行わなくてはならないために演算負荷が増大する。 However, in Patent Document 1, the calculation load increases because image alignment for each photographed frame must be performed for the number of combined images.
本発明は、少ない演算負荷で高精度な焦点調節を行うことを目的とする。 An object of the present invention is to perform highly accurate focus adjustment with a small calculation load.
本発明の撮像装置は、光学像を光電変換する撮像素子と、前記撮像素子から得られる複数枚の画像を互いに位置合わせする画像位置合わせ手段と、前記画像位置合わせ手段によって位置合わせされた画像を記憶する記憶手段と、前記画像位置合わせ手段によって位置合わせされた前記複数枚の画像を合成する画像合成手段と、前記画像合成手段によって合成された前記複数枚の画像の重複している領域の情報に基づいて焦点状態を検出する焦点状態検出手段と、撮影方向の変更を検出する検出手段と、を有し、前記検出手段が前記撮影方向の変更を検出しない場合には、前記画像位置合わせ手段は、前記記憶手段に記憶された複数枚の位置合わせ済み画像に、位置合わせ前の画像を位置合わせし、前記検出手段が前記撮影方向の変更を検出した場合には、前記画像位置合わせ手段は、前記位置合わせ前の画像に前記記憶手段に記憶された1枚の画像を位置合わせする位置合わせ量に基づいて、前記位置合わせ前の画像に前記記憶手段に記憶された複数枚の位置合わせ済み画像を位置合わせすることを特徴とする。 An image pickup apparatus according to the present invention includes an image pickup device that photoelectrically converts an optical image, an image alignment unit that aligns a plurality of images obtained from the image pickup device, and an image that is aligned by the image alignment unit. Storage means for storing, image combining means for combining the plurality of images aligned by the image alignment means, and information on overlapping areas of the plurality of images combined by the image combining means A focus state detection unit that detects a focus state based on the image capturing direction, and a detection unit that detects a change in the shooting direction. When the detection unit does not detect the change in the shooting direction, the image alignment unit Aligns the pre-alignment image with the plurality of aligned images stored in the storage means, and the detection means detects the change in the photographing direction. In this case, the image alignment unit is configured to store the image before the alignment on the image before alignment based on an alignment amount for aligning one image stored in the storage unit with the image before alignment. A plurality of registered images stored in the image are aligned.
本発明によれば、少ない演算負荷で高精度な焦点調節を行うことができる。 According to the present invention, high-precision focus adjustment can be performed with a small calculation load.
図1は、本実施形態におけるデジタルカメラ(撮像装置、光学機器)のブロック図であり、11は撮影光軸である。デジタルカメラは、カメラ本体12に鏡筒14が固定されているが、撮像装置は鏡筒14がカメラ本体12に着脱可能なデジタル一眼レフカメラやミラーレスカメラであってもよい。また、デジタルスチルカメラやデジタルビデオカメラであってもよい。 FIG. 1 is a block diagram of a digital camera (imaging device, optical device) in the present embodiment, and 11 is a photographing optical axis. In the digital camera, the lens barrel 14 is fixed to the camera body 12, but the imaging device may be a digital single-lens reflex camera or a mirrorless camera in which the lens barrel 14 can be attached to and detached from the camera body 12. Moreover, a digital still camera or a digital video camera may be used.
鏡筒14は、物体(被写体)の光学像を形成する撮影光学系を収納する。撮影光学系は、物体側から像側に光路に沿って、固定レンズ13a、変倍レンズ13b、自動焦点調節(オートフォーカス:AF)レンズ13c、光学ローパスフィルタ13dを有する。撮影光学系は、撮像素子13eの物体側に配置されている。変倍レンズ(ズームレンズ)13bは、光軸方向に移動されて焦点距離を変更する。AFレンズ13cは、モーター15aにより光軸方向(矢印15b)方向に駆動され、焦点調節を行う。 The lens barrel 14 houses a photographing optical system that forms an optical image of an object (subject). The photographing optical system includes a fixed lens 13a, a variable magnification lens 13b, an automatic focus adjustment (autofocus: AF) lens 13c, and an optical low-pass filter 13d along the optical path from the object side to the image side. The photographing optical system is disposed on the object side of the image sensor 13e. The variable magnification lens (zoom lens) 13b is moved in the optical axis direction to change the focal length. The AF lens 13c is driven in the direction of the optical axis (arrow 15b) by the motor 15a to adjust the focus.
シャッタ16は、変倍レンズ13bとAFレンズ13cの間に配置され、適切な露光期間の間、シャッタ羽根17を開くことで被写体からの光束を撮像素子13eに導く。18は、カメラ本体12の背面に位置して、ライブビュー表示、撮影画像や各種の情報の表示を行う液晶モニタである。撮像素子13eは光学像を光電変換する光電変換手段である。 The shutter 16 is disposed between the zoom lens 13b and the AF lens 13c, and guides the light flux from the subject to the image sensor 13e by opening the shutter blade 17 during an appropriate exposure period. Reference numeral 18 denotes a liquid crystal monitor that is located on the back of the camera body 12 and displays live view display, captured images, and various information. The image sensor 13e is a photoelectric conversion unit that photoelectrically converts an optical image.
カメラ本体12に内蔵されるCPU19は本実施形態に関連する要素のみブロック図としてカメラ本体12の外に示してある。CPU19は、マイクロコンピュータ(プロセッサ)から構成される。CPU19は、画像処理手段110、露光制御手段111、画像位置合わせ手段113、記憶手段114、基準画像選択手段115、画像合成手段117、再生画像記録手段118、焦点状態検出手段119を有する。画像合成手段117は、再生画像合成手段117aとAF画像合成手段117bを有する。 The CPU 19 built in the camera main body 12 is shown outside the camera main body 12 as a block diagram only for elements related to the present embodiment. The CPU 19 is composed of a microcomputer (processor). The CPU 19 includes an image processing unit 110, an exposure control unit 111, an image alignment unit 113, a storage unit 114, a reference image selection unit 115, an image composition unit 117, a reproduction image recording unit 118, and a focus state detection unit 119. The image composition unit 117 includes a reproduction image composition unit 117a and an AF image composition unit 117b.
露光制御手段111は、シャッタ駆動手段112を介してシャッタ羽根17の開閉駆動制御を行う。即ち、露光制御手段111は画像処理手段110からの被写体情報に基づいて静止画や動画撮影時に適した露光時間を設定する。そして静止画撮影時には撮影条件に見合った時間だけシャッタ羽根17を開き、被写体光束を撮像素子13eに導くことで撮像を行なう。動画撮影時には露光制御手段111は動画撮影中シャッタ羽根17を常に開状態にしておき、撮像素子の不図示の電子シャッタ機能を制御して与えられたフレーム長(例えば、1/30秒)毎に画像を更新する。 The exposure control means 111 performs opening / closing drive control of the shutter blades 17 via the shutter drive means 112. That is, the exposure control unit 111 sets an exposure time suitable for shooting a still image or a moving image based on the subject information from the image processing unit 110. At the time of still image shooting, the shutter blades 17 are opened for a time corresponding to the shooting conditions, and imaging is performed by guiding the subject light flux to the image sensor 13e. During moving image shooting, the exposure control means 111 always keeps the shutter blades 17 open during moving image shooting, and controls an electronic shutter function (not shown) of the image sensor for every given frame length (for example, 1/30 seconds). Update the image.
画像位置合わせ手段113は、撮像素子13eから得られる複数枚の画像(撮像素子13eから出力される信号をA/D変換したデジタル画像データ)を互いに位置合わせする。 The image aligning unit 113 aligns a plurality of images (digital image data obtained by A / D converting the signal output from the image sensor 13e) obtained from the image sensor 13e.
記憶手段114は、単一の画像21aや画像位置合わせ手段113によって位置合わせされた複数枚の画像(位置合わせ済み画像)を記憶する。 The storage unit 114 stores a single image 21a and a plurality of images (aligned images) aligned by the image alignment unit 113.
撮影状態検出手段116は、撮影方向の変更を検出する。 The shooting state detection unit 116 detects a change in shooting direction.
基準選択手段115は、記憶手段114に記憶された複数枚の位置合わせ済み画像および位置合わせ前の画像のいずれを画像位置合わせ手段113による位置合わせ基準とするか選択する。即ち、基準選択手段115は、複数の画像を位置合わせする際の基準画像(あるいは基準線)を選択する。また、基準選択手段115は、撮影状態(例えば、撮影方向の変更)に基づいて位置合わせ基準を変更する。更に、基準選択手段115は、記録用画像の合成と焦点状態検出用画像の合成では異なる基準画像を選択する。 The reference selection unit 115 selects which of the plurality of aligned images stored in the storage unit 114 and the image before alignment is used as the alignment reference by the image alignment unit 113. That is, the reference selection unit 115 selects a reference image (or reference line) when aligning a plurality of images. Further, the reference selection unit 115 changes the alignment reference based on the shooting state (for example, change of shooting direction). Further, the reference selection unit 115 selects different reference images for the synthesis of the recording image and the synthesis of the focus state detection image.
例えば、焦点状態検出用画像を合成する場合には以下のようになる。即ち、基準選択手段115は、撮影状態検出手段116が撮影方向の変更を検出しない場合、記憶手段114に記憶された、複数枚の位置合わせ済み画像を基準画像として選択する(または複数枚の位置合わせ済み画像の位置合わせに使用された基準線を選択する)。この結果、撮影状態検出手段116が撮影方向の変更を検出しない場合には、画像位置合わせ手段113は、記憶手段114に記憶された、複数枚の位置合わせ済み画像に、位置合わせ前の画像を位置合わせすることになる。 For example, when synthesizing a focus state detection image, it is as follows. That is, the reference selection unit 115 selects a plurality of registered images stored in the storage unit 114 as a reference image when the shooting state detection unit 116 does not detect a change in shooting direction (or a plurality of positions). Select the reference line used to align the aligned images). As a result, when the shooting state detection unit 116 does not detect a change in the shooting direction, the image registration unit 113 adds the image before registration to the plurality of registered images stored in the storage unit 114. Will be aligned.
一方、基準選択手段115は、前撮影状態検出手段116が撮影方向の変更を検出した場合には、位置合わせ前の画像を基準画像として選択する(あるいは位置合わせ前の画像に設定された位置合わせ用の基準線を選択する)。この結果、撮影状態検出手段116が撮影方向の変更を検出した場合には、画像位置合わせ手段113は、位置合わせ前の画像に、記憶手段に記憶された複数枚の位置合わせ画像を位置合わせすることになる。その際、位置合わせ前の画像に、記憶手段に記憶された複数枚の位置合わせ済み画像の1つを位置合わせする位置合わせ量を求め、その位置合わせ量を残りの位置合わせ済み画像に適用することによって演算負荷を低減する。 On the other hand, when the pre-shooting state detection unit 116 detects a change in the shooting direction, the reference selection unit 115 selects an image before alignment as a reference image (or alignment set to the image before alignment). Select the baseline for). As a result, when the photographing state detection unit 116 detects a change in the photographing direction, the image alignment unit 113 aligns a plurality of alignment images stored in the storage unit with the image before the alignment. It will be. At that time, an alignment amount for aligning one of a plurality of registered images stored in the storage unit with the image before alignment is obtained, and the alignment amount is applied to the remaining aligned images. This reduces the calculation load.
画像合成手段117は、画像位置合わせ手段113によって位置合わせされた複数枚の画像を合成する。 The image synthesizing unit 117 synthesizes a plurality of images aligned by the image alignment unit 113.
焦点状態検出手段119は、画像合成手段117のAF画像合成手段117bによって合成された複数枚の画像の重複している領域の情報に基づいて焦点状態を検出する。再生画像合成手段117aによって合成された記録用画像は再生画像記録手段118によって記録される。 The focus state detection unit 119 detects the focus state based on the information of the overlapping area of the plurality of images synthesized by the AF image synthesis unit 117b of the image synthesis unit 117. The recording image synthesized by the reproduced image synthesizing unit 117 a is recorded by the reproduced image recording unit 118.
再生画像記録手段118によって記録された画像は、画像再生手段120を介して液晶モニタ18に表示される。焦点状態検出手段119は、AF駆動手段121を介してモーター15aを駆動し、AFレンズ13cを矢印15b方向に駆動する。 The image recorded by the reproduction image recording unit 118 is displayed on the liquid crystal monitor 18 via the image reproduction unit 120. The focus state detection unit 119 drives the motor 15a via the AF driving unit 121 and drives the AF lens 13c in the direction of the arrow 15b.
以下、画像位置合わせ手段113、記憶手段114、基準画像選択手段115、画像合成手段117、再生画像記録手段118、焦点状態検出手段119の動作について、図2、3を用いて説明する。 Hereinafter, the operations of the image alignment unit 113, the storage unit 114, the reference image selection unit 115, the image composition unit 117, the reproduction image recording unit 118, and the focus state detection unit 119 will be described with reference to FIGS.
図2において、21aから21dは時系列に取得される各画像、22は画像21aから21dに記録される撮影主被写体である。画像21aから21dの取得時に矢印23方向にのみ手ぶれが発生しているとすると、時間の経過に応じて主被写体は矢印23方向に変動する。 In FIG. 2, reference numerals 21a to 21d denote images acquired in time series, and reference numeral 22 denotes a main photographing subject recorded in the images 21a to 21d. If camera shake occurs only in the direction of arrow 23 when images 21a to 21d are acquired, the main subject changes in the direction of arrow 23 as time passes.
位置合わせ手段113は、画像21aから21dを主被写体の位置が揃うようにずらし、図2においては、主被写体21の目が基準線24に揃うように画像21aから21dを画像21a’から21d’の様にずらす。 The alignment means 113 shifts the images 21a to 21d so that the positions of the main subjects are aligned. In FIG. 2, the images 21a to 21d are shifted so that the eyes of the main subject 21 are aligned with the reference line 24. Shift like this.
画像合成手段117は、位置合わせ手段113で位置合わせした画像21a’から21d’を合成し、矢印25に示すように、合成画像21’を得る。太枠で示す合成画像21’は画像21a’から21d’の互いに重複している領域のみを抽出した画像となる。 The image synthesizing unit 117 synthesizes the images 21 a ′ to 21 d ′ aligned by the alignment unit 113 to obtain a synthesized image 21 ′ as indicated by an arrow 25. The composite image 21 ′ indicated by a thick frame is an image obtained by extracting only the overlapping areas of the images 21 a ′ to 21 d ′.
焦点状態検出手段119は、合成画像21’のコントラストから公知のTV−AF手法により、撮影光学系13の焦点状態を検出する。即ち、AFレンズ13cによって形成される焦点位置と撮像素子13eの相対位置を変化させるスキャンを行いながら撮像素子13eが形成した被写体像のコントラストのピーク位置を検出することによって焦点検出する。 The focus state detection unit 119 detects the focus state of the photographing optical system 13 from the contrast of the composite image 21 ′ by a known TV-AF technique. That is, focus detection is performed by detecting the peak position of the contrast of the subject image formed by the image sensor 13e while performing a scan that changes the relative position of the focus position formed by the AF lens 13c and the image sensor 13e.
次に、図3を参照して、ピント合わせのために所定時間毎に複数画像を位置合わせ合成する過程を説明する。 Next, a process of aligning and synthesizing a plurality of images at predetermined time intervals for focusing will be described with reference to FIG.
まず、画像処理手段110は、画像21a、21bを取得する。画像位置合わせ手段113は、画像21aの被写体を基準(瞳を基準にした基準線24)に画像21bを位置合わせして画像21b’を得る。AF画像合成手段117bは、画像21aと21b’を合成して画像31aを求める。焦点状態検出手段119は、その画像の太い黒枠内の被写体情報から焦点状態を検出する。 First, the image processing means 110 acquires images 21a and 21b. The image alignment means 113 aligns the image 21b with respect to the subject of the image 21a (reference line 24 with the pupil as a reference) to obtain an image 21b '. The AF image synthesizing unit 117b obtains an image 31a by synthesizing the images 21a and 21b '. The focus state detection unit 119 detects the focus state from the subject information within the thick black frame of the image.
次に、画像処理手段110は画像21cを取得する。画像位置合わせ手段113は、記憶手段114に記憶された画像21aの被写体を基準(瞳を基準にした基準線24)に画像21cを位置合わせして画像21c’を得る。AF画像合成手段117bは、記憶手段114に記憶された画像21aと21b’及び今回位置合わせした画像21c’を合成して画像31bを求める。焦点状態検出手段119は、画像31bの画像の太い黒枠内の被写体情報から焦点状態を検出する。 Next, the image processing means 110 acquires the image 21c. The image alignment means 113 aligns the image 21c with the subject of the image 21a stored in the storage means 114 as a reference (reference line 24 with reference to the pupil) to obtain an image 21c '. The AF image synthesizing unit 117b obtains an image 31b by synthesizing the images 21a and 21b 'stored in the storage unit 114 and the image 21c' currently aligned. The focus state detection unit 119 detects the focus state from the subject information within the thick black frame of the image 31b.
次に、画像処理手段110は画像21dを取得する。画像位置合わせ手段113は、記憶手段114に記憶された画像21aの被写体を基準(瞳を基準にした基準線24)に画像21dを位置合わせして画像21d’を得る。AF画像合成手段117bは、記憶手段114に記憶された画像21a、21b’、21c’及び今回位置合わせした画像21d’を合成して画像31cを求める。焦点状態検出手段119は、画像31cの画像の太い黒枠内の被写体情報から焦点状態を検出する。 Next, the image processing means 110 acquires the image 21d. The image alignment means 113 aligns the image 21d with the subject of the image 21a stored in the storage means 114 as a reference (reference line 24 with reference to the pupil) to obtain an image 21d '. The AF image synthesizing unit 117b obtains an image 31c by synthesizing the images 21a, 21b ', 21c' and the currently aligned image 21d 'stored in the storage unit 114. The focus state detection unit 119 detects the focus state from the subject information within the thick black frame of the image 31c.
次に、画像処理手段110は画像21eを取得する。画像位置合わせ手段113は、記憶手段114に記憶された画像21b’の被写体を基準(瞳を基準にした基準線24)に画像21eを位置合わせして画像21e’を得る。AF画像合成手段117bは、記憶手段114に記憶された画像21b’、21c’、21d’及び今回位置合わせした画像21e’を合成して画像31dを求める。焦点状態検出手段119は、画像31dの画像の太い黒枠内の被写体情報から焦点状態を検出する。 Next, the image processing means 110 acquires the image 21e. The image alignment means 113 aligns the image 21e with the subject of the image 21b 'stored in the storage means 114 as a reference (reference line 24 with reference to the pupil) to obtain an image 21e'. The AF image synthesizing unit 117b obtains an image 31d by synthesizing the images 21b ', 21c', 21d 'stored in the storage unit 114 and the image 21e' currently aligned. The focus state detection unit 119 detects the focus state from the subject information within the thick black frame of the image 31d.
次に、画像処理手段110は画像21fを取得する。画像位置合わせ手段113は、記憶手段114に記憶された画像21c’の被写体を基準(瞳を基準にした基準線24)に画像21fを位置合わせして画像21f’を得る。AF画像合成手段117bは、記憶手段114に記憶された画像21c’、21d’、21e’及び今回位置合わせした画像21f’を合成して画像31eを求める。焦点状態検出手段119は、画像31eの画像の太い黒枠内の被写体情報から焦点状態を検出する。 Next, the image processing means 110 acquires the image 21f. The image alignment means 113 aligns the image 21f with the subject of the image 21c 'stored in the storage means 114 as a reference (reference line 24 with reference to the pupil) to obtain an image 21f'. The AF image combining unit 117b combines the images 21c ', 21d', and 21e 'stored in the storage unit 114 and the currently aligned image 21f' to obtain an image 31e. The focus state detection unit 119 detects the focus state from the subject information within the thick black frame of the image 31e.
このように、CPU19は、記憶手段114から読み出す位置合わせ済み画像が所定枚数(本実施例では4枚)になると、位置合わせ前の画像を取得するたびに記憶手段114から読み出す位置合わせ済み画像を更新し、古い順に位置合わせ済み画像を消去する。この結果、記憶手段114に記憶される画像枚数の総数が所定枚数を超えることはないので、記憶手段114の容量が不足することはない。また、各位置合わせ画像は画像21aを基準に位置合わせされるため、焦点状態を検出する時に手ぶれの影響を考慮する必要がない。 As described above, when the number of aligned images read from the storage unit 114 reaches a predetermined number (four in this embodiment), the CPU 19 reads the registered image read from the storage unit 114 every time an image before alignment is acquired. Update and erase the aligned images in chronological order. As a result, since the total number of images stored in the storage unit 114 does not exceed the predetermined number, the capacity of the storage unit 114 does not become insufficient. In addition, since each alignment image is aligned based on the image 21a, it is not necessary to consider the influence of camera shake when detecting the focus state.
図4は、撮影方向の変更(パンニングやチルティング)が行われた場合の位置合わせおよび合成方法を説明する図である。図3の画像31eを得た後から説明を続ける。 FIG. 4 is a diagram for explaining the alignment and composition method when the photographing direction is changed (panning or tilting). The description will be continued after obtaining the image 31e of FIG.
画像処理手段110は画像21gを取得する。但し、縦線41で示したタイミングで撮影方向の変更が行われたとする。撮影状態検出手段116は、撮影方向の変更を画像の動きベクトル量が大きいことや撮影機器に搭載される角速度計の出力に基づいて検出する。そのため、画像21gにおける被写体構図はそれまでの画像と大きく異なっている(画像21gでは主被写体の頭部のみが構図に収まっている)。撮影方向の変更が行われた時には、その構図を基準にして焦点状態の検出を行うのが好ましい。 The image processing unit 110 acquires the image 21g. However, it is assumed that the shooting direction is changed at the timing indicated by the vertical line 41. The shooting state detection means 116 detects a change in the shooting direction based on the fact that the amount of motion vector of the image is large or the output of an angular velocity meter mounted on the shooting device. Therefore, the subject composition in the image 21g is significantly different from the previous images (only the head of the main subject is in the composition in the image 21g). When the photographing direction is changed, it is preferable to detect the focus state with reference to the composition.
撮影方向が変更された場合には、基準選択手段115の指示に基づいて、画像位置合わせ手段113は、画像21gの被写体を基準(瞳を基準にした基準線42)に画像21d’、21e’、21f’を位置合わせして画像21d”、21e”、21f”を得る。 When the shooting direction is changed, based on an instruction from the reference selection unit 115, the image alignment unit 113 uses the subject of the image 21g as a reference (reference line 42 with respect to the pupil) as the images 21d ′ and 21e ′. , 21f ′ are aligned to obtain images 21d ″, 21e ″, and 21f ″.
但し、これら3枚の画像21d’、21e’、21f’は既に位置合わせ済みであるので、例えば、画像21gに画像21f’を位置合わせした位置合わせ量だけ画像21d’、21e’をずらして画像21d”、21e”を求める。そのため、位置合わせ量を演算する負荷は小さい。AF画像合成手段117bは、画像21d’’、21e’’,21f’’,21gを合成して画像31fを求める。焦点状態検出手段119は、画像31fの画像の太い黒枠内の被写体情報から焦点状態を検出する。 However, since these three images 21d ′, 21e ′, and 21f ′ have already been aligned, for example, the images 21d ′ and 21e ′ are shifted by the alignment amount obtained by aligning the image 21f ′ with the image 21g. 21d "and 21e" are obtained. Therefore, the load for calculating the alignment amount is small. The AF image synthesizing unit 117b obtains an image 31f by synthesizing the images 21d ", 21e", 21f ", 21g. The focus state detection unit 119 detects the focus state from the subject information within the thick black frame of the image 31f.
次に、画像処理手段110は画像21hを取得する。画像位置合わせ手段113は、記憶手段114に記憶された画像21e”の被写体を基準(瞳を基準にした基準線42)に画像21hを位置合わせして画像21h’を得る。AF画像合成手段117bは、画像21e’’,21f’’,21g、21h’を合成して画像31gを求める。焦点状態検出手段119は、画像31gの画像の太い黒枠内の被写体情報から焦点状態を検出する。 Next, the image processing means 110 acquires the image 21h. The image aligning unit 113 aligns the image 21h with the subject of the image 21e ″ stored in the storage unit 114 as a reference (reference line 42 based on the pupil) to obtain an image 21h ′. AF image combining unit 117b Synthesizes the images 21e ″, 21f ″, 21g, and 21h ′ to obtain the image 31g. The focus state detection unit 119 detects the focus state from the subject information within the thick black frame of the image 31g.
次に、画像処理手段110は画像21iを取得する。画像位置合わせ手段113は、記憶手段114に記憶された画像21f”の被写体を基準(瞳を基準にした基準線42)に画像21iを位置合わせして画像21i’を得る。AF画像合成手段117bは、画像21f’’,21g、21h’、21i’を合成して画像31hを求める。焦点状態検出手段119は、画像31hの画像の太い黒枠内の被写体情報から焦点状態を検出する。 Next, the image processing means 110 acquires the image 21i. The image alignment unit 113 aligns the image 21i with the subject of the image 21f ″ stored in the storage unit 114 as a reference (reference line 42 with reference to the pupil) to obtain an image 21i ′. AF image synthesis unit 117b Synthesizes the images 21f ″, 21g, 21h ′, and 21i ′ to obtain the image 31h. The focus state detection unit 119 detects the focus state from the subject information within the thick black frame of the image of the image 31h.
このように、撮影方向が変更されると、その後に取得した画像を基準にしてその前後の画像を位置合わせして合成することによって、常に適切な構図で焦点状態検出を行うことができる。 In this way, when the shooting direction is changed, the focus state detection can always be performed with an appropriate composition by aligning and synthesizing the images before and after the acquired image as a reference.
図3、図4は焦点状態検出のための画像位置合わせおよび合成方法を示している。この方法は、画面(構図)中央から端に動いていく被写体においても、常に被写体が画面中央になる画像となって焦点状態検出には適しているが、動画の再生画像(記録用画像)としては動きがないため、適していない。そのため、本実施形態では焦点状態検出用画像と記録される画像とは位置合わせ基準を異ならせている。 3 and 4 show image alignment and composition methods for focus state detection. This method is suitable for focus state detection even when the subject moves from the center of the screen (composition) to the end, and the subject is always in the center of the screen. Is not suitable because there is no movement. Therefore, in the present embodiment, the alignment reference is different between the focus state detection image and the recorded image.
図5は、記録用画像の位置合わせと合成を説明するための図である。 FIG. 5 is a diagram for explaining registration and composition of recording images.
まず、画像処理手段110は画像21a、21bを取得する。ここで取得される画像21a、21bは、図3で説明した焦点状態検出用の画像と同じである。画像位置合わせ手段113は、画像21bの被写体を基準(瞳を基準にした基準線24A)に画像21aを位置合わせして画像21a’を得る。再生画像合成手段117aは、画像21bと21a’を合成して画像51aを求める。画像51aは、図3で求めた画像31aとは位置合わせの基準線が異なる(基準線24と24A)。再生画像記録手段118は画像51aを記録し、画像再生手段120は画像51bを液晶モニタ18に表示させる。 First, the image processing means 110 acquires images 21a and 21b. The images 21a and 21b acquired here are the same as the focus state detection images described in FIG. The image alignment means 113 aligns the image 21a with the subject of the image 21b as a reference (reference line 24A with the pupil as a reference) to obtain an image 21a '. The reproduced image synthesizing unit 117a obtains an image 51a by synthesizing the images 21b and 21a '. The image 51a differs from the image 31a obtained in FIG. 3 in the alignment reference line (reference lines 24 and 24A). The reproduction image recording unit 118 records the image 51a, and the image reproduction unit 120 displays the image 51b on the liquid crystal monitor 18.
なお、再生画像記録手段118に記録される画像51aは画像21a’と21bの合成画像であり、太い黒枠で示す画像21bの枠を基準とし、画像21a’における黒枠よりはみ出る部分はトリミングされる。黒枠内で画像21a’と21bが重ならない部分は画像の利得が変化しているので、CPU19はその分を電気的に補正する。 Note that the image 51a recorded in the reproduced image recording means 118 is a composite image of the images 21a 'and 21b, and the portion of the image 21a' that extends beyond the black frame is trimmed with reference to the frame of the image 21b indicated by a thick black frame. Since the gain of the image changes in the portion where the images 21a 'and 21b do not overlap within the black frame, the CPU 19 electrically corrects the amount.
次に、画像処理手段110は画像21cを取得する。画像位置合わせ手段113は、画像21cを基準(瞳を基準にした基準線24B)に記憶手段114に記憶された画像21a’、画像21bを位置合わせして画像21a’’、21b’を得る。2枚の画像21a’、21bは既に位置合わせ済であるので、画像21cに位置合わせする際の位置合わせ量を求める演算は1回で済む。再生画像合成手段117aは、記憶手段114に記憶された画像21a’’と21b’及び画像21cを合成して画像51bを求める。再生画像記録手段118は画像51bを記録し、像再生手段120は画像51bを液晶モニタ18に表示させる。 Next, the image processing means 110 acquires the image 21c. The image alignment means 113 aligns the images 21a 'and 21b stored in the storage means 114 with the image 21c as a reference (reference line 24B with reference to the pupil) to obtain images 21a "and 21b'. Since the two images 21a 'and 21b have already been aligned, the calculation for determining the alignment amount when aligning with the image 21c is sufficient. The reproduced image combining unit 117a combines the images 21a "and 21b 'and the image 21c stored in the storage unit 114 to obtain the image 51b. The reproduced image recording unit 118 records the image 51b, and the image reproducing unit 120 displays the image 51b on the liquid crystal monitor 18.
なお、再生画像記録手段118に記録される画像51bは画像21a’’と21b’、21cの合成画像であり、太い黒枠で示す画像21cの枠を基準とし、画像21a’’、21b’における黒枠よりはみ出る部分はトリミングされる。黒枠内で画像21a’’と21b’、21cが重ならない部分は画像の利得が変化しているので、CPU19はその分を電気的に補正する。 Note that the image 51b recorded in the reproduced image recording unit 118 is a composite image of the images 21a '', 21b ', and 21c, and the black frame in the images 21a' 'and 21b' is based on the frame of the image 21c indicated by a thick black frame. The part that protrudes is trimmed. The portion of the black frame where the images 21 a ″, 21 b ′, and 21 c do not overlap has an image gain change, so the CPU 19 electrically corrects that amount.
次に、画像処理手段110は画像21dを取得する。画像位置合わせ手段113は、画像21dを基準(瞳を基準にした基準線24C)に記憶手段114に記憶された画像21a’’、画像21b’、21cを位置合わせして画像21a’’’、21b’’、21c’を得る。3枚の画像21a’’、21b’、21cは既に位置合わせ済であるので、画像21dに位置合わせする際の位置合わせ量を求める演算は1回で済む。再生画像合成手段117aは、画像21a’’’と21b’’及び画像21c’と21dを合成して画像51cを求める。再生画像記録手段118は画像51cを記録し、像再生手段120は画像51cを液晶モニタ18に表示させる。 Next, the image processing means 110 acquires the image 21d. The image aligning unit 113 aligns the images 21a ″, 21b ′, and 21c stored in the storage unit 114 with the image 21d as a reference (a reference line 24C with respect to the pupil) to obtain an image 21a ′ ″, 21b '' and 21c 'are obtained. Since the three images 21 a ″, 21 b ′, and 21 c have already been aligned, the calculation for determining the alignment amount when aligning with the image 21 d is sufficient. The reproduced image synthesizing unit 117a obtains an image 51c by synthesizing the images 21a "" and 21b "and the images 21c 'and 21d. The reproduced image recording unit 118 records the image 51c, and the image reproducing unit 120 displays the image 51c on the liquid crystal monitor 18.
なお、再生画像記録手段118に記録される画像51cは画像21a’’’と21b’’、21c’、21dの合成画像であり、太い黒枠で示す画像21dの枠を基準とし、画像21a’’’、21b’’、21cにおける黒枠よりはみ出る部分はトリミングされる。黒枠内で画像21a’’’と21b’’、21c’、21dが重ならない部分は画像の利得が変化しているので、CPU19はその分を電気的に補正する。 Note that the image 51c recorded in the reproduced image recording unit 118 is a composite image of the images 21a ′ ″, 21b ″, 21c ′, and 21d, and the image 21a ″ is based on the frame of the image 21d indicated by a thick black frame. The portion that protrudes from the black frame in ', 21b' ', 21c is trimmed. The portion of the black frame where the images 21a "" and 21b ", 21c ', 21d do not overlap changes the gain of the image, so the CPU 19 electrically corrects that amount.
次に、画像処理手段110は画像21eを取得する。画像位置合わせ手段113は、画像21eを基準(瞳を基準にした基準線24D)に記憶手段114に記憶された画像21b’’、画像21c’、21dを位置合わせして画像21b’’’、21c’’、21d’を得る。3枚の画像21b’’、21c’、21dは既に位置合わせ済であるので、画像21eに位置合わせする際の位置合わせ量を求める演算は1回で済む。再生画像合成手段117aは、画像21b’’’と21c’’及び画像21d’と21eを合成して画像51dを求める。再生画像記録手段118は画像51dを記録し、画像再生手段120は画像51dを液晶モニタ18に表示させる。 Next, the image processing means 110 acquires the image 21e. The image aligning unit 113 aligns the images 21b ″, 21c ′, and 21d stored in the storage unit 114 with the image 21e as a reference (a reference line 24D based on the pupil), thereby obtaining an image 21b ′ ″, 21c '' and 21d 'are obtained. Since the three images 21 b ″, 21 c ′, and 21 d have already been aligned, it is only necessary to calculate the alignment amount when aligning with the image 21 e. The reproduced image synthesizing unit 117a synthesizes the images 21b '' and 21c '' and the images 21d 'and 21e to obtain the image 51d. The reproduction image recording unit 118 records the image 51d, and the image reproduction unit 120 displays the image 51d on the liquid crystal monitor 18.
なお、再生画像記録手段118に記録される画像51dは画像21b”’と21c”、21d’、21eの合成画像であり、太い黒枠で示す画像21eの枠を基準とし、画像21b”’、21c”、21d’における黒枠よりはみ出る部分はトリミングされる。黒枠内で画像21b’’’と21c’’、21d’、21eが重ならない部分は画像の利得が変化しているので、CPU19はその分を電気的に補正する。 Note that the image 51d recorded in the reproduced image recording unit 118 is a composite image of the images 21b ″ ′ and 21c ″, 21d ′, and 21e. The images 21b ″ ′ and 21c are based on the frame of the image 21e indicated by a thick black frame. ”, The portion that protrudes from the black frame at 21d ′ is trimmed. Since the gain of the image changes in a portion where the images 21 b ″ ″ and 21 c ″, 21 d ′, 21 e do not overlap within the black frame, the CPU 19 electrically corrects that amount.
次に、画像処理手段110は画像21fを取得する。画像位置合わせ手段113は、画像21fを基準(瞳を基準にした基準線24E)に記憶手段114に記憶された画像21c’’、画像21d’、21eを位置合わせして画像21c’’’、21d’’、21e’を得る。3枚の画像21c’’、21d’、21eは既に位置合わせ済であるので、画像21fに位置合わせする際の位置合わせ量を求める演算は1回で済む。再生画像合成手段117aは、画像21c’’’と21d’’及び画像21e’と21fを合成して画像51eを求める。再生画像記録手段118は画像51eを記録し、画像再生手段120は画像51eを液晶モニタ18に表示させる。 Next, the image processing means 110 acquires the image 21f. The image aligning unit 113 aligns the images 21c ″, 21d ′, and 21e stored in the storage unit 114 with the image 21f as a reference (a reference line 24E with respect to the pupil) to obtain an image 21c ′ ″, 21d '' and 21e 'are obtained. Since the three images 21 c ″, 21 d ′, and 21 e have already been aligned, it is only necessary to calculate the alignment amount when aligning with the image 21 f. The reproduction image combining unit 117a combines the images 21c '' and 21d '' and the images 21e 'and 21f to obtain the image 51e. The reproduction image recording unit 118 records the image 51e, and the image reproduction unit 120 displays the image 51e on the liquid crystal monitor 18.
なお、再生画像記録手段118に記録される画像51eは画像21c”’と21d”、21e’、21fの合成画像であり、太い黒枠で示す画像21fの枠を基準とし、画像21c”’、21d”、21e’における黒枠よりはみ出る部分はトリミングされる。黒枠内で画像21c’’’と21d’’、21e’、21fが重ならない部分は画像の利得が変化しているので、CPU19はその分を電気的に補正する。 Note that the image 51e recorded in the reproduced image recording means 118 is a composite image of the images 21c ″ ′, 21d ″, 21e ′, and 21f. The images 21c ″ ′ and 21d are based on the frame of the image 21f indicated by a thick black frame. ", The portion of the frame 21e 'that extends beyond the black frame is trimmed. The portion of the black frame where the images 21 c ″ ″ and 21 d ″, 21 e ′, 21 f do not overlap has a change in the image gain, so the CPU 19 electrically corrects that amount.
CPU19は、記憶手段114から読み出す位置合わせ済み画像が所定枚数になると、位置合わせ前の画像を取得するたびに記憶手段114から読み出す位置合わせ済み画像を更新し、古い順に位置合わせ済み画像を消去する。この結果、記憶手段114に記憶される画像枚数の総数が所定枚数を超えることはない。 When the number of registered images read from the storage unit 114 reaches a predetermined number, the CPU 19 updates the registered image read from the storage unit 114 each time the pre-alignment image is acquired, and deletes the registered images in chronological order. . As a result, the total number of images stored in the storage unit 114 does not exceed a predetermined number.
また、焦点状態検出の場合と異なり、最後に取得された画像が基準にされて記憶手段114に複数枚の画像が位置合わせされ、合成されて記録される。位置合わせにおいては、記録手段114に記憶されている複数枚の画像は位置合わせ済であるため、基準画像に対する位置合わせ量の演算は、複数枚の画像の中でいずれか1枚について行い、残り画像に適用すればよいことになり、演算負荷が少ない。本実施例では、位置合わせ量を求める画像は、基準画像に時間的に一番近いタイミングで取得された画像であるが、これに限定されない。 Unlike the case of focus state detection, the last acquired image is used as a reference, and a plurality of images are aligned in the storage unit 114, synthesized, and recorded. In the alignment, since the plurality of images stored in the recording unit 114 have already been aligned, the calculation of the alignment amount with respect to the reference image is performed for any one of the plurality of images, and the rest Therefore, the calculation load is small. In this embodiment, the image for obtaining the alignment amount is an image acquired at the timing closest to the reference image in time, but is not limited to this.
図6は、CPU19が実行する焦点状態検出用画像の位置合わせと合成を説明するフローチャートであり、このフローは動画撮影開始と共にスタートする。図6に示す位置合わせ合成方法は、コンピュータに各ステップの機能を実現させるためのプログラムとして具現化可能であり、これは図7についても同様である。 FIG. 6 is a flowchart for explaining the alignment and composition of the focus state detection image executed by the CPU 19, and this flow starts with the start of moving image shooting. The alignment composition method shown in FIG. 6 can be embodied as a program for causing a computer to realize the function of each step, and the same applies to FIG.
ステップ#601において、画像処理手段110は画像を取得する。ステップ#602において、記憶手段114に記憶された画像を読み出す。ステップ#603において、画像信号や角速度計などの振動検出手段出力から撮影状態検出手段116がカメラがパンニング状態であるか否かを判定し、パンニング状態でない場合にはステップ#604に進みパンニング状態の場合にはステップ#609に進む。 In step # 601, the image processing unit 110 acquires an image. In step # 602, the image stored in the storage unit 114 is read out. In step # 603, the imaging state detection unit 116 determines whether or not the camera is in the panning state from the vibration detection unit output such as the image signal and the angular velocity meter. If the camera is not in the panning state, the process proceeds to step # 604. If so, the process proceeds to step # 609.
ステップ#604において、画像位置合わせ手段113がステップ#602で読み出した画像を基準にして最新に取得した画像を位置合わせする。ステップ#605において、画像位置合わせ手段113が位置合わせした最新画像を記憶手段114に記憶する。ステップ#606において、AF画像合成手段117bがステップ#602で読み出した画像と最新に取得し、位置合わせが終了した画像を合成して焦点状態検出用の画像にする。 In step # 604, the image alignment unit 113 aligns the latest acquired image with reference to the image read in step # 602. In step # 605, the latest image aligned by the image alignment unit 113 is stored in the storage unit 114. In step # 606, the AF image compositing means 117b obtains the latest image and the image read out in step # 602, and the image for which the alignment has been completed is combined into an image for focus state detection.
ステップ#607において、焦点状態検出手段119が焦点状態検出用画像の被写体情報から焦点状態を検出する。ステップ#608において、次の焦点状態を検出するためや、検出した焦点状態に応じたピント合わせのためにAFレンズ13cを駆動してステップ#601に戻る。 In step # 607, the focus state detection unit 119 detects the focus state from the subject information of the focus state detection image. In step # 608, the AF lens 13c is driven to detect the next focus state or to focus in accordance with the detected focus state, and the process returns to step # 601.
ステップ#603において、カメラがパンニング状態であると検出された場合、ステップ#609において、基準選択手段115の指示により、画像位置合わせ手段113が最新に取得した画像を基準にステップ#602で読み出した画像を位置合わせする。その後、ステップ#605以降が行われる。 If it is detected in step # 603 that the camera is in a panning state, in step # 609, the image is read in step # 602 based on the latest image acquired by the image alignment unit 113 in accordance with an instruction from the reference selection unit 115. Align images. Thereafter, step # 605 and subsequent steps are performed.
図7は、CPU19が実行する記録用画像の位置合わせと合成を説明するフローチャートであり、このフローは動画撮影開始と共にスタートする。図6と同様のステップについては、同様の参照符号を付している。ステップ#601、ステップ#602の後で、ステップ#609が行われ、次いで、ステップ#605が行われる。次に、ステップ#701において、再生画像合成手段117aがステップ#602で読み出した画像と最新に取得した画像を合成して記録用画像にする。次に、ステップ#702において、ステップ#701で作成された記録用画像を再生画像記録手段118に記録する。 FIG. 7 is a flowchart for explaining registration and composition of the recording image executed by the CPU 19, and this flow starts with the start of moving image shooting. Steps similar to those in FIG. 6 are denoted by the same reference numerals. After step # 601 and step # 602, step # 609 is performed, and then step # 605 is performed. Next, in step # 701, the reproduction image synthesizing unit 117a synthesizes the image read out in step # 602 and the latest acquired image to form a recording image. Next, in step # 702, the recording image created in step # 701 is recorded in the reproduction image recording means 118.
このようにして、再生画像合成手段117aが合成する画像51は異なる複数画像の合成であるためにノイズが少なく、かつ、画像を取得する毎に位置合わせ基準を変更しているために動きのある動画にすることができる。 In this way, the image 51 synthesized by the reproduction image synthesizing unit 117a is a synthesis of a plurality of different images, so there is little noise, and there is a movement because the alignment reference is changed every time an image is acquired. Can be a video.
一方、AF画像合成手段117bが合成する画像31も複数画像の合成であるためにノイズが少なく、かつ、一番初めに取得された画像を位置合わせ基準にしているために動きのない焦点状態検出に適した画像にすることができる。更に、パンニングやチルティングが発生した場合には位置合わせ基準を切り替えることによって新しい構図に適応した焦点状態検出を可能にしている。 On the other hand, the image 31 synthesized by the AF image synthesizing unit 117b is also composed of a plurality of images, so that there is little noise, and since the first acquired image is used as the alignment reference, there is no movement in the focus state detection It is possible to make an image suitable for. Further, when panning or tilting occurs, it is possible to detect the focus state adapted to the new composition by switching the alignment reference.
以上、本実施形態について説明したが、本発明は本実施形態に限定されず、その要旨の範囲内で種々の変形及び変更が可能である。 As mentioned above, although this embodiment was described, this invention is not limited to this embodiment, A various deformation | transformation and change are possible within the range of the summary.
撮像装置は、デジタルカメラやデジタルビデオに適用可能である。 The imaging device can be applied to a digital camera or a digital video.
13e…撮像素子、19…CPU、113…画像位置合わせ手段、114…記憶手段、116…撮影状態検出手段、117…画像合成手段、117a…再生画像合成手段、117b…AF画像合成手段、118…再生画像記録手段、119…焦点状態検出手段 13e ... Image sensor, 19 ... CPU, 113 ... Image alignment means, 114 ... Storage means, 116 ... Shooting state detection means, 117 ... Image composition means, 117a ... Reproduction image composition means, 117b ... AF image composition means, 118 ... Reproduced image recording means, 119 ... focus state detecting means
Claims (5)
前記撮像素子から得られる複数枚の画像を互いに位置合わせする画像位置合わせ手段と、
前記画像位置合わせ手段によって位置合わせされた画像を記憶する記憶手段と、
前記画像位置合わせ手段によって位置合わせされた前記複数枚の画像を合成する画像合成手段と、
前記画像合成手段によって合成された前記複数枚の画像の重複している領域の情報に基づいて焦点状態を検出する焦点状態検出手段と、
撮影方向の変更を検出する検出手段と、
を有し、
前記検出手段が前記撮影方向の変更を検出しない場合には、前記画像位置合わせ手段は、前記記憶手段に記憶された複数枚の位置合わせ済み画像に、位置合わせ前の画像を位置合わせし、
前記検出手段が前記撮影方向の変更を検出した場合には、前記画像位置合わせ手段は、前記位置合わせ前の画像に前記記憶手段に記憶された1枚の画像を位置合わせする位置合わせ量に基づいて、前記位置合わせ前の画像に前記記憶手段に記憶された複数枚の位置合わせ済み画像を位置合わせすることを特徴とする撮像装置。 An image sensor that photoelectrically converts an optical image;
Image alignment means for aligning a plurality of images obtained from the image sensor;
Storage means for storing the image aligned by the image alignment means;
Image combining means for combining the plurality of images aligned by the image alignment means;
A focus state detecting means for detecting a focus state based on information of overlapping regions of the plurality of images synthesized by the image synthesizing means;
Detection means for detecting a change in the shooting direction;
Have
If the detection means does not detect the change in the shooting direction, the image alignment means aligns the image before alignment with the plurality of aligned images stored in the storage means,
When the detection unit detects a change in the photographing direction, the image alignment unit is based on an alignment amount for aligning one image stored in the storage unit with the image before the alignment. An image pickup apparatus characterized by aligning a plurality of aligned images stored in the storage unit with the image before alignment.
前記画像位置合わせ手段は、前記位置合わせ前の画像に前記記憶手段に記憶された1枚の画像を位置合わせする位置合わせ量に基づいて、前記位置合わせ前の画像に前記記憶手段に記憶された複数枚の位置合わせ済み画像を位置合わせし、前記記録手段は前記画像合成手段によって合成された画像を前記記録用画像として記録することを特徴とする請求項1に記載の撮像装置。 It further has a recording means for recording an image for recording,
The image alignment means is stored in the storage means in the image before alignment based on an alignment amount for aligning one image stored in the storage means with the image before alignment. 2. The imaging apparatus according to claim 1, wherein a plurality of registered images are aligned, and the recording unit records the image combined by the image combining unit as the recording image.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013007597A JP6000862B2 (en) | 2013-01-18 | 2013-01-18 | Imaging device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013007597A JP6000862B2 (en) | 2013-01-18 | 2013-01-18 | Imaging device |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2014138390A JP2014138390A (en) | 2014-07-28 |
JP2014138390A5 JP2014138390A5 (en) | 2016-03-03 |
JP6000862B2 true JP6000862B2 (en) | 2016-10-05 |
Family
ID=51415658
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013007597A Expired - Fee Related JP6000862B2 (en) | 2013-01-18 | 2013-01-18 | Imaging device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6000862B2 (en) |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4898151B2 (en) * | 2004-06-18 | 2012-03-14 | キヤノン株式会社 | Imaging apparatus and imaging method |
JP5668364B2 (en) * | 2010-08-20 | 2015-02-12 | 株式会社リコー | Imaging apparatus, imaging method, and program |
JP5760654B2 (en) * | 2011-04-28 | 2015-08-12 | カシオ計算機株式会社 | Image processing apparatus, image processing method, and program |
-
2013
- 2013-01-18 JP JP2013007597A patent/JP6000862B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2014138390A (en) | 2014-07-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4985808B2 (en) | Imaging apparatus and program | |
JP5054583B2 (en) | Imaging device | |
JP4562182B2 (en) | Image processing apparatus, image processing method, and program | |
JP6659130B2 (en) | Image processing apparatus, imaging apparatus, image processing method, and program | |
JP5931619B2 (en) | Imaging device | |
JP6045254B2 (en) | Image processing apparatus, control method thereof, and control program | |
JP6740052B2 (en) | Imaging device and control method thereof | |
JP4533252B2 (en) | IMAGING DEVICE, ITS CONTROL METHOD, PROGRAM, AND STORAGE MEDIUM | |
JP2012226184A5 (en) | Imaging apparatus and control method thereof | |
JP2001223932A (en) | Image pickup device and digital camera | |
JP2010068134A (en) | Image pickup apparatus and image pickup control method | |
JP6932531B2 (en) | Image blur correction device, image pickup device, control method of image pickup device | |
JP5495598B2 (en) | Imaging apparatus and control method thereof | |
JP5693664B2 (en) | IMAGING DEVICE, IMAGING DEVICE CONTROL METHOD, AND PROGRAM | |
US11044397B2 (en) | Image capturing device and image processing device, control methods of the same, and storage medium | |
JP4876550B2 (en) | Imaging apparatus, control method, and control program | |
JP2015233211A (en) | Imaging apparatus, control method thereof, and program | |
JP6000862B2 (en) | Imaging device | |
JP2003241066A (en) | Camera | |
CN107306336A (en) | Camera device and image capture method | |
JP5655804B2 (en) | Imaging apparatus and program | |
JP5027029B2 (en) | Camera with enlargement display function and camera control method | |
JP2009086036A (en) | Imaging device and control method for imaging device | |
JP2008067168A (en) | Digital camera | |
JP2006091252A (en) | Imaging apparatus, imaging method and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20160114 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20160114 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20160802 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20160831 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6000862 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
LAPS | Cancellation because of no payment of annual fees |