JP2007110528A - Imaging apparatus - Google Patents
Imaging apparatus Download PDFInfo
- Publication number
- JP2007110528A JP2007110528A JP2005300525A JP2005300525A JP2007110528A JP 2007110528 A JP2007110528 A JP 2007110528A JP 2005300525 A JP2005300525 A JP 2005300525A JP 2005300525 A JP2005300525 A JP 2005300525A JP 2007110528 A JP2007110528 A JP 2007110528A
- Authority
- JP
- Japan
- Prior art keywords
- image
- photographed
- feature
- captured
- angular velocity
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Studio Devices (AREA)
Abstract
Description
本発明は、像ぶれ補正機能を備えた撮像装置、特にデジタルカメラに関する。 The present invention relates to an imaging apparatus having an image blur correction function, and more particularly to a digital camera.
従来、デジタルカメラなどの撮像装置において、撮像中に生じた手ぶれを補正するために、撮像装置の振動を検出し、その検出された振動量に応じて、撮像光学系の位置を補正する像ぶれ補正装置が知られている。 Conventionally, in an imaging apparatus such as a digital camera, in order to correct camera shake that occurs during imaging, image blur that detects the vibration of the imaging apparatus and corrects the position of the imaging optical system according to the detected vibration amount Correction devices are known.
また、像ぶれが簡便に補正される方法として、画像処理によって補正が行われる方法が知られており、この方法の一例としては例えば特許文献1に記載される方法が挙げられる。すなわち、撮影画像が複数フレーム連続的に撮影されるとともに、各撮影画像が撮像されたときの像ぶれ量が検出され、各撮影画像がその像ぶれ量に応じてシフトされた後加算され、1つの静止画像が生成される。この方法によれば、各撮影画像が撮影される時間(露光時間)を短くすることにより、1フレームの撮影画像が撮影される間に生じる像ぶれが最小限に抑えられるとともに、各フレーム間の位置ずれは各撮影画像がシフトされることにより打ち消され、これにより像ぶれ補正が適切に行われている。 Further, as a method for easily correcting image blur, a method in which correction is performed by image processing is known, and an example of this method is a method described in Patent Document 1. That is, the captured image is continuously captured for a plurality of frames, and the amount of image blur when each captured image is captured is detected, and each captured image is added after being shifted according to the amount of image blur. Two still images are generated. According to this method, by shortening the time (exposure time) during which each captured image is captured, image blurring that occurs during the capture of one frame of captured image can be minimized, and between each frame. The positional deviation is canceled by shifting each captured image, and thus image blur correction is appropriately performed.
特許文献1においては、撮像素子としてCCDが使用されており、全ての画素は同一のタイミングで同一の期間に亘って露光され、その露光される間に蓄積される電荷が電気信号に変換されるので、各撮影画像の各々の画素は、像ぶれ量が同一となる。したがって、各撮影画像をシフトするときに、同一の撮影画像内における各画素間の像ぶれ量の相違を考慮する必要はない。
しかし、撮像素子としてはCCDの他にCMOSセンサが知られており、CMOSセンサにおいては、被写体像が画素毎に順次光電変換され、1フレームの撮影画像が生成される。すなわち、1つの撮影画像において、各画素の露光されるタイミングが異なるため、撮影画像の各画素の像ぶれ量は画素毎に異なる。したがって、複数の撮影画像間の位置ずれの検出にあたり、特許文献1に記載の方法をそのまま適用しても、画像の合成が適切にできない場合がある。また、CMOSセンサにはライン毎に光電変換する例もある。 However, a CMOS sensor is known as an image sensor in addition to a CCD. In the CMOS sensor, a subject image is sequentially photoelectrically converted for each pixel to generate a one-frame captured image. That is, since the exposure timing of each pixel differs in one captured image, the amount of image blur of each pixel of the captured image varies from pixel to pixel. Therefore, in detecting a positional shift between a plurality of captured images, even if the method described in Patent Document 1 is applied as it is, there is a case where images cannot be combined appropriately. In addition, there is an example in which a CMOS sensor performs photoelectric conversion for each line.
そこで、本願発明は、このような問題点に鑑みて成されたものであり、CMOSセンサ等、画像信号を1画素毎(または1ライン毎)に順次取り込む撮像素子を用いる場合において、像ぶれを適切に補正することができる撮像装置を提供することを目的とする。 Therefore, the present invention has been made in view of such problems, and in the case of using an image sensor that sequentially captures image signals for each pixel (or for each line) such as a CMOS sensor, image blurring is caused. An object of the present invention is to provide an imaging apparatus capable of appropriately correcting.
本発明に係る撮像装置は、同一の被写体像に関して、順次連続的に撮影された2フレーム以上の撮影画像を多重化合成し、多重化画像を生成する撮像装置であって、画素毎、またはライン毎に順次露光され、撮像レンズによって結像された被写体像から1フレームの撮影画像を生成する撮像素子と、被写体像の特徴部分を抽出し、この特徴部分に対応する各撮影画像の特徴点画素を特定する画像特徴抽出手段と、撮像装置本体の角速度を検出する手段と、特徴部分画素が撮影画像それぞれにおいて露光される、タイミングの間において、角速度を時間積分することにより、各撮影画像間に生じるぶれを検出するぶれ検出手段と、ぶれによって生じた各撮影画像の相対的な位置ずれを補正するために2フレーム以上の撮影画像のうち、少なくとも1フレームの撮影画像をシフトさせる画像シフト手段と、そのシフトされた各撮影画像を多重化させる多重化画像手段とを備えることを特徴とする。 An imaging apparatus according to the present invention is an imaging apparatus that generates a multiplexed image by multiplexing and synthesizing captured images of two or more frames that are sequentially sequentially captured with respect to the same subject image. An image sensor that generates a captured image of one frame from an object image that is sequentially exposed and imaged by an imaging lens, and a feature point pixel of each captured image that corresponds to this feature part The image feature extraction means for identifying the image capturing means, the means for detecting the angular velocity of the imaging device body, and the feature portion pixels are exposed in each captured image. At least at least one of the captured images of two or more frames in order to correct the relative position shift of each captured image caused by the shake, and the motion detection means for detecting the generated motion. An image shifting means for shifting the photographic image of one frame, characterized in that it comprises a multiplexing image means for multiplexing the respective photographed image that shifted.
画像特徴抽出手段は、例えば被写体像のうち人の顔の部分を、特徴部分として抽出する。また、画像特徴抽出手段は、例えば、被写体像における合焦点位置を検出し、合焦点位置を特徴部分として抽出する。画像特徴抽出手段は、例えば撮影者の視線が向けられる被写体像の位置を、特徴部分として抽出する。これにより、本発明においては、人の顔、合焦点位置、または撮影者の視線が向けられる位置のぶれが少なくなるようにぶれの補正が行なわれるので、より望ましい像ぶれ補正を実現することができる。 The image feature extraction unit extracts, for example, a human face portion of the subject image as a feature portion. Further, the image feature extraction means detects, for example, a focal point position in the subject image, and extracts the focal point position as a feature portion. The image feature extraction unit extracts, for example, the position of the subject image to which the photographer's line of sight is directed as a feature portion. As a result, in the present invention, since the blur correction is performed so that the blur of the person's face, the in-focus position, or the position where the photographer's line of sight is directed is reduced, a more desirable image blur correction can be realized. it can.
また、撮像素子は、例えばCMOSセンサである。 The image sensor is a CMOS sensor, for example.
以上のように本発明においては、被写体像の特徴部分同士のぶれが、各撮影画像間のぶれとして算出されるので、特徴部分のぶれを少なくし、望ましい像ぶれ補正を実現することができる。 As described above, according to the present invention, the blur between the characteristic portions of the subject image is calculated as the blur between the captured images, so that it is possible to reduce the blur of the characteristic portions and realize a desirable image blur correction.
以下、本発明に係る実施形態について、図面を参照して説明する。本実施形態に係る撮像装置では、以下説明するように、同一の被写体像に関して、順次連続的に撮影された第1乃至第3撮影画像が多重合成され、その多重化画像が撮影された静止画像として生成される。ここで、撮像装置では通常手ぶれが発生するので、その手ぶれを補正するために、各撮影画像はその手ぶれに応じた分だけシフトされた上で合成される。以下実施形態を用いて具体的に説明する。なお、以下説明する実施形態では、撮像装置が、デジタルカメラである場合について説明するが、撮像装置はデジタルカメラに限定されるわけではない。 Hereinafter, embodiments according to the present invention will be described with reference to the drawings. In the imaging apparatus according to the present embodiment, as will be described below, the first to third captured images that are sequentially captured with respect to the same subject image are multiplexed and synthesized, and the still image in which the multiplexed image is captured Is generated as Here, since camera shake normally occurs in the imaging apparatus, in order to correct the camera shake, each captured image is synthesized after being shifted by an amount corresponding to the camera shake. This will be specifically described below with reference to embodiments. In the embodiment described below, a case where the imaging device is a digital camera will be described, but the imaging device is not limited to a digital camera.
図1は、第1の実施形態に係るデジタルカメラのブロック図である。本実施形態に係るデジタルカメラ10は、撮像素子20を備え、撮像素子20には、被写体像が撮像レンズ19によって結像される。デジタルカメラ10は、不図示のシャッターボタンが押され、撮像動作が実行されると、同一の被写体像に対する撮影が連続的に行われ、撮像素子20では、複数フレームの撮影画像(本実施形態では、第1乃至第3の撮影画像)の画像信号が生成される。生成された画像信号は順次フレームバッファ22に格納された後、画像シフト装置24に入力される。
FIG. 1 is a block diagram of a digital camera according to the first embodiment. The
デジタルカメラ10は、そのカメラ本体に生じる手ぶれを検知するため第1及び第2角速度センサ41、42を備える。第1及び第2角速度センサ41、42はそれぞれ、一定時間(例えば1ms)毎に、光軸となるz軸と水平方向に延びるx軸からなる面、および光軸となるz軸と垂直方向に延びるy軸からなる面の角速度Vx、Vyを検出する。なお、水平方向とは、光軸方向に垂直で、通常の使用状態で水平になる方向と一致し、一方、垂直方向とは、光軸方向に垂直で、水平方向に直交する方向をいう。
The
第1、第2角速度vx、vyは、角速度に関する信号を増幅した後、アナログ信号として、それぞれ第1及び第2のA/D変換器51及び52に入力される。第1及び第2A/D変換器51及び52では、第1、第2角速度vx、vyがA/D変換された後、角速度データとして、角速度−動きベクトル変換装置61を介して、メモリ62に一旦格納される。
The first and second angular velocities vx and vy are input to the first and second A /
角速度−動きベクトル変換装置61では、メモリ62に格納された第1、第2角速度データvx、vyが読み出され、手ぶれによって生じた、第2及び第1撮影画像に対する第3及び第2撮影画像の位置ずれがそれぞれ算出される。この算出された位置ずれデータは、一旦メモリ62に保存された後、画像シフト装置24に入力される。
In the angular velocity-motion
露光タイミング発生装置71では、露光開始信号Pe及び露光終了信号Pfを発生し、撮像素子20では、露光開始信号Pe及び露光終了信号Pfのタイミングに合わせて、露光が行われる。画像特徴抽出装置72では、被写体像において特徴点(特徴部分)が抽出されるとともに、その特徴点が結像される特徴点画素(特徴部分画素)が1画素特定される。さらに画像特徴抽出装置72では、第1乃至第3撮影画像それぞれにおける、その特徴点画素の位置情報(特徴点画素が位置するライン数、及びそのラインにおいて左側から何画素目に位置するか)が算出される。角速度−動きベクトル変換装置61では、この位置情報から特徴点画素の露光されるタイミングが算出され、算出されたタイミングにより、第1、第2角速度vx、vyの採用タイミングが決定される。なお、本実施形態における画像特徴抽出装置72は、顔認識回路を備え、人の顔の中心を被写体像の特徴点として抽出する。
The
画像シフト装置24では、位置ずれデータより、第2撮影画像が、第1撮影画像に対する位置ずれ分を補正するように、そのずれ方向とは逆方向にシフトされ、その後第2撮影画像は、画像多重化装置26に入力される。第3撮影画像は、第2撮影画像に対する位置ずれ分と、第2撮影画像の第1撮影画像に対する位置ずれ分を、足したずれ分を補正するように、そのずれ方向とは逆方向にシフトされた後に、画像多重化装置26に入力される。なお、第1撮影画像は、画像シフト装置24では、シフトされずにそのまま画像多重化装置26に入力される。
In the
画像多重化装置26では、第1撮影画像の上に、第2撮影画像が、第2撮影画像の上に、第3撮影画像が重ねられる。ここで、第2及び第3撮影画像は、上述したように、位置ずれした分だけ、シフトされた後に重ねられるので、得られる多重化画像は、手ぶれが補正された画像となる。多重化画像は、記録装置27に静止撮影画像として保存されるとともに、モニタ(不図示)に静止撮影画像として表示される。
In the
図2は、撮像素子20で行われる画像の取り込みタイミングを示すための図である。図3は、各ラインの露光期間と、露光開始信号Peと露光終了信号Pfの関係を示す図である。本実施形態では、撮像素子20はCMOSイメージセンサから成り、CMOSイメージセンサの撮像面には、撮像レンズ19によって被写体像が結像される。撮像素子20の撮像面は、撮像レンズ19の光軸に垂直であり、図2に示すようにその撮像領域には水平方向に画素が並べられて形成される水平ラインHが、垂直方向にnライン設けられている。
FIG. 2 is a diagram for illustrating an image capture timing performed by the
CMOSイメージセンサの各画素は、入射光を感知して入射光量に相当する信号電荷を生成するフォトダイオードと、生成した信号電荷を蓄積するキャパシタと、キャパシタから信号電荷を増幅して取り出す複数のMOSトランジスタとを有する。 Each pixel of the CMOS image sensor includes a photodiode that senses incident light and generates a signal charge corresponding to the amount of incident light, a capacitor that accumulates the generated signal charge, and a plurality of MOSs that amplify and extract the signal charge from the capacitor. A transistor.
図3に示すように、1フレームが露光される間に、露光開始信号Pe及び露光終了信号Pfは、それぞれ、所定の間隔で、CMOSイメージセンサのライン数と同数(すなわち、第1〜第nの露光開始信号Pe、及び第1〜第nの露光終了信号Pf)入力される。なお、図3に示すように、各第1〜第nの露光開始信号Pe、及び第1〜第nの露光終了信号Pfは交互に入力される。 As shown in FIG. 3, during the exposure of one frame, the exposure start signal Pe and the exposure end signal Pf are respectively equal to the number of lines of the CMOS image sensor (that is, the first to nth) at predetermined intervals. Exposure start signal Pe and first to nth exposure end signals Pf). As shown in FIG. 3, the first to nth exposure start signals Pe and the first to nth exposure end signals Pf are alternately input.
本実施形態におけるCMOSイメージセンサでは、電子シャッターを用いて撮影が行われ、露光開始信号Peの入力タイミングに合わせて露光が開始され、露光終了信号Pfの入力タイミングに合わせて露光が終了する。すなわち、第1の露光開始信号Peが入力されると、第1の露光終了信号Pfが入力されるまでの期間(単位露光期間E)、水平ラインHのライン1が、選択されるとともに、選択された水平ラインHにおいてはさらに各画素が左から右に順次選択される(図2参照)。なお、各露光開始信号Peは、いずれのフレームにおいても同一のタイミングで入力される。一方、各露光終了信号Pfはいずれのフレームにおいても同一のタイミングで入力されても良いし、異なるタイミングで入力されても良い。露光終了信号Pfが、フレーム毎に異なるタイミングで入力されることにより、各単位露光期間Eを、フレーム毎に変更させることができる。 In the CMOS image sensor according to this embodiment, photographing is performed using an electronic shutter, exposure is started in accordance with the input timing of the exposure start signal Pe, and exposure is ended in accordance with the input timing of the exposure end signal Pf. That is, when the first exposure start signal Pe is input, the line 1 of the horizontal line H is selected and selected during the period until the first exposure end signal Pf is input (unit exposure period E). In the horizontal line H, the pixels are further sequentially selected from left to right (see FIG. 2). Each exposure start signal Pe is input at the same timing in any frame. On the other hand, each exposure end signal Pf may be input at the same timing in any frame or may be input at a different timing. By inputting the exposure end signal Pf at a different timing for each frame, each unit exposure period E can be changed for each frame.
各画素は単位露光期間Eだけ露光され、その露光により各画素では電荷がフォトダイオードで生成され,キャパシタに蓄積される。蓄積された電荷は画素毎に画素信号として読み出され、フレームバッファ22に格納される。この露光動作は、ライン2から最終ライン(ラインn)の各ラインに関しても同様に行われ、これにより1フレーム分の撮影画像の露光が終了し、1フレーム分の撮影画像の画像信号が得られる。なお、1ライン目の露光開始タイミングから最終ライン(ラインn)の露光終了タイミングまでの期間、つまり1フレーム分の露光期間を本実施形態においては、フレーム露光期間という。
Each pixel is exposed for the unit exposure period E, and by the exposure, electric charge is generated in each pixel by the photodiode and accumulated in the capacitor. The accumulated charge is read out as a pixel signal for each pixel and stored in the
図4は、第1乃至第3撮影画像の特徴点画素を抽出する方法を具体的に示すための図である。図4に示すように、第1乃至第3撮影画像は、顔認識回路において、顔がある顔領域Yが抽出される。具体的には、フレームバッファ22に格納された撮影画像が読み出され、その撮影画像における肌色領域が抽出される。顔認識回路には平均顔画像のテンプレートが格納されており、その平均顔画像と肌色領域が比較され、肌色領域のうち顔画像に最も近似する部分が顔領域Yとして抽出される。なお、上記顔認識の方法は、例えば特開平8-63597号公報等に記載されるが、顔認識の方法は上記方法に限定されず、その他種々の公知の方法を用いることが可能である。
FIG. 4 is a diagram specifically illustrating a method of extracting feature point pixels from the first to third captured images. As shown in FIG. 4, in the first to third photographed images, a face area Y with a face is extracted by a face recognition circuit. Specifically, the photographed image stored in the
本実施形態においては顔領域Yが、図4に示すように方形の領域として抽出される。顔領域Yが抽出されると、その領域Yの中心画素(すなわち、その領域の重心に位置する画素)が算出され、その中心画素が各撮影画像の特徴点画素Cとして検出される。 In the present embodiment, the face area Y is extracted as a square area as shown in FIG. When the face area Y is extracted, the center pixel of the area Y (that is, the pixel located at the center of gravity of the area) is calculated, and the center pixel is detected as the feature point pixel C of each captured image.
図5は、撮影動作における各動作が実施されるタイミングを時間経過とともに示すグラフである。図5においては、縦軸が角速度、横軸が時間経過を表す。ただし、角速度データは、vxについて表し、vyについてはその記載は省略する。 FIG. 5 is a graph showing the timing at which each operation in the photographing operation is performed over time. In FIG. 5, the vertical axis represents angular velocity, and the horizontal axis represents time. However, the angular velocity data is represented with respect to vx, and description of vy is omitted.
以下、図5を用いて、角速度から撮影画像同士の位置ずれが算出される方法について説明する。図5に示すように、撮影動作が開始されると、まず第1の撮影画像の撮影が開始される。すなわち、撮像素子20では露光が開始され、1フレーム分の撮影画像を撮影するための露光が、第1フレーム露光期間F1において行われる。
Hereinafter, a method for calculating the positional deviation between the captured images from the angular velocity will be described with reference to FIG. As shown in FIG. 5, when the photographing operation is started, first, photographing of the first photographed image is started. That is, exposure is started in the
第1フレーム露光期間F1が終了すると、撮影インターバルIが経過した後、第2撮影画像が生成されるための露光が、第2フレーム露光期間F2において行われる。第2フレーム露光期間F2が終了すると、撮影インターバルIが経過した後、第3撮影画像が生成されるための露光が、第3フレーム露光期間F3において行われる。なお、第1乃至第3撮影画像は、同じ露光条件で撮影されるため、第1乃至第3フレーム露光期間F1、F2、及びF3は、互いに同一であるとともに、撮影インターバルIの期間も同一である。 When the first frame exposure period F1 ends, after the shooting interval I has elapsed, exposure for generating a second shot image is performed in the second frame exposure period F2. When the second frame exposure period F2 ends, after the shooting interval I has elapsed, exposure for generating a third shot image is performed in the third frame exposure period F3. Since the first to third photographed images are photographed under the same exposure conditions, the first to third frame exposure periods F1, F2, and F3 are the same as each other and the photographing interval I is also the same. is there.
画像特徴抽出装置72では、上述したように特徴点画素Cが検出され、その特徴点画素Cは、図5に示すように、第1乃至第3撮影画像それぞれにおいて、タイミングA、A’、A”で露光される。角速度−動きベクトル変換装置61では、特徴点画素Cの位置情報からこれらタイミングA、A’、A”が算出され、これらタイミングA、A’、A”を用いて、各撮影画像間のぶれが検出される。具体的には、期間A−A’において検出された角速度データvx、vyが、メモリ62から読み出される。その読み出された角速度データvx、vyそれぞれは,時間積分され、期間A−A’におけるデジタルカメラ10のz軸とx軸からなる平面、z軸とy軸からなる平面の回転量として算出される。算出された回転量は、光軸に対する垂直平面における動きベクトルVt1に換算される。光軸に対する垂直平面は、撮像素子20の撮像面に一致するので、動きベクトルVt1は、期間A−A’において生じた撮像面のぶれ、すなわち特徴点画素C同士のぶれに相当し、第1及び第2撮影画像同士の位置ずれとして検出される。
In the image
同様に、期間A’−A”における撮像面のぶれ(動きベクトルVt2)は、期間A’−A”において検出された角速度データvx、vyから算出され、その動きベクトルVt2が第2及び第3撮影画像間の位置ずれとして検出される。 Similarly, the shake of the imaging surface (motion vector Vt2) in the period A′-A ″ is calculated from the angular velocity data vx and vy detected in the period A′-A ″, and the motion vector Vt2 is the second and third. It is detected as a positional deviation between captured images.
上述したようにタイミングA、A’は、各撮影画像の顔領域Yの中心位置が露光されたタイミングである。すなわち、期間A−A’間において生じた撮像面のぶれ(動きベクトルVt1)は、第1及び第2撮影画像間における、顔の中心位置のぶれに相当する。ここで、人の顔は、撮影画像において通常メイン画像に相当し、最も像ぶれを補正したい対象である。したがって、この顔の中心位置のぶれが、第1及び第2撮影画像間の位置ずれ(動きベクトルVt1)として検出されると、検出された位置ずれは、最も像ぶれ補正をしたい対象の位置ずれとなる。勿論、期間A’−A”間において検出された位置ずれについても同様のことがいえる。 As described above, the timings A and A ′ are timings when the center position of the face area Y of each captured image is exposed. In other words, the shake of the imaging surface (motion vector Vt1) that occurs during the period A-A ′ corresponds to the shake of the center position of the face between the first and second captured images. Here, the human face corresponds to the normal main image in the photographed image, and is the object for which image blur is most desired to be corrected. Therefore, when the blur at the center position of the face is detected as a positional shift (motion vector Vt1) between the first and second captured images, the detected positional shift is the positional shift of the target for which image blur correction is most desired. It becomes. Of course, the same can be said for the positional deviation detected during the period A′-A ″.
図6は、画像多重化装置26における撮影画像の多重化方法を模式的に示した図である。なお、図6においては、第1撮影画像に第2撮影画像が多重化される構成を示すが、第3撮影画像も同様に多重化される。図6に示すように、画像多重化装置26においては、まず第1撮影画像が画像多重化装置26に格納され、第1撮影画像が格納された後、その第1撮影画像の上に、第2撮影画像が重ねられる。
FIG. 6 is a diagram schematically illustrating a method of multiplexing captured images in the
ここで、第2撮影画像は、動きベクトルVt1の方向とは逆方向に、動きベクトルVt1のスカラー分、第1撮影画像に対して相対的に、画像シフト装置24でシフトされ、画像多重化装置26で第1撮影画像の上に多重化される。第3撮影画像も、第1動きベクトルと第2動きベクトルを足した動きベクトルVt1+Vt2の方向とは逆方向に、動きベクトルVt1+Vt2のスカラー分、第1撮影画像に対して相対的に、画像シフト装置24でシフトされ、画像多重化装置26で第2撮影画像の上に多重化される。
Here, the second captured image is shifted by the
以上のように、本実施形態では被写体像における最も特徴的な部分(人の顔)同士のぶれが、各撮影画像間の位置ずれとして算出され、その位置ずれに基づいて各撮影画像がシフトされた後、画像が多重化される。したがって、得られる多重化画像は、最もぶれを補正したい対象である特徴的な部分(人の顔)が最も正確にぶれ補正されているので、望ましい像ぶれ補正を実現することができる。 As described above, in the present embodiment, the blurring between the most characteristic portions (human faces) in the subject image is calculated as a positional deviation between the respective captured images, and each captured image is shifted based on the positional deviation. After that, the images are multiplexed. Therefore, in the obtained multiplexed image, the characteristic portion (human face) that is the object most desired to be corrected for blurring is most accurately corrected for blurring, so that desirable image blur correction can be realized.
図7、8を用いて第2の実施形態について説明する。第2の実施形態に係るデジタルカメラ10は、被写体の焦点を検出するための焦点検出装置が複数の測距センサを有し、焦点検出装置が、焦点検出としての機能のみならず、画像特徴抽出装置としての機能も果たす。以下第2の実施形態について、第1の実施形態との相違点を中心に説明する。
The second embodiment will be described with reference to FIGS. In the
焦点検出装置は、9個の測距センサから成り、図7に示すように、被写体像OIにおいて、焦点検出点a〜iのいずれに焦点が合わせられるかを検出し、その焦点が合わされる位置が焦点位置として検出される。 The focus detection device is composed of nine distance measuring sensors, and as shown in FIG. 7, detects which one of the focus detection points a to i is focused in the subject image OI, and a position where the focus is achieved. Is detected as the focal position.
本実施形態においては、焦点はデジタルカメラから最も近い被写体に合わされる。具体的には、各測距センサそれぞれから、焦点検出点a〜iに対応する被写体の位相差像が形成され、被写体像OIにおいて、焦点検出点a〜iのうち、最も位相差が大きい点、すなわち最もカメラから近い被写体が表される1点が検出され、その1点が焦点位置として検出される。なお、焦点検出点は、図7に示すように行方向に左下がりに3個並ぶとともに、その行が列方向に3列並んで構成される。 In the present embodiment, the focus is on the subject closest to the digital camera. Specifically, a phase difference image of the subject corresponding to the focus detection points a to i is formed from each distance measuring sensor, and the point having the largest phase difference among the focus detection points a to i in the subject image OI. That is, one point representing the subject closest to the camera is detected, and that one point is detected as the focal position. As shown in FIG. 7, three focus detection points are arranged in the row direction so as to be lowered to the left, and three rows are arranged in the column direction.
図8は、第2の実施形態の撮影動作における各動作が実施されるタイミングを時間経過とともに示すグラフである。第2の実施形態においては、まず上述のように、焦点検出点a〜iのうちから1点が、合焦点位置として検出される。次に、その合焦点位置の被写体に焦点が合うように、レンズ19の位置が調整され、焦点調整が行われる。焦点調整後、第1乃至第3撮影画像の撮影が実施される。撮影動作は、第1の実施形態と同様に、第1乃至第3フレーム露光期間F1、F2、F3それぞれにおいて、第1乃至第3撮影画像が、撮影されるとともに、第1及び第2フレーム露光期間F1、及びF2、並びに第2及び第3フレーム露光期間F2、及びF3の間には、撮影インターバルIが設けられる。
FIG. 8 is a graph showing the timing at which each operation in the photographing operation of the second embodiment is performed over time. In the second embodiment, as described above, one of the focus detection points a to i is first detected as the in-focus position. Next, the position of the
画像特徴抽出装置72では、まず、合焦点位置に設定された焦点検出点に対応する画素が、特徴点画素として検出され、その特徴点画素の位置情報が算出される。次に角速度−動きベクトル変換装置61で、その特徴点画素の位置情報から、特徴点画素の露光されるタイミングが決定される。例えば焦点検出点aが焦点位置と決定されると、特徴点画素が露光されるタイミングは、図8に示すように、各第1乃至第3撮影画像において、それぞれタイミングA、A’、A”として算出される。
In the image
角速度−動きベクトル変換装置61では、さらに期間A−A’、及び期間A’−A” において、それぞれ角速度が時間積分され、動きベクトルVt1、Vt2が算出される。算出された動きベクトルVt1、Vt2は、第1の実施形態と同様に、第1及び第2撮影画像間(または第2及び第3撮影画像)同士の位置ずれとして、それぞれ検出される。なお、以下の構成は第1の実施形態と同様であるので、その記載は省略する。
In the angular velocity-motion
被写体像における合焦点位置は、撮影画像において重要な画像部分に相当し、最も像ぶれを補正したい画像部分である。すなわち、本実施形態においては合焦点位置を画像の特徴点とすることにより、第1の実施形態と同様に、重要な画像部分のぶれを少なくし、望ましい像ぶれ補正を実現することができる。 The in-focus position in the subject image corresponds to an important image portion in the photographed image, and is the image portion where image blur is most desired to be corrected. That is, in the present embodiment, by using the in-focus position as a feature point of an image, as in the first embodiment, it is possible to reduce blur of an important image portion and realize desirable image blur correction.
なお、図8に示すタイミングB、B’、B”は、焦点検出点bに対応する画素が露光されるタイミングであり、その他タイミングC〜I、C’〜I ’、C”〜I”についても同様である。そして、焦点検出点b〜iが合焦点位置として定められた場合についても、上述したように位置ずれが算出される。また、本実施形態では、カメラから最も近い被写体に焦点が合わされたが、焦点は被写体の他の位置に合わされても良い。 Note that timings B, B ′, and B ″ shown in FIG. 8 are timings at which the pixels corresponding to the focus detection point b are exposed, and other timings C to I, C ′ to I ′, and C ″ to I ″. In the case where the focus detection points b to i are determined as in-focus positions, the positional deviation is calculated as described above.In the present embodiment, the focus is set on the subject closest to the camera. However, the focus may be adjusted to another position of the subject.
次に、図9、10を用いて第3の実施形態について説明する。第1の実施形態においては、画像特徴抽出装置72は、顔認識回路から構成されるが、本実施形態においては、画像特徴抽出装置72は、視線検出装置から構成される。
Next, a third embodiment will be described with reference to FIGS. In the first embodiment, the image
図9は視線検出装置の概略を示す図である。視線検出装置は、光源(不図示)と、受光素子80と、受光レンズ81と、光分割器83を備える。光分割器83は、ファインダー系内部において、撮影者の眼球の視線V上に位置するように設けられ、可視光を透過するとともに、赤外線を反射させる。撮影者の眼球82がファインダー系を覗くと、視線Vは、光分割器83を透過して、被写体OBに向けられる。
FIG. 9 is a diagram showing an outline of the visual line detection device. The line-of-sight detection device includes a light source (not shown), a
撮影者の眼球82がファインダー系を覗くとき、眼球82には光源(不図示)から赤外線が照射される。眼球82では、その赤外線が反射され、その反射光は、光分割器83で反射された後、受光レンズ81を介して、受光素子80に入射される。
When the photographer's
受光素子80では、その反射光を用いて、視線Vが検出される。例えば、光源からの平行光束が観察者の眼球82の前眼部へ投射されることにより、瞳孔の向き及び位置が求められて、その向き及び位置情報から視線Vが算出される。なお、上記視線の検出方法は、例えば特開平6−86758号公報に詳細に記載されている。また、視線の検出は、この方法に限られず公知のいかなる方法により行われても良い。視線検出装置では、視線Vが検出されると、その視線Vが向けられる被写体の位置が求められ、その位置が特徴点aとして抽出される。
The
図10は、第3の実施形態の撮影動作における各動作が実施されるタイミングを時間経過とともに示すグラフである。第3の実施形態においては、撮影前に上述の視線検出が行われ、特徴点aが抽出されると、特徴点aが結像される特徴点画素の位置情報が検出され、その位置情報は角速度−動きベクトル変換装置61に入力される。
FIG. 10 is a graph showing the timing at which each operation in the shooting operation of the third embodiment is performed with time. In the third embodiment, when the above-mentioned line-of-sight detection is performed before shooting and the feature point a is extracted, the position information of the feature point pixel on which the feature point a is imaged is detected, and the position information is It is input to the angular velocity-
その後第1乃至第3撮影画像の撮影が実施される。撮影動作は、第1の実施形態と同様に、第1乃至第3フレーム露光期間F1、F2、F3それぞれにおいて、第1乃至第3撮影画像が、撮影されるとともに、第1及び第2フレーム露光期間F1、及びF2、並びに第2及び第3フレーム露光期間F2、及びF3の間には、撮影インターバルIが設けられる。 Thereafter, the first to third photographed images are photographed. As in the first embodiment, the photographing operation is performed in the first to third frame exposure periods F1, F2, and F3, while the first to third photographed images are photographed and the first and second frame exposures are performed. A shooting interval I is provided between the periods F1 and F2 and the second and third frame exposure periods F2 and F3.
角速度−動きベクトル変換装置61では、特徴点画素の位置情報を用いて、第1乃至第3撮影画像それぞれにおいて、特徴点画素が露光されるタイミングA、A’、A”(図10参照)が算出される。
In the angular velocity-motion
第3の実施形態においても、第1の実施形態と同様に、期間A−A’及びA’−A”において検出された角速度データvx、vyが,時間積分され、動きベクトルVt1、Vt2が算出され、動きベクトルVt1、Vt2が第1及び第2撮影画像(または第2及び第3撮影画像)同士の位置ずれとして検出される。なお、以下の動作は第1の実施形態と同様であるのでその記載は省略する。 Also in the third embodiment, similarly to the first embodiment, the angular velocity data vx and vy detected in the periods AA ′ and A′-A ″ are time-integrated to calculate motion vectors Vt1 and Vt2. Then, the motion vectors Vt1 and Vt2 are detected as a positional deviation between the first and second captured images (or the second and third captured images) Since the following operations are the same as those in the first embodiment. The description is omitted.
撮影者が被写体像を撮影するとき、ファインダー系から覗かれる撮影者の視線Vは、その撮影者が撮影したい被写体部分に向けられる。すなわち、本実施形態においては視線Vが向けられる被写体部分を画像の特徴点とすることにより、撮影者が撮影したい被写体部分のぶれを少なくし、望ましい像ぶれ補正を実現することができる。 When a photographer shoots a subject image, the sight line V of the photographer peeking from the viewfinder system is directed to the subject portion that the photographer wants to photograph. That is, in the present embodiment, the subject portion to which the line of sight V is directed is used as a feature point of the image, thereby reducing blurring of the subject portion that the photographer wants to photograph and realizing desirable image blur correction.
また第1の実施形態においては、特徴点画素は、第1乃至第3撮影画像それぞれにおいて検出され、撮影画像それぞれにおいて異なることがあるが、第2及び第3の実施形態においては、画像の特徴点の検出(すなわち、例えば焦点位置の検出)が撮影前に行われ、その特徴点により特徴点画素が決定されるので、特徴点画素は、第1乃至第3撮影画像いずれにおいても同一である。しかし、第2及び第3の実施形態においても、各撮影画像が生成される毎に、視線検出及び焦点位置検出が行われ、特徴点画素が各撮影画像それぞれにおいて異なるようになっても良い。また、同様に、第1の実施形態においても、特徴点の検出が撮影前に行われ、第1乃至第3撮影画像いずれにおいても特徴点画素が同一であっても良い。 In the first embodiment, the feature point pixel is detected in each of the first to third captured images and may be different in each captured image. However, in the second and third embodiments, the feature of the image is different. Since point detection (that is, focus position detection, for example) is performed before shooting, and a feature point pixel is determined based on the feature point, the feature point pixel is the same in any of the first to third shot images. . However, also in the second and third embodiments, the line-of-sight detection and the focus position detection are performed every time each captured image is generated, and the feature point pixel may be different in each captured image. Similarly, also in the first embodiment, feature point detection may be performed before photographing, and the feature point pixels may be the same in any of the first to third photographed images.
20 撮像素子
24 画像シフト装置
26 画像多重化装置
61 角速度−動きベクトル変換装置
71 露光タイミング発生装置
72 画像特徴抽出装置
DESCRIPTION OF
Claims (5)
画素毎、またはライン毎に順次露光され、撮像レンズによって結像された前記被写体像から1フレームの撮影画像を生成する撮像素子と、
前記被写体像の特徴部分を抽出し、この特徴部分に対応する各撮影画像の特徴部分画素を特定する画像特徴抽出手段と、
前記撮像装置本体の角速度を検出する手段と、
前記特徴部分画素が前記撮影画像それぞれにおいて露光される、タイミングの間において、前記角速度を時間積分することにより、各撮影画像間に生じるぶれを検出するぶれ検出手段と、
前記ぶれによって生じた各撮影画像の相対的な位置ずれを補正するために前記2フレーム以上の撮影画像のうち、少なくとも1フレームの撮影画像をシフトさせる画像シフト手段と、
そのシフトされた各撮影画像を多重化させる多重化画像手段と
を備える撮像装置。 An imaging apparatus that generates a multiplexed image by multiplexing and synthesizing captured images of two or more frames that are sequentially sequentially captured with respect to the same subject image.
An image sensor that sequentially exposes each pixel or line and generates a photographic image of one frame from the subject image formed by the imaging lens;
Image feature extraction means for extracting a feature portion of the subject image and specifying a feature portion pixel of each captured image corresponding to the feature portion;
Means for detecting an angular velocity of the imaging device body;
The feature detection pixel is exposed in each of the captured images, and during the timing, the angular velocity is time-integrated to detect blur generated between the captured images,
Image shift means for shifting a photographed image of at least one frame among the photographed images of two or more frames in order to correct a relative positional shift of each photographed image caused by the blur;
An imaging apparatus comprising: multiplexed image means for multiplexing the shifted captured images.
The imaging apparatus according to claim 1, wherein the imaging element is a CMOS sensor.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005300525A JP4682010B2 (en) | 2005-10-14 | 2005-10-14 | Imaging device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005300525A JP4682010B2 (en) | 2005-10-14 | 2005-10-14 | Imaging device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2007110528A true JP2007110528A (en) | 2007-04-26 |
JP4682010B2 JP4682010B2 (en) | 2011-05-11 |
Family
ID=38036005
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2005300525A Expired - Fee Related JP4682010B2 (en) | 2005-10-14 | 2005-10-14 | Imaging device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4682010B2 (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007142929A (en) * | 2005-11-21 | 2007-06-07 | Megachips Lsi Solutions Inc | Image processing apparatus and camera system |
JP2007180734A (en) * | 2005-12-27 | 2007-07-12 | Megachips Lsi Solutions Inc | Image processor, camera system, image processing method and moving image display method |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0863597A (en) * | 1994-08-22 | 1996-03-08 | Konica Corp | Face extracting method |
JPH10148859A (en) * | 1996-09-20 | 1998-06-02 | Sony Corp | Shake discriminating device and shake correcting device |
JP2004325634A (en) * | 2003-04-23 | 2004-11-18 | Canon Inc | Photographing apparatus and system |
JP2005236662A (en) * | 2004-02-19 | 2005-09-02 | Mitsubishi Electric Corp | Imaging method, imaging device, and imaging system |
-
2005
- 2005-10-14 JP JP2005300525A patent/JP4682010B2/en not_active Expired - Fee Related
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0863597A (en) * | 1994-08-22 | 1996-03-08 | Konica Corp | Face extracting method |
JPH10148859A (en) * | 1996-09-20 | 1998-06-02 | Sony Corp | Shake discriminating device and shake correcting device |
JP2004325634A (en) * | 2003-04-23 | 2004-11-18 | Canon Inc | Photographing apparatus and system |
JP2005236662A (en) * | 2004-02-19 | 2005-09-02 | Mitsubishi Electric Corp | Imaging method, imaging device, and imaging system |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007142929A (en) * | 2005-11-21 | 2007-06-07 | Megachips Lsi Solutions Inc | Image processing apparatus and camera system |
JP4509917B2 (en) * | 2005-11-21 | 2010-07-21 | 株式会社メガチップス | Image processing apparatus and camera system |
US7844134B2 (en) | 2005-11-21 | 2010-11-30 | Megachips Corporation | Image processor and camera system for correcting image distortion |
JP2007180734A (en) * | 2005-12-27 | 2007-07-12 | Megachips Lsi Solutions Inc | Image processor, camera system, image processing method and moving image display method |
US7720309B2 (en) | 2005-12-27 | 2010-05-18 | Megachips Corporation | Image processor and camera system, image processing method, and motion picture displaying method |
JP4509925B2 (en) * | 2005-12-27 | 2010-07-21 | 株式会社メガチップス | Image processing apparatus, camera system, image processing method, and moving image display method |
Also Published As
Publication number | Publication date |
---|---|
JP4682010B2 (en) | 2011-05-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6080417B2 (en) | Image processing apparatus and image processing method | |
JP4522207B2 (en) | Camera system, camera body and interchangeable lens | |
JP5028574B2 (en) | Digital camera system | |
JP5791349B2 (en) | Imaging apparatus and control method thereof | |
JP5565105B2 (en) | Imaging device | |
US20100188522A1 (en) | Image-capturing device, image creation method, and program product | |
KR20130083853A (en) | Image processing apparatus, image sensing apparatus, control method, and recording medium | |
JP2011022386A (en) | Imaging apparatus and control method therefor | |
JP5263310B2 (en) | Image generation apparatus, imaging apparatus, and image generation method | |
JP4636979B2 (en) | Imaging apparatus and control method thereof | |
JP6175748B2 (en) | Imaging device | |
JP4710983B2 (en) | Image composition device, imaging device, and image composition method | |
JP4953770B2 (en) | Imaging device | |
JP7387713B2 (en) | Imaging device, solid-state imaging device, camera module, drive control unit, and imaging method | |
JP4682010B2 (en) | Imaging device | |
JP4834406B2 (en) | Imaging device | |
US8045048B2 (en) | Focus detection device, focus detection method, and image pickup apparatus | |
JP6728005B2 (en) | Imaging device, imaging method, and program | |
JP4662835B2 (en) | Imaging device | |
US20200112665A1 (en) | Image capturing apparatus and control method thereof, and non-transitory storage medium | |
JP5415208B2 (en) | Imaging device | |
JP2020187244A (en) | Control device, lens device, image pickup apparatus, control method, and program | |
JP7043209B2 (en) | Control device, image pickup device, control method, and program | |
JP2005064749A (en) | Camera | |
EP4319141A1 (en) | Imaging element and imaging device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A712 Effective date: 20080501 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20080731 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20100617 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20100727 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20100921 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20110201 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20110207 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 4682010 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140210 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140210 Year of fee payment: 3 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313111 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140210 Year of fee payment: 3 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
S533 | Written request for registration of change of name |
Free format text: JAPANESE INTERMEDIATE CODE: R313533 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
LAPS | Cancellation because of no payment of annual fees |