JP2007110528A - Imaging apparatus - Google Patents

Imaging apparatus Download PDF

Info

Publication number
JP2007110528A
JP2007110528A JP2005300525A JP2005300525A JP2007110528A JP 2007110528 A JP2007110528 A JP 2007110528A JP 2005300525 A JP2005300525 A JP 2005300525A JP 2005300525 A JP2005300525 A JP 2005300525A JP 2007110528 A JP2007110528 A JP 2007110528A
Authority
JP
Japan
Prior art keywords
image
photographed
feature
captured
angular velocity
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2005300525A
Other languages
Japanese (ja)
Other versions
JP4682010B2 (en
Inventor
Nobusato Abe
紳聡 阿部
Hideki Aoki
秀樹 青木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Pentax Corp
Original Assignee
Pentax Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Pentax Corp filed Critical Pentax Corp
Priority to JP2005300525A priority Critical patent/JP4682010B2/en
Publication of JP2007110528A publication Critical patent/JP2007110528A/en
Application granted granted Critical
Publication of JP4682010B2 publication Critical patent/JP4682010B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Studio Devices (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To correctly detect hand shake even when an imaging device is exposed for each pixel or each line. <P>SOLUTION: An imaging device 20 is exposed for each pixel, and generates an image signal of a photographed image of one frame. The imaging element 20 continuously generates an image signal of a photographed image of two or more frames. An image feature extracting device 72 extracts a feature of a subject image. First and second angular velocity sensors 41 and 42 detect the angular velocity of a camera body. An angular velocity-motion vector converting device 61 applies time integration to the angular velocity in each of timings when the feature forms an image is exposed, consequently detecting shake to be generated between each of photographed images. An image shifter 24 shifts each of the photographed images in order to correct relative positional deviation, generated due to shake to be generated in each of the photographed images, between an initial photographed image and each of the photographed images. An image multiplexer 26 multiplexes each of the shifted photographed images to obtain a multiplexed image. <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

本発明は、像ぶれ補正機能を備えた撮像装置、特にデジタルカメラに関する。   The present invention relates to an imaging apparatus having an image blur correction function, and more particularly to a digital camera.

従来、デジタルカメラなどの撮像装置において、撮像中に生じた手ぶれを補正するために、撮像装置の振動を検出し、その検出された振動量に応じて、撮像光学系の位置を補正する像ぶれ補正装置が知られている。   Conventionally, in an imaging apparatus such as a digital camera, in order to correct camera shake that occurs during imaging, image blur that detects the vibration of the imaging apparatus and corrects the position of the imaging optical system according to the detected vibration amount Correction devices are known.

また、像ぶれが簡便に補正される方法として、画像処理によって補正が行われる方法が知られており、この方法の一例としては例えば特許文献1に記載される方法が挙げられる。すなわち、撮影画像が複数フレーム連続的に撮影されるとともに、各撮影画像が撮像されたときの像ぶれ量が検出され、各撮影画像がその像ぶれ量に応じてシフトされた後加算され、1つの静止画像が生成される。この方法によれば、各撮影画像が撮影される時間(露光時間)を短くすることにより、1フレームの撮影画像が撮影される間に生じる像ぶれが最小限に抑えられるとともに、各フレーム間の位置ずれは各撮影画像がシフトされることにより打ち消され、これにより像ぶれ補正が適切に行われている。   Further, as a method for easily correcting image blur, a method in which correction is performed by image processing is known, and an example of this method is a method described in Patent Document 1. That is, the captured image is continuously captured for a plurality of frames, and the amount of image blur when each captured image is captured is detected, and each captured image is added after being shifted according to the amount of image blur. Two still images are generated. According to this method, by shortening the time (exposure time) during which each captured image is captured, image blurring that occurs during the capture of one frame of captured image can be minimized, and between each frame. The positional deviation is canceled by shifting each captured image, and thus image blur correction is appropriately performed.

特許文献1においては、撮像素子としてCCDが使用されており、全ての画素は同一のタイミングで同一の期間に亘って露光され、その露光される間に蓄積される電荷が電気信号に変換されるので、各撮影画像の各々の画素は、像ぶれ量が同一となる。したがって、各撮影画像をシフトするときに、同一の撮影画像内における各画素間の像ぶれ量の相違を考慮する必要はない。
特開2003−32540号公報
In Patent Document 1, a CCD is used as an image sensor, and all pixels are exposed at the same timing for the same period, and the electric charge accumulated during the exposure is converted into an electric signal. Therefore, each pixel of each captured image has the same image blur amount. Therefore, when shifting each captured image, it is not necessary to consider the difference in the amount of image blur between the pixels in the same captured image.
Japanese Patent Laid-Open No. 2003-32540

しかし、撮像素子としてはCCDの他にCMOSセンサが知られており、CMOSセンサにおいては、被写体像が画素毎に順次光電変換され、1フレームの撮影画像が生成される。すなわち、1つの撮影画像において、各画素の露光されるタイミングが異なるため、撮影画像の各画素の像ぶれ量は画素毎に異なる。したがって、複数の撮影画像間の位置ずれの検出にあたり、特許文献1に記載の方法をそのまま適用しても、画像の合成が適切にできない場合がある。また、CMOSセンサにはライン毎に光電変換する例もある。   However, a CMOS sensor is known as an image sensor in addition to a CCD. In the CMOS sensor, a subject image is sequentially photoelectrically converted for each pixel to generate a one-frame captured image. That is, since the exposure timing of each pixel differs in one captured image, the amount of image blur of each pixel of the captured image varies from pixel to pixel. Therefore, in detecting a positional shift between a plurality of captured images, even if the method described in Patent Document 1 is applied as it is, there is a case where images cannot be combined appropriately. In addition, there is an example in which a CMOS sensor performs photoelectric conversion for each line.

そこで、本願発明は、このような問題点に鑑みて成されたものであり、CMOSセンサ等、画像信号を1画素毎(または1ライン毎)に順次取り込む撮像素子を用いる場合において、像ぶれを適切に補正することができる撮像装置を提供することを目的とする。   Therefore, the present invention has been made in view of such problems, and in the case of using an image sensor that sequentially captures image signals for each pixel (or for each line) such as a CMOS sensor, image blurring is caused. An object of the present invention is to provide an imaging apparatus capable of appropriately correcting.

本発明に係る撮像装置は、同一の被写体像に関して、順次連続的に撮影された2フレーム以上の撮影画像を多重化合成し、多重化画像を生成する撮像装置であって、画素毎、またはライン毎に順次露光され、撮像レンズによって結像された被写体像から1フレームの撮影画像を生成する撮像素子と、被写体像の特徴部分を抽出し、この特徴部分に対応する各撮影画像の特徴点画素を特定する画像特徴抽出手段と、撮像装置本体の角速度を検出する手段と、特徴部分画素が撮影画像それぞれにおいて露光される、タイミングの間において、角速度を時間積分することにより、各撮影画像間に生じるぶれを検出するぶれ検出手段と、ぶれによって生じた各撮影画像の相対的な位置ずれを補正するために2フレーム以上の撮影画像のうち、少なくとも1フレームの撮影画像をシフトさせる画像シフト手段と、そのシフトされた各撮影画像を多重化させる多重化画像手段とを備えることを特徴とする。   An imaging apparatus according to the present invention is an imaging apparatus that generates a multiplexed image by multiplexing and synthesizing captured images of two or more frames that are sequentially sequentially captured with respect to the same subject image. An image sensor that generates a captured image of one frame from an object image that is sequentially exposed and imaged by an imaging lens, and a feature point pixel of each captured image that corresponds to this feature part The image feature extraction means for identifying the image capturing means, the means for detecting the angular velocity of the imaging device body, and the feature portion pixels are exposed in each captured image. At least at least one of the captured images of two or more frames in order to correct the relative position shift of each captured image caused by the shake, and the motion detection means for detecting the generated motion. An image shifting means for shifting the photographic image of one frame, characterized in that it comprises a multiplexing image means for multiplexing the respective photographed image that shifted.

画像特徴抽出手段は、例えば被写体像のうち人の顔の部分を、特徴部分として抽出する。また、画像特徴抽出手段は、例えば、被写体像における合焦点位置を検出し、合焦点位置を特徴部分として抽出する。画像特徴抽出手段は、例えば撮影者の視線が向けられる被写体像の位置を、特徴部分として抽出する。これにより、本発明においては、人の顔、合焦点位置、または撮影者の視線が向けられる位置のぶれが少なくなるようにぶれの補正が行なわれるので、より望ましい像ぶれ補正を実現することができる。   The image feature extraction unit extracts, for example, a human face portion of the subject image as a feature portion. Further, the image feature extraction means detects, for example, a focal point position in the subject image, and extracts the focal point position as a feature portion. The image feature extraction unit extracts, for example, the position of the subject image to which the photographer's line of sight is directed as a feature portion. As a result, in the present invention, since the blur correction is performed so that the blur of the person's face, the in-focus position, or the position where the photographer's line of sight is directed is reduced, a more desirable image blur correction can be realized. it can.

また、撮像素子は、例えばCMOSセンサである。   The image sensor is a CMOS sensor, for example.

以上のように本発明においては、被写体像の特徴部分同士のぶれが、各撮影画像間のぶれとして算出されるので、特徴部分のぶれを少なくし、望ましい像ぶれ補正を実現することができる。   As described above, according to the present invention, the blur between the characteristic portions of the subject image is calculated as the blur between the captured images, so that it is possible to reduce the blur of the characteristic portions and realize a desirable image blur correction.

以下、本発明に係る実施形態について、図面を参照して説明する。本実施形態に係る撮像装置では、以下説明するように、同一の被写体像に関して、順次連続的に撮影された第1乃至第3撮影画像が多重合成され、その多重化画像が撮影された静止画像として生成される。ここで、撮像装置では通常手ぶれが発生するので、その手ぶれを補正するために、各撮影画像はその手ぶれに応じた分だけシフトされた上で合成される。以下実施形態を用いて具体的に説明する。なお、以下説明する実施形態では、撮像装置が、デジタルカメラである場合について説明するが、撮像装置はデジタルカメラに限定されるわけではない。   Hereinafter, embodiments according to the present invention will be described with reference to the drawings. In the imaging apparatus according to the present embodiment, as will be described below, the first to third captured images that are sequentially captured with respect to the same subject image are multiplexed and synthesized, and the still image in which the multiplexed image is captured Is generated as Here, since camera shake normally occurs in the imaging apparatus, in order to correct the camera shake, each captured image is synthesized after being shifted by an amount corresponding to the camera shake. This will be specifically described below with reference to embodiments. In the embodiment described below, a case where the imaging device is a digital camera will be described, but the imaging device is not limited to a digital camera.

図1は、第1の実施形態に係るデジタルカメラのブロック図である。本実施形態に係るデジタルカメラ10は、撮像素子20を備え、撮像素子20には、被写体像が撮像レンズ19によって結像される。デジタルカメラ10は、不図示のシャッターボタンが押され、撮像動作が実行されると、同一の被写体像に対する撮影が連続的に行われ、撮像素子20では、複数フレームの撮影画像(本実施形態では、第1乃至第3の撮影画像)の画像信号が生成される。生成された画像信号は順次フレームバッファ22に格納された後、画像シフト装置24に入力される。   FIG. 1 is a block diagram of a digital camera according to the first embodiment. The digital camera 10 according to the present embodiment includes an imaging device 20, and a subject image is formed on the imaging device 20 by an imaging lens 19. When a shutter button (not shown) is pressed and an image capturing operation is executed, the digital camera 10 continuously captures the same subject image, and the image sensor 20 captures a plurality of frames of captured images (in this embodiment, , First to third photographed images) are generated. The generated image signals are sequentially stored in the frame buffer 22 and then input to the image shift device 24.

デジタルカメラ10は、そのカメラ本体に生じる手ぶれを検知するため第1及び第2角速度センサ41、42を備える。第1及び第2角速度センサ41、42はそれぞれ、一定時間(例えば1ms)毎に、光軸となるz軸と水平方向に延びるx軸からなる面、および光軸となるz軸と垂直方向に延びるy軸からなる面の角速度Vx、Vyを検出する。なお、水平方向とは、光軸方向に垂直で、通常の使用状態で水平になる方向と一致し、一方、垂直方向とは、光軸方向に垂直で、水平方向に直交する方向をいう。   The digital camera 10 includes first and second angular velocity sensors 41 and 42 for detecting camera shake occurring in the camera body. Each of the first and second angular velocity sensors 41 and 42 is in a direction perpendicular to the z-axis serving as the optical axis and the surface composed of the z-axis serving as the optical axis and the x-axis extending in the horizontal direction at regular intervals (for example, 1 ms). Angular velocities Vx and Vy of the surface composed of the extending y-axis are detected. The horizontal direction is perpendicular to the optical axis direction and coincides with the horizontal direction in a normal use state, while the vertical direction is perpendicular to the optical axis direction and perpendicular to the horizontal direction.

第1、第2角速度vx、vyは、角速度に関する信号を増幅した後、アナログ信号として、それぞれ第1及び第2のA/D変換器51及び52に入力される。第1及び第2A/D変換器51及び52では、第1、第2角速度vx、vyがA/D変換された後、角速度データとして、角速度−動きベクトル変換装置61を介して、メモリ62に一旦格納される。   The first and second angular velocities vx and vy are input to the first and second A / D converters 51 and 52 as analog signals after amplifying signals relating to the angular velocities, respectively. The first and second A / D converters 51 and 52 perform A / D conversion on the first and second angular velocities vx and vy, and then store them as angular velocity data in the memory 62 via the angular velocity-motion vector converter 61. Once stored.

角速度−動きベクトル変換装置61では、メモリ62に格納された第1、第2角速度データvx、vyが読み出され、手ぶれによって生じた、第2及び第1撮影画像に対する第3及び第2撮影画像の位置ずれがそれぞれ算出される。この算出された位置ずれデータは、一旦メモリ62に保存された後、画像シフト装置24に入力される。   In the angular velocity-motion vector conversion device 61, the first and second angular velocity data vx and vy stored in the memory 62 are read out, and the third and second photographed images with respect to the second and first photographed images caused by camera shake are generated. Are calculated respectively. The calculated misregistration data is temporarily stored in the memory 62 and then input to the image shift device 24.

露光タイミング発生装置71では、露光開始信号Pe及び露光終了信号Pfを発生し、撮像素子20では、露光開始信号Pe及び露光終了信号Pfのタイミングに合わせて、露光が行われる。画像特徴抽出装置72では、被写体像において特徴点(特徴部分)が抽出されるとともに、その特徴点が結像される特徴点画素(特徴部分画素)が1画素特定される。さらに画像特徴抽出装置72では、第1乃至第3撮影画像それぞれにおける、その特徴点画素の位置情報(特徴点画素が位置するライン数、及びそのラインにおいて左側から何画素目に位置するか)が算出される。角速度−動きベクトル変換装置61では、この位置情報から特徴点画素の露光されるタイミングが算出され、算出されたタイミングにより、第1、第2角速度vx、vyの採用タイミングが決定される。なお、本実施形態における画像特徴抽出装置72は、顔認識回路を備え、人の顔の中心を被写体像の特徴点として抽出する。   The exposure timing generator 71 generates an exposure start signal Pe and an exposure end signal Pf, and the image sensor 20 performs exposure in accordance with the timing of the exposure start signal Pe and the exposure end signal Pf. In the image feature extraction device 72, a feature point (feature portion) is extracted from the subject image, and one feature point pixel (feature portion pixel) on which the feature point is formed is specified. Further, in the image feature extraction device 72, the position information of the feature point pixel (the number of lines in which the feature point pixel is located and the number of pixels from the left side in the line) in each of the first to third photographed images. Calculated. In the angular velocity-motion vector conversion device 61, the timing at which the feature point pixel is exposed is calculated from this position information, and the adoption timing of the first and second angular velocities vx and vy is determined based on the calculated timing. Note that the image feature extraction device 72 in this embodiment includes a face recognition circuit, and extracts the center of a human face as a feature point of a subject image.

画像シフト装置24では、位置ずれデータより、第2撮影画像が、第1撮影画像に対する位置ずれ分を補正するように、そのずれ方向とは逆方向にシフトされ、その後第2撮影画像は、画像多重化装置26に入力される。第3撮影画像は、第2撮影画像に対する位置ずれ分と、第2撮影画像の第1撮影画像に対する位置ずれ分を、足したずれ分を補正するように、そのずれ方向とは逆方向にシフトされた後に、画像多重化装置26に入力される。なお、第1撮影画像は、画像シフト装置24では、シフトされずにそのまま画像多重化装置26に入力される。   In the image shift device 24, the second photographed image is shifted in the direction opposite to the displacement direction so as to correct the position deviation relative to the first photographed image based on the position deviation data. Input to the multiplexer 26. The third photographed image is shifted in the opposite direction to the misalignment direction so that the misalignment with respect to the second photographed image and the misalignment with respect to the first photographed image of the second photographed image are corrected. Is input to the image multiplexing device 26. Note that the first captured image is directly input to the image multiplexing device 26 without being shifted by the image shift device 24.

画像多重化装置26では、第1撮影画像の上に、第2撮影画像が、第2撮影画像の上に、第3撮影画像が重ねられる。ここで、第2及び第3撮影画像は、上述したように、位置ずれした分だけ、シフトされた後に重ねられるので、得られる多重化画像は、手ぶれが補正された画像となる。多重化画像は、記録装置27に静止撮影画像として保存されるとともに、モニタ(不図示)に静止撮影画像として表示される。   In the image multiplexing device 26, the second photographed image is superimposed on the first photographed image, and the third photographed image is superimposed on the second photographed image. Here, as described above, since the second and third photographed images are overlaid after being shifted by the amount of displacement, the obtained multiplexed image is an image in which camera shake is corrected. The multiplexed image is stored as a still photographed image in the recording device 27 and displayed as a still photographed image on a monitor (not shown).

図2は、撮像素子20で行われる画像の取り込みタイミングを示すための図である。図3は、各ラインの露光期間と、露光開始信号Peと露光終了信号Pfの関係を示す図である。本実施形態では、撮像素子20はCMOSイメージセンサから成り、CMOSイメージセンサの撮像面には、撮像レンズ19によって被写体像が結像される。撮像素子20の撮像面は、撮像レンズ19の光軸に垂直であり、図2に示すようにその撮像領域には水平方向に画素が並べられて形成される水平ラインHが、垂直方向にnライン設けられている。   FIG. 2 is a diagram for illustrating an image capture timing performed by the image sensor 20. FIG. 3 is a diagram showing the exposure period of each line and the relationship between the exposure start signal Pe and the exposure end signal Pf. In the present embodiment, the image sensor 20 is composed of a CMOS image sensor, and a subject image is formed by the imaging lens 19 on the imaging surface of the CMOS image sensor. The imaging surface of the imaging element 20 is perpendicular to the optical axis of the imaging lens 19, and as shown in FIG. 2, a horizontal line H formed by arranging pixels in the horizontal direction in the imaging region has n in the vertical direction. Line is provided.

CMOSイメージセンサの各画素は、入射光を感知して入射光量に相当する信号電荷を生成するフォトダイオードと、生成した信号電荷を蓄積するキャパシタと、キャパシタから信号電荷を増幅して取り出す複数のMOSトランジスタとを有する。   Each pixel of the CMOS image sensor includes a photodiode that senses incident light and generates a signal charge corresponding to the amount of incident light, a capacitor that accumulates the generated signal charge, and a plurality of MOSs that amplify and extract the signal charge from the capacitor. A transistor.

図3に示すように、1フレームが露光される間に、露光開始信号Pe及び露光終了信号Pfは、それぞれ、所定の間隔で、CMOSイメージセンサのライン数と同数(すなわち、第1〜第nの露光開始信号Pe、及び第1〜第nの露光終了信号Pf)入力される。なお、図3に示すように、各第1〜第nの露光開始信号Pe、及び第1〜第nの露光終了信号Pfは交互に入力される。   As shown in FIG. 3, during the exposure of one frame, the exposure start signal Pe and the exposure end signal Pf are respectively equal to the number of lines of the CMOS image sensor (that is, the first to nth) at predetermined intervals. Exposure start signal Pe and first to nth exposure end signals Pf). As shown in FIG. 3, the first to nth exposure start signals Pe and the first to nth exposure end signals Pf are alternately input.

本実施形態におけるCMOSイメージセンサでは、電子シャッターを用いて撮影が行われ、露光開始信号Peの入力タイミングに合わせて露光が開始され、露光終了信号Pfの入力タイミングに合わせて露光が終了する。すなわち、第1の露光開始信号Peが入力されると、第1の露光終了信号Pfが入力されるまでの期間(単位露光期間E)、水平ラインHのライン1が、選択されるとともに、選択された水平ラインHにおいてはさらに各画素が左から右に順次選択される(図2参照)。なお、各露光開始信号Peは、いずれのフレームにおいても同一のタイミングで入力される。一方、各露光終了信号Pfはいずれのフレームにおいても同一のタイミングで入力されても良いし、異なるタイミングで入力されても良い。露光終了信号Pfが、フレーム毎に異なるタイミングで入力されることにより、各単位露光期間Eを、フレーム毎に変更させることができる。   In the CMOS image sensor according to this embodiment, photographing is performed using an electronic shutter, exposure is started in accordance with the input timing of the exposure start signal Pe, and exposure is ended in accordance with the input timing of the exposure end signal Pf. That is, when the first exposure start signal Pe is input, the line 1 of the horizontal line H is selected and selected during the period until the first exposure end signal Pf is input (unit exposure period E). In the horizontal line H, the pixels are further sequentially selected from left to right (see FIG. 2). Each exposure start signal Pe is input at the same timing in any frame. On the other hand, each exposure end signal Pf may be input at the same timing in any frame or may be input at a different timing. By inputting the exposure end signal Pf at a different timing for each frame, each unit exposure period E can be changed for each frame.

各画素は単位露光期間Eだけ露光され、その露光により各画素では電荷がフォトダイオードで生成され,キャパシタに蓄積される。蓄積された電荷は画素毎に画素信号として読み出され、フレームバッファ22に格納される。この露光動作は、ライン2から最終ライン(ラインn)の各ラインに関しても同様に行われ、これにより1フレーム分の撮影画像の露光が終了し、1フレーム分の撮影画像の画像信号が得られる。なお、1ライン目の露光開始タイミングから最終ライン(ラインn)の露光終了タイミングまでの期間、つまり1フレーム分の露光期間を本実施形態においては、フレーム露光期間という。   Each pixel is exposed for the unit exposure period E, and by the exposure, electric charge is generated in each pixel by the photodiode and accumulated in the capacitor. The accumulated charge is read out as a pixel signal for each pixel and stored in the frame buffer 22. This exposure operation is similarly performed for each line from the line 2 to the last line (line n), whereby the exposure of the captured image for one frame is completed, and an image signal of the captured image for one frame is obtained. . Note that a period from the exposure start timing of the first line to the exposure end timing of the last line (line n), that is, an exposure period for one frame is referred to as a frame exposure period in this embodiment.

図4は、第1乃至第3撮影画像の特徴点画素を抽出する方法を具体的に示すための図である。図4に示すように、第1乃至第3撮影画像は、顔認識回路において、顔がある顔領域Yが抽出される。具体的には、フレームバッファ22に格納された撮影画像が読み出され、その撮影画像における肌色領域が抽出される。顔認識回路には平均顔画像のテンプレートが格納されており、その平均顔画像と肌色領域が比較され、肌色領域のうち顔画像に最も近似する部分が顔領域Yとして抽出される。なお、上記顔認識の方法は、例えば特開平8-63597号公報等に記載されるが、顔認識の方法は上記方法に限定されず、その他種々の公知の方法を用いることが可能である。   FIG. 4 is a diagram specifically illustrating a method of extracting feature point pixels from the first to third captured images. As shown in FIG. 4, in the first to third photographed images, a face area Y with a face is extracted by a face recognition circuit. Specifically, the photographed image stored in the frame buffer 22 is read, and the skin color area in the photographed image is extracted. An average face image template is stored in the face recognition circuit, the average face image is compared with the skin color area, and a portion of the skin color area closest to the face image is extracted as the face area Y. The face recognition method is described in, for example, JP-A-8-63597. However, the face recognition method is not limited to the above method, and various other known methods can be used.

本実施形態においては顔領域Yが、図4に示すように方形の領域として抽出される。顔領域Yが抽出されると、その領域Yの中心画素(すなわち、その領域の重心に位置する画素)が算出され、その中心画素が各撮影画像の特徴点画素Cとして検出される。   In the present embodiment, the face area Y is extracted as a square area as shown in FIG. When the face area Y is extracted, the center pixel of the area Y (that is, the pixel located at the center of gravity of the area) is calculated, and the center pixel is detected as the feature point pixel C of each captured image.

図5は、撮影動作における各動作が実施されるタイミングを時間経過とともに示すグラフである。図5においては、縦軸が角速度、横軸が時間経過を表す。ただし、角速度データは、vxについて表し、vyについてはその記載は省略する。   FIG. 5 is a graph showing the timing at which each operation in the photographing operation is performed over time. In FIG. 5, the vertical axis represents angular velocity, and the horizontal axis represents time. However, the angular velocity data is represented with respect to vx, and description of vy is omitted.

以下、図5を用いて、角速度から撮影画像同士の位置ずれが算出される方法について説明する。図5に示すように、撮影動作が開始されると、まず第1の撮影画像の撮影が開始される。すなわち、撮像素子20では露光が開始され、1フレーム分の撮影画像を撮影するための露光が、第1フレーム露光期間F1において行われる。   Hereinafter, a method for calculating the positional deviation between the captured images from the angular velocity will be described with reference to FIG. As shown in FIG. 5, when the photographing operation is started, first, photographing of the first photographed image is started. That is, exposure is started in the image sensor 20, and exposure for capturing a captured image for one frame is performed in the first frame exposure period F1.

第1フレーム露光期間F1が終了すると、撮影インターバルIが経過した後、第2撮影画像が生成されるための露光が、第2フレーム露光期間F2において行われる。第2フレーム露光期間F2が終了すると、撮影インターバルIが経過した後、第3撮影画像が生成されるための露光が、第3フレーム露光期間F3において行われる。なお、第1乃至第3撮影画像は、同じ露光条件で撮影されるため、第1乃至第3フレーム露光期間F1、F2、及びF3は、互いに同一であるとともに、撮影インターバルIの期間も同一である。   When the first frame exposure period F1 ends, after the shooting interval I has elapsed, exposure for generating a second shot image is performed in the second frame exposure period F2. When the second frame exposure period F2 ends, after the shooting interval I has elapsed, exposure for generating a third shot image is performed in the third frame exposure period F3. Since the first to third photographed images are photographed under the same exposure conditions, the first to third frame exposure periods F1, F2, and F3 are the same as each other and the photographing interval I is also the same. is there.

画像特徴抽出装置72では、上述したように特徴点画素Cが検出され、その特徴点画素Cは、図5に示すように、第1乃至第3撮影画像それぞれにおいて、タイミングA、A’、A”で露光される。角速度−動きベクトル変換装置61では、特徴点画素Cの位置情報からこれらタイミングA、A’、A”が算出され、これらタイミングA、A’、A”を用いて、各撮影画像間のぶれが検出される。具体的には、期間A−A’において検出された角速度データvx、vyが、メモリ62から読み出される。その読み出された角速度データvx、vyそれぞれは,時間積分され、期間A−A’におけるデジタルカメラ10のz軸とx軸からなる平面、z軸とy軸からなる平面の回転量として算出される。算出された回転量は、光軸に対する垂直平面における動きベクトルVt1に換算される。光軸に対する垂直平面は、撮像素子20の撮像面に一致するので、動きベクトルVt1は、期間A−A’において生じた撮像面のぶれ、すなわち特徴点画素C同士のぶれに相当し、第1及び第2撮影画像同士の位置ずれとして検出される。   In the image feature extraction device 72, the feature point pixel C is detected as described above, and the feature point pixel C has timings A, A ′, A in each of the first to third photographed images as shown in FIG. The angular velocity-motion vector converter 61 calculates these timings A, A ′, A ″ from the position information of the feature point pixel C, and uses these timings A, A ′, A ″ to Specifically, the angular velocity data vx and vy detected in the period AA ′ are read from the memory 62. Each of the read angular velocity data vx and vy is: Time-integrated and calculated as the amount of rotation of the plane consisting of the z-axis and the x-axis and the plane consisting of the z-axis and the y-axis of the digital camera 10 in the period AA ′. flat Since the vertical plane with respect to the optical axis coincides with the imaging plane of the imaging device 20, the motion vector Vt1 is the fluctuation of the imaging plane that occurred during the period AA ′, that is, the feature point pixel C. This corresponds to a shake between each other, and is detected as a positional deviation between the first and second captured images.

同様に、期間A’−A”における撮像面のぶれ(動きベクトルVt2)は、期間A’−A”において検出された角速度データvx、vyから算出され、その動きベクトルVt2が第2及び第3撮影画像間の位置ずれとして検出される。   Similarly, the shake of the imaging surface (motion vector Vt2) in the period A′-A ″ is calculated from the angular velocity data vx and vy detected in the period A′-A ″, and the motion vector Vt2 is the second and third. It is detected as a positional deviation between captured images.

上述したようにタイミングA、A’は、各撮影画像の顔領域Yの中心位置が露光されたタイミングである。すなわち、期間A−A’間において生じた撮像面のぶれ(動きベクトルVt1)は、第1及び第2撮影画像間における、顔の中心位置のぶれに相当する。ここで、人の顔は、撮影画像において通常メイン画像に相当し、最も像ぶれを補正したい対象である。したがって、この顔の中心位置のぶれが、第1及び第2撮影画像間の位置ずれ(動きベクトルVt1)として検出されると、検出された位置ずれは、最も像ぶれ補正をしたい対象の位置ずれとなる。勿論、期間A’−A”間において検出された位置ずれについても同様のことがいえる。   As described above, the timings A and A ′ are timings when the center position of the face area Y of each captured image is exposed. In other words, the shake of the imaging surface (motion vector Vt1) that occurs during the period A-A ′ corresponds to the shake of the center position of the face between the first and second captured images. Here, the human face corresponds to the normal main image in the photographed image, and is the object for which image blur is most desired to be corrected. Therefore, when the blur at the center position of the face is detected as a positional shift (motion vector Vt1) between the first and second captured images, the detected positional shift is the positional shift of the target for which image blur correction is most desired. It becomes. Of course, the same can be said for the positional deviation detected during the period A′-A ″.

図6は、画像多重化装置26における撮影画像の多重化方法を模式的に示した図である。なお、図6においては、第1撮影画像に第2撮影画像が多重化される構成を示すが、第3撮影画像も同様に多重化される。図6に示すように、画像多重化装置26においては、まず第1撮影画像が画像多重化装置26に格納され、第1撮影画像が格納された後、その第1撮影画像の上に、第2撮影画像が重ねられる。   FIG. 6 is a diagram schematically illustrating a method of multiplexing captured images in the image multiplexing device 26. 6 shows a configuration in which the second photographed image is multiplexed on the first photographed image, the third photographed image is similarly multiplexed. As shown in FIG. 6, in the image multiplexing device 26, the first captured image is first stored in the image multiplexing device 26, and after the first captured image is stored, the first captured image is stored on the first captured image. Two captured images are overlaid.

ここで、第2撮影画像は、動きベクトルVt1の方向とは逆方向に、動きベクトルVt1のスカラー分、第1撮影画像に対して相対的に、画像シフト装置24でシフトされ、画像多重化装置26で第1撮影画像の上に多重化される。第3撮影画像も、第1動きベクトルと第2動きベクトルを足した動きベクトルVt1+Vt2の方向とは逆方向に、動きベクトルVt1+Vt2のスカラー分、第1撮影画像に対して相対的に、画像シフト装置24でシフトされ、画像多重化装置26で第2撮影画像の上に多重化される。   Here, the second captured image is shifted by the image shift device 24 in a direction opposite to the direction of the motion vector Vt1 by the image shift device 24 relative to the first captured image by the scalar of the motion vector Vt1. 26, the image is multiplexed onto the first photographed image. The third photographed image is also an image shift device that is relative to the first photographed image by the scalar of the motion vector Vt1 + Vt2 in a direction opposite to the direction of the motion vector Vt1 + Vt2 obtained by adding the first motion vector and the second motion vector. 24 and is multiplexed on the second photographed image by the image multiplexing device 26.

以上のように、本実施形態では被写体像における最も特徴的な部分(人の顔)同士のぶれが、各撮影画像間の位置ずれとして算出され、その位置ずれに基づいて各撮影画像がシフトされた後、画像が多重化される。したがって、得られる多重化画像は、最もぶれを補正したい対象である特徴的な部分(人の顔)が最も正確にぶれ補正されているので、望ましい像ぶれ補正を実現することができる。   As described above, in the present embodiment, the blurring between the most characteristic portions (human faces) in the subject image is calculated as a positional deviation between the respective captured images, and each captured image is shifted based on the positional deviation. After that, the images are multiplexed. Therefore, in the obtained multiplexed image, the characteristic portion (human face) that is the object most desired to be corrected for blurring is most accurately corrected for blurring, so that desirable image blur correction can be realized.

図7、8を用いて第2の実施形態について説明する。第2の実施形態に係るデジタルカメラ10は、被写体の焦点を検出するための焦点検出装置が複数の測距センサを有し、焦点検出装置が、焦点検出としての機能のみならず、画像特徴抽出装置としての機能も果たす。以下第2の実施形態について、第1の実施形態との相違点を中心に説明する。   The second embodiment will be described with reference to FIGS. In the digital camera 10 according to the second embodiment, a focus detection device for detecting the focus of a subject has a plurality of distance measuring sensors, and the focus detection device has not only a function as focus detection but also image feature extraction. It also functions as a device. Hereinafter, the second embodiment will be described focusing on differences from the first embodiment.

焦点検出装置は、9個の測距センサから成り、図7に示すように、被写体像OIにおいて、焦点検出点a〜iのいずれに焦点が合わせられるかを検出し、その焦点が合わされる位置が焦点位置として検出される。   The focus detection device is composed of nine distance measuring sensors, and as shown in FIG. 7, detects which one of the focus detection points a to i is focused in the subject image OI, and a position where the focus is achieved. Is detected as the focal position.

本実施形態においては、焦点はデジタルカメラから最も近い被写体に合わされる。具体的には、各測距センサそれぞれから、焦点検出点a〜iに対応する被写体の位相差像が形成され、被写体像OIにおいて、焦点検出点a〜iのうち、最も位相差が大きい点、すなわち最もカメラから近い被写体が表される1点が検出され、その1点が焦点位置として検出される。なお、焦点検出点は、図7に示すように行方向に左下がりに3個並ぶとともに、その行が列方向に3列並んで構成される。   In the present embodiment, the focus is on the subject closest to the digital camera. Specifically, a phase difference image of the subject corresponding to the focus detection points a to i is formed from each distance measuring sensor, and the point having the largest phase difference among the focus detection points a to i in the subject image OI. That is, one point representing the subject closest to the camera is detected, and that one point is detected as the focal position. As shown in FIG. 7, three focus detection points are arranged in the row direction so as to be lowered to the left, and three rows are arranged in the column direction.

図8は、第2の実施形態の撮影動作における各動作が実施されるタイミングを時間経過とともに示すグラフである。第2の実施形態においては、まず上述のように、焦点検出点a〜iのうちから1点が、合焦点位置として検出される。次に、その合焦点位置の被写体に焦点が合うように、レンズ19の位置が調整され、焦点調整が行われる。焦点調整後、第1乃至第3撮影画像の撮影が実施される。撮影動作は、第1の実施形態と同様に、第1乃至第3フレーム露光期間F1、F2、F3それぞれにおいて、第1乃至第3撮影画像が、撮影されるとともに、第1及び第2フレーム露光期間F1、及びF2、並びに第2及び第3フレーム露光期間F2、及びF3の間には、撮影インターバルIが設けられる。   FIG. 8 is a graph showing the timing at which each operation in the photographing operation of the second embodiment is performed over time. In the second embodiment, as described above, one of the focus detection points a to i is first detected as the in-focus position. Next, the position of the lens 19 is adjusted so that the subject at the in-focus position is in focus, and focus adjustment is performed. After the focus adjustment, the first to third captured images are captured. As in the first embodiment, the photographing operation is performed in the first to third frame exposure periods F1, F2, and F3, while the first to third photographed images are photographed and the first and second frame exposures are performed. A shooting interval I is provided between the periods F1 and F2 and the second and third frame exposure periods F2 and F3.

画像特徴抽出装置72では、まず、合焦点位置に設定された焦点検出点に対応する画素が、特徴点画素として検出され、その特徴点画素の位置情報が算出される。次に角速度−動きベクトル変換装置61で、その特徴点画素の位置情報から、特徴点画素の露光されるタイミングが決定される。例えば焦点検出点aが焦点位置と決定されると、特徴点画素が露光されるタイミングは、図8に示すように、各第1乃至第3撮影画像において、それぞれタイミングA、A’、A”として算出される。   In the image feature extraction device 72, first, a pixel corresponding to the focus detection point set at the in-focus position is detected as a feature point pixel, and position information of the feature point pixel is calculated. Next, the angular velocity-motion vector converter 61 determines the timing at which the feature point pixel is exposed from the position information of the feature point pixel. For example, when the focus detection point a is determined as the focus position, the timing at which the feature point pixel is exposed is the timing A, A ′, A ″ in each of the first to third captured images, as shown in FIG. Is calculated as

角速度−動きベクトル変換装置61では、さらに期間A−A’、及び期間A’−A” において、それぞれ角速度が時間積分され、動きベクトルVt1、Vt2が算出される。算出された動きベクトルVt1、Vt2は、第1の実施形態と同様に、第1及び第2撮影画像間(または第2及び第3撮影画像)同士の位置ずれとして、それぞれ検出される。なお、以下の構成は第1の実施形態と同様であるので、その記載は省略する。   In the angular velocity-motion vector conversion device 61, the angular velocities are further time-integrated in the periods AA ′ and A′-A ″ to calculate the motion vectors Vt1 and Vt2. The calculated motion vectors Vt1 and Vt2 are calculated. Is detected as a positional shift between the first and second photographed images (or the second and third photographed images), respectively, as in the first embodiment. Since it is the same as the form, the description is omitted.

被写体像における合焦点位置は、撮影画像において重要な画像部分に相当し、最も像ぶれを補正したい画像部分である。すなわち、本実施形態においては合焦点位置を画像の特徴点とすることにより、第1の実施形態と同様に、重要な画像部分のぶれを少なくし、望ましい像ぶれ補正を実現することができる。   The in-focus position in the subject image corresponds to an important image portion in the photographed image, and is the image portion where image blur is most desired to be corrected. That is, in the present embodiment, by using the in-focus position as a feature point of an image, as in the first embodiment, it is possible to reduce blur of an important image portion and realize desirable image blur correction.

なお、図8に示すタイミングB、B’、B”は、焦点検出点bに対応する画素が露光されるタイミングであり、その他タイミングC〜I、C’〜I ’、C”〜I”についても同様である。そして、焦点検出点b〜iが合焦点位置として定められた場合についても、上述したように位置ずれが算出される。また、本実施形態では、カメラから最も近い被写体に焦点が合わされたが、焦点は被写体の他の位置に合わされても良い。   Note that timings B, B ′, and B ″ shown in FIG. 8 are timings at which the pixels corresponding to the focus detection point b are exposed, and other timings C to I, C ′ to I ′, and C ″ to I ″. In the case where the focus detection points b to i are determined as in-focus positions, the positional deviation is calculated as described above.In the present embodiment, the focus is set on the subject closest to the camera. However, the focus may be adjusted to another position of the subject.

次に、図9、10を用いて第3の実施形態について説明する。第1の実施形態においては、画像特徴抽出装置72は、顔認識回路から構成されるが、本実施形態においては、画像特徴抽出装置72は、視線検出装置から構成される。   Next, a third embodiment will be described with reference to FIGS. In the first embodiment, the image feature extraction device 72 is configured by a face recognition circuit. In the present embodiment, the image feature extraction device 72 is configured by a line-of-sight detection device.

図9は視線検出装置の概略を示す図である。視線検出装置は、光源(不図示)と、受光素子80と、受光レンズ81と、光分割器83を備える。光分割器83は、ファインダー系内部において、撮影者の眼球の視線V上に位置するように設けられ、可視光を透過するとともに、赤外線を反射させる。撮影者の眼球82がファインダー系を覗くと、視線Vは、光分割器83を透過して、被写体OBに向けられる。   FIG. 9 is a diagram showing an outline of the visual line detection device. The line-of-sight detection device includes a light source (not shown), a light receiving element 80, a light receiving lens 81, and a light splitter 83. The light splitter 83 is provided inside the finder system so as to be positioned on the line of sight V of the photographer's eyeball, and transmits visible light and reflects infrared rays. When the photographer's eyeball 82 looks into the viewfinder system, the line of sight V passes through the light splitter 83 and is directed to the subject OB.

撮影者の眼球82がファインダー系を覗くとき、眼球82には光源(不図示)から赤外線が照射される。眼球82では、その赤外線が反射され、その反射光は、光分割器83で反射された後、受光レンズ81を介して、受光素子80に入射される。   When the photographer's eyeball 82 looks into the viewfinder system, the eyeball 82 is irradiated with infrared rays from a light source (not shown). In the eyeball 82, the infrared ray is reflected, and the reflected light is reflected by the light splitter 83 and then enters the light receiving element 80 through the light receiving lens 81.

受光素子80では、その反射光を用いて、視線Vが検出される。例えば、光源からの平行光束が観察者の眼球82の前眼部へ投射されることにより、瞳孔の向き及び位置が求められて、その向き及び位置情報から視線Vが算出される。なお、上記視線の検出方法は、例えば特開平6−86758号公報に詳細に記載されている。また、視線の検出は、この方法に限られず公知のいかなる方法により行われても良い。視線検出装置では、視線Vが検出されると、その視線Vが向けられる被写体の位置が求められ、その位置が特徴点aとして抽出される。   The light receiving element 80 detects the line of sight V using the reflected light. For example, the parallel light flux from the light source is projected onto the anterior segment of the eyeball 82 of the observer, whereby the direction and position of the pupil are obtained, and the line of sight V is calculated from the direction and position information. The method for detecting the line of sight is described in detail, for example, in Japanese Patent Laid-Open No. 6-86758. The line of sight detection is not limited to this method, and may be performed by any known method. In the line-of-sight detection device, when the line of sight V is detected, the position of the subject to which the line of sight V is directed is obtained, and the position is extracted as the feature point a.

図10は、第3の実施形態の撮影動作における各動作が実施されるタイミングを時間経過とともに示すグラフである。第3の実施形態においては、撮影前に上述の視線検出が行われ、特徴点aが抽出されると、特徴点aが結像される特徴点画素の位置情報が検出され、その位置情報は角速度−動きベクトル変換装置61に入力される。   FIG. 10 is a graph showing the timing at which each operation in the shooting operation of the third embodiment is performed with time. In the third embodiment, when the above-mentioned line-of-sight detection is performed before shooting and the feature point a is extracted, the position information of the feature point pixel on which the feature point a is imaged is detected, and the position information is It is input to the angular velocity-motion vector converter 61.

その後第1乃至第3撮影画像の撮影が実施される。撮影動作は、第1の実施形態と同様に、第1乃至第3フレーム露光期間F1、F2、F3それぞれにおいて、第1乃至第3撮影画像が、撮影されるとともに、第1及び第2フレーム露光期間F1、及びF2、並びに第2及び第3フレーム露光期間F2、及びF3の間には、撮影インターバルIが設けられる。   Thereafter, the first to third photographed images are photographed. As in the first embodiment, the photographing operation is performed in the first to third frame exposure periods F1, F2, and F3, while the first to third photographed images are photographed and the first and second frame exposures are performed. A shooting interval I is provided between the periods F1 and F2 and the second and third frame exposure periods F2 and F3.

角速度−動きベクトル変換装置61では、特徴点画素の位置情報を用いて、第1乃至第3撮影画像それぞれにおいて、特徴点画素が露光されるタイミングA、A’、A”(図10参照)が算出される。   In the angular velocity-motion vector conversion device 61, the timings A, A ′, A ″ (see FIG. 10) at which the feature point pixels are exposed in each of the first to third captured images using the position information of the feature point pixels. Calculated.

第3の実施形態においても、第1の実施形態と同様に、期間A−A’及びA’−A”において検出された角速度データvx、vyが,時間積分され、動きベクトルVt1、Vt2が算出され、動きベクトルVt1、Vt2が第1及び第2撮影画像(または第2及び第3撮影画像)同士の位置ずれとして検出される。なお、以下の動作は第1の実施形態と同様であるのでその記載は省略する。   Also in the third embodiment, similarly to the first embodiment, the angular velocity data vx and vy detected in the periods AA ′ and A′-A ″ are time-integrated to calculate motion vectors Vt1 and Vt2. Then, the motion vectors Vt1 and Vt2 are detected as a positional deviation between the first and second captured images (or the second and third captured images) Since the following operations are the same as those in the first embodiment. The description is omitted.

撮影者が被写体像を撮影するとき、ファインダー系から覗かれる撮影者の視線Vは、その撮影者が撮影したい被写体部分に向けられる。すなわち、本実施形態においては視線Vが向けられる被写体部分を画像の特徴点とすることにより、撮影者が撮影したい被写体部分のぶれを少なくし、望ましい像ぶれ補正を実現することができる。   When a photographer shoots a subject image, the sight line V of the photographer peeking from the viewfinder system is directed to the subject portion that the photographer wants to photograph. That is, in the present embodiment, the subject portion to which the line of sight V is directed is used as a feature point of the image, thereby reducing blurring of the subject portion that the photographer wants to photograph and realizing desirable image blur correction.

また第1の実施形態においては、特徴点画素は、第1乃至第3撮影画像それぞれにおいて検出され、撮影画像それぞれにおいて異なることがあるが、第2及び第3の実施形態においては、画像の特徴点の検出(すなわち、例えば焦点位置の検出)が撮影前に行われ、その特徴点により特徴点画素が決定されるので、特徴点画素は、第1乃至第3撮影画像いずれにおいても同一である。しかし、第2及び第3の実施形態においても、各撮影画像が生成される毎に、視線検出及び焦点位置検出が行われ、特徴点画素が各撮影画像それぞれにおいて異なるようになっても良い。また、同様に、第1の実施形態においても、特徴点の検出が撮影前に行われ、第1乃至第3撮影画像いずれにおいても特徴点画素が同一であっても良い。   In the first embodiment, the feature point pixel is detected in each of the first to third captured images and may be different in each captured image. However, in the second and third embodiments, the feature of the image is different. Since point detection (that is, focus position detection, for example) is performed before shooting, and a feature point pixel is determined based on the feature point, the feature point pixel is the same in any of the first to third shot images. . However, also in the second and third embodiments, the line-of-sight detection and the focus position detection are performed every time each captured image is generated, and the feature point pixel may be different in each captured image. Similarly, also in the first embodiment, feature point detection may be performed before photographing, and the feature point pixels may be the same in any of the first to third photographed images.

第1の実施形態に係るデジタルカメラのブロック図である。1 is a block diagram of a digital camera according to a first embodiment. 撮像素子で行われる画像の取り込みタイミングを示すための図である。It is a figure for showing the capture timing of the image performed with an image sensor. 撮像素子の各ラインの露光期間と、露光開始信号と露光終了信号の関係を示す図である。It is a figure which shows the relationship between the exposure period of each line of an image pick-up element, an exposure start signal, and an exposure end signal. 第1乃至第3撮影画像において、特徴部分が検出される方法を示すための図である。It is a figure for demonstrating the method in which the characteristic part is detected in the 1st thru | or 3rd picked-up image. 撮影動作における各動作が実施されるタイミングを時間経過とともに示すグラフである。It is a graph which shows the timing when each operation | movement in imaging | photography operation | movement is implemented with progress of time. 画像多重化装置における撮影画像の多重化方法を模式的に示した図である。It is the figure which showed typically the multiplexing method of the picked-up image in an image multiplexing apparatus. 第2の実施形態において特徴部分が検出される方法を示すための図である。It is a figure for demonstrating the method by which the characteristic part is detected in 2nd Embodiment. 第2の実施形態に係る撮影動作における、各動作が実施されるタイミングを時間経過とともに示すグラフである。It is a graph which shows the timing which each operation | movement is implemented with time passage in the imaging | photography operation | movement which concerns on 2nd Embodiment. 視線検出装置の概要を示すための図である。It is a figure for showing the outline of a look detection device. 第3の実施形態に係る撮影動作における、各動作が実施されるタイミングを時間経過とともに示すグラフである。It is a graph which shows the timing which each operation | movement is implemented with time passage in the imaging | photography operation | movement which concerns on 3rd Embodiment.

符号の説明Explanation of symbols

20 撮像素子
24 画像シフト装置
26 画像多重化装置
61 角速度−動きベクトル変換装置
71 露光タイミング発生装置
72 画像特徴抽出装置
DESCRIPTION OF SYMBOLS 20 Image sensor 24 Image shift apparatus 26 Image multiplexing apparatus 61 Angular velocity-motion vector conversion apparatus 71 Exposure timing generation apparatus 72 Image feature extraction apparatus

Claims (5)

同一の被写体像に関して、順次連続的に撮影された2フレーム以上の撮影画像を多重化合成し、多重化画像を生成する撮像装置であって、
画素毎、またはライン毎に順次露光され、撮像レンズによって結像された前記被写体像から1フレームの撮影画像を生成する撮像素子と、
前記被写体像の特徴部分を抽出し、この特徴部分に対応する各撮影画像の特徴部分画素を特定する画像特徴抽出手段と、
前記撮像装置本体の角速度を検出する手段と、
前記特徴部分画素が前記撮影画像それぞれにおいて露光される、タイミングの間において、前記角速度を時間積分することにより、各撮影画像間に生じるぶれを検出するぶれ検出手段と、
前記ぶれによって生じた各撮影画像の相対的な位置ずれを補正するために前記2フレーム以上の撮影画像のうち、少なくとも1フレームの撮影画像をシフトさせる画像シフト手段と、
そのシフトされた各撮影画像を多重化させる多重化画像手段と
を備える撮像装置。
An imaging apparatus that generates a multiplexed image by multiplexing and synthesizing captured images of two or more frames that are sequentially sequentially captured with respect to the same subject image.
An image sensor that sequentially exposes each pixel or line and generates a photographic image of one frame from the subject image formed by the imaging lens;
Image feature extraction means for extracting a feature portion of the subject image and specifying a feature portion pixel of each captured image corresponding to the feature portion;
Means for detecting an angular velocity of the imaging device body;
The feature detection pixel is exposed in each of the captured images, and during the timing, the angular velocity is time-integrated to detect blur generated between the captured images,
Image shift means for shifting a photographed image of at least one frame among the photographed images of two or more frames in order to correct a relative positional shift of each photographed image caused by the blur;
An imaging apparatus comprising: multiplexed image means for multiplexing the shifted captured images.
前記画像特徴抽出手段が、前記被写体像のうち人の顔の部分を、前記特徴部分として抽出することを特徴とする請求項1に記載の撮像装置。   The imaging apparatus according to claim 1, wherein the image feature extraction unit extracts a human face portion of the subject image as the feature portion. 前記画像特徴抽出手段が、前記被写体像における合焦点位置を検出し、前記合焦点位置を前記特徴部分として抽出することを特徴とする請求項1に記載の撮像装置。   The imaging apparatus according to claim 1, wherein the image feature extraction unit detects a focal point position in the subject image and extracts the focal point position as the characteristic part. 前記画像特徴抽出手段が、撮影者の視線が向けられる前記被写体像の位置を、特徴部分として抽出することを特徴とする請求項1に記載の撮像装置。   The imaging apparatus according to claim 1, wherein the image feature extraction unit extracts a position of the subject image to which a photographer's line of sight is directed as a feature portion. 前記撮像素子が、CMOSセンサであることを特徴とする請求項1に記載の撮像装置。
The imaging apparatus according to claim 1, wherein the imaging element is a CMOS sensor.
JP2005300525A 2005-10-14 2005-10-14 Imaging device Expired - Fee Related JP4682010B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005300525A JP4682010B2 (en) 2005-10-14 2005-10-14 Imaging device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005300525A JP4682010B2 (en) 2005-10-14 2005-10-14 Imaging device

Publications (2)

Publication Number Publication Date
JP2007110528A true JP2007110528A (en) 2007-04-26
JP4682010B2 JP4682010B2 (en) 2011-05-11

Family

ID=38036005

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005300525A Expired - Fee Related JP4682010B2 (en) 2005-10-14 2005-10-14 Imaging device

Country Status (1)

Country Link
JP (1) JP4682010B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007142929A (en) * 2005-11-21 2007-06-07 Megachips Lsi Solutions Inc Image processing apparatus and camera system
JP2007180734A (en) * 2005-12-27 2007-07-12 Megachips Lsi Solutions Inc Image processor, camera system, image processing method and moving image display method

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0863597A (en) * 1994-08-22 1996-03-08 Konica Corp Face extracting method
JPH10148859A (en) * 1996-09-20 1998-06-02 Sony Corp Shake discriminating device and shake correcting device
JP2004325634A (en) * 2003-04-23 2004-11-18 Canon Inc Photographing apparatus and system
JP2005236662A (en) * 2004-02-19 2005-09-02 Mitsubishi Electric Corp Imaging method, imaging device, and imaging system

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0863597A (en) * 1994-08-22 1996-03-08 Konica Corp Face extracting method
JPH10148859A (en) * 1996-09-20 1998-06-02 Sony Corp Shake discriminating device and shake correcting device
JP2004325634A (en) * 2003-04-23 2004-11-18 Canon Inc Photographing apparatus and system
JP2005236662A (en) * 2004-02-19 2005-09-02 Mitsubishi Electric Corp Imaging method, imaging device, and imaging system

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007142929A (en) * 2005-11-21 2007-06-07 Megachips Lsi Solutions Inc Image processing apparatus and camera system
JP4509917B2 (en) * 2005-11-21 2010-07-21 株式会社メガチップス Image processing apparatus and camera system
US7844134B2 (en) 2005-11-21 2010-11-30 Megachips Corporation Image processor and camera system for correcting image distortion
JP2007180734A (en) * 2005-12-27 2007-07-12 Megachips Lsi Solutions Inc Image processor, camera system, image processing method and moving image display method
US7720309B2 (en) 2005-12-27 2010-05-18 Megachips Corporation Image processor and camera system, image processing method, and motion picture displaying method
JP4509925B2 (en) * 2005-12-27 2010-07-21 株式会社メガチップス Image processing apparatus, camera system, image processing method, and moving image display method

Also Published As

Publication number Publication date
JP4682010B2 (en) 2011-05-11

Similar Documents

Publication Publication Date Title
JP6080417B2 (en) Image processing apparatus and image processing method
JP4522207B2 (en) Camera system, camera body and interchangeable lens
JP5028574B2 (en) Digital camera system
JP5791349B2 (en) Imaging apparatus and control method thereof
JP5565105B2 (en) Imaging device
US20100188522A1 (en) Image-capturing device, image creation method, and program product
KR20130083853A (en) Image processing apparatus, image sensing apparatus, control method, and recording medium
JP2011022386A (en) Imaging apparatus and control method therefor
JP5263310B2 (en) Image generation apparatus, imaging apparatus, and image generation method
JP4636979B2 (en) Imaging apparatus and control method thereof
JP6175748B2 (en) Imaging device
JP4710983B2 (en) Image composition device, imaging device, and image composition method
JP4953770B2 (en) Imaging device
JP7387713B2 (en) Imaging device, solid-state imaging device, camera module, drive control unit, and imaging method
JP4682010B2 (en) Imaging device
JP4834406B2 (en) Imaging device
US8045048B2 (en) Focus detection device, focus detection method, and image pickup apparatus
JP6728005B2 (en) Imaging device, imaging method, and program
JP4662835B2 (en) Imaging device
US20200112665A1 (en) Image capturing apparatus and control method thereof, and non-transitory storage medium
JP5415208B2 (en) Imaging device
JP2020187244A (en) Control device, lens device, image pickup apparatus, control method, and program
JP7043209B2 (en) Control device, image pickup device, control method, and program
JP2005064749A (en) Camera
EP4319141A1 (en) Imaging element and imaging device

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20080501

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080731

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100617

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100727

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100921

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110201

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110207

R150 Certificate of patent or registration of utility model

Ref document number: 4682010

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140210

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140210

Year of fee payment: 3

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140210

Year of fee payment: 3

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees