JP2007243579A - Imaging apparatus - Google Patents

Imaging apparatus Download PDF

Info

Publication number
JP2007243579A
JP2007243579A JP2006062901A JP2006062901A JP2007243579A JP 2007243579 A JP2007243579 A JP 2007243579A JP 2006062901 A JP2006062901 A JP 2006062901A JP 2006062901 A JP2006062901 A JP 2006062901A JP 2007243579 A JP2007243579 A JP 2007243579A
Authority
JP
Japan
Prior art keywords
image
image blur
unit
information
optical
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2006062901A
Other languages
Japanese (ja)
Other versions
JP2007243579A5 (en
JP4911997B2 (en
Inventor
Kenichi Honjo
謙一 本庄
Takayuki Hayashi
孝行 林
Mitsuaki Oshima
光昭 大嶋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Holdings Corp
Original Assignee
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co Ltd filed Critical Matsushita Electric Industrial Co Ltd
Priority to JP2006062901A priority Critical patent/JP4911997B2/en
Publication of JP2007243579A publication Critical patent/JP2007243579A/en
Publication of JP2007243579A5 publication Critical patent/JP2007243579A5/ja
Application granted granted Critical
Publication of JP4911997B2 publication Critical patent/JP4911997B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide an imaging apparatus having an image blurring correction control function capable of preventing the image blurring of an object intended to be photographed by a user. <P>SOLUTION: A photographing optical system (ICS) forms an optical image of an object (P1) by a plurality of lens groups (101a, 101b) including an image blurring preventing lens (1) for preventing image blurring by controlling movement vertical to an optical axis. An image pickup element (106) picks up the optical image of the object (P1), converts the optical image into an electric image signal (Sv) and an image processing part (107) displays and stores output image signals (Sv1, Sv2) of the image pickup element (106). An image blurring control part (104a) is constituted of an image blurring correction error calculation part (39) for calculating an image blurring correction error (ISe) and an image correction part (107) for correcting the segmentation position of the image signal (Sv1) on the basis of the image blurring correction error (ISe) to control the movement of image blurring preventing lenses (1; 102). <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

本発明は、像ぶれを補正する像ぶれ補正機能を有する撮像光学系を備えた小型且つ軽量な撮像装置に関する。   The present invention relates to a small and lightweight imaging device including an imaging optical system having an image blur correction function for correcting image blur.

近年、ディジタル方式のスチルカメラやビデオムービーなどの撮像装置の普及に伴い機器の小型・軽量化が進展している。さらに撮像装置の高画質化に伴い像ぶれ補正機能に対する要望が益々高まっている。   In recent years, with the widespread use of imaging devices such as digital still cameras and video movies, the size and weight of devices have been reduced. Furthermore, with the improvement in image quality of imaging devices, there is an increasing demand for an image blur correction function.

従来の像ぶれ補正機能を有する撮像装置の一例(特許文献1)としては、互いに異なる情報に基づいて撮像装置のぶれ量を検出する第1および第2の動き検出手段と、第1および第2の動き検出手段より出力された第1および第2の動き情報に基づき演算して第3の動き情報を出力する第3の動き検出手段と、第3の動き検出手段より出力された第3の動き情報に基づいてぶれ量を補正すべく光学系の位置を制御する補正手段とを備えた物が知られている。   As an example of a conventional imaging apparatus having an image blur correction function (Patent Document 1), first and second motion detection units that detect a blur amount of the imaging apparatus based on different information, and first and second A third motion detecting means for outputting third motion information by calculating based on the first and second motion information outputted from the first motion detecting means; and a third motion detecting means outputted from the third motion detecting means. 2. Description of the Related Art There is known a device including correction means for controlling the position of an optical system to correct a shake amount based on motion information.

同撮像装置においては、検出対象の異なる複数の動き情報(例えば、加速度、速度および変位等を検出するセンサ等の各種の外部センサによって検出されるカメラの動き情報)を、映像信号の画像処理により得られる画像の動きベクトルと比較演算する事によりぶれ補正信号の適正化が行われる。そのようにして、画像のパターンによる検出精度のばらつきや誤動作を防止して応答性および感度等の諸特性に優れたぶれ補正機能を備えた撮像装置を提供することが図られている。   In the imaging apparatus, a plurality of pieces of motion information (for example, camera motion information detected by various external sensors such as sensors for detecting acceleration, speed, displacement, etc.) with different detection targets are obtained by image processing of a video signal. The blur correction signal is optimized by performing a comparison operation with the motion vector of the obtained image. In this way, it is intended to provide an imaging apparatus having a shake correction function that is excellent in various characteristics such as responsiveness and sensitivity by preventing variation in detection accuracy and malfunction due to image patterns.

さらに、上述の従来の撮像装置は、撮像手段からの撮像信号に画像処理を施すことにより画像の動きベクトルを抽出する方式に基づいて、外部センサおよびビデオカメラの動き情報をそれぞれ抽出する手段と、画像の動きベクトルとビデオカメラの動き情報とを比較演算する手段とを備える。そして、演算結果に基づいてぶれ補正量を求めることにより、外部センサのみに基づいてぶれ補正量を求める他の従来の撮像装置に比較して高精度および高感度であると共に応答性も改善されている。   Further, the above-described conventional imaging apparatus extracts the motion information of the external sensor and the video camera based on a method of extracting the motion vector of the image by performing image processing on the imaging signal from the imaging unit, Means for comparing and calculating the motion vector of the image and the motion information of the video camera. Then, by obtaining the shake correction amount based on the calculation result, the responsiveness is improved with higher accuracy and higher sensitivity than other conventional imaging devices that obtain the shake correction amount based only on the external sensor. Yes.

なお、被写体とビデオカメラとの相対的な運動により生じた画像の動きは、被写体の動きに起因するものと、ビデオカメラの動きに起因するものとに分離できる。したがって、補正すべき画像の動きと補正すべきでない画像の動きとを識別することによりぶれ補正システムのエラーが大幅に低減できる。又、カメラの動きベクトルの大きさを判断することによりカメラが動いていないと判断される場合には、ぶれ補正システム動作を停止させ、被写体の動きによる誤動作の防止を図っている。
特開平2−75284号公報
Note that the movement of the image caused by the relative movement between the subject and the video camera can be separated into a movement caused by the movement of the subject and a movement caused by the movement of the video camera. Therefore, by identifying the image motion to be corrected and the image motion that should not be corrected, errors in the blur correction system can be greatly reduced. Also, when it is determined that the camera is not moving by determining the magnitude of the motion vector of the camera, the motion compensation system operation is stopped to prevent malfunction due to the movement of the subject.
Japanese Patent Laid-Open No. 2-75284

上述の如く、特許文献1に提案されている撮像装置は、外部センサにのみ基づいてぶれ補正量を求める他の従来の撮像装置に比較して、より高精度および高感度で応答性も改善されている。そして、当該撮像装置は像ぶれを被写体の動きに起因するものと、ビデオカメラの動きに起因するものとの識別を意図している。しかしながら、同撮像装置においては、ユーザが撮像目的とする被写体のぶれを補正できない場合が多い。具体的には、動いている被写体は、必ずしもユーザが真に撮像目的と意図する被写体とは限らないので、ユーザの意図しない、例えば通行している車や人など背景の動く被写体によって、ユーザが撮像対象として意図する被写体に対するぶれ補正に関して誤動作を招いてしまう。
上述の問題を鑑みて、本発明は、ユーザが撮影したい被写体の像ぶれを防止する像ぶれ補正制御機能を有する撮像装置を提供する。
As described above, the imaging apparatus proposed in Patent Document 1 has higher accuracy and higher sensitivity and improved responsiveness compared to other conventional imaging apparatuses that calculate the blur correction amount based only on the external sensor. ing. The image capturing apparatus intends to distinguish image blur caused by subject motion from video camera motion. However, in this imaging apparatus, there are many cases where the user cannot correct blurring of a subject for imaging purposes. Specifically, the moving subject is not necessarily the subject that the user really intends to capture, and therefore the user does not intend, for example, the moving subject in the background such as a passing car or a person An erroneous operation is caused with respect to blur correction for a subject intended as an imaging target.
In view of the above problems, the present invention provides an imaging apparatus having an image blur correction control function that prevents image blur of a subject that a user wants to shoot.

被写体の電気的な画像信号を出力する撮像装置であって、 光軸に対して垂直に移動制御することで像ぶれを防止する像ぶれ防止レンズを含む複数のレンズ群により前記被写体の光学的な像を形成する撮像光学系と、
前記被写体の光学的な像を撮像して、前記電気的な画像信号に変換する撮像素子と、
前記撮像素子の出力画像信号の表示および記憶を行う画像処理手段と、
前記像ぶれ防止レンズの移動制御を行う像ぶれ制御手段とを備え、
前記像ぶれ制御手段は、像ぶれ補正誤差を演算する像ぶれ補正誤差演算手段と、前記像ぶれ補正誤差に基づいて前記画像信号の切り出し位置を補正する画像補正手段とで構成されることを特徴とする撮像装置。
An imaging apparatus that outputs an electrical image signal of a subject, and includes a plurality of lens groups including an image blur prevention lens that prevents image blur by controlling movement perpendicular to the optical axis. An imaging optical system for forming an image;
An image sensor that captures an optical image of the subject and converts it into the electrical image signal;
Image processing means for displaying and storing the output image signal of the image sensor;
Image blur control means for controlling movement of the image blur prevention lens,
The image blur control unit includes an image blur correction error calculation unit that calculates an image blur correction error, and an image correction unit that corrects a cutout position of the image signal based on the image blur correction error. An imaging device.

本発明によれば、ユーザが撮影を意図する被写体の像ぶれを防止する像ぶれ補正制御を備えた撮像装置を提供できる。   ADVANTAGE OF THE INVENTION According to this invention, the imaging device provided with the image blur correction control which prevents the image blur of the subject which a user intends to image | photograph can be provided.

(第1の実施の形態)
図1を参照して、本発明の第1の実施の形態に係る撮像装置の構成について説明する。撮像装置ICD1は、レンズ鏡筒100、撮像光学系ICSa、操作部110、表示部111、メモリーカード112、およびシステムコントローラ120を含む。撮像光学系ICSaは、ズームレンズ系101、像ぶれ補正用レンズユニット102a(以降、「OISユニット102a」と称す)、およびフォーカスレンズユニット103を含む。
(First embodiment)
With reference to FIG. 1, the structure of the imaging device according to the first embodiment of the present invention will be described. The imaging device ICD1 includes a lens barrel 100, an imaging optical system ICSa, an operation unit 110, a display unit 111, a memory card 112, and a system controller 120. The imaging optical system ICSa includes a zoom lens system 101, an image blur correction lens unit 102a (hereinafter referred to as “OIS unit 102a”), and a focus lens unit 103.

ズームレンズ系101は、ズームレンズ群101aおよびズームレンズ群101bを含む。なお、OISとはOptical Image Stabilizerの頭文字から成る略称である。   The zoom lens system 101 includes a zoom lens group 101a and a zoom lens group 101b. Note that OIS is an abbreviation consisting of an acronym for Optical Image Stabilizer.

レンズ鏡筒100は、撮像光学系ICSaを保持する。撮像光学系ICSaは、被写体側から順に、変倍時に光軸に沿って移動するズームレンズ系101と、像ぶれ補正を行うために光軸に対して垂直に移動するOISユニット102aと、合焦状態に調節のために光軸に沿って移動するフォーカスレンズユニット103とによって、撮像対象物の光学画像を生成する。   The lens barrel 100 holds the imaging optical system ICSa. The imaging optical system ICSa, in order from the subject side, a zoom lens system 101 that moves along the optical axis at the time of zooming, an OIS unit 102a that moves perpendicularly to the optical axis to perform image blur correction, and focusing An optical image of the imaging object is generated by the focus lens unit 103 that moves along the optical axis to adjust the state.

そして、システムコントローラ120は、OISユニット制御部104a、フォーカス駆動部105、撮像素子であるCCD106、画像処理部107、および合焦情報算出部109aを含む。   The system controller 120 includes an OIS unit controller 104a, a focus driver 105, a CCD 106 that is an image sensor, an image processor 107, and a focus information calculator 109a.

CCD106は、撮像光学系ICSaが生成した光学画像を所定のタイミングで撮像し、電気的な画像信号Svに変換して出力する撮像素子である。画像処理部107は、CCD106から出力された画像信号Svにホワイトバランス補正やγ補正などの所定の画像処理を施すと共に、所定のアドレスで画像を切り出して画像信号を生成する。必要に応じて、CCD106および画像処理部107から出力される画像信号Svをそれぞれ、第1の画像信号Sv1および第2の画像信号Sv2と呼んで識別するものとする。また、画像処理部107は、ユーザにより着脱可能なメモリーカード112と双方向にアクセス可能である。   The CCD 106 is an imaging element that captures an optical image generated by the imaging optical system ICSa at a predetermined timing, converts the optical image into an electrical image signal Sv, and outputs the electrical image signal Sv. The image processing unit 107 performs predetermined image processing such as white balance correction and γ correction on the image signal Sv output from the CCD 106, and cuts out an image at a predetermined address to generate an image signal. As necessary, the image signals Sv output from the CCD 106 and the image processing unit 107 are referred to as a first image signal Sv1 and a second image signal Sv2, respectively, and are identified. The image processing unit 107 can bidirectionally access the memory card 112 that can be attached and detached by the user.

表示部111は、好ましくは液晶ディスプレイで構成され、システムコントローラ120から出力される指令Cmdに基づいて、画像処理部107から出力される第2の画像信号Sv2を可視画像としてユーザに表示する。メモリーカード112は、システムコントローラ120から出力される指令Cmdに基づき、画像処理部107から出力される第2の画像信号Sv2を格納する。メモリーカード112は、当該格納されている第2の画像信号Sv2を画像処理部107を介して表示部111に供給する。このように、第1の画像信号Sv1はCCD106による対象物の撮影画像を表す電気信号であり、第2の画像信号Sv2は表示部111などが第1の画像信号Sv1に基づいて撮影画像を実際に表示する表示画像を表す電気信号である。   The display unit 111 is preferably configured by a liquid crystal display, and displays the second image signal Sv2 output from the image processing unit 107 as a visible image to the user based on a command Cmd output from the system controller 120. The memory card 112 stores the second image signal Sv2 output from the image processing unit 107 based on the command Cmd output from the system controller 120. The memory card 112 supplies the stored second image signal Sv2 to the display unit 111 via the image processing unit 107. As described above, the first image signal Sv1 is an electrical signal representing a captured image of the object by the CCD 106, and the second image signal Sv2 is an actual image captured by the display unit 111 or the like based on the first image signal Sv1. It is an electric signal showing the display image displayed on.

操作部110は、撮像装置本体の外側に設けられて、ユーザによる操作に応答して、撮像装置ICD1の全体の動作を制御する。なお、操作部110は、電源スイッチやシャッターボタン等を含む。   The operation unit 110 is provided outside the imaging apparatus main body, and controls the overall operation of the imaging apparatus ICD1 in response to an operation by the user. The operation unit 110 includes a power switch, a shutter button, and the like.

以下に、フォーカス駆動部105の動作について説明する。操作部110のシャッターボタンが半押しされた場合に、システムコントローラ120はこの半押しされた状態を検知すると、CCD106から出力される第1の画像信号Sv1を画像処理部107を経由して合焦情報算出部109aに転送させる。   Hereinafter, the operation of the focus driving unit 105 will be described. When the system controller 120 detects the half-pressed state when the shutter button of the operation unit 110 is half-pressed, the system controller 120 focuses the first image signal Sv1 output from the CCD 106 via the image processing unit 107. The data is transferred to the information calculation unit 109a.

合焦情報算出部109aは、転送された第1の画像信号Sv1に含まれるコントラスト情報Icと、フォーカス駆動部105から出力されるフォーカスレンズユニット103の位置情報Ipfとに基づいて、デフォーカス量Vdf(図示せず)を算出する。合焦情報算出部109aは、算出されたデフォーカス量Vdfに基づいて、フォーカスレンズユニット103の位置を制御するための制御信号Scを生成して、フォーカス駆動部105に出力する。   The focus information calculation unit 109a is configured to use the defocus amount Vdf based on the contrast information Ic included in the transferred first image signal Sv1 and the position information Ipf of the focus lens unit 103 output from the focus driving unit 105. (Not shown) is calculated. The focusing information calculation unit 109 a generates a control signal Sc for controlling the position of the focus lens unit 103 based on the calculated defocus amount Vdf, and outputs the control signal Sc to the focus driving unit 105.

フォーカス駆動部105は、フォーカスレンズユニット103を駆動させたときの位置情報Ipを合焦状態算出部109aに出力する。また、フォーカス駆動部105はシステムコントローラ120からの指令Cmd(図示せず)に基づき、フォーカスレンズユニット103を光軸方向に駆動する駆動信号Sdrを出力する機能も有する。なお、フォーカス駆動部105は、ユーザによるズームレバー(図示せず)の操作に応じてズームレンズ系101を光軸方向に駆動させる機能を有しても良い。   The focus driving unit 105 outputs position information Ip when the focus lens unit 103 is driven to the in-focus state calculation unit 109a. The focus drive unit 105 also has a function of outputting a drive signal Sdr for driving the focus lens unit 103 in the optical axis direction based on a command Cmd (not shown) from the system controller 120. Note that the focus driving unit 105 may have a function of driving the zoom lens system 101 in the optical axis direction in accordance with a user's operation of a zoom lever (not shown).

次に、図2、図3、図4、および図5を参照して、OISユニット102aについて詳細に説明する。図2は組み立てられたOISユニット102aの状態を斜め上方からみた様子を示し、図3はOISユニット102aの要部を分解した状態を示し、図4はピッチング移動枠2の背面を示し、図5は図4におけるV−V断面を示している。   Next, the OIS unit 102a will be described in detail with reference to FIG. 2, FIG. 3, FIG. 4, and FIG. 2 shows a state where the assembled OIS unit 102a is viewed obliquely from above, FIG. 3 shows a state in which the main part of the OIS unit 102a is disassembled, FIG. 4 shows the back of the pitching moving frame 2, and FIG. Shows a VV cross section in FIG.

図2に示すように、固定枠5には、ヨーイング移動枠4が左右方向のシャフト(図示せず)を介して左右方向に移動自在に支持されている。そして、ヨーイング移動枠4には、上下方向のシャフト4aとガイド溝4bが設けられている。   As shown in FIG. 2, a yawing movement frame 4 is supported on the fixed frame 5 so as to be movable in the left-right direction via a shaft (not shown) in the left-right direction. The yawing movement frame 4 is provided with a vertical shaft 4a and a guide groove 4b.

図3に示すように、ピッチング移動枠2の本体2aには、シャフト4aにスライド自在に嵌合するガイド部材3bと、ガイド溝4bにスライド自在に嵌合するシャフト3aが設けられている。これらにより、OISユニット102aの像ぶれ防止レンズ1を保持するピッチング移動枠2がヨーイング移動枠4に上下方向に移動自在に保持されている。このようにして、像ぶれ防止レンズ1(OISユニット102a)は、ピッチング移動枠2およびヨーイング移動枠4を介して、図2に示した固定枠5に対して上下方向および左右方向に移動自在に支持されている。   As shown in FIG. 3, the main body 2a of the pitching moving frame 2 is provided with a guide member 3b slidably fitted to the shaft 4a and a shaft 3a slidably fitted to the guide groove 4b. Thus, the pitching moving frame 2 that holds the image blur prevention lens 1 of the OIS unit 102a is held by the yawing moving frame 4 so as to be movable in the vertical direction. In this manner, the image blur prevention lens 1 (OIS unit 102a) is movable in the vertical and horizontal directions with respect to the fixed frame 5 shown in FIG. 2 via the pitching moving frame 2 and the yawing moving frame 4. It is supported.

ピッチング移動枠2の本体2aには、像ぶれ防止レンズ1(OISユニット102a)を駆動するヨーイング用コイルパターン7Aおよびピッチング用コイルパターン7Bが形成された複数層、例えば4層の積層基板6が取付けられている。積層基板6には、像ぶれ防止レンズ1(OISユニット102a)の位置を検出するための位置検出センサであるホール素子(磁気センサ)8Aおよび8Bが取付けられている。   A plurality of layers, for example, a four-layer laminated substrate 6 on which a yawing coil pattern 7A and a pitching coil pattern 7B for driving the image blur prevention lens 1 (OIS unit 102a) are formed is attached to the main body 2a of the pitching moving frame 2. It has been. Hall elements (magnetic sensors) 8A and 8B, which are position detection sensors for detecting the position of the image blur prevention lens 1 (OIS unit 102a), are attached to the multilayer substrate 6.

ホール素子8Aおよび8Bは高精度に位置決め固定するために、積層基板6の基準穴6cおよび6dと同時に金型で打ち抜き加工された位置決め穴6aおよび6bに嵌合されている。位置決め穴6aおよび6bは、ホール素子8Aおよび8B(図3)が軽圧入可能なようにホール素子8Aおよび8Bの外形より少し小さく形成されている。そして、ホール素子8Aおよび8Bをそれぞれ位置決め穴6aおよび6bに軽圧入することで、位置決め穴6aおよび6b内にホール素子8Aおよび8Bがガタつくこともなく高精度に位置決めされる。   The Hall elements 8A and 8B are fitted into positioning holes 6a and 6b punched with a mold simultaneously with the reference holes 6c and 6d of the laminated substrate 6 in order to position and fix with high accuracy. The positioning holes 6a and 6b are formed slightly smaller than the outer shapes of the Hall elements 8A and 8B so that the Hall elements 8A and 8B (FIG. 3) can be lightly press-fitted. The Hall elements 8A and 8B are lightly press-fitted into the positioning holes 6a and 6b, respectively, so that the Hall elements 8A and 8B are positioned in the positioning holes 6a and 6b with high accuracy without rattling.

図4に示すように、積層基板6には、結線パターン9dが形成されたフレキシブルプリント板9が設けられている。フレキシブルプリント板9は、固定部9aと、可動部9bと、端子部9cとで構成されている。なお、固定部9aは積層基板6の背面に取付けられており、可動部9bは固定部9aから導出されて固定枠5(図3および図5参照)側に接続され、端子部9cは可動部9bの端部に取付けられて固定枠5側の給電および信号送受に供される。   As shown in FIG. 4, the multilayer substrate 6 is provided with a flexible printed board 9 on which a connection pattern 9d is formed. The flexible printed board 9 includes a fixed portion 9a, a movable portion 9b, and a terminal portion 9c. The fixed portion 9a is attached to the back surface of the multilayer substrate 6, the movable portion 9b is led out from the fixed portion 9a and connected to the fixed frame 5 (see FIGS. 3 and 5), and the terminal portion 9c is the movable portion. It is attached to the end of 9b and is used for feeding and signal transmission on the fixed frame 5 side.

さらに、フレキシブルプリント板9の固定部9aであって、上述の位置決め穴6aおよび6bに近接する部分には、センサ用のランド部13aおよび13bがそれぞれ設けられている。そして、位置決め穴6aおよび6bに、それぞれホール素子8Aおよび8Bを嵌合することによって、ホール素子8Aおよび8Bの端子辺8b(図5参照)がセンサ用ランド13aおよび13bに接触する。その結果、半田付けする際に、ホール素子8Aおよび8Bを加圧保持する必要がなく、作業が容易であるので生産性が良い。   Further, sensor land portions 13a and 13b are provided in the fixing portion 9a of the flexible printed board 9 and in the vicinity of the positioning holes 6a and 6b, respectively. Then, by fitting the hall elements 8A and 8B into the positioning holes 6a and 6b, respectively, the terminal sides 8b (see FIG. 5) of the hall elements 8A and 8B come into contact with the sensor lands 13a and 13b. As a result, when soldering, it is not necessary to press and hold the Hall elements 8A and 8B, and the work is easy, so the productivity is good.

また、積層基板6には、ピッチング用のコイルパターン7Aとヨーイング用のコイルパターン7Bにそれぞれ接続されるランド部6eおよび6fが形成されている。ランド部6eおよび6fは、フレキシブルプリント板9の固定部9aに対応して形成されたランド部14aおよび14bに半田付けにより接続されている。そして、ランド部6eおよび6fは、フレキシブルプリント板9の固定部9aと可動部9bとに形成された結線パターン9dによって、端子部9cを介してコネクタ15に接続されている。結果、固定枠5(図2参照)側のコネクタ15から可動側のヨーイング移動枠4(図2参照)に対して、ホール素子8Aおよび8Bに対する電気信号の送受信と、コイルパターン7Aおよび7Bへの電力供給とを行うことができる。   The laminated substrate 6 is formed with land portions 6e and 6f connected to the coiling pattern 7A for pitching and the coil pattern 7B for yawing, respectively. The land portions 6e and 6f are connected to the land portions 14a and 14b formed corresponding to the fixing portion 9a of the flexible printed board 9 by soldering. The land portions 6e and 6f are connected to the connector 15 via the terminal portion 9c by a connection pattern 9d formed on the fixed portion 9a and the movable portion 9b of the flexible printed board 9. As a result, transmission / reception of electric signals to / from the hall elements 8A and 8B and transmission to the coil patterns 7A and 7B from the connector 15 on the fixed frame 5 (see FIG. 2) to the movable yawing movement frame 4 (see FIG. 2). Power supply can be performed.

図3、図4、および図5に示すように、固定枠5には、コイルパターン7Aおよび7Bに対向するマグネット10Aおよび10Bがヨーク11Aおよび11Bに取り付けられている。そして、ホール素子8Aおよび8Bの移動範囲の中心位置と、2極着磁したマグネット10Aおよび10Bの境界とが一致するように精度良く位置決めするために、固定枠5には、マグネット10Aおよび10Bの上下位置の少なくとも一方と、左右位置の少なくとも一方に当接する位置決め用凸部(位置決め部)12aおよび12bが設けられている。マグネット10Aおよび10Bは、位置決用凸部12aおよび12bに当接して、位置規制される。   As shown in FIGS. 3, 4, and 5, magnets 10 </ b> A and 10 </ b> B facing coil patterns 7 </ b> A and 7 </ b> B are attached to yokes 11 </ b> A and 11 </ b> B on fixed frame 5. In order to position the Hall elements 8A and 8B in a precise manner so that the center position of the movement range of the Hall elements 8A and 8B coincides with the boundary between the magnets 10A and 10B magnetized with two poles, the fixed frame 5 includes the magnets 10A and 10B. Positioning convex portions (positioning portions) 12a and 12b that are in contact with at least one of the upper and lower positions and at least one of the left and right positions are provided. The magnets 10A and 10B are in contact with the positioning protrusions 12a and 12b and are regulated in position.

図1に戻って、OISユニット制御部104aの機能について説明する。OISユニット制御部104aの動作する条件は、主に以下に述べるケース1、ケース2、およびケース3の3通りが考えられる。
<ケース1>
操作部110のシャッターボタンが半押しされた場合に、システムコントローラ120がシャッターボタンが半押し状態であることを検知して、OISユニット制御部104aをモニタ画面像ぶれ補正モードに設定する。そして、シャッターボタンが全押しされた場合には、システムコントローラ120がシャッターボタンの全押し状態であることを検知して、OISユニット制御部104aをモニタ画面像ぶれ補正モードから撮像画面像ぶれ補正モードに切換える。さらに、システムコントローラ120は、CCD106に第1の画像信号Sv1を出力させ、当該第1の画像信号Sv1を画像処理部107を介して第2の画像信号Sv2としてメモリーカード112に格納させた後に、OISユニット制御部104aの動作を終了させる。
Returning to FIG. 1, the function of the OIS unit controller 104a will be described. The operating conditions of the OIS unit controller 104a are mainly considered to be the following three cases: Case 1, Case 2, and Case 3.
<Case 1>
When the shutter button of the operation unit 110 is half-pressed, the system controller 120 detects that the shutter button is half-pressed, and sets the OIS unit control unit 104a to the monitor screen image blur correction mode. When the shutter button is fully pressed, the system controller 120 detects that the shutter button is fully pressed, and changes the OIS unit controller 104a from the monitor screen image blur correction mode to the imaging screen image blur correction mode. Switch to. Further, the system controller 120 causes the CCD 106 to output the first image signal Sv1 and stores the first image signal Sv1 in the memory card 112 as the second image signal Sv2 via the image processing unit 107. The operation of the OIS unit controller 104a is terminated.

<ケース2>
操作部110のシャッターボタンが全押しされた場合に、システムコントローラ120がシャッターバタンが全押しされた状態であることを検知して、CCD106から第1の画像信号Sv1が出力される直前に、OISユニット制御部104aを起動させる。そして、CCD106から第1の画像信号Sv1が出力された後に、システムコントローラ120が画像処理部107を介してメモリーカードに第2の画像信号Sv2を格納させた後に、OISユニット制御部104aの動作を終了させる。
<Case 2>
When the shutter button of the operation unit 110 is fully pressed, the system controller 120 detects that the shutter button is fully pressed, and immediately before the first image signal Sv1 is output from the CCD 106, the OIS The unit controller 104a is activated. After the first image signal Sv1 is output from the CCD 106, the system controller 120 stores the second image signal Sv2 in the memory card via the image processing unit 107, and then the operation of the OIS unit control unit 104a is performed. Terminate.

<ケース3>
操作部110の電源スイッチがONになり、撮像装置ICD1が撮影モードのときにシステムコントローラ120が撮像装置ICD1が撮影モードであることを検知して、OISユニット制御部104aを起動させる。そして、電源スイッチがOFFになったり、メモリーカード112に格納されている第2の画像信号Sv2が画像処理部107を介して表示部111に供給されて、表示部111で画像表示されたりするなどの撮影モード以外のときに、システムコントローラ120はOISユニット制御部104aの動作を終了させる。
<Case 3>
When the power switch of the operation unit 110 is turned on and the imaging device ICD1 is in the shooting mode, the system controller 120 detects that the imaging device ICD1 is in the shooting mode, and activates the OIS unit control unit 104a. Then, the power switch is turned off, the second image signal Sv2 stored in the memory card 112 is supplied to the display unit 111 via the image processing unit 107, and an image is displayed on the display unit 111. In a mode other than the shooting mode, the system controller 120 ends the operation of the OIS unit controller 104a.

上述のケース1、ケース2、およびケース3の3通りの条件をそれぞれ撮像装置ICD1の本体に取付けられたメニュー釦(図示せず)によって切換えるように構成しても良い。また、スチル画像を撮影する場合はケース1或いはケース2に、そして動画像を撮影する場合はケース3にというように撮影モードに応じて自動的に切換えるようにしても良い。   The three conditions of case 1, case 2, and case 3 may be switched by a menu button (not shown) attached to the main body of the imaging device ICD1. Alternatively, the case may be automatically switched according to the photographing mode such as case 1 or case 2 when photographing a still image and case 3 when photographing a moving image.

図6を参照して、本実施の形態に係る像ぶれ補正機能について説明する。贈ぶれ補正機能は、OISユニット102aおよびOISユニット制御部104aによって実現される。OISユニット102aは、OISアクチュエータ31xおよび31yと位置検出センサ32xおよび32yを含む。OISアクチュエータ31xは像ぶれ防止レンズ1(OISユニット102a)と共に左右方向(ヨーイング方向)に移動するコイルパターン7Bと固定枠5に固定されたマグネット10Bおよびヨーク11Bで構成される。位置検出センサ32xはホール素子8Bで形成される。   With reference to FIG. 6, the image blur correction function according to the present embodiment will be described. The gift correction function is realized by the OIS unit 102a and the OIS unit controller 104a. The OIS unit 102a includes OIS actuators 31x and 31y and position detection sensors 32x and 32y. The OIS actuator 31x includes a coil pattern 7B that moves in the left-right direction (the yawing direction) together with the image blur prevention lens 1 (OIS unit 102a), a magnet 10B that is fixed to the fixed frame 5, and a yoke 11B. The position detection sensor 32x is formed by a Hall element 8B.

そして、OISアクチュエータ31yは、像ぶれ防止レンズ1(OISユニット102a)と共に上下方向(ピッチング方向)に移動するコイルパターン7Aと固定枠5に固定されたマグネット10Aおよびヨーク11Aで構成される。位置検出センサ32yはホール素子8Aで構成される。   The OIS actuator 31y includes a coil pattern 7A that moves in the vertical direction (pitching direction) together with the image blur prevention lens 1 (OIS unit 102a), a magnet 10A that is fixed to the fixed frame 5, and a yoke 11A. The position detection sensor 32y includes a hall element 8A.

OISユニット制御部104aは、ゲイン補正部33xおよび33yと、角速度センサ34xおよび34yと、積分器35xおよび35yと、ゲイン補正部36xおよび36yと、比較部37xおよび37yと、OISユニット駆動部38xおよび38yと、画像シフト量演算部39xおよび39yとを含む。   The OIS unit control unit 104a includes gain correction units 33x and 33y, angular velocity sensors 34x and 34y, integrators 35x and 35y, gain correction units 36x and 36y, comparison units 37x and 37y, an OIS unit drive unit 38x and 38y and image shift amount calculation units 39x and 39y.

角速度センサ34xは、像ぶれ防止レンズ1(OISユニット102a)を左右方向(ヨーイング方向)に移動させるOISアクチュエータ31xに対応する方向の角速度Axを検出する。積分器35xは、角速度センサ34xから出力される角速度Axを積分して角度情報IAxを出力する。OISユニット駆動部38xは、コイルパターン7Bに電力を供給する。ゲイン補正部33xは、位置検出センサ32xから出力される可動部の位置情報IPxを所定のゲインK1で倍増させる。ゲイン補正部36xは、積分器35xから出力される角度情報IAxを所定のゲインK2で倍増させる。   The angular velocity sensor 34x detects an angular velocity Ax in a direction corresponding to the OIS actuator 31x that moves the image blur prevention lens 1 (OIS unit 102a) in the left-right direction (the yawing direction). The integrator 35x integrates the angular velocity Ax output from the angular velocity sensor 34x and outputs angle information IAx. The OIS unit drive unit 38x supplies power to the coil pattern 7B. The gain correction unit 33x doubles the position information IPx of the movable part output from the position detection sensor 32x by a predetermined gain K1. The gain correction unit 36x doubles the angle information IAx output from the integrator 35x with a predetermined gain K2.

比較部37xは、ゲイン補正部33xから出力される可動部の位置情報K1*IPxと、ゲイン補正部36xから出力される撮像装置本体の角度情報K2*IAxとを比較する。その比較結果は、比較部37xから、OISユニット駆動部38xおよび画像シフト量演算部39xに対する制御信号Scxとして出力される。つまり、当該制御信号Scxに基づいて、OISユニット駆動部38xはOISアクチュエータ31xの可動部の位置を制御する。また、画像シフト量演算部39xは、同制御信号Scx(つまり、ゲイン調整部33xから出力されるOISユニット102のx方向の位置情報であるK1・IPxとゲイン調整部36xから出力される撮像装置のx方向の角度振れ情報K2・IAxとの差K2・IAx−K1・IP)に基づいてx方向の画像シフト量ISx(以降、「x方向画像シフト量ISx」)を演算する。   The comparison unit 37x compares the position information K1 * IPx of the movable unit output from the gain correction unit 33x with the angle information K2 * IAx of the imaging apparatus main body output from the gain correction unit 36x. The comparison result is output from the comparison unit 37x as a control signal Scx for the OIS unit drive unit 38x and the image shift amount calculation unit 39x. That is, based on the control signal Scx, the OIS unit drive unit 38x controls the position of the movable unit of the OIS actuator 31x. In addition, the image shift amount calculation unit 39x includes the control signal Scx (that is, K1 · IPx which is position information in the x direction of the OIS unit 102 output from the gain adjustment unit 33x and the imaging device output from the gain adjustment unit 36x). X-direction image shift amount ISx (hereinafter referred to as “x-direction image shift amount ISx”) based on the difference K2 · IAx−K1 · IP) from the x-direction angular shake information K2 · IAx.

同様に、角速度センサ34yは、像ぶれ防止レンズ1(OISユニット102a)を上下方向(ピッチング方向)に移動させるOISアクチュエータ31yに対応する方向の角速度Ayを検出する。積分器35yは、角速度センサ34yから出力される角速度Ayを積分して角度情報IAyを出力する。OISユニット駆動部38yは、コイルパターン7Aに電力を供給する。ゲイン補正部33yは、位置検出センサ32yから出力される可動部の位置情報IPyを所定のゲインK1で倍増する。ゲイン補正部36yは、積分器35yから出力される角度情報を所定のゲインK2で倍増する。   Similarly, the angular velocity sensor 34y detects an angular velocity Ay in a direction corresponding to the OIS actuator 31y that moves the image blur prevention lens 1 (OIS unit 102a) in the vertical direction (pitching direction). The integrator 35y integrates the angular velocity Ay output from the angular velocity sensor 34y and outputs angle information IAy. The OIS unit driving unit 38y supplies power to the coil pattern 7A. The gain correction unit 33y doubles the position information IPy of the movable part output from the position detection sensor 32y by a predetermined gain K1. The gain correction unit 36y doubles the angle information output from the integrator 35y with a predetermined gain K2.

比較部37yは、ゲイン補正部33yから出力される可動部の位置情報K1・IPyと、ゲイン補正部36xから出力される撮像装置本体の角度情報K2・IAyとを比較する。その比較結果は、比較部37xから、OISユニット駆動部38yおよび画像シフト量演算部39yに対する制御信号Scyとして出力される。つまり、当該制御信号Scyに基づいて、OISユニット駆動部38yはOISアクチュエータ31yの可動部の位置を制御する。また、画像シフト量演算部39yは、同制御信号Scy(つまり、ゲイン調整部33yから出力されるOISユニット102aのy方向の位置情報K1・IPyとゲイン調整部36yから出力される撮像装置のy方向の角度振れ情報K2・IAyとの差K2・IAy−K1・IPy)に基づいてy方向画像シフト量ISy(以降、「y方向画像シフト量ISy」)を演算する。   The comparison unit 37y compares the position information K1 · IPy of the movable part output from the gain correction unit 33y and the angle information K2 · IAy of the imaging apparatus main body output from the gain correction unit 36x. The comparison result is output from the comparison unit 37x as a control signal Scy for the OIS unit drive unit 38y and the image shift amount calculation unit 39y. That is, based on the control signal Scy, the OIS unit driving unit 38y controls the position of the movable unit of the OIS actuator 31y. In addition, the image shift amount calculation unit 39y outputs the control signal Scy (that is, the position information K1 • IPy in the y direction of the OIS unit 102a output from the gain adjustment unit 33y and the y of the imaging device output from the gain adjustment unit 36y). The y-direction image shift amount ISy (hereinafter referred to as “y-direction image shift amount ISy”) is calculated based on the difference K2 · IAy−K1 · IPy from the direction angular shake information K2 · IAy.

以降、必要に応じて、OISアクチュエータ31xおよび31yをOISアクチュエータ31と総称し、位置検出センサ32xおよび32yを位置検出センサ32と総称し、ゲイン補正部33xおよび33yをゲイン補正部33と総称し、角速度センサ34xおよび34yを角速度センサ34と総称し、積分器35xおよび35yを積分器35と総称し、ゲイン補正部36xおよび36yをゲイン補正部36と総称し、比較部37xおよび37yを比較部37と総称し、OISユニット駆動部38xおよび38yをOISユニット駆動部38と総称し、そして画像シフト量演算部39xおよび39yを画像シフト量演算部39と総称する。上述のように、OISアクチュエータ31、位置検出センサ32、ゲイン補正部33、比較部37、およびOISユニット駆動部38は制御ループゲインを構成している。   Hereinafter, as necessary, the OIS actuators 31x and 31y are collectively referred to as the OIS actuator 31, the position detection sensors 32x and 32y are collectively referred to as the position detection sensor 32, and the gain correction units 33x and 33y are collectively referred to as the gain correction unit 33. The angular velocity sensors 34x and 34y are collectively referred to as the angular velocity sensor 34, the integrators 35x and 35y are collectively referred to as the integrator 35, the gain correction units 36x and 36y are collectively referred to as the gain correction unit 36, and the comparison units 37x and 37y are compared with the comparison unit 37. OIS unit drive units 38x and 38y are collectively referred to as OIS unit drive unit 38, and image shift amount calculation units 39x and 39y are collectively referred to as image shift amount calculation unit 39. As described above, the OIS actuator 31, the position detection sensor 32, the gain correction unit 33, the comparison unit 37, and the OIS unit driving unit 38 constitute a control loop gain.

上述の如く構成された、OISユニット102aおよびOISユニット制御部104aにおいて、像ぶれ補正機能は以下の如く実現される。つまり、撮像装置ICD1の左右方向の振れに対して像ぶれを補正の元となるx方向の角度振れ情報K2・IAxは角速度センサ34xおよび積分器35xを通してゲイン補正部36xから出力される。左右方向の振れのない状態では、ゲイン補正部36xからは所定の基準電圧がx方向の角度振れ情報K2・IAxとして出力される。このx方向の角度振れ情報K2・IAxの基準電圧にあわせて、OISユニット駆動部38x、OISアクチュエータ31x、位置検出センサ32x、およびゲイン補正部33xによって像ぶれ防止レンズ1の位置が制御される。すなわち、この状態では比較部37xからOISユニット駆動部38xに出力される電圧はほぼ0となり、像ぶれ防止レンズ1の中心は像ぶれ防止レンズ1以外の撮像光学系ICSaのほぼ中心を通る垂直線に一致する。   In the OIS unit 102a and the OIS unit controller 104a configured as described above, the image blur correction function is realized as follows. That is, the angular shake information K2 · IAx in the x direction, which is the basis for correcting the image blur for the lateral shake of the imaging device ICD1, is output from the gain correction unit 36x through the angular velocity sensor 34x and the integrator 35x. In a state where there is no left-right shake, a predetermined reference voltage is output from the gain correction unit 36x as x-direction angular shake information K2 · IAx. The position of the image blur prevention lens 1 is controlled by the OIS unit drive unit 38x, the OIS actuator 31x, the position detection sensor 32x, and the gain correction unit 33x in accordance with the reference voltage of the angular shake information K2 · IAx in the x direction. That is, in this state, the voltage output from the comparison unit 37x to the OIS unit driving unit 38x is substantially 0, and the center of the image blur prevention lens 1 is a vertical line passing through the substantial center of the imaging optical system ICSa other than the image blur prevention lens 1. Matches.

撮像装置ICD1に左右方向の振れが生じた状態では、ゲイン補正部36xからは撮像光学系ICSaのx方向の回転角度に基づく電圧が出力される。この電圧によって、像ぶれ防止レンズ1をこの左右方向の回転角度分だけ像ぶれを生じない方向に移動させる。したがって、ゲイン補正部33xとゲイン補正部36xとでは、像ぶれ防止レンズ1を位置検出センサ32xで検出した出力(x方向の角度振れ情報K2・IAx)に対して像ぶれを生じない位置に移動させるために必要な電力がOISユニット駆動部38xからOISアクチュエータ31xに出力されるように調整される。具体的には、撮像装置ICD1が工場より出荷される時点で調整される。   In a state in which the imaging apparatus ICD1 is shaken in the left-right direction, a voltage based on the rotation angle in the x direction of the imaging optical system ICSa is output from the gain correction unit 36x. With this voltage, the image blur prevention lens 1 is moved in a direction in which no image blur occurs by the rotation angle in the left-right direction. Therefore, the gain correction unit 33x and the gain correction unit 36x move to a position where no image blur occurs with respect to the output (angle shake information K2 · IAx in the x direction) detected by the position detection sensor 32x. The power necessary for the adjustment is adjusted so as to be output from the OIS unit driver 38x to the OIS actuator 31x. Specifically, the adjustment is performed when the imaging device ICD1 is shipped from the factory.

一方、撮像装置ICD1の上下(y)方向の振れに対する像ぶれを補正の元となるy方向の角度振れ情報K2・IAyは角速度センサ34yおよび積分器35yを通してゲイン補正部36yから出力される。上下方向の振れのない状態では、ゲイン補正部36yからは所定の基準電圧が制御指令信号として出力される。このy方向の角度振れ情報K2・IAyの基準電圧に一致するように、OISユニット駆動部38y、OISアクチュエータ31y、位置検出センサ32yおよびゲイン補正部33yによって像ぶれ防止レンズ1の位置が制御される。すなわち、この状態では比較部37yからOISユニット駆動部38yに出力される電圧はほぼ0となり、像ぶれ防止レンズ1の中心は像ぶれ防止レンズ1以外の撮像光学系ICSaのほぼ中心を通る水平線に一致する。   On the other hand, the angular shake information K2 · IAy in the y direction, which is the basis for correcting image blur due to the shake in the vertical (y) direction of the imaging device ICD1, is output from the gain correction unit 36y through the angular velocity sensor 34y and the integrator 35y. In a state where there is no up-down vibration, a predetermined reference voltage is output as a control command signal from the gain correction unit 36y. The position of the image blur prevention lens 1 is controlled by the OIS unit driving unit 38y, the OIS actuator 31y, the position detection sensor 32y, and the gain correcting unit 33y so as to coincide with the reference voltage of the angular shake information K2 · IAy in the y direction. . That is, in this state, the voltage output from the comparison unit 37y to the OIS unit driving unit 38y is substantially 0, and the center of the image blur prevention lens 1 is a horizontal line passing through the substantial center of the imaging optical system ICSa other than the image blur prevention lens 1. Match.

撮像装置ICD1に上下方向の振れを生じた状態では、ゲイン補正部36yからは撮像装置ICD1のy方向の回転角度に基づく電圧が出力される。この上下方向の回転角度に基づく電圧によって、この上下方向の回転角度分だけ像ぶれを生じない方向に像ぶれ防止レンズ1が移動させられる。したがって、ゲイン補正部33yとゲイン補正部36yとでは、位置検出センサ32yで検出した出力に対して像ぶれを生じない方向に像ぶれ防止レンズ1を移動させるために必要な電力がOISユニット駆動部38yからOISアクチュエータ31yに出力されるように調整される。具体的には、具体的には、撮像装置ICD1が工場より出荷される時点で調整される。   In a state where the imaging device ICD1 is shaken in the vertical direction, the gain correction unit 36y outputs a voltage based on the rotation angle of the imaging device ICD1 in the y direction. By the voltage based on the vertical rotation angle, the image blur prevention lens 1 is moved in a direction in which no image blur occurs by the vertical rotation angle. Therefore, in the gain correction unit 33y and the gain correction unit 36y, the power necessary for moving the image blur prevention lens 1 in a direction in which image blur is not generated with respect to the output detected by the position detection sensor 32y is generated by the OIS unit driving unit. The output is adjusted from 38y to the OIS actuator 31y. Specifically, the adjustment is performed when the imaging device ICD1 is shipped from the factory.

次に、図7を参照して、画像処理部107について説明する。画像処理部107は、画像読出部41、画像切出部42、画像合成部43、および画像メモリ44を含む。画像処理部107は、主に電子的な像ぶれ補正機能を有する。画像読出部41は、CCD106から出力される第1の画像信号Sv1から1フレーム分の画像データを読み出して第1の画像データDi1として合焦情報算出部109aおよび画像切出部42に対して出力する。合焦情報算出部109aは、第1の画像データDi1をフォーカスレンズユニット103を駆動して合焦させるための評価値として用いて、コントラスト情報を演算する。   Next, the image processing unit 107 will be described with reference to FIG. The image processing unit 107 includes an image reading unit 41, an image cutting unit 42, an image composition unit 43, and an image memory 44. The image processing unit 107 mainly has an electronic image blur correction function. The image reading unit 41 reads image data for one frame from the first image signal Sv1 output from the CCD 106, and outputs the image data to the focusing information calculation unit 109a and the image cutout unit 42 as first image data Di1. To do. The focusing information calculation unit 109a calculates contrast information by using the first image data Di1 as an evaluation value for driving the focus lens unit 103 to focus.

画像切出部42は、第1の画像データDi1および第1の画像データDi1に対応するx方向画像シフト量ISxとy方向画像シフト量ISyとに基づいて、OISアクチュエータ31によって補正しきれなかった像ぶれ分を補正するように第1の画像データDi1から第2の画像データDi2を切り出して、画像合成部43へ出力する。つまり、第1の画像データDi1は、OISアクチュエータ31で撮影前に光学的に像ぶれ防止された状態でのCCD106で撮像された撮影画像(第1の画像信号Sv1)の1フレーム画像データであり、画像データDi2は光学的に像ぶれ防止されて撮影された後にさらに電子的に像ぶれ補正された1フレーム画像データである。   The image cutout unit 42 could not be corrected by the OIS actuator 31 based on the first image data Di1 and the x-direction image shift amount ISx and the y-direction image shift amount ISy corresponding to the first image data Di1. The second image data Di2 is cut out from the first image data Di1 so as to correct the image blur, and is output to the image composition unit 43. That is, the first image data Di1 is 1-frame image data of a captured image (first image signal Sv1) captured by the CCD 106 in a state in which image blurring is optically prevented by the OIS actuator 31 before capturing. The image data Di2 is one-frame image data that has been captured with optical image blur prevention and further subjected to electronic image blur correction.

すなわち、第1の画像データDi1は、前フレームから現フレームでの撮影に際して生じる撮像装置ICDの像ぶれ防止レンズ1(撮像光学系ICSa)の動きに起因して生じるであろう像ふれが光学的に防止されて撮像される画像データである。そして、第2の画像データDi2は、第1の画像データDi1において光学的な像ぶれ防止機能で防ぎ切れていない像ぶれを、画像処理(ピクセル単位の切り出しアドレスを調整)することで、さらに補正された画像データである。   That is, the first image data Di1 has an optical image blur that may be caused by the movement of the image blur prevention lens 1 (imaging optical system ICSa) of the imaging apparatus ICD that occurs during imaging from the previous frame to the current frame. The image data is captured while being prevented. The second image data Di2 is further corrected by performing image processing (adjusting the cutout address in pixel units) on image blurring that cannot be completely prevented by the optical image blurring prevention function in the first image data Di1. Image data.

この意味において、第1の画像データDi1および第2の画像データDi2をそれぞれ、必要に応じて、光学的像ぶれ防止撮影画像データおよび光学的像ぶれ防止撮影/電子的像ぶれ補正画像データと呼んで識別する。また、第1の画像データDi1および第2の画像データDi2、すなわち光学的像ぶれ防止撮影画像データDi1および光学的像ぶれ防止撮影/電子的像ぶれ補正画像データDi2が表す画像を、それぞれ、光学的像ぶれ防止撮影画像I1および光学的像ぶれ防止撮影/電子的像ぶれ補正画像I2と称する。   In this sense, the first image data Di1 and the second image data Di2 are referred to as optical image blurring prevention photographed image data and optical image blurring prevention photographing / electronic image blurring correction image data, respectively, as necessary. Identify with Further, the first image data Di1 and the second image data Di2, that is, the images represented by the optical image blurring prevention captured image data Di1 and the optical image blurring prevention photographing / electronic image blurring correction image data Di2, are respectively optically displayed. These are referred to as a target image blur prevention photographed image I1 and an optical image blur prevention photograph / electronic image blur correction image I2.

画像合成部43は、CCD106、画像読出部41および画像切出部42を介して入力された複数枚の撮影画像分の光学的像ぶれ防止撮影/電子的像ぶれ補正画像データDi2を画像メモリ44に記憶させる。画像合成部43は、撮像装置ICD像ぶれ防止レンズ1による撮像が終了した後に、画像メモリ44に記憶されている複数枚の電子的像ぶれ補正画像データDi2を加算平均して画像合成を行い、第3の画像データDi3を生成する。なお、第1の画像データDi1、第2の画像データDi2、および第3の画像データDi3を画像データDiと総称する。   The image synthesizing unit 43 stores optical image blurring prevention / electronic image blurring correction image data Di2 for a plurality of captured images input via the CCD 106, the image reading unit 41, and the image cutout unit 42 in the image memory 44. Remember me. The image synthesis unit 43 performs image synthesis by averaging the plurality of electronic image blur correction image data Di2 stored in the image memory 44 after the imaging by the imaging device ICD image blur prevention lens 1 is completed. Third image data Di3 is generated. The first image data Di1, the second image data Di2, and the third image data Di3 are collectively referred to as image data Di.

そして、画像合成部43は、第3の画像データDi3を表示部111或いはメモリーカード112に転送する。なお、複数枚の画像データ(第2の画像データDi2)は、1枚の画像データを1フレーム単位として、システムコントローラ120から出力される同期信号(30〜120[Hz])のタイミングで1フレームずつ処理される。   Then, the image composition unit 43 transfers the third image data Di3 to the display unit 111 or the memory card 112. Note that a plurality of pieces of image data (second image data Di2) is one frame at the timing of a synchronization signal (30 to 120 [Hz]) output from the system controller 120, with one piece of image data as one frame unit. Processed one by one.

図8および図9を参照して、光学的像ぶれ防止撮影画像I1に対する電子的像ぶれ補正について説明する。図8は、光学的像ぶれ防止撮影画像I1(第1の画像データDi1)における画素配置の一例を示している。図9はCCD106によって撮影され光学的像ぶれ防止撮影画像I1(第1の画像データDi1)と、画像読出部41によって読み出される電子的像ぶれ補正画像I2(第2の画像データDi2)との位置関係を示している。   With reference to FIGS. 8 and 9, the electronic image blur correction for the optical image blur prevention captured image I1 will be described. FIG. 8 shows an example of the pixel arrangement in the optical image blur prevention captured image I1 (first image data Di1). FIG. 9 shows the positions of the optical image blur prevention photographed image I1 (first image data Di1) photographed by the CCD 106 and the electronic image blur correction image I2 (second image data Di2) read by the image reading unit 41. Showing the relationship.

具体的には、図8において、r(0,0)、g(1,0)、b(1,1)などは、(m+1)×(n+1)個の画素数で表される画素単位を表している。つまり、( )内は、光学的像ぶれ防止撮影画像I1として表示される或いは、光学的ぶれ防止撮影/電子的像ぶれ補正画像I2として切り出される矩形画像を構成する個々の画素の座標を示している。つまり、本例においては、光学的像ぶれ防止撮影画像I1は左から順に0からmまでのm+1列、上から順に0からnまでのn+1行の画素マトリックにおける二次元の位置情報からなる。例えば、500万画素のCCDではm=2559、n=1919、400万画素のCCDではm=2303、n=1727で表される。   Specifically, in FIG. 8, r (0,0), g (1,0), b (1,1), etc. are pixel units represented by the number of (m + 1) × (n + 1) pixels. Represents. In other words, () shows the coordinates of individual pixels constituting a rectangular image that is displayed as an optical image blur prevention photographed image I1 or cut out as an optical blur prevention photograph / electronic image blur correction image I2. Yes. In other words, in this example, the optical image blur prevention captured image I1 includes two-dimensional position information in a pixel matrix of m + 1 columns from 0 to m sequentially from the left and n + 1 rows from 0 to n sequentially from the top. For example, m = 2559 and n = 1919 for a CCD with 5 million pixels, and m = 2303 and n = 1727 for a CCD with 4 million pixels.

r(0,0)、g(1,0)、b(1,1)は、それぞれ、r(m,n)、g(m,n)、b(m,n)と一般化できる。つまり、1画素を256階調で表すと、r(m,n)は赤色の情報を256階調で表した数値が格納される。g(1,0)は緑色の情報を256階調で表した数値が格納される。b(1,1)は青色の情報を256階調で表した数値が格納される。つまり、図8において、光学的像ぶれ防止撮影画像I1の画素配置において、m座標が0とm、n座興が0とnで表される画素、つまり、r(0,0)、g(m,0)、b(m,n)、g(0,n)、r(0,0)の順で結んだ画素を含む外側の枠は、光学的像ぶれ防止撮影画像I1の輪郭を表している。   r (0,0), g (1,0) and b (1,1) can be generalized as r (m, n), g (m, n) and b (m, n), respectively. In other words, when one pixel is represented by 256 gradations, r (m, n) stores a numerical value representing red information in 256 gradations. g (1,0) stores a numerical value representing green information in 256 gradations. b (1,1) stores a numerical value representing blue information in 256 gradations. That is, in FIG. 8, in the pixel arrangement of the optical image blur prevention captured image I <b> 1, pixels represented by m coordinates 0 and m and n coordinates 0 and n, that is, r (0,0), g (m , 0), b (m, n), g (0, n), and r (0, 0) in order, the outer frame represents the contour of the optical image blur prevention captured image I1. Yes.

図9において、実線で表されている矩形Oi1(1)、Oi1(2)、Oi1(3)、およびOi1(4)は、CCD106によって生成された連続する4フレームの光学的像ぶれ防止撮影画像I1(1)、I1(2)、Ii(3)、およびIi(4)の輪郭を示している。本例においては、光学的像ぶれ防止撮影画像I1(1)、I1(2)、Ii(3)、およびIi(4)は、それぞれ、1番目、2番目、3番目、および4番目のフレームの光学的像ぶれ防止撮影画像を表している。光学的像ぶれ防止撮影画像I1(1)〜I1(4)において、符号Pは被写体を表している。また、一点鎖線で表されている矩形Oi2(1)、Oi2(2)、Oi2(3)、およびOi2(4)は、それぞれ、光学的像ぶれ防止撮影画像I1(1)、I1(2)、I1(3)、およびI1(4)から切り出される光学的ぶれ防止撮影/電子的像ぶれ補正画像I2(1)、I2(2)、I2(3)、およびI2(4)の輪郭を示している。   In FIG. 9, rectangles Oi1 (1), Oi1 (2), Oi1 (3), and Oi1 (4) represented by solid lines are four consecutive frames of an optical image blur-captured photographed image generated by the CCD 106. The contours of I1 (1), I1 (2), Ii (3), and Ii (4) are shown. In this example, the optical image blur prevention captured images I1 (1), I1 (2), Ii (3), and Ii (4) are the first, second, third, and fourth frames, respectively. This represents an optical image blur prevention photographed image. In the optical image blur prevention captured images I1 (1) to I1 (4), the symbol P represents a subject. In addition, rectangles Oi2 (1), Oi2 (2), Oi2 (3), and Oi2 (4) represented by alternate long and short dash lines are optical image blur prevention captured images I1 (1) and I1 (2), respectively. , I1 (3), and I1 (4) show the outlines of the optical blur prevention photographing / electronic image blur correction images I2 (1), I2 (2), I2 (3), and I2 (4) ing.

光学的ぶれ防止撮影/電子的像ぶれ補正画像I2(1)、I2(2)、I2(3)、およびI2(4)のそれぞれは同一の大きさである。しかしながら、光学的ぶれ防止撮影/電子的像ぶれ補正画像I2(1)、I2(2)、I2(3)、およびI2(4)それぞれの光学的像ぶれ防止撮影画像I1(1)、I1(2)、Ii(3)、およびIi(4)における位置は異なる。   Each of the optical blur prevention photographing / electronic image blur correction images I2 (1), I2 (2), I2 (3), and I2 (4) has the same size. However, the optical image blur prevention captured / electronic image blur corrected images I2 (1), I2 (2), I2 (3), and I2 (4) are respectively optical image blur preventive captured images I1 (1), I1 ( 2) The positions in Ii (3) and Ii (4) are different.

つまり、光学的像ぶれ防止撮影画像I1における像ぶれが補正されるように、光学的ぶれ防止撮影/電子的像ぶれ補正画像I2が光学的像ぶれ防止撮影画像I1から切り出される位置がx方向或いはy方向へシフトされる。同図において、丸の中にそれぞれ1、2、3、および4を附した符号(以降、符号1、符号2、符号3、および符号4と称す)は、光学的ぶれ防止撮影/電子的像ぶれ補正画像I2のシフト量について説明するために、光学的像ぶれ防止撮影画像I1の輪郭Oi1に対する、被写体P1の特定の一部を表す位置変化を示す為に任意に選ばれた指標点を示している。   That is, the position where the optical image blur prevention / electronic image blur correction image I2 is cut out from the optical image blur prevention captured image I1 is set in the x direction or so that the image blur in the optical image blur prevention captured image I1 is corrected. Shifted in the y direction. In the figure, reference numerals with 1, 2, 3, and 4 in circles (hereinafter referred to as reference numeral 1, reference numeral 2, reference numeral 3, and reference numeral 4) are optical blur prevention photographing / electronic images. In order to describe the shift amount of the shake correction image I2, index points arbitrarily selected to indicate a position change representing a specific part of the subject P1 with respect to the contour Oi1 of the optical image shake prevention captured image I1 are shown. ing.

以下に、上述の4枚の連続するフレームに関する光学的像ぶれ防止撮影画像I1(1)〜I1(4)と、光学的ぶれ防止撮影/電子的像ぶれ補正画像I2(1)〜I2(4)との画像例を参照して、露光期間内に像ぶれ防止レンズ1による光学的な像ぶれ補正処理で防止しきれなかった像ぶれを、OISユニット制御部104aから出力される像ぶれ補正誤差情報ISeを用いてさらに電子的に補正する電子的像ぶれ補正について述べる。   In the following, optical image blur prevention captured images I1 (1) to I1 (4) relating to the four consecutive frames described above, and optical blur prevention captured / electronic image blur correction images I2 (1) to I2 (4). ), An image blur correction error output from the OIS unit control unit 104a is an image blur that cannot be prevented by the optical image blur correction process by the image blur prevention lens 1 within the exposure period. An electronic image blur correction that further electronically corrects using the information ISe will be described.

<1番目フレーム>
CCD106から出力される1番目のフレームの光学的像ぶれ防止撮影画像I1(1)においては、被写体Pは光学的像ぶれ防止撮影画像I1(1)のほぼ中央に位置している。よって、光学的ぶれ防止撮影/電子的像ぶれ補正画像I2(1)は光学的像ぶれ防止撮影画像I1(1)に対してほぼ同心状に切り出される。このようにして、1番目フレームの第1の画像データDi1(1)から1番目フレームの第2の画像データDi2(1)が生成される。なお、光学的像ぶれ防止撮影画像I1(1)における被写体P1の指標点は初期位置である符号1の位置としている。
<First frame>
In the optical image blur prevention photographed image I1 (1) of the first frame output from the CCD 106, the subject P is located substantially at the center of the optical image blur prevention photographed image I1 (1). Therefore, the optical blur prevention photograph / electronic image blur correction image I2 (1) is cut out substantially concentrically with respect to the optical image blur prevention photograph image I1 (1). In this way, second image data Di2 (1) for the first frame is generated from first image data Di1 (1) for the first frame. It should be noted that the index point of the subject P1 in the optical image blur prevention photographed image I1 (1) is the position of reference numeral 1 that is the initial position.

<2番目フレーム>
2番目のフレームの光学的像ぶれ防止撮影画像I1(2)において、光学的像ぶれ防止撮影画像I1(1)の輪郭Oi1(1)および被写体Pが点線で表されている。光学的像ぶれ防止撮影画像I1(1)の場合に比べて、光学的像ぶれ防止撮影画像I1(2)においては被写体P1は左斜め方向に、つまり指標点が符号1の位置から符号2の位置に移動している。よって、被写体P1が光学的ぶれ防止撮影/電子的像ぶれ補正画像I2(2)のほぼ中心に位置するように、光学的ぶれ防止撮影/電子的像ぶれ補正画像I2(2)が光学的像ぶれ防止撮影画像I1(2)から切り出される。
<Second frame>
In the optical image blur prevention photographed image I1 (2) of the second frame, the outline Oi1 (1) and the subject P of the optical image blur prevention photographed image I1 (1) are represented by dotted lines. Compared to the optical image blur prevention photographed image I1 (1), in the optical image blur prevention photographed image I1 (2), the subject P1 is tilted to the left, that is, the index point is from the position of reference numeral 1 to reference numeral 2. Moved to position. Therefore, the optical blur prevention photographing / electronic image blur correction image I2 (2) is an optical image so that the subject P1 is positioned substantially at the center of the optical blur prevention photographing / electronic image blur correction image I2 (2). It is cut out from the shake-prevented photographed image I1 (2).

この際の処理について、以下に具体的に説明する。1番目フレームと2番目フレームとの間隔を1/120[秒]とした場合には、1/120[秒]の間に、指標点が符号1の位置から符号2の位置へ移動したことを示すベクトル値が像ぶれ補正誤差情報ISeとして出力される。像ぶれ補正誤差情報ISeは、図6に示した画像シフト量演算部39xで演算されるx方向画像シフト量ISxと、画像シフト量演算部39yで演算されるy方向画像シフト量ISyとで表現される。   The processing at this time will be specifically described below. When the interval between the first frame and the second frame is 1/120 [second], the index point has moved from the position of code 1 to the position of code 2 during 1/120 [second]. The indicated vector value is output as image blur correction error information ISe. The image blur correction error information ISe is expressed by an x-direction image shift amount ISx calculated by the image shift amount calculation unit 39x shown in FIG. 6 and a y-direction image shift amount ISy calculated by the image shift amount calculation unit 39y. Is done.

つまり、x方向画像シフト量ISxは、ゲイン調整部33xから出力されるOISユニット102aのx方向の位置情報とゲイン調整部36xから出力される撮像装置ICD1のx方向の角度振れ情報との差(すなわち光学的な像ぶれ補正で補正しきれなかった像ぶれ)に基づいて、画像シフト量演算部39xによって演算される。そして、y方向画像シフト量ISyは、ゲイン調整部33yから出力されるOISユニット102aのy方向の位置情報とゲイン調整部36yから出力される撮像装置ICD1のy方向の角度振れ情報との差(すなわち光学的な像ぶれ補正で補正しきれなかった像ぶれ)に基づいて、画像シフト量演算部39yによって演算される。   That is, the x-direction image shift amount ISx is the difference between the position information in the x direction of the OIS unit 102a output from the gain adjustment unit 33x and the angle shake information in the x direction of the imaging device ICD1 output from the gain adjustment unit 36x ( In other words, the image shift amount calculation unit 39x calculates the image blur that cannot be corrected by the optical image blur correction. The y-direction image shift amount ISy is the difference between the y-direction position information of the OIS unit 102a output from the gain adjustment unit 33y and the y-direction angle shake information of the imaging device ICD1 output from the gain adjustment unit 36y. In other words, the image shift amount calculation unit 39y calculates the image shift that cannot be corrected by the optical image blur correction.

<3番目フレーム>
3番目のフレームの光学的像ぶれ防止撮影画像I1(3)において、光学的像ぶれ防止撮影画像I1(2)の輪郭Oi1(2)および被写体Pが点線で表されている。つまり、光学的像ぶれ防止撮影画像I1(3)においては、光学的像ぶれ防止撮影画像I1(2)の場合に比べて、被写体P1は下方向に、つまり指標点が符号2の位置から符号3の位置に移動している。よって、被写体P1が光学的ぶれ防止撮影/電子的像ぶれ補正画像I2(3)のほぼ中心に位置するように、像ぶれ補正誤差情報ISeに基づいて、光学的ぶれ防止撮影/電子的像ぶれ補正画像I2(3)が光学的像ぶれ防止撮影画像I1(3)から切り出される。
<3rd frame>
In the optical image blur prevention photographed image I1 (3) of the third frame, the outline Oi1 (2) and the subject P of the optical image blur prevention photographed image I1 (2) are represented by dotted lines. In other words, in the optical image blur prevention photographed image I1 (3), the subject P1 is in a lower direction than the case of the optical image blur prevention photographed image I1 (2). It has moved to position 3. Therefore, based on the image blur correction error information ISe, the optical blur prevention shooting / electronic image blur is performed so that the subject P1 is positioned at the approximate center of the optical blur prevention shooting / electronic image blur correction image I2 (3). The corrected image I2 (3) is cut out from the optical image blurring prevention captured image I1 (3).

<4番目フレーム>
4番目のフレームの光学的像ぶれ防止撮影画像I1(4)において、光学的像ぶれ防止撮影画像I1(3)の輪郭Oi1(3)および被写体Pが点線で表されている。光学的像ぶれ防止撮影画像I1(4)においては、点線で示す光学的像ぶれ防止撮影画像I1(3)の場合に比べて、被写体P1は右方向に、つまり指標点が符号3の位置から符号4の位置に移動している。よって、被写体P1が光学的ぶれ防止撮影/電子的像ぶれ補正画像I2(4)のほぼ中心に位置するように、像ぶれ補正誤差情報ISeに基づいて、光学的ぶれ防止撮影/電子的像ぶれ補正画像I2(4)が光学的像ぶれ防止撮影画像I1(4)から切り出される。
<4th frame>
In the optical image blur prevention photographed image I1 (4) of the fourth frame, the outline Oi1 (3) and the subject P of the optical image blur prevention photographed image I1 (3) are represented by dotted lines. In the optical image blur prevention photographed image I1 (4), the subject P1 is in the right direction, that is, from the position of the index point 3, compared with the optical image blur prevention photographed image I1 (3) indicated by the dotted line. It has moved to the position of reference number 4. Therefore, based on the image blur correction error information ISe, the optical blur prevention shooting / electronic image blur is performed so that the subject P1 is positioned at the approximate center of the optical blur prevention shooting / electronic image blur correction image I2 (4). The corrected image I2 (4) is cut out from the optical image blur-prevented photographed image I1 (4).

上述のように、CCD106から画像データを切り出す範囲がシフトされて、第2の画像データDi2が生成される。(以降、「シフト切り出し」と称する)。このように、シフト切り出しされたフレーム分の第2の画像データDi2(1)〜Di2(4)が別々に画像メモリ44に格納される。   As described above, the range in which the image data is cut out from the CCD 106 is shifted to generate the second image data Di2. (Hereinafter referred to as “shift cutout”). As described above, the second image data Di2 (1) to Di2 (4) for the shift-cut frame is separately stored in the image memory 44.

そして、1番目フレームの光学的像ぶれ防止撮影画像I1(1)から切り出された光学的ぶれ防止撮影/電子的像ぶれ補正画像I2(1)の第2の画像データDi2(1)に対して、2番目フレームの光学的像ぶれ防止撮影画像I1(2)から切り出された光学的ぶれ防止撮影/電子的像ぶれ補正画像I2(2)の第2の画像データDi2(2)、3番目フレームの光学的像ぶれ防止撮影画像I1(3)から切り出された光学的ぶれ防止撮影/電子的像ぶれ補正画像I2(3)の第2の画像データDi2(3)、および4番目フレームの光学的像ぶれ防止撮影画像I1(4)から切り出された光学的ぶれ防止撮影/電子的像ぶれ補正画像I2(4)の第2の画像データDi2(4)が重ね合わされる。つまり、4つのフレームにおける同一アドレス上の画素毎にデータの加算が行われ、加算された各画素データが1024階調で表される。   Then, with respect to the second image data Di2 (1) of the optical blur prevention photographing / electronic image blur correction image I2 (1) cut out from the optical image blur prevention photographing image I1 (1) of the first frame. Second image data Di2 (2) of the second image data Di2 (2) of the optical blur prevention photographed / electronic image blur correction image I2 (2) cut out from the second frame of the optical image blur prevention photographed image I1 (2), the third frame The second image data Di2 (3) of the optical image blur prevention photograph / electronic image blur correction image I2 (3) cut out from the optical image blur prevention photograph image I1 (3) of the first and the fourth frame optical The second image data Di2 (4) of the optical blur prevention photographing / electronic image blur correction image I2 (4) cut out from the image blur prevention photographing image I1 (4) is superimposed. That is, data is added for each pixel on the same address in the four frames, and each added pixel data is represented by 1024 gradations.

具体的には、1番目フレームの被写体P1の指標点の符号1の位置の座標をr(20,20)、g(21,20)、g(20,21)、およびb(21,21)で表す。2番目フレームの被写体P1の指標点の符号2の位置の座標をr(16,16)、g(17,16)、g(16,17)、およびb(17,17)で表す。3番目フレームの被写体P1の指標点の符号3の位置の座標をr(16,24)、g(17,24)、g(16,25)、およびb(17,25)で表す。そして、4番目フレームの被写体P1の指標点の符号4のの座標をr(24,24)、g(25,24)、g(24,25)、およびb(25,25)で表す。この場合、それぞれ次式(1)、(2)、(3)、および(4)で表されるR(20,20)、G(21,20)、G(20,21)、およびB(21,21)の1024階調で表される画像データが生成される。   Specifically, the coordinates of the position of reference numeral 1 of the index point of the subject P1 of the first frame are r (20, 20), g (21, 20), g (20, 21), and b (21, 21). Represented by The coordinates of the position of reference numeral 2 of the index point of the subject P1 in the second frame are represented by r (16, 16), g (17, 16), g (16, 17), and b (17, 17). The coordinates of the position of reference numeral 3 of the index point of the subject P1 in the third frame are represented by r (16, 24), g (17, 24), g (16, 25), and b (17, 25). The coordinates of the index point 4 of the index point of the subject P1 in the fourth frame are represented by r (24, 24), g (25, 24), g (24, 25), and b (25, 25). In this case, R (20, 20), G (21, 20), G (20, 21), and B (represented by the following formulas (1), (2), (3), and (4), respectively: 21 and 21) image data represented by 1024 gradations is generated.

R(20,20)=r(20,20)+r(16,16)+r(16,24)
+r(24,24) ・・・・ (1)
G(21,20)=g(21,20)+g(17,16)+g(17,24)
+g(25,24) ・・・・ (2)
G(20,21)=g(20,21)+g(16,17)+g(16,25)
+g(24,25) ・・・・ (3)
B(21,21)=b(21,21)+b(17,17)+b(17,25)
+b(25,25) ・・・・ (4)
R (20,20) = r (20,20) + r (16,16) + r (16,24)
+ R (24, 24) (1)
G (21,20) = g (21,20) + g (17,16) + g (17,24)
+ G (25, 24) (2)
G (20,21) = g (20,21) + g (16,17) + g (16,25)
+ G (24, 25) (3)
B (21,21) = b (21,21) + b (17,17) + b (17,25)
+ B (25, 25) (4)

このように第2の画像データDi2(1)〜Di2(4)のすべての画素においても同様の計算を行い、例えばCCD106の画素数を500万画素として、光学的ぶれ防止撮影/電子的像ぶれ補正画像I2(1)を、r(8,8)、g(2551,8)、b(2551,1911)、g(8,1911)、r(8,8)の順番で結んだ輪郭Oi2(1)に含まれる画素エリアとして定義する。そして、1番目フレームと2番目フレーム、3番目フレーム、および4番目フレームの光学的ぶれ防止撮影/電子的像ぶれ補正画像I2(1)〜I2(4)の各画素を次式(5)、(6)、(7)、および(8)で表す様に順次加算して第3の画像データDi3を生成する。   In this way, the same calculation is performed for all the pixels of the second image data Di2 (1) to Di2 (4). For example, assuming that the number of pixels of the CCD 106 is 5 million pixels, optical blur prevention photographing / electronic image blurring is performed. Contour Oi2 () obtained by connecting the corrected image I2 (1) in the order of r (8,8), g (2551,8), b (2551,1911), g (8,1911), r (8,8). It is defined as a pixel area included in 1). Then, the pixels of the first frame, the second frame, the third frame, and the fourth frame of the optical blur prevention photographing / electronic image blur correction images I2 (1) to I2 (4) are expressed by the following equations (5), The third image data Di3 is generated by sequentially adding as represented by (6), (7), and (8).

R(8,8)=r(8,8)+r(4,4)+r(4,12)
+r(12,12) ・・・・(5)
G(9,8)=g(9,8)+g(5,4)+g(5,12)
+g(13,12) ・・・・(6)
G(2551,8)=g(2551,8)+g(2547,4)
+g(2547,12)+g(2555,12)・・・・(7)
B(2551,1911)=b(2551,1911)+b(2547,1907)
+b(2547,1915)+b(2555,1915)
・・・・(8)
R (8,8) = r (8,8) + r (4,4) + r (4,12)
+ R (12,12) (5)
G (9,8) = g (9,8) + g (5,4) + g (5,12)
+ G (13, 12) (6)
G (2551,8) = g (2551,8) + g (2547,4)
+ G (2547,12) + g (2555,12) (7)
B (2551, 1911) = b (2551, 1911) + b (2547, 1907)
+ B (2547, 1915) + b (2555, 1915)
.... (8)

上述の式に基づき算出された第3の画像データDi3に、ホワイトバランス補正やγ補正などの所定の画像処理を施して生成された第4の画像データDi4(図示せず)を表示部111へ転送して画像を表示させたり、メモリーカード112に転送したりする。なお、上記のようにホワイトバランス補正やγ補正が施された生成された画像データの変わりに、そのような処理が施される前の加算した状態の第3の画像データDi3を画像表示或いはメモリーカード112に転送しても良い。また、これらの第3の画像データDi3或いは第4の画像データDi4のそれぞれを4で除算して256階調の第5の画像データDi5(図示)せずとして転送しても良い。なお、上述の第3の画像データDi3、第4の画像データDi4、および画像データDi5のそれぞれに対応する画像信号を第3の画像信号Sv3、第4の画像信号Sv4、および第5の画像信号Sv5と識別するものとする。   The fourth image data Di4 (not shown) generated by performing predetermined image processing such as white balance correction and γ correction on the third image data Di3 calculated based on the above formula is displayed on the display unit 111. The image is transferred to display an image or transferred to the memory card 112. In addition, instead of the generated image data subjected to the white balance correction and the γ correction as described above, the added third image data Di3 before such processing is displayed or stored in the memory. It may be transferred to the card 112. Alternatively, each of the third image data Di3 or the fourth image data Di4 may be divided by 4 and transferred without using the fifth image data Di5 (not shown) having 256 gradations. Note that the image signals corresponding to the third image data Di3, the fourth image data Di4, and the image data Di5 are the third image signal Sv3, the fourth image signal Sv4, and the fifth image signal, respectively. It shall be identified as Sv5.

次に、図10に示すフローチャートを参照して、システムコントローラ120によるOISユニット制御部104aの動作について説明する。簡単に言えば、システムコントローラ120は、操作部110のシャッターボタンが全押しされた状態を検知して、CCD106が第1の画像信号Sv1(第1の画像データDi1)を出力する直前にOISユニット制御部104aを起動させる。そして、システムコントローラ120は、CCD106から第1の画像信号Sv1を出力させて画像処理部107を介して、上述した電子的な像ぶれ補正を施した後に、上述の第3の画像データDi3、第4の画像データDi4、或いは画像データDi5に想到する画像信号Sv(Sv3、Sv4、或いはSv5)をメモリーカード112に格納させ、その後にOISユニット制御部104aの動作を終了する例について説明する。なお、操作部110のシャッターボタンが全押しされた状態が検知された時点で、本フローチャートに示す処理が開始される。   Next, the operation of the OIS unit controller 104a by the system controller 120 will be described with reference to the flowchart shown in FIG. In short, the system controller 120 detects a state in which the shutter button of the operation unit 110 is fully pressed, and the OIS unit immediately before the CCD 106 outputs the first image signal Sv1 (first image data Di1). The control unit 104a is activated. The system controller 120 outputs the first image signal Sv1 from the CCD 106 and performs the above-described electronic image blur correction via the image processing unit 107, and then performs the above-described third image data Di3, A description will be given of an example in which the image signal Sv (Sv3, Sv4, or Sv5) conceived for the fourth image data Di4 or the image data Di5 is stored in the memory card 112, and then the operation of the OIS unit controller 104a is terminated. Note that the processing shown in this flowchart is started when a state where the shutter button of the operation unit 110 is fully pressed is detected.

先ず、ステップS101において、OISユニット制御部104aの動作が開始される。そして、先に述べた制御ループが機能して基準位置に、像ぶれ補正用レンズユニット(、OISユニット)102が保持されるとともに、角速度センサ34の出力が積分された撮像装置の振れ角度情報を指令として光学的な像ぶれ防止が機能する。そして、光学的像ぶれ防止撮影が行われる。   First, in step S101, the operation of the OIS unit controller 104a is started. Then, the control loop described above functions to hold the image blur correction lens unit (or OIS unit) 102 at the reference position, and the shake angle information of the image pickup apparatus in which the output of the angular velocity sensor 34 is integrated is obtained. Optical image blur prevention functions as a command. Then, optical image blur prevention photographing is performed.

ステップS102において、CCD106から1フレーム分の光学的像ぶれ防止撮影画像I1の第1の画像信号Sv1が画像処理部107へ出力される。   In step S <b> 102, the first image signal Sv <b> 1 of the optical image blurring prevention captured image I <b> 1 for one frame is output from the CCD 106 to the image processing unit 107.

ステップS103において、上述の像ぶれ補正用レンズユニット(OISユニット)102による光学的な像ぶれ補正処理で補正しきれなかった像ぶれが、OISユニット制御部104aから出力される像ぶれ補正誤差情報ISeに基づいて、x方向およびy方向画像シフト量として算出される。なお、500万画素CCDの場合、画像は2560×1920画素数で構成され、x方向の2560画素に対応する画角を50度とすると、51.2[画素/度]を係数として角度で表される補正誤差情報が画像シフト量に換算可能である。   In step S103, image blur correction error information ISe output from the OIS unit control unit 104a is image blur that cannot be corrected by the optical image blur correction processing by the image blur correction lens unit (OIS unit) 102 described above. Are calculated as the x-direction and y-direction image shift amounts. In the case of a 5 million pixel CCD, the image is composed of 2560 × 1920 pixels, and if the angle of view corresponding to 2560 pixels in the x direction is 50 degrees, it is expressed as an angle with 51.2 [pixel / degree] as a coefficient. The corrected error information can be converted into an image shift amount.

ステップS104aにおいて、画像切出部42によって、x方向およびy方向のシフト量に基づき1フレーム分の光学的ぶれ防止撮影/電子的像ぶれ補正画像I2の第2の画像データDi2が切り出されて、画像メモリ44に記憶される。   In step S104a, the image cutout unit 42 cuts out the second image data Di2 of the optical blur prevention photographing / electronic image blur correction image I2 for one frame based on the shift amounts in the x direction and the y direction, Stored in the image memory 44.

ステップS105において、上述のように4フレーム分の第2の画像データDi2(1)、第2の画像データDi2(2)、第2の画像データDi2(3)、および第2の画像データDi2(4)の画像メモリ44への記憶が完了したか否かが判定される。つまり、ステップS104a迄の処理が1番目、2番目、および3番目フレームに対する場合には、本ステップにおいてNoと判断されて制御は上述のステップS102に戻る。そして、ステップS104a迄の処理が4番目フレームに対する場合に、本ステップにおいてYesと判断されて制御は次のステップS106に進む。   In step S105, the second image data Di2 (1), the second image data Di2 (2), the second image data Di2 (3), and the second image data Di2 (4) for four frames as described above. It is determined whether or not the storage in the image memory 44 of 4) is completed. That is, if the processing up to step S104a is for the first, second, and third frames, it is determined No in this step, and the control returns to step S102 described above. If the process up to step S104a is for the fourth frame, it is determined Yes in this step, and control proceeds to the next step S106.

ステップS106において、上述のように、4フレーム分の第2の画像データDi2の加算処理が行われる。つまり、像ぶれ補正誤差情報ISeに基づいて、第2の画像データDi2の切り出しおよび加算処理を行うことによって、光学的な像ぶれ防止処理で取りきれなかった像ぶれに対して電子的な像ぶれ補正処理が施されて、画像合成が行われる。結果、第3の画像データDi3が生成される。   In step S106, as described above, the addition processing of the second image data Di2 for four frames is performed. In other words, by performing the cut-out and addition processing of the second image data Di2 based on the image blur correction error information ISe, an electronic image blur is obtained with respect to an image blur that cannot be completely removed by the optical image blur prevention process. Correction processing is performed, and image composition is performed. As a result, third image data Di3 is generated.

ステップS107において、表示部111或いはメモリーカード112に、ステップS106において合成された第3の画像データDi3が出力される。そして、撮影処理が終了される。なお、ステップS106における画像処理後に、上述のように第3の画像データDi3にさらに所定の画像処理を施して第4の画像データDi4、さらに画像データDi5を静止して、第3の画像データDi3と同様に出力しても良いことは言うまでもない。   In step S107, the third image data Di3 synthesized in step S106 is output to the display unit 111 or the memory card 112. Then, the photographing process is terminated. After the image processing in step S106, predetermined image processing is further performed on the third image data Di3 as described above, the fourth image data Di4 and further the image data Di5 are stopped, and the third image data Di3. Needless to say, it may be output in the same manner as.

(第2の実施の形態)
以下に、図11、図12、および図13図を参照して、本発明の第2の実施の形態に係る撮像装置について説明する。本実施の形態に係る撮像装置ICD2は、図1に示した第1の実施の形態に係る撮像装置ICD1において、OISユニット102aがOISユニット102bに交換され、OISユニット制御部104aがOISユニット制御部104bに交換され、合焦情報算出部109aが合焦情報算出部109bに交換されると共に、特徴点抽出部122が新たに設けられている。よって、特に必要のない限り、撮像装置ICD2に固有の特徴について重点的に説明する。
(Second Embodiment)
Hereinafter, an imaging apparatus according to the second embodiment of the present invention will be described with reference to FIGS. 11, 12, and 13. The imaging device ICD2 according to the present embodiment is the same as the imaging device ICD1 according to the first embodiment shown in FIG. 1, except that the OIS unit 102a is replaced with the OIS unit 102b, and the OIS unit control unit 104a is replaced with the OIS unit control unit. 104b, the focus information calculation unit 109a is replaced with the focus information calculation unit 109b, and a feature point extraction unit 122 is newly provided. Therefore, unless otherwise required, features unique to the imaging device ICD2 will be described mainly.

特徴点抽出部122は、画像処理部107、OISユニット制御部104b、および合焦情報算出部109bに接続されている。特徴点抽出部122は画像処理部107から入力される第2の画像信号Sv2に含まれる第2の画像データDi2に基づいて、光学的ぶれ防止撮影/電子的像ぶれ補正画像I2にユーザの意図する参照すべき被写体P1があるか否かを判定すると共に、被写体P1の特徴点の位置を抽出する。特徴点抽出部122は抽出した特徴点の位置に基づいて、特徴点動きベクトル情報IVfを生成する。   The feature point extraction unit 122 is connected to the image processing unit 107, the OIS unit control unit 104b, and the focusing information calculation unit 109b. Based on the second image data Di2 included in the second image signal Sv2 input from the image processing unit 107, the feature point extraction unit 122 generates an optical blur prevention / electronic image blur correction image I2 based on the user's intention. It is determined whether there is a subject P1 to be referred to, and the position of the feature point of the subject P1 is extracted. The feature point extraction unit 122 generates feature point motion vector information IVf based on the extracted position of the feature point.

OISユニット制御部104bは、OISユニット102bから入力される撮像装置ICD2の本体の振れ角度情報を含む像ぶれ補正誤差情報ISeおよび特徴点抽出部122から入力される特徴点動きベクトル情報IVfの何れかを選択する。そして、OISユニット制御部104bは、選択された情報に基づいて、ぶれ補正用レンズユニット(OISユニット)102を移動制御して光学的な像ぶれ防止撮影を行う。そして、光学的像ぶれ防止撮影画像I1において光学的に防止しきれなかった像ぶれ分を電子的に補正すべく、画像処理部107が像ぶれ補正誤差情報像ISeに基づいて画像シフト量を算出する。   The OIS unit control unit 104b is one of image blur correction error information ISe including shake angle information of the main body of the imaging device ICD2 input from the OIS unit 102b and feature point motion vector information IVf input from the feature point extraction unit 122. Select. Then, the OIS unit control unit 104b performs optical image blur prevention photographing by controlling the movement of the blur correction lens unit (OIS unit) 102 based on the selected information. Then, the image processing unit 107 calculates the image shift amount based on the image blur correction error information image ISe so as to electronically correct the image blur that cannot be optically prevented in the optical image blur prevention captured image I1. To do.

合焦情報算出部109bは、少なくとも、特徴点抽出部122を介して画像処理部107から入力される第2の画像信号Sv2に含まれるコントラスト情報と、フォーカス駆動部105から入力されるフォーカスレンズユニット103の位置情報とに基づいてデフォーカス量を算出してフォーカス駆動部105へ出力する機能を備えている。そして、合焦情報算出部109bは、特徴点抽出部122が被写体P1の特徴点の位置情報を抽出した場合には、この特徴点近傍のコントラスト情報を評価値として演算を行う。   The focusing information calculation unit 109b includes at least the contrast information included in the second image signal Sv2 input from the image processing unit 107 via the feature point extraction unit 122 and the focus lens unit input from the focus driving unit 105. A function of calculating a defocus amount based on the position information 103 and outputting the calculated defocus amount to the focus driving unit 105 is provided. Then, when the feature point extraction unit 122 extracts the position information of the feature point of the subject P1, the focus information calculation unit 109b performs calculation using the contrast information in the vicinity of the feature point as an evaluation value.

なお、特徴点が存在しなければ、合焦情報算出部109bは所定の範囲からコントラスト情報を評価値として演算を行う。また、ユーザが表示部111に表示される撮影画像に対してタッチパネル等の入力手段を利用して、特徴点を指定するように構成しても良い。   If there is no feature point, the focusing information calculation unit 109b performs an operation using contrast information as an evaluation value from a predetermined range. In addition, the feature point may be specified for the captured image displayed on the display unit 111 by using an input unit such as a touch panel.

次に、図12を参照して、特徴点抽出部122について詳述する。特徴点抽出部122は、画像分割部71、色情報算出部72、参照位置演算部73、参照色情報記憶部74、および評価値演算部75を含む。画像分割部71は、画像処理部107から出力される第2の画像信号Sv2に基づいて、第2の画像データDi2(光学的ぶれ防止撮影/電子的像ぶれ補正画像I2)を複数のエリアに分割する。例えば32×24分割や16×12分割する。   Next, the feature point extraction unit 122 will be described in detail with reference to FIG. The feature point extraction unit 122 includes an image division unit 71, a color information calculation unit 72, a reference position calculation unit 73, a reference color information storage unit 74, and an evaluation value calculation unit 75. Based on the second image signal Sv2 output from the image processing unit 107, the image dividing unit 71 sets the second image data Di2 (optical blur prevention photographing / electronic image blur correction image I2) in a plurality of areas. To divide. For example, 32 × 24 division or 16 × 12 division is performed.

色情報算出部72では、画像分割部71で分割された第2の画像データDi2毎に色情報を算出する。具体的には、以下に示すプログラムに従って色相Hを算出して、色相情報IHが生成される。なお、当該プログラムによる実行結果と同じ効果を得られるような回路を構成して、当該回路によって色相Hを求めても良い。   The color information calculation unit 72 calculates color information for each second image data Di2 divided by the image division unit 71. Specifically, the hue information IH is generated by calculating the hue H according to the following program. A circuit that can obtain the same effect as the execution result by the program may be configured, and the hue H may be obtained by the circuit.

V = max(r,g,b)
d = V − min(r,g,b)
S = d * 255 / V
if(S=0){H=0}
else{if(V=r) H = (g−b)*60/d
if(V=g) H = (b−r)*60/d + 120
if(V=b) H = (r−g)*60/d + 240}
if(H<0) {H = H + 360}
V = max (r, g, b)
d = V−min (r, g, b)
S = d * 255 / V
if (S = 0) {H = 0}
else {if (V = r) H = (g−b) * 60 / d
if (V = g) H = (br−r) * 60 / d + 120
if (V = b) H = (r−g) * 60 / d + 240}
if (H <0) {H = H + 360}

上述のプログラムにおけるr、g、およびbは、図8を参照して説明した各画素を256階調で表した数値である。また、r(0,0)、g(1,0)、g(0,1)、およびb(1,1)の4点で規定される正方形に含まれる画素単位で上記処理を行うようにしても良い。なお、g(1,0)とg(0,1)は大きい方を選択してgとしても良いし、平均値としても良い。以降、r(2,0)、g(3,0)、g(2,1)、およびb(3,1)の単位、r(4,0)、g(5,0)、g(4,1)、およびb(5,1)の単位・・・というように4点で規定される正方形に含まれる画素単位で上記処理を行うようにしても良い。また、2560×1920画素で構成される500万画素のCCDの場合には、画像分割部71で32×24分割された80画素単位でr、g、およびbの各平均値を演算して、色相Hを算出しても良い。   In the above program, r, g, and b are numerical values that represent each pixel described with reference to FIG. 8 in 256 gradations. Further, the above processing is performed in units of pixels included in a square defined by four points r (0,0), g (1,0), g (0,1), and b (1,1). May be. Note that g (1, 0) and g (0, 1) may be selected by selecting the larger one, or may be an average value. Hereinafter, units of r (2,0), g (3,0), g (2,1), and b (3,1), r (4,0), g (5,0), g (4 , 1), b (5, 1) units,..., The above processing may be performed in units of pixels included in a square defined by four points. Further, in the case of a 5 million pixel CCD composed of 2560 × 1920 pixels, the average values of r, g, and b are calculated in units of 80 pixels divided by 32 × 24 by the image dividing unit 71, The hue H may be calculated.

参照色情報記憶部74では、色情報算出部72で算出された色相情報IHのうち表示部111で表示されたユーザの意図する被写体P1の特徴点(例えば図9に示した符号1、符号2、符号3、および符号4)での色情報が予め記憶させられる。具体例としては、表示部111で表示されている被写体P1で、ユーザが操作部110を操作して、ユーザが特徴点と意図する画像の上にカーソルを合わせて指示することにより、参照色情報記憶部74に色情報を記憶させることができる。   In the reference color information storage unit 74, the feature point of the subject P1 intended by the user displayed on the display unit 111 among the hue information IH calculated by the color information calculation unit 72 (for example, reference numerals 1 and 2 shown in FIG. 9). , 3 and 4) are stored in advance. As a specific example, the reference color information is obtained when the user operates the operation unit 110 on the subject P1 displayed on the display unit 111 and points the cursor on the feature point and the intended image. Color information can be stored in the storage unit 74.

参照位置演算部73では、表示部111でモニタして撮影しようとしている画像情報に含まれる色情報と予め記憶させた色情報とを比較してユーザの意図する被写体の特徴点が存在するか否かを判定して、存在するのであればその位置情報IPを演算してOISユニット制御部104bと評価値演算部75へ出力する。 なお、予め記憶させておく色情報はデフォルトとして複数存在し、それらから選択するようにしても良い。   The reference position calculation unit 73 compares the color information included in the image information to be captured by monitoring with the display unit 111 with the color information stored in advance, and whether or not there is a feature point of the subject intended by the user. If it exists, the position information IP is calculated and output to the OIS unit controller 104b and the evaluation value calculator 75. Note that a plurality of color information stored in advance exist as defaults and may be selected from them.

次に、図13を参照して、OISユニット102bについて説明する。OISユニット102bは、図6に示したOISユニット102aにおいて、動きベクトル検出部60xおよび60yと、ゲイン補正部61xおよび61xと、スイッチ62xおよび62yとが追加されている。なおスイッチ62xおよび62yは図面においては、紙面の都合上「SW」と標記されている。   Next, the OIS unit 102b will be described with reference to FIG. In the OIS unit 102b, motion vector detection units 60x and 60y, gain correction units 61x and 61x, and switches 62x and 62y are added to the OIS unit 102a shown in FIG. The switches 62x and 62y are labeled “SW” in the drawing for the sake of space.

動きベクトル検出部60xは、参照位置演算部73において演算された特徴点のx方向の位置情報IPからx方向の動きベクトルVxを検出する。ゲイン補正部61xは、x方向の動きベクトルVxから振れ角度情報に対するゲインを換算する。例えば、500万画素CCDで2560×1920画素数で構成され、x方向の2560画素に対応する画角を50度とすると、1/51.2[度/画素]を係数K3として角度で表される情報に換算する。   The motion vector detection unit 60x detects the motion vector Vx in the x direction from the position information IP in the x direction of the feature points calculated by the reference position calculation unit 73. The gain correction unit 61x converts the gain for the shake angle information from the motion vector Vx in the x direction. For example, if the angle of view corresponding to 2560 pixels in the x direction is 50 degrees with a 5 million pixel CCD and 2560 × 1920 pixels, 1 / 51.2 [degrees / pixel] is expressed as an angle with a coefficient K3. Convert to information.

スイッチ62xは、ゲイン補正部36xおよびゲイン補正部61xに接続されている。そして、システムコントローラ130から入力されるx方向目標位置選択信号STxに基づいて、ゲイン補正部36xおよびゲイン補正部61xの何れかを選択して比較部37xに接続する。具体的には、既に参照色情報記憶部74に記憶されている色相情報IHとほぼ一致する色相情報IHが画像データ内に存在する場合にはゲイン補正部61xが選択され、一致する色相情報IHが画像データ内に存在しない場合にはゲイン補正部36xが選択される。   The switch 62x is connected to the gain correction unit 36x and the gain correction unit 61x. Then, based on the x-direction target position selection signal STx input from the system controller 130, either the gain correction unit 36x or the gain correction unit 61x is selected and connected to the comparison unit 37x. Specifically, when hue information IH that substantially matches the hue information IH already stored in the reference color information storage unit 74 exists in the image data, the gain correction unit 61x is selected, and the matching hue information IH Is not present in the image data, the gain correction unit 36x is selected.

動きベクトル検出部60yは参照位置演算部73において演算された特徴点のy方向の位置情報IPからy方向の動きベクトルVyを検出する。ゲイン補正部61yは、y方向の動きベクトルVyから振れ角度情報に対するゲインを換算する。例えば、500万画素CCDで2560×1920画素数で構成され、y方向の1920画素に対応する画角を37.5度とすると、1/51.2[度/画素]を係数K3として角度で表される情報に換算する。   The motion vector detection unit 60y detects a motion vector Vy in the y direction from the position information IP in the y direction of the feature point calculated by the reference position calculation unit 73. The gain correction unit 61y converts the gain for the shake angle information from the motion vector Vy in the y direction. For example, if the angle of view corresponding to 1920 pixels in the y direction is 37.5 degrees with a 5 million pixel CCD and 2560 × 1920 pixels, 1 / 51.2 [degrees / pixel] is a coefficient K3 in terms of angle. Convert to the information represented.

スイッチ62yは、ゲイン補正部36yおよびゲイン補正部61yに接続されている。そして、システムコントローラ130から入力されるy方向目標位置選択信号STyに基づいて、参照位置演算部73から出力される位置情報IPに基づいて、ゲイン補正部36yおよびゲイン補正部61yの何れかを選択して比較部37yに接続する。具体的には、既に参照色情報記憶部74に記憶されている色相情報IHとほぼ一致する色相情報IHが画像データ内に存在する場合にはゲイン補正部61yが選択され、一致する色相情報IHが画像データ内に存在しない場合にはゲイン補正部36yが選択される。   The switch 62y is connected to the gain correction unit 36y and the gain correction unit 61y. Based on the y-direction target position selection signal STy input from the system controller 130, either the gain correction unit 36y or the gain correction unit 61y is selected based on the position information IP output from the reference position calculation unit 73. And connected to the comparison unit 37y. Specifically, when hue information IH that substantially matches the hue information IH already stored in the reference color information storage unit 74 exists in the image data, the gain correction unit 61y is selected, and the matching hue information IH Is not present in the image data, the gain correction unit 36y is selected.

なお、ユーザの意図する被写体の特徴点が存在するか否かに基づいて、スイッチ62xおよびスイッチ62yの選択動作が行われる例について説明している。しかしながら、操作部110に備えるメニュー釦(図示せず)をユーザが操作することによって、スイッチ62xおよびスイッチ62yの選択動作を行うように設定しても良い。   Note that an example in which the selection operation of the switch 62x and the switch 62y is performed based on whether or not the feature point of the subject intended by the user exists is described. However, the selection operation of the switch 62x and the switch 62y may be performed by a user operating a menu button (not shown) provided in the operation unit 110.

図14に、表示部111に表示される画面に対する空間上の2次元の静的な絶対座標を示す。例えば、原点(左上隅)をx方向0番およびy方向0番として、同図に示すエリアB0の座標は(11,8)というように静的な座標が定義される。   FIG. 14 shows two-dimensional static absolute coordinates in space with respect to the screen displayed on the display unit 111. For example, assuming that the origin (upper left corner) is 0 in the x direction and 0 in the y direction, the coordinates of the area B0 shown in the same figure are defined as (11, 8).

図15を参照して、像ぶれ補正機能について説明する。同図においては、CCD106から出力される第1の画像信号Sv1に基づいて、表示部111に表示される連続する4フレームの光学的像ぶれ防止撮影画像I1(1)〜I1(4)が図14に示した2次元の静的絶対座標上に例示されている。そして、被写体P1の頭部が特徴点として設定されると共にエリアB1(1)〜B1(4)として認識される。なお、光学的像ぶれ防止撮影画像I1(2)〜I1(4)における被写体P1の相対的に位置は、光学的像ぶれ防止撮影画像I1(1)における被写体P1の相対的な位置と同じである。   The image blur correction function will be described with reference to FIG. In the figure, based on the first image signal Sv1 output from the CCD 106, four consecutive frames of the optical image blurring prevention captured images I1 (1) to I1 (4) displayed on the display unit 111 are illustrated. This is illustrated on the two-dimensional static absolute coordinate shown in FIG. The head of the subject P1 is set as a feature point and recognized as areas B1 (1) to B1 (4). Note that the relative position of the subject P1 in the optical image blur prevention captured images I1 (2) to I1 (4) is the same as the relative position of the subject P1 in the optical image blur prevention captured image I1 (1). is there.

1番目のフレームに関しては、光学的像ぶれ防止撮影画像I1(1)は、表示部111の画面の左下隅に位置している。そして、光学的像ぶれ防止撮影画像I1(1)の概ね左半分の領域に被写体P1が表示されている。なお、本フレームにおける被写体P1の特徴点であるエリアB1(1)の座標は(5,7)である。   Regarding the first frame, the optical image blur prevention captured image I 1 (1) is located at the lower left corner of the screen of the display unit 111. The subject P1 is displayed in a substantially left half region of the optical image blur prevention captured image I1 (1). Note that the coordinates of the area B1 (1), which is the feature point of the subject P1 in this frame, are (5, 7).

2番目のフレームに関しては、光学的像ぶれ防止撮影画像I1(2)は、光学的像ぶれ防止撮影画像I1(1)に比べて、x方向およびy方向にそれぞれ+2座標および−1座標移動している。結果、エリアB1(2)の座標は(7,6)である。   For the second frame, the optical image blur prevention photographed image I1 (2) moves by +2 and −1 coordinates in the x and y directions, respectively, compared to the optical image blur prevention photographed image I1 (1). ing. As a result, the coordinates of area B1 (2) are (7, 6).

3番目のフレームに関しては、光学的像ぶれ防止撮影画像I1(3)は、光学的像ぶれ防止撮影画像I1(2)に比べて、x方向およびy方向にそれぞれ+2座標および−1座標移動している。結果、エリアB1(3)の座標は(9,5)である。   For the third frame, the optical image blur prevention captured image I1 (3) moves +2 coordinates and −1 coordinates in the x direction and the y direction, respectively, compared to the optical image blur prevention captured image I1 (2). ing. As a result, the coordinates of area B1 (3) are (9, 5).

4番目のフレームに関しては、光学的像ぶれ防止撮影画像I1(4)は、光学的像ぶれ防止撮影画像I1(3)に比べて、x方向およびy方向にそれぞれ+2座標および−1座標さらに移動している。結果、エリアB1(3)の座標は(11,4)である。つまり、1番目フレームから4番目フレームの間で、被写体P1は空間上の2次元の静的な座標上をx方向およびy方向にそれぞれ+6座標および−3座標移動している。これは、静止している被写体P1を撮影時に撮像装置ICDをx方向およびy方向にそれぞれ−6座標および+3座標に相当する方向に動かした状態でもある。   For the fourth frame, the optical image blur prevention photographed image I1 (4) moves further by +2 coordinates and −1 coordinates in the x direction and the y direction, respectively, compared to the optical image blur prevention photographed image I1 (3). is doing. As a result, the coordinates of area B1 (3) are (11, 4). That is, between the first frame and the fourth frame, the subject P1 moves on the two-dimensional static coordinates in space in the x and y directions in the +6 and -3 coordinates, respectively. This is also a state in which the imaging device ICD is moved in directions corresponding to −6 coordinates and +3 coordinates in the x direction and the y direction, respectively, when photographing the stationary subject P1.

特徴点抽出部122は、上述の如く、被写体P1の特徴点をエリアB1a、B1b、B1c、およびB1dで示すようにそれらの位置として検出するので、フレーム毎にx方向は+2座標分そしてy方向は−1座標分の特徴点の動きベクトルが検出される。この動きベクトルVを用いて像ぶれ防止レンズ1を移動制御して、光学的な像ぶれ防止撮影を行う。さらに、第1の実施の形態に関して説明したように、補正しきれなかった像ぶれ補正誤差情報ISeにより電子的な像ぶれ補正を行うことによって意図する被写体に対する追従性を向上させることができ、意図する被写体に対する像ぶれ補正の性能を向上させることができる。   As described above, the feature point extraction unit 122 detects the feature points of the subject P1 as their positions as indicated by the areas B1a, B1b, B1c, and B1d, so that the x direction is +2 coordinates and the y direction for each frame. The motion vector of the feature point for -1 coordinate is detected. The movement vector V is used to move and control the image blur prevention lens 1 to perform optical image blur prevention photographing. Furthermore, as described with respect to the first embodiment, by performing electronic image blur correction based on the image blur correction error information ISe that could not be corrected, it is possible to improve the followability to the intended subject. The performance of image blur correction with respect to the subject to be improved can be improved.

次に、図16を参照して、本実施の形態に係る像ぶれ補正動作について説明する。なお、本実施の形態においては、同図に示す動作を撮像装置ICDに実行させるプログラムがシステムコントローラ130に格納されている。なお、本実施の形態においても、上述の第1の実施の形態におけるのと同様に、システムコントローラ130は、操作部110のシャッターボタンが全押しされている状態を検知して場合に、CCD106から画像信号を出力する直前にOISユニット制御部104bを起動させ、CCD106から第1の画像信号Sv1(光学的像ぶれ防止撮影画像I1)を出力させ、画像処理部107に第1の画像信号Sv1に対して電子的像ぶれ補正を行わせて第2の画像信号Sv2(光学的ぶれ防止撮影/電子的像ぶれ補正画像I2)を生成させ、当該第2の画像信号Sv2(第2の画像データDi2)をメモリーカード111に格納させた後に、OISユニット制御部104aの動作を終了する例をとり上げて説明する。   Next, with reference to FIG. 16, the image blur correction operation according to the present embodiment will be described. In the present embodiment, a program for causing the imaging apparatus ICD to execute the operation shown in FIG. Also in the present embodiment, as in the first embodiment described above, the system controller 130 detects from the CCD 106 when detecting that the shutter button of the operation unit 110 is fully pressed. Immediately before the image signal is output, the OIS unit control unit 104b is activated, and the CCD 106 outputs the first image signal Sv1 (optical image blur prevention captured image I1), and the image processing unit 107 outputs the first image signal Sv1. On the other hand, the electronic image blur correction is performed to generate the second image signal Sv2 (optical blur prevention photographing / electronic image blur correction image I2), and the second image signal Sv2 (second image data Di2) is generated. ) Is stored in the memory card 111 and then the operation of the OIS unit control unit 104a is terminated.

よって、ステップS201において、特徴点抽出部122によってCCD106から出力された第1の画像データDi1(第1の画像信号Sv1)に予め記憶している参照色情報(色相情報IH)に近い色情報(色相情報IH)を有するエリアが色情報の算出された画像分割部71にて分割された各エリアに存在するか否かが判定される。   Therefore, in step S201, the color information close to the reference color information (hue information IH) stored in advance in the first image data Di1 (first image signal Sv1) output from the CCD 106 by the feature point extraction unit 122 ( It is determined whether or not an area having the hue information IH) exists in each area divided by the image dividing unit 71 in which the color information is calculated.

参照色情報に近い色情報を有するエリアが存在しない場合には、制御は上述のステップS101に進み、以降の処理は実施の形態1における図15を用いて説明したように撮影装置本体の振れ角に基づいた像ぶれ補正撮影処理が行われる。一方、参照色情報に近い色情報を有するエリアが存在する場合には、ステップS202の処理に進む。   If there is no area having color information close to the reference color information, the control proceeds to step S101 described above, and the subsequent processing is the deflection angle of the photographing apparatus main body as described with reference to FIG. 15 in the first embodiment. An image blur correction photographing process based on the above is performed. On the other hand, if there is an area having color information close to the reference color information, the process proceeds to step S202.

ステップS202において、システムコントローラ130からスイッチ62xおよびスイッチ62yにx方向目標位置選択信号STxおよびy方向目標位置選択信号STyが出力される。そして、制御は次のステップS203に進む。   In step S202, the x-direction target position selection signal STx and the y-direction target position selection signal STy are output from the system controller 130 to the switches 62x and 62y. Then, the control proceeds to the next Step S203.

ステップS203において、動きベクトル検出部60から出力されるユーザの意図する被写体P1の特徴点に基づいた動きベクトルVが目標位置指令情報としてスイッチ62xおよびスイッチ62yから出力される。そして、制御は上述のステップS101に進み、以降の処理は目標位置指令情報に基づいて第1の実施の形態に関して説明した光学的な像ぶれ防止が行われ。そして、像ぶれ補正誤差情報ISeに基づいて、光学的な像ぶれ防止しきれかった像ぶれに対してさらに電子的な像ぶれ補正が行われる。このように発明においては、光学的像ぶれ防止撮影手段と電子的像ぶれ補正手段とによりユーザが撮影を意図する被写体の像ぶれを防止する像ぶれ補正手段を構成している。   In step S203, the motion vector V based on the feature point of the subject P1 intended by the user and output from the motion vector detection unit 60 is output from the switch 62x and the switch 62y as target position command information. Then, the control proceeds to step S101 described above, and the subsequent processing performs the optical image blur prevention described with respect to the first embodiment based on the target position command information. Then, based on the image blur correction error information ISe, electronic image blur correction is further performed on the image blur that could not be completely prevented from optical image blur. As described above, in the invention, the optical image blur prevention photographing means and the electronic image blur correction means constitute the image blur correction means for preventing the image blur of the subject that the user intends to photograph.

以上、本発明の実施の形態において説明したようにユーザの撮影したい意図する被写体の像ぶれを防止する像ぶれ補正制御手段を実現することが可能である。特に、気軽に撮影するメリットのあるモバイルカメラなどの小型軽量の撮像装置においては、それゆえに歩きながらの撮影や片手撮りなどユーザの使用状況によって像ぶれを生じやすく、光学的な像ぶれ補正機能に加えて電子的な像ぶれ補正機能を有することで像ぶれ補正効果を大幅に改善できる。   As described above, as described in the embodiment of the present invention, it is possible to realize image blur correction control means for preventing image blur of a subject intended to be photographed by a user. In particular, in a small and lightweight imaging device such as a mobile camera that has the advantage of casual shooting, image blurring is likely to occur depending on the user's usage such as shooting while walking or one-handed shooting, and an optical image blur correction function is provided. In addition, by providing an electronic image blur correction function, the image blur correction effect can be greatly improved.

また、予め撮影したい被写体の特徴点を撮像装置本体に記憶させておき、記憶させた特徴点が存在する場合には、その特徴点がぶれないように動きベクトルを目標位置情報として光学的な像ぶれ補正を行うとともに、補正しきれなかった補正誤差をさらに電子的な像ぶれ補正を行うことでユーザの意図する被写体の像ぶれ補正効果を向上させることができる。   Also, feature points of a subject to be photographed in advance are stored in the imaging apparatus main body, and when the stored feature points exist, an optical image is obtained using the motion vector as target position information so that the feature points are not blurred. By performing blur correction and further performing electronic image blur correction on correction errors that could not be corrected, the image blur correction effect of the subject intended by the user can be improved.

なお、本実施の形態においては電子的な像ぶれ補正機能の構成は回路で実現しても良いし、マイコンなどで処理を行うソフトウエアで構成しても良い。なお、光学的な像ぶれ防止の後に光学的に防止しきれなかった補正誤差をさらに電子的に行う事例が具体的に説明されている。しかしながら、光学的な像ぶれ防止の前に電子的な補正を行うように構成できること、さらに、光学的像ぶれ防止と電子的補正を平行して行うように構成することも、当業者にとっては容易であると共に効果的であることは明白である。 In the present embodiment, the configuration of the electronic image blur correction function may be realized by a circuit, or may be configured by software that performs processing by a microcomputer or the like. An example in which correction errors that could not be optically prevented after optical image blur prevention are further electronically described is specifically described. However, it is easy for those skilled in the art to configure the electronic correction before the optical image blur prevention, and to perform the optical image blur prevention and the electronic correction in parallel. It is clear that it is both effective and effective.

本発明は、ディジタルスチルカメラ、ディジタルビデオカメラ等の撮像装置に好適である。   The present invention is suitable for an imaging apparatus such as a digital still camera and a digital video camera.

本発明の第1の実施の形態にかかる撮像装置の構成を示すブロック図1 is a block diagram showing a configuration of an imaging apparatus according to a first embodiment of the present invention. 図1のOISユニットの構成を示す斜視図The perspective view which shows the structure of the OIS unit of FIG. 図2のOISユニットの要部分解斜視図2 is an exploded perspective view of the main part of the OIS unit of FIG. 図2のピッチング移動枠の背面図Rear view of the pitching movement frame of FIG. 図4におけるV−V断面図VV sectional view in FIG. 本発明の第2の実施の形態にかかる撮像装置における像ぶれ補正機能の構成を示すブロック図The block diagram which shows the structure of the image blurring correction function in the imaging device concerning the 2nd Embodiment of this invention 図1の画像処理部の構成を示すブロック図The block diagram which shows the structure of the image process part of FIG. 本発明の実施の形態1における画像データ配置説明図Image data arrangement explanatory diagram in Embodiment 1 of the present invention 本発明の実施の形態1における像ぶれ補正機能の動作説明図Operation explanatory diagram of the image blur correction function in the first embodiment of the present invention 本発明の実施の形態2における撮像装置のブロック図The block diagram of the imaging device in Embodiment 2 of this invention 本発明の実施の形態2における特徴点抽出部の詳細ブロック図Detailed block diagram of feature point extraction unit in Embodiment 2 of the present invention 本発明の実施の形態2における像ぶれ補正機能の構成ブロック図Configuration block diagram of an image blur correction function in Embodiment 2 of the present invention 本発明の実施の形態2における空間座標説明図Spatial coordinate explanatory diagram in Embodiment 2 of the present invention 本発明の実施の形態2における像ぶれ補正機能の動作説明図Operation explanatory diagram of the image blur correction function in Embodiment 2 of the present invention 本発明の実施の形態1における像ぶれ補正機能の動作フローチャートOperation Flowchart of Image Blur Correction Function in Embodiment 1 of the Present Invention 本発明の実施の形態2における像ぶれ補正機能の動作フローチャートOperation Flowchart of Image Blur Correction Function in Embodiment 2 of the Present Invention

符号の説明Explanation of symbols

ICD1、ICD2 撮像装置
31、31x、31y OISアクチュエータ
32、32x、32y 位置検出センサ
33、33x、33y ゲイン補正部
34、34x、34y 角速度センサ
35、35x、35y 積分器
36、36x、36y ゲイン補正部
37、37x、37y 比較部
38、38x、38y ISユニット駆動部
39、39x、39y 画像シフト量演算部
71 画像分割部
72 色情報算出部
73 参照位置演算部
74 参照色情報記憶部
75 強化値演算部
100 レンズ鏡筒
101 ズームレンズ系
102a、102b OISユニット
103 フォーカスレンズユニット
104a、104b OISユニット制御部
105 フォーカス駆動部
106 CCD
107 画像処理部
109a、109b 合焦情報算出部
110 操作部
111 表示部
112 メモリーカード
120 システムコントローラ
122 特徴点抽出部

ICD1, ICD2 Imaging devices 31, 31x, 31y OIS actuators 32, 32x, 32y Position detection sensors 33, 33x, 33y Gain correction units 34, 34x, 34y Angular velocity sensors 35, 35x, 35y Integrators 36, 36x, 36y Gain correction units 37, 37x, 37y Comparison unit 38, 38x, 38y IS unit drive unit 39, 39x, 39y Image shift amount calculation unit 71 Image division unit 72 Color information calculation unit 73 Reference position calculation unit 74 Reference color information storage unit 75 Reinforcement value calculation Unit 100 lens barrel 101 zoom lens system 102a, 102b OIS unit 103 focus lens unit 104a, 104b OIS unit control unit 105 focus drive unit 106 CCD
107 Image processing units 109a and 109b Focus information calculation unit 110 Operation unit 111 Display unit 112 Memory card 120 System controller 122 Feature point extraction unit

Claims (10)

被写体の電気的な画像信号を出力する撮像装置であって、
光軸に対して垂直に移動制御することで像ぶれを防止する像ぶれ防止レンズを含む複数のレンズ群により前記被写体の光学的な像を形成する撮像光学系と、
前記被写体の光学的な像を撮像して、前記電気的な画像信号に変換する撮像素子と、
前記撮像素子の出力画像信号の表示および記憶を行う画像処理手段と、
前記像ぶれ防止レンズの移動制御を行う像ぶれ制御手段とを備え、
前記像ぶれ制御手段は、像ぶれ補正誤差を演算する像ぶれ補正誤差演算手段と、前記像ぶれ補正誤差に基づいて前記画像信号の切り出し位置を補正する画像補正手段とで構成されることを特徴とする撮像装置。
An imaging device that outputs an electrical image signal of a subject,
An imaging optical system that forms an optical image of the subject by a plurality of lens groups including an image blur prevention lens that controls image blur by controlling movement perpendicular to the optical axis;
An image sensor that captures an optical image of the subject and converts it into the electrical image signal;
Image processing means for displaying and storing the output image signal of the image sensor;
Image blur control means for controlling movement of the image blur prevention lens,
The image blur control unit includes an image blur correction error calculation unit that calculates an image blur correction error, and an image correction unit that corrects a cutout position of the image signal based on the image blur correction error. An imaging device.
前記像ぶれ補正誤差演算手段は、
前記撮像光学系のぶれ情報を検出する揺動検出手段と、
前記ぶれ情報に基づいて像ぶれ防止レンズの移動制御を行い、前記像ぶれ防止レンズの位置情報を検出する位置検出手段とを含み、
前記ぶれ情報と前記位置情報との差を像ぶれ補正誤差として演算することを特徴とする請求項1記載の撮像装置。
The image blur correction error calculating means is
Swing detection means for detecting blur information of the imaging optical system;
Position control means for performing movement control of the image blur prevention lens based on the blur information and detecting position information of the image blur prevention lens,
The imaging apparatus according to claim 1, wherein a difference between the blur information and the position information is calculated as an image blur correction error.
前記像ぶれ補正誤差演算手段は、
画像信号から特徴点を抽出して前記特徴点の位置情報を演算する特徴点抽出手段と、
前記特徴点の位置情報に基づいて像ぶれ防止レンズの移動制御を行い、前記像ぶれ防止レンズの位置情報を検出する位置検出手段とを含み、
前記特徴点の位置情報と前記像ぶれ防止レンズの位置情報との差を像ぶれ補正誤差として演算することを特徴とする請求項1に記載の撮像装置。
The image blur correction error calculating means is
Feature point extraction means for extracting feature points from an image signal and calculating positional information of the feature points;
Position control means for performing movement control of the image blur prevention lens based on the position information of the feature point, and detecting position information of the image blur prevention lens,
The imaging apparatus according to claim 1, wherein a difference between the position information of the feature point and the position information of the image blur prevention lens is calculated as an image blur correction error.
前記画像補正手段は、
画像信号を複数枚記憶するメモリと、
前記各画像信号を合成する合成手段を含んで構成されることを特徴とする請求項1に記載の撮像装置。
The image correcting means includes
A memory for storing a plurality of image signals;
The imaging apparatus according to claim 1, further comprising a combining unit that combines the image signals.
前記特徴点抽出手段は、
画像信号から色情報を算出する色情報算出手段と、
予め参照色情報を設定する参照色情報設定手段と、
前記参照色情報と前記算出された前記色情報とを比較して、その結果に基づいて、特徴点を抽出して前記特徴点の位置情報を演算することを特徴とする請求項3に記載の撮像装置。
The feature point extraction means includes:
Color information calculating means for calculating color information from the image signal;
Reference color information setting means for setting reference color information in advance;
4. The reference color information is compared with the calculated color information, and based on the result, feature points are extracted and position information of the feature points is calculated. Imaging device.
前記色情報および前記参照色情報の内の少なくとも一方は、色相に関する情報および彩度に関する情報の内の少なくとも一方を含む、請求項5に記載の撮像装置。   The imaging device according to claim 5, wherein at least one of the color information and the reference color information includes at least one of information on hue and information on saturation. 前記像ぶれ補正誤差演算手段は、画像信号に特徴点が含まれている場合には前記特徴点の位置情報と前記像ぶれ防止レンズの位置情報との差を像ぶれ補正誤差として演算することを特徴とする請求項1に記載の撮像装置。   The image blur correction error calculating means calculates a difference between the position information of the feature point and the position information of the image blur prevention lens as an image blur correction error when a feature point is included in the image signal. The imaging apparatus according to claim 1, wherein the imaging apparatus is characterized. 前記像ぶれ補正誤差演算手段は、特徴点の位置情報と像ぶれ防止レンズの位置情報との差と撮像装置のぶれ情報と前記レンズの位置情報との差の何れかを像ぶれ補正誤差として演算しているかを表示或いは記憶させることを特徴とする請求項1に記載の撮像装置。   The image blur correction error calculating means calculates, as an image blur correction error, any one of a difference between the position information of the feature point and the position information of the image blur prevention lens and a difference between the blur information of the imaging device and the position information of the lens. The image pickup apparatus according to claim 1, wherein the image pickup device displays or stores whether the image is being recorded. 前記像ぶれ防止レンズは、光軸に対して垂直に当該ぶれ防止レンズを移動するアクチュエータと、当該ぶれ防止レンズの位置を検出する位置検出センサによって移動制御されることを特徴とする請求項1に記載の撮像装置。   The image blur prevention lens is controlled to move by an actuator that moves the image blur prevention lens perpendicular to the optical axis and a position detection sensor that detects a position of the image blur prevention lens. The imaging device described. 前記像ぶれ制御手段は、角速度センサから出力される角速度情報に基づいて前記像ぶれ防止レンズを移動制御することを特徴とする請求項1に記載の撮像装置。

The image pickup apparatus according to claim 1, wherein the image blur control unit controls movement of the image blur prevention lens based on angular velocity information output from an angular velocity sensor.

JP2006062901A 2006-03-08 2006-03-08 Imaging device Expired - Fee Related JP4911997B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006062901A JP4911997B2 (en) 2006-03-08 2006-03-08 Imaging device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006062901A JP4911997B2 (en) 2006-03-08 2006-03-08 Imaging device

Publications (3)

Publication Number Publication Date
JP2007243579A true JP2007243579A (en) 2007-09-20
JP2007243579A5 JP2007243579A5 (en) 2009-03-12
JP4911997B2 JP4911997B2 (en) 2012-04-04

Family

ID=38588669

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006062901A Expired - Fee Related JP4911997B2 (en) 2006-03-08 2006-03-08 Imaging device

Country Status (1)

Country Link
JP (1) JP4911997B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011160411A (en) * 2010-01-05 2011-08-18 Panasonic Corp Imaging device
JP2013003168A (en) * 2011-06-10 2013-01-07 Canon Inc Vibration-proof control device, vibration-proof control method, imaging apparatus and control method thereof
JP2016012811A (en) * 2014-06-27 2016-01-21 キヤノン株式会社 Imaging apparatus, control method thereof, program and storage medium

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10164425A (en) * 1996-11-26 1998-06-19 Matsushita Electric Ind Co Ltd Image motion correction device
JP2004239962A (en) * 2003-02-03 2004-08-26 Nikon Corp Shake correction camera system, shake correction camera, image recovering device and shake correction program

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10164425A (en) * 1996-11-26 1998-06-19 Matsushita Electric Ind Co Ltd Image motion correction device
JP2004239962A (en) * 2003-02-03 2004-08-26 Nikon Corp Shake correction camera system, shake correction camera, image recovering device and shake correction program

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011160411A (en) * 2010-01-05 2011-08-18 Panasonic Corp Imaging device
US8184965B2 (en) 2010-01-05 2012-05-22 Panasonic Corporation Imaging device
JP2013003168A (en) * 2011-06-10 2013-01-07 Canon Inc Vibration-proof control device, vibration-proof control method, imaging apparatus and control method thereof
JP2016012811A (en) * 2014-06-27 2016-01-21 キヤノン株式会社 Imaging apparatus, control method thereof, program and storage medium

Also Published As

Publication number Publication date
JP4911997B2 (en) 2012-04-04

Similar Documents

Publication Publication Date Title
JP4976293B2 (en) Imaging device
JP5223486B2 (en) Electronic binoculars
US20170272658A1 (en) Photographing apparatus
JP6486656B2 (en) Imaging device
JP6214316B2 (en) Image blur correction device, lens device, imaging device, image blur correction device control method, program, and storage medium
US11394881B2 (en) Image processing apparatus, image processing method, storage medium, system, and electronic apparatus
US20090040321A1 (en) Digital camera system
JP2007114311A (en) Image blur correction device and image blur correction method for imaging apparatus
US10122922B2 (en) Image pickup apparatus and image stabilization method
CN109691085B (en) Image pickup apparatus and image pickup control method
CN110462507B (en) Image blur correction device, interchangeable lens, and imaging device
JP2022017401A (en) Image blur correction device, exchange lens, and imaging device
JP4724493B2 (en) Optical apparatus, imaging apparatus, and attitude detection method of optical apparatus
JP2007017517A (en) Image blur corrector
JP4125331B2 (en) Imaging apparatus and control method thereof
US10412306B1 (en) Optical image stabilization method and apparatus
JP4911997B2 (en) Imaging device
KR101657283B1 (en) Optical image stabilizer
JP2006295238A (en) Image pickup device
JP2010109477A (en) Imaging apparatus, control method thereof and program
US8817127B2 (en) Image correction device for image capture device and integrated circuit for image correction device
JP5788197B2 (en) Image processing apparatus, image processing method, image processing program, and imaging apparatus
US20180316840A1 (en) Optical image stabilization devices and methods for gyroscope alignment
JP2016042662A (en) Image processing system, imaging apparatus, image processing method, program, and storage medium
JP5318078B2 (en) Optical apparatus and control method thereof

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090120

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090120

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100907

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100910

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20101109

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110510

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110531

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20110826

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20111227

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120117

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

Ref document number: 4911997

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150127

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees