JP2019152888A - Imaging device - Google Patents

Imaging device Download PDF

Info

Publication number
JP2019152888A
JP2019152888A JP2019114806A JP2019114806A JP2019152888A JP 2019152888 A JP2019152888 A JP 2019152888A JP 2019114806 A JP2019114806 A JP 2019114806A JP 2019114806 A JP2019114806 A JP 2019114806A JP 2019152888 A JP2019152888 A JP 2019152888A
Authority
JP
Japan
Prior art keywords
motion vector
reference value
camera
unit
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019114806A
Other languages
Japanese (ja)
Inventor
英志 三家本
Hideshi Mikamoto
英志 三家本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2019114806A priority Critical patent/JP2019152888A/en
Publication of JP2019152888A publication Critical patent/JP2019152888A/en
Priority to JP2020125568A priority patent/JP6943323B2/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Structure And Mechanism Of Cameras (AREA)
  • Adjustment Of Camera Lenses (AREA)

Abstract

To provide a desirable interchangeable lens using a motion vector.SOLUTION: The interchangeable lens includes: a blurring correction lens for correcting blurring of an image; an angular velocity sensor for detecting an angular velocity; an operation unit for operating the reference value of an output signal of the angular velocity sensor; a reception unit for receiving motion vector information and version information from a camera; a correction unit for correcting the reference value, using the motion vector information, and performing control to drive the blurring correction lens, using the output signal of the angular velocity sensor and the reference value corrected by the correction unit.SELECTED DRAWING: Figure 2

Description

本発明は、交換レンズに関する。   The present invention relates to an interchangeable lens.

カメラの撮像画像を解析して得られる画像動き信号を取得し、画像動き信号に基づいて角速度センサ(ジャイロ)の基準値を修正する技術が提案されている(特許文献1参照)。   There has been proposed a technique for acquiring an image motion signal obtained by analyzing a captured image of a camera and correcting a reference value of an angular velocity sensor (gyro) based on the image motion signal (see Patent Document 1).

特許第4419466号公報Japanese Patent No. 4419466

本発明は、像ブレを補正するブレ補正レンズと、角速度を検出する角速度センサと、前記角速度センサの出力信号の基準値を演算する演算部と、カメラから動きベクトル情報と、バージョン情報とを受信する受信部と、前記動きベクトル情報を用いて前記基準値を補正する補正部と、前記角速度センサの前記出力信号と、前記補正部に補正された前記基準値とを用いて前記ブレ補正レンズを駆動する制御をする制御部とを備える交換レンズに関する。   The present invention receives a blur correction lens that corrects image blur, an angular velocity sensor that detects angular velocity, a calculation unit that calculates a reference value of an output signal of the angular velocity sensor, motion vector information, and version information from a camera. The shake correction lens using the receiving unit, the correction unit that corrects the reference value using the motion vector information, the output signal of the angular velocity sensor, and the reference value corrected by the correction unit. The present invention relates to an interchangeable lens including a control unit that controls driving.

第1実施形態のブレ補正装置を備えるカメラを模式的に示す断面図である。It is sectional drawing which shows typically a camera provided with the blurring correction apparatus of 1st Embodiment. 第1実施形態のブレ補正装置のブロック図である。It is a block diagram of the blurring correction apparatus of 1st Embodiment. ワイド側以外の場合における動きベクトルの演算タイミングを説明する図である。It is a figure explaining the calculation timing of the motion vector in cases other than the wide side. (a)から(c)は、レンズ鏡筒の焦点距離がワイドの場合に、レンズ側送受信部よりカメラ側送受信部に送られる、動きベクトル演算方法の情報を説明する図である。(A)-(c) is a figure explaining the information of the motion vector calculation method sent to a camera side transmission / reception part from a lens side transmission / reception part, when the focal distance of a lens barrel is wide. 第1実施形態のブレ補正装置の動作の流れを示したフローチャートである。It is the flowchart which showed the flow of operation | movement of the blurring correction apparatus of 1st Embodiment. 基準値演算部を説明する図であり、(a)は、基準値演算部、(b)は基準値演算部のLPFを示した図である。It is a figure explaining a reference value calculating part, (a) is a reference value calculating part, (b) is a figure showing LPF of a reference value calculating part. 基準値補正演算を示すフローチャートである。It is a flowchart which shows a reference value correction calculation. 基準値誤差と動きベクトルの関係図であり、(a)は基準値演算結果、(b)は動きベクトルである。It is a relationship diagram of a reference value error and a motion vector, (a) is a reference value calculation result, (b) is a motion vector. 基準値誤差成分を動きベクトルにより正確に検出できた場合の補正後の基準値を示したグラフである。It is the graph which showed the reference value after amendment when a reference value error ingredient has been correctly detected with a motion vector. 誤検出された動きベクトルを示したグラフである。It is the graph which showed the motion vector detected erroneously. 被写体ブレ成分の動きベクトル情報を用いて基準値補正を行った場合の、基準値演算結果である。This is a reference value calculation result when the reference value correction is performed using the motion vector information of the subject blur component. 本実施形態と比較形態とを比較したグラフである。It is the graph which compared this embodiment and the comparison form. 第2実施形態のブレ補正装置のブロック図である。It is a block diagram of the blurring correction apparatus of 2nd Embodiment.

(第1実施形態)
以下、図面等を参照して、本発明の第1実施形態について説明する。
図1は、第1実施形態のブレ補正装置を備えるカメラシステム1を模式的に示す断面図である。
カメラシステム1は、デジタル一眼レフカメラ1Aと、このカメラ1Aに対して着脱自在に装着されるレンズ鏡筒1Bとを備えている。
(First embodiment)
Hereinafter, a first embodiment of the present invention will be described with reference to the drawings and the like.
FIG. 1 is a cross-sectional view schematically showing a camera system 1 including the shake correction apparatus of the first embodiment.
The camera system 1 includes a digital single-lens reflex camera 1A and a lens barrel 1B that is detachably attached to the camera 1A.

(カメラ)
カメラ1Aは、カメラCPU(カメラ制御部)2A、撮像素子3、記録媒体13、カメラ記憶部14、信号処理回路15、AFセンサ16、レリーズスイッチ17、背面液晶18、ミラー19、シャッタ20、及びレンズ鏡筒1Bとの通信用のカメラ側送受信部21を備えている。
(camera)
The camera 1A includes a camera CPU (camera control unit) 2A, an imaging device 3, a recording medium 13, a camera storage unit 14, a signal processing circuit 15, an AF sensor 16, a release switch 17, a rear liquid crystal 18, a mirror 19, a shutter 20, and A camera side transmission / reception unit 21 for communication with the lens barrel 1B is provided.

カメラCPU2Aは、カメラシステム1の全体の制御を行う中央処理装置である。
撮像素子3は、撮影レンズ(4,5,6)により形成された被写体像を撮像する素子であり、被写体光を露光して電気的な画像信号に変換し、信号処理回路15へ出力する。撮像素子3は、例えばCCD、CMOSなどの素子により構成されている。
The camera CPU 2A is a central processing unit that performs overall control of the camera system 1.
The imaging element 3 is an element that captures a subject image formed by the photographing lenses (4, 5, 6), exposes the subject light to convert it into an electrical image signal, and outputs it to the signal processing circuit 15. The image pickup device 3 is configured by an element such as a CCD or a CMOS.

記録媒体13は、撮像された画像データを記録するための媒体であり、SDカード、CFカード等が使用される。
カメラ記憶部14は、例えばEEPROMであり、角速度センサ12のゲイン値などの調整値情報、レンズ鏡筒固有の情報等を記憶し、カメラCPU2A又はレンズCPU2Bに出力する。
信号処理回路15は、撮像素子3からの出力を受けて、ノイズ処理やA/D変換等の処理を行う回路である。
The recording medium 13 is a medium for recording captured image data, and an SD card, a CF card, or the like is used.
The camera storage unit 14 is, for example, an EEPROM, stores adjustment value information such as a gain value of the angular velocity sensor 12, information unique to the lens barrel, and the like, and outputs the information to the camera CPU 2A or the lens CPU 2B.
The signal processing circuit 15 is a circuit that receives an output from the image sensor 3 and performs processing such as noise processing and A / D conversion.

AFセンサ16は、AF(自動焦点調節)を行うためのセンサであって、CCD等を用いることができる。
レリーズスイッチ17は、カメラシステム1の撮影操作を行う部材であって、シャッタ駆動のタイミング等を操作するスイッチである。
The AF sensor 16 is a sensor for performing AF (automatic focus adjustment), and a CCD or the like can be used.
The release switch 17 is a member that performs a photographing operation of the camera system 1 and is a switch that operates a shutter driving timing and the like.

背面液晶(表示部)18は、カメラ1Aの背面に設けられ、撮像素子3で撮影した被写体像(再生画像、ライブビュー画像)や操作に関連した情報(メニュー)などを表示するカラー液晶ディスプレイである。   The rear liquid crystal (display unit) 18 is a color liquid crystal display that is provided on the rear surface of the camera 1A and displays a subject image (reproduced image, live view image) photographed by the image sensor 3 and information (menu) related to operation. is there.

シャッタ20は、ミラー19の後方に配置されている。シャッタ20には、ミラー19が上へ回転して撮影可能状態となったときに、被写体光が入射される。シャッタ20は、レリーズスイッチ17などによる撮影指示に応じてシャッタ幕を走行させ、撮像素子3に入射する被写体光を制御する。   The shutter 20 is disposed behind the mirror 19. Subject light is incident on the shutter 20 when the mirror 19 rotates upward and becomes ready for photographing. The shutter 20 travels through a shutter curtain in response to a shooting instruction from the release switch 17 or the like, and controls subject light incident on the image sensor 3.

カメラ側送受信部21は、カメラ1Aにレンズ鏡筒1Bが装着されたときに、後述するレンズ側送受信部22と接触する。これにより、カメラ1Aとレンズ鏡筒1Bとの送受信が可能となる。カメラ1Aとレンズ鏡筒1Bとの送受信される情報については後述する。   The camera-side transmitting / receiving unit 21 contacts a lens-side transmitting / receiving unit 22 described later when the lens barrel 1B is attached to the camera 1A. Thereby, transmission / reception between the camera 1A and the lens barrel 1B becomes possible. Information transmitted and received between the camera 1A and the lens barrel 1B will be described later.

(レンズ鏡筒)
レンズ鏡筒1Bは、ズームレンズ群4、フォーカスレンズ群5、ブレ補正レンズ群(光学素子)6、ズームレンズ群駆動機構7、フォーカスレンズ群駆動機構8、ブレ補正レンズ群駆動機構(光学素子駆動部)9、絞り10、絞り駆動機構11、角速度センサ12、レンズCPU(制御部)2B及びレンズ側送受信部22を備える。
(Lens barrel)
The lens barrel 1B includes a zoom lens group 4, a focus lens group 5, a shake correction lens group (optical element) 6, a zoom lens group drive mechanism 7, a focus lens group drive mechanism 8, and a shake correction lens group drive mechanism (optical element drive). Unit) 9, a diaphragm 10, a diaphragm driving mechanism 11, an angular velocity sensor 12, a lens CPU (control unit) 2B, and a lens side transmission / reception unit 22.

レンズCPU2Bは、ズームレンズ群4、フォーカスレンズ群5、ブレ補正レンズ群6等のレンズ群の移動量演算を行う。ズームレンズ群駆動機構7、フォーカスレンズ群駆動機構8、ブレ補正レンズ群駆動機構9、及び絞り駆動機構11に移動量を指示してズームレンズ群4、フォーカスレンズ群5、ブレ補正レンズ群6を移動させる。   The lens CPU 2B calculates the movement amount of the lens groups such as the zoom lens group 4, the focus lens group 5, and the blur correction lens group 6. The zoom lens group drive mechanism 7, the focus lens group drive mechanism 8, the blur correction lens group drive mechanism 9 and the aperture drive mechanism 11 are instructed to move the zoom lens group 4, the focus lens group 5, and the blur correction lens group 6. Move.

ズームレンズ群4は、ズームレンズ群駆動機構7により駆動され、光軸方向に沿って移動することにより、像の倍率を連続的に変化させるレンズ群である。
フォーカスレンズ群5は、フォーカスレンズ群駆動機構8により駆動され、光軸方向に移動して、焦点を合わせるレンズ群である。
ブレ補正レンズ群6(光学素子)は、VCM等のブレ補正レンズ群駆動機構9により光学的にブレ補正駆動され、光軸に垂直な面上で可動なレンズ群である。
The zoom lens group 4 is a lens group that is driven by the zoom lens group drive mechanism 7 and moves along the optical axis direction to continuously change the magnification of the image.
The focus lens group 5 is a lens group that is driven by the focus lens group drive mechanism 8 and moves in the optical axis direction to focus.
The shake correction lens group 6 (optical element) is a lens group that is optically shake-corrected and driven on a plane perpendicular to the optical axis by a shake correction lens group drive mechanism 9 such as a VCM.

絞り10は、絞り駆動機構11に駆動され、撮影レンズ(4,5,6)を通過する被写体光の光量を制御する機構である。
角速度センサ12は、レンズ鏡筒1Bに生じる振れの角速度を検出するセンサである。
レンズ側送受信部22は、上述したように、カメラ1Aにレンズ鏡筒1Bが装着されると、カメラ側送受信部21と接触し、カメラ1Aとレンズ鏡筒1Bとの送受信が可能なる。
The diaphragm 10 is a mechanism that is driven by the diaphragm drive mechanism 11 and controls the amount of subject light passing through the photographing lenses (4, 5, 6).
The angular velocity sensor 12 is a sensor that detects an angular velocity of shake that occurs in the lens barrel 1B.
As described above, when the lens barrel 1B is attached to the camera 1A, the lens side transmission / reception unit 22 comes into contact with the camera side transmission / reception unit 21, and transmission / reception between the camera 1A and the lens barrel 1B becomes possible.

(ブレ補正装置)
図2は、本実施形態のブレ補正装置100を説明するブロック図である。
ブレ補正装置100は、カメラCPU2A、レンズCPU2B、角速度センサ12、ブレ補正レンズ群駆動機構(レンズ駆動部)9、レンズ位置検出部23、ブレ補正レンズ群6、カメラ側送受信部21及びレンズ側送受信部22を備える。
(Blur correction device)
FIG. 2 is a block diagram illustrating the shake correction apparatus 100 of the present embodiment.
The shake correction apparatus 100 includes a camera CPU 2A, a lens CPU 2B, an angular velocity sensor 12, a shake correction lens group drive mechanism (lens drive unit) 9, a lens position detection unit 23, a shake correction lens group 6, a camera side transmission / reception unit 21, and a lens side transmission / reception. The unit 22 is provided.

カメラCPU2Aは、信号処理部40及び動きベクトル演算部41を備える。
レンズCPU2Bは、増幅部31と、第1A/D変換部32、第2A/D変換部33、基準値演算部34、基準値補正量演算部35、積分部を内部に含む目標位置演算部36、センタバイアス演算部37、センタバイアス除去部38、駆動量演算部39、基準値判定部44、レンズ記憶部45を備える。
角速度センサ12は、レンズ鏡筒1BのX軸回り(Pitch)、Y軸回り(Yaw)、Z軸回り(Roll)の角速度を検出する振動ジャイロ等のセンサである。
The camera CPU 2A includes a signal processing unit 40 and a motion vector calculation unit 41.
The lens CPU 2B includes an amplification unit 31, a first A / D conversion unit 32, a second A / D conversion unit 33, a reference value calculation unit 34, a reference value correction amount calculation unit 35, and a target position calculation unit 36 including an integration unit therein. A center bias calculator 37, a center bias remover 38, a drive amount calculator 39, a reference value determination unit 44, and a lens storage unit 45.
The angular velocity sensor 12 is a sensor such as a vibrating gyroscope that detects angular velocities around the X axis (Pitch), Y axis (Yaw), and Z axis (Roll) of the lens barrel 1B.

増幅部31は、角速度センサ12の出力を増幅する。
第1A/D変換部32は、増幅部31の出力をA/D変換する。
基準値演算部34は、角速度センサ12から得られた振動検出信号(第1A/D変換部32の出力)の基準値を演算する。角速度の基準値とは、例えば、カメラシステム1(カメラ1A、レンズ鏡筒1B)が静止しているときに角速度センサ12から出力される振動検出信号である。基準値演算部34は、例えば、角速度センサ12の出力から所定の高周波成分を低減するローパスフィルタの出力に基づいて基準値を求めることができる。
そして、基準値演算部34において演算された基準値を、第1A/D変換部32の出力から減算部43において減算する。
目標位置演算部36は、減算部43において基準値が減算された後の角速度センサ12の出力を基に、ブレ補正レンズ群6の目標位置を演算する。
The amplifying unit 31 amplifies the output of the angular velocity sensor 12.
The first A / D converter 32 performs A / D conversion on the output of the amplifier 31.
The reference value calculation unit 34 calculates the reference value of the vibration detection signal (output of the first A / D conversion unit 32) obtained from the angular velocity sensor 12. The angular velocity reference value is, for example, a vibration detection signal output from the angular velocity sensor 12 when the camera system 1 (camera 1A, lens barrel 1B) is stationary. The reference value calculation unit 34 can obtain the reference value based on, for example, the output of a low-pass filter that reduces a predetermined high-frequency component from the output of the angular velocity sensor 12.
Then, the reference value calculated by the reference value calculation unit 34 is subtracted from the output of the first A / D conversion unit 32 by the subtraction unit 43.
The target position calculation unit 36 calculates the target position of the blur correction lens group 6 based on the output of the angular velocity sensor 12 after the reference value is subtracted by the subtraction unit 43.

センタバイアス演算部37は、目標位置演算部36によって算出されたブレ補正レンズ群6の目標位置に基づいて、ブレ補正レンズ群6を、その可動範囲の中心に向かって移動させるための向心力をバイアス量として演算する。
そして、ブレ補正レンズ群6の目標位置から、算出したバイアス量を減算することによりブレ補正レンズ群6の制御位置を算出する。
このようにセンタリングバイアス処理を行うことで、ブレ補正レンズ群6がハードリミットに衝突することを有効に防止することができ、さらには、撮影画像の見栄えを向上させることができる。
The center bias calculator 37 biases the centripetal force for moving the blur correction lens group 6 toward the center of the movable range based on the target position of the blur correction lens group 6 calculated by the target position calculator 36. Calculate as a quantity.
Then, the control position of the blur correction lens group 6 is calculated by subtracting the calculated bias amount from the target position of the blur correction lens group 6.
By performing the centering bias processing in this manner, it is possible to effectively prevent the blur correction lens group 6 from colliding with the hard limit, and further, it is possible to improve the appearance of the captured image.

駆動量演算部39は、目標位置演算部36からの目標位置と、レンズ位置検出部23により検出され、第2A/D変換部33によりA/D変換された値から求められたブレ補正レンズ群6の現在位置から、ブレ補正レンズ群駆動機構9の駆動量を演算する。   The drive amount calculation unit 39 is a blur correction lens group obtained from the target position from the target position calculation unit 36 and the value detected by the lens position detection unit 23 and A / D converted by the second A / D conversion unit 33. 6 is used to calculate the driving amount of the blur correction lens group driving mechanism 9.

撮像素子3は、撮影光学系の予定焦点面に設けられている。撮像素子3はCCDやCMOSなどのデバイスから構成され、入力される被写体の像を光電変換してアナログ画像信号を生成する。
信号処理部40は、撮像素子3により生成された画像信号について、所定の処理を行なう。
The image sensor 3 is provided on the planned focal plane of the photographing optical system. The image pickup device 3 is composed of a device such as a CCD or a CMOS, and generates an analog image signal by photoelectrically converting an input subject image.
The signal processing unit 40 performs predetermined processing on the image signal generated by the image sensor 3.

動きベクトル演算部41は、信号処理部40により処理された撮影された画像から、像の動き(動き方向、動き量)を示す動きベクトル(第1動きベクトル、MV1)を演算する。
具体的には、動きベクトル演算部41は、撮像素子3により撮像された連続する2つのフレーム画像データに含まれる輝度情報を比較することで、像の動き方向及び動き量を検出し、第1動きベクトルを演算する。なお、第1動きベクトルは、例えば、ある第1時刻に撮像されたフレーム画像データと、第1時刻よりも後の第2時刻に撮像されたフレーム画像データとを比較することで演算することができ、撮像された連続する2つのフレーム画像データに含まれる輝度情報を比較することで演算するものには限定されない。
The motion vector calculation unit 41 calculates a motion vector (first motion vector, MV1) indicating the motion of the image (motion direction, amount of motion) from the captured image processed by the signal processing unit 40.
Specifically, the motion vector calculation unit 41 detects the motion direction and the motion amount of the image by comparing the luminance information included in two consecutive frame image data captured by the image sensor 3. Calculate the motion vector. The first motion vector can be calculated by, for example, comparing frame image data captured at a certain first time with frame image data captured at a second time after the first time. The present invention is not limited to the one that is calculated by comparing the luminance information included in two consecutive frame image data that have been captured.

センタバイアス除去部38は、動きベクトル演算部41の出力である第1動きベクトル(MV1)から、センタバイアス演算部37において演算された(ブレ補正レンズ群6の目標位置から減算された)バイアス量を減算する。   The center bias removing unit 38 is a bias amount calculated by the center bias calculating unit 37 (subtracted from the target position of the blur correction lens group 6) from the first motion vector (MV1) that is the output of the motion vector calculating unit 41. Is subtracted.

基準値補正量演算部35は、センタバイアス除去部38においてセンタバイアス量が除去された第2動きベクトル(MV2)をもとに、基準値補正量を演算する。   The reference value correction amount calculation unit 35 calculates a reference value correction amount based on the second motion vector (MV2) from which the center bias amount has been removed by the center bias removal unit 38.

基準値判定部44は、基準値補正量を用いて基準値が補正された場合に、補正後の基準値(基準値電圧、ヌル電圧)がリミット範囲(リミット電圧範囲)を超える否かを判定する。
基準値のリミット範囲は、例えば、角速度センサ12の製造メーカが設定するものであり、基準値のリミット範囲は、EEPROM等であるレンズ記憶部45に記憶されている。基準値のリミット範囲は、例えば、角速度センサごとに保証されている最大振れ幅(振れ幅の範囲の最大値及び最大値、又は絶対値)である。例えば、角速度センサ12は、角速度センサの基準値が基準値リミット範囲を超えることがないように設計されている。リミット範囲は、例えば出荷時において±1dpsである。
The reference value determination unit 44 determines whether or not the corrected reference value (reference value voltage, null voltage) exceeds the limit range (limit voltage range) when the reference value is corrected using the reference value correction amount. To do.
The reference value limit range is set by the manufacturer of the angular velocity sensor 12, for example, and the reference value limit range is stored in the lens storage unit 45 such as an EEPROM. The limit range of the reference value is, for example, the maximum shake width guaranteed for each angular velocity sensor (the maximum value and the maximum value or the absolute value of the shake width range). For example, the angular velocity sensor 12 is designed so that the reference value of the angular velocity sensor does not exceed the reference value limit range. The limit range is, for example, ± 1 dps at the time of shipment.

減算部(基準値補正部)42は、基準値判定部44の判定結果により、基準値演算部34の出力が、基準値のリミット範囲の範囲内にある場合、基準値演算部34の出力から、基準値補正量演算部35により求めた基準値補正量を減算する。
また減算部(基準値補正部)42は、基準値演算部34の出力が、基準値のリミット範囲の範囲外の場合、基準値演算部34の出力から、基準値補正量演算部35により求めた基準値補正量の減算を行わない。
When the output of the reference value calculation unit 34 is within the limit range of the reference value based on the determination result of the reference value determination unit 44, the subtraction unit (reference value correction unit) 42 Then, the reference value correction amount obtained by the reference value correction amount calculator 35 is subtracted.
The subtraction unit (reference value correction unit) 42 obtains the reference value correction amount calculation unit 35 from the output of the reference value calculation unit 34 when the output of the reference value calculation unit 34 is outside the limit range of the reference value. The reference value correction amount is not subtracted.

(カメラ側送受信部とレンズ側送受信部との間の送受信情報)
次に、カメラ側送受信部21とレンズ側送受信部22との間で送受信される情報について説明する。
カメラ側送受信部21よりレンズ側送受信部22に送られる情報は、例えば、動きベクトル情報やカメラ情報である。
(Transmission / reception information between the camera-side transceiver unit and the lens-side transceiver unit)
Next, information transmitted / received between the camera side transmission / reception unit 21 and the lens side transmission / reception unit 22 will be described.
Information sent from the camera-side transceiver 21 to the lens-side transceiver 22 is, for example, motion vector information or camera information.

動きベクトル情報は、第1動きベクトルMV1を含み、それはX軸方向、Y軸方向、Roll方向の大きさ等で表される。さらに動きベクトル情報は、検出遅れ時間、動きベクトルの有効/無効フラグ(X軸方向、Y軸方向、Roll方向)、動きベクトルを演算したエンジンのバージョン情報等も含む。   The motion vector information includes a first motion vector MV1, which is represented by the magnitude in the X-axis direction, the Y-axis direction, the Roll direction, and the like. Further, the motion vector information includes a detection delay time, a motion vector valid / invalid flag (X-axis direction, Y-axis direction, Roll direction), engine version information for calculating the motion vector, and the like.

バージョン情報とは、例えば、動きベクトルを演算するためのソフトウエアの改定の回数を表すものである。例えば、動きベクトルが第1カメラに内蔵された第1エンジンの第1ソフトウエアにより演算された場合、動きベクトル情報は、第1動きベクトルMV1、検出遅れ時間、動きベクトルの有効/無効フラグ、第1バージョンであることを示す情報(バージョン情報)等が含まれる。同様に、動きベクトルが第2カメラに内蔵された第2エンジンの第2ソフトウエア(第1ソフトウエアを改定したソフトウエア)により演算された場合、動きベクトル情報は、第1動きベクトルMV1、検出遅れ時間、動きベクトルの有効/無効フラグ、第2バージョンであることを示す情報等が含まれる。バージョン情報は、例えば、1、2、3・・・というように、バージョンが上がるほど値が大きくなるものでもよいし、a,b、c・・・というようにアルファベット順に変化するものでもよいし、8d5、feh、2lu・・というような任意の数字、文字列等であってもよい。   The version information represents, for example, the number of revisions of software for calculating a motion vector. For example, when the motion vector is calculated by the first software of the first engine built in the first camera, the motion vector information includes the first motion vector MV1, the detection delay time, the motion vector valid / invalid flag, Information (version information) indicating that the version is one is included. Similarly, when the motion vector is calculated by the second software of the second engine built in the second camera (software obtained by revising the first software), the motion vector information is the first motion vector MV1, detection. Delay time, motion vector valid / invalid flag, information indicating the second version, and the like are included. The version information may be a value that increases as the version increases, such as 1, 2, 3,..., Or may change in alphabetical order, such as a, b, c. , 8d5, feh, 2lu,...

例えば、動きベクトルMV1の定義、動きベクトルMV1の演算方法(動きベクトルMV1を演算する数式等)、動きベクトルMV1の更新周期、動きベクトルMV1の精度等は、カメラに内蔵されたエンジンのソフトウエアのバージョンに依存して変化する場合がある。   For example, the definition of the motion vector MV1, the calculation method of the motion vector MV1 (formulas for calculating the motion vector MV1, etc.), the update period of the motion vector MV1, the accuracy of the motion vector MV1, etc. May vary depending on version.

動きベクトルMV1の内容は、エンジンのソフトウエアのバージョンに依存して変化する場合があるので、仮に、レンズCPU2Bがバージョンがわからない動きベクトルMV1(バージョン情報が関連付けられていない動きベクトルMV1)を用いてブレ補正制御をした場合、動きベクトルMV1を使用しない場合よりもブレ補正性能が劣化するおそれがある。   Since the contents of the motion vector MV1 may change depending on the version of the software of the engine, it is assumed that the lens CPU 2B uses the motion vector MV1 (the motion vector MV1 to which version information is not associated) whose version is unknown. When blur correction control is performed, the blur correction performance may be deteriorated as compared with the case where the motion vector MV1 is not used.

本実施形態によれば、レンズ鏡筒1Bは、第1動きベクトルMV1に関連付けてバージョン情報を受信するので、レンズCPU2Bはバージョン情報に適したブレ補正演算を行うことができ、好適なブレ補正を行うことができる。   According to the present embodiment, since the lens barrel 1B receives version information in association with the first motion vector MV1, the lens CPU 2B can perform a blur correction calculation suitable for the version information, and perform a suitable blur correction. It can be carried out.

また、本実施形態において、レンズCPU2Bは、第1動きベクトルMV1と、バージョン情報とを用いてブレ補正制御を行うことが好ましい。例えば、レンズCPU2Bは、第1動きベクトルMV1に関係付けられたバージョン情報があるか否かを判断する判断部(図示せず)を有し、第1動きベクトルMV1に関係付けられたバージョン情報がない場合、第1動きベクトルMV1を使用しないで像ブレ補正を行い、第1動きベクトルMV1に関係付けられたバージョン情報がある場合、第1動きベクトルMV1を使用して像ブレ補正を行うことが好ましい。レンズCPU2Bに不適切な第1動きベクトルMV1を使用すると動きベクトルMV1を使用しない場合よりもブレ補正性能が劣化するおそれがあるからである。   In the present embodiment, it is preferable that the lens CPU 2B performs the blur correction control using the first motion vector MV1 and the version information. For example, the lens CPU 2B includes a determination unit (not shown) that determines whether there is version information related to the first motion vector MV1, and the version information related to the first motion vector MV1 is If there is not, the image blur correction is performed without using the first motion vector MV1, and if there is version information related to the first motion vector MV1, the image blur correction may be performed using the first motion vector MV1. preferable. This is because if the first motion vector MV1 inappropriate for the lens CPU 2B is used, the blur correction performance may be deteriorated as compared with the case where the motion vector MV1 is not used.

また、本実施形態において、レンズCPU2Bは、第1動きベクトルMV1に関係付けられたバージョン情報がレンズCPU2Bに適切であるか否かを判断する判断部を有し、第1動きベクトルMV1に関係付けられたバージョン情報がレンズCPU2Bに適切でない場合(例えば、バージョンが古すぎる場合や、バージョンが新しすぎてレンズCPU2Bでは処理できない場合など)、第1動きベクトルMV1を使用しないで像ブレ補正を行い、第1動きベクトルMV1に関係付けられたバージョン情報がレンズCPU2Bに適切である場合、第1動きベクトルMV1を使用して像ブレ補正を行うことが好ましい。レンズCPU2Bに不適切な第1動きベクトルMV1を使用すると動きベクトルMV1を使用しない場合よりもブレ補正性能が劣化するおそれがあるからである。   In the present embodiment, the lens CPU 2B includes a determination unit that determines whether the version information related to the first motion vector MV1 is appropriate for the lens CPU 2B, and relates to the first motion vector MV1. If the obtained version information is not appropriate for the lens CPU 2B (for example, if the version is too old or the version is too new to be processed by the lens CPU 2B), image blur correction is performed without using the first motion vector MV1. When the version information related to the first motion vector MV1 is appropriate for the lens CPU 2B, it is preferable to perform image blur correction using the first motion vector MV1. This is because if the first motion vector MV1 inappropriate for the lens CPU 2B is used, the blur correction performance may be deteriorated as compared with the case where the motion vector MV1 is not used.

また、本実施形態において、レンズCPU2Bは、第1動きベクトルMV1に関係付けられたバージョン情報がレンズCPU2Bに適切な度合いを判断する判断部を有し、第1動きベクトルMV1に関係付けられたバージョン情報がレンズCPU2Bに適切な度合いが低いほど第1動きベクトルMV1を使用しない像ブレ補正に近い特性となり、第1動きベクトルMV1に関係付けられたバージョン情報がレンズCPU2Bに適切な度合いが高いほど第1動きベクトルMV1を使用した上述の像ブレ補正に近い特性になるように像ブレ補正を行うことが好ましい。例えば、レンズCPU2Bで処理できるバージョンであってバージョンが新しいほど適切な度合いが高いと判断することができる。   In the present embodiment, the lens CPU 2B includes a determination unit that determines whether the version information related to the first motion vector MV1 is appropriate for the lens CPU 2B, and the version related to the first motion vector MV1. The lower the degree of appropriateness of the information to the lens CPU2B, the closer to the image blur correction without using the first motion vector MV1, and the higher the degree of appropriateness of the version information related to the first motion vector MV1 to the lens CPU2B, the first. It is preferable to perform image blur correction so as to have characteristics close to the above-described image blur correction using one motion vector MV1. For example, it can be determined that the version that can be processed by the lens CPU 2 </ b> B is higher as the version is newer.

また、カメラ情報は、パンニング判定度、チルティング判定度、フレームレート、露光時間情報、動画撮影中であることを示す情報、背面液晶にメニューを表示中であることを示す情報、カメラの電源がオンであることを示す情報、カメラの電源がオフであることを示す情報、カメラがスリープ状態であることを示す情報等である。   The camera information includes panning determination degree, tilting determination degree, frame rate, exposure time information, information indicating that a movie is being shot, information indicating that a menu is being displayed on the rear liquid crystal, and the camera power Information indicating that the camera is turned on, information indicating that the camera is turned off, information indicating that the camera is in a sleep state, and the like.

例えば、カメラ側送受信部21は、カメラ1Aが動画撮影中の場合、動きベクトル情報をレンズ側送受信部22に送信しない。また、背面液晶18での画像や文字の表示中も、動きベクトル情報をレンズ側送受信部22に送信しない。これらは、CPUの負荷を低減させる、もしくは電力消費量を抑えるためである。
また、カメラ1Aが動画撮影中の場合、カメラ側送受信部21が動きベクトル情報を送信しても、レンズ側送受信部22がカメラ側送受信部21から動きベクトル情報を受信しないものであってもよい。また、背面液晶18での画像や文字の表示中、カメラ側送受信部21が動きベクトル情報を送信しても、レンズ側送受信部22がカメラ側送受信部21からの動きベクトル情報を受信しないものであってもよい。
例えば、カメラ側送受信部21は、カメラ1Aが動画撮影中の場合や、背面液晶18での画像や文字の表示中の場合等に、カメラ情報(動画撮影中であることを示す情報や、背面液晶にメニューを表示中であることを示す情報)をレンズ側送受信部22に送信することができる。レンズ側送受信部22がカメラ情報に基づいてカメラ1Aの状態を判断し、動きベクトル情報を受信しないものであってもよい。
For example, the camera side transmission / reception unit 21 does not transmit motion vector information to the lens side transmission / reception unit 22 when the camera 1A is shooting a moving image. Also, the motion vector information is not transmitted to the lens-side transmitting / receiving unit 22 even during the display of images and characters on the rear liquid crystal 18. These are for reducing the load on the CPU or reducing the power consumption.
Further, when the camera 1A is shooting a moving image, the lens-side transceiver unit 22 may not receive the motion vector information from the camera-side transceiver unit 21 even if the camera-side transceiver unit 21 transmits the motion vector information. . In addition, during the display of images and characters on the rear liquid crystal 18, even if the camera side transmission / reception unit 21 transmits motion vector information, the lens side transmission / reception unit 22 does not receive the motion vector information from the camera side transmission / reception unit 21. There may be.
For example, the camera-side transmitting / receiving unit 21 receives camera information (information indicating that a video is being captured, a back surface, etc. when the camera 1A is shooting a video or when an image or character is being displayed on the rear liquid crystal 18. Information indicating that the menu is being displayed on the liquid crystal) can be transmitted to the lens-side transmitting / receiving unit 22. The lens side transmitting / receiving unit 22 may determine the state of the camera 1A based on the camera information and may not receive motion vector information.

一方、レンズ側送受信部22よりカメラ側送受信部21には、焦点距離情報や、その焦点距離情報に基づく動きベクトル演算方法の指示情報が送られる。   On the other hand, focal length information and instruction information on a motion vector calculation method based on the focal length information are sent from the lens side transmitting / receiving unit 22 to the camera side transmitting / receiving unit 21.

動きベクトルの演算方法の指示情報とは、例えば、動きベクトル演算時のフレーム間隔である。図3は通常の場合(後述するワイド側以外の場合)における、動きベクトルの演算タイミングを説明する図である。図示するように、n−1番目のフレームの画像と、その次のn番目のフレームの画像とから動きベクトルが演算され、図示する時刻t6においてカメラ側送受信部21からレンズ側送受信部22へ送信される。   The instruction information of the motion vector calculation method is, for example, a frame interval at the time of motion vector calculation. FIG. 3 is a diagram for explaining the calculation timing of the motion vector in a normal case (a case other than the wide side described later). As shown in the figure, a motion vector is calculated from the image of the (n−1) th frame and the image of the next nth frame, and is transmitted from the camera side transmitting / receiving unit 21 to the lens side transmitting / receiving unit 22 at time t6 shown in the drawing. Is done.

なお、時刻t1はn−1番目のフレームの画像の露光が開始される時間である。時刻t2はn−1番目のフレーム内の画像の検出時刻の平均時間である。時刻t4はn番目のフレームの画像の露光が開始される時間である。時刻t5はn番目のフレーム内の画像の検出時刻の平均時間である。時刻t6はn−1の画像とnの画像とから演算された動きベクトルがカメラ側送受信部21からレンズ側送受信部22に送信されるタイミングであるが、この動きベクトルの発生時刻は、t5とt2との間のt3と考えるのが妥当で、t6−t3の検出遅れ時間が生じている。   Time t1 is the time when exposure of the image of the (n-1) th frame is started. Time t2 is an average time of detection times of images in the (n-1) th frame. Time t4 is the time when the exposure of the image of the nth frame is started. Time t5 is an average time of detection times of images in the nth frame. Time t6 is a timing at which the motion vector calculated from the n-1 image and the n image is transmitted from the camera side transmitting / receiving unit 21 to the lens side transmitting / receiving unit 22, and the generation time of this motion vector is t5 It is reasonable to consider t3 between t2 and t6-t3, a detection delay time occurs.

図4(a)から(c)は、レンズ鏡筒1Bの焦点距離がワイドの場合に、レンズ側送受信部22よりカメラ側送受信部21に送られる、動きベクトル演算方法の指示情報を説明する図である。   FIGS. 4A to 4C are diagrams for explaining instruction information of a motion vector calculation method sent from the lens-side transmitting / receiving unit 22 to the camera-side transmitting / receiving unit 21 when the focal length of the lens barrel 1B is wide. It is.

ワイド(広角)側では像面ブレ量が小さい。このため、テレ(望遠)側と同様に連続するフレーム間で動きベクトルを演算すると、動きベクトルの信頼度が低下する可能性がある。このため、本実施形態では、ワイド側の場合、動きベクトル演算時のフレーム間隔を長くする演算を行うことで、動きベクトル検出精度を向上させる。
この演算方法は、レンズCPU2Bで決定され、レンズ側送受信部22、カメラ側送受信部21を介してカメラCPU2Aの動きベクトル演算部41に指示される。
On the wide (wide angle) side, the amount of image plane blurring is small. For this reason, if the motion vector is calculated between consecutive frames as in the tele (telephoto) side, the reliability of the motion vector may be reduced. For this reason, in the present embodiment, in the case of the wide side, the motion vector detection accuracy is improved by performing a calculation to increase the frame interval during the motion vector calculation.
This calculation method is determined by the lens CPU 2B and is instructed to the motion vector calculation unit 41 of the camera CPU 2A via the lens-side transmission / reception unit 22 and the camera-side transmission / reception unit 21.

図4(a)は、この動きベクトル演算方法の第1の例を説明する図である。
第1の例では、フレーム間隔を長くするために、例えばn−3番目のフレームの画像と、その2つ先のn−1番目のフレームの画像とから動きベクトルを演算する。そして、n−2番目のフレームの画像と、その2つ先のn番目のフレームの画像とから、次の動きベクトルを演算する。
FIG. 4A is a diagram for explaining a first example of this motion vector calculation method.
In the first example, in order to increase the frame interval, for example, a motion vector is calculated from an image of the (n−3) th frame and an image of the (n−1) th frame that is the next two frames. Then, the next motion vector is calculated from the image of the (n−2) th frame and the image of the nth frame that is the next two frames.

図4(b)は、動きベクトル演算方法の第2の例を説明する図である。
第2の例では、フレーム間隔をさらに長くするために、例えばn−6番目のフレームの画像と、その4つ先のn−2番目のフレームの画像とから動きベクトルを演算する。
そして、n−5番目のフレームの画像と、その4つ先のn−1番目のフレームの画像とから、次の動きベクトルを演算する。さらに、n−4番目のフレームの画像と、その4つ先のn番目のフレームの画像とから、さらに次の動きベクトルを演算する。
FIG. 4B is a diagram for explaining a second example of the motion vector calculation method.
In the second example, in order to further increase the frame interval, a motion vector is calculated from, for example, the image of the n-6th frame and the image of the n-2th frame that is four points ahead.
Then, the next motion vector is calculated from the image of the (n−5) th frame and the image of the (n−1) th frame that is four points ahead. Further, the next motion vector is calculated from the image of the (n−4) th frame and the image of the nth frame that is the fourth frame ahead.

図4(c)は、動きベクトル演算方法の第3の例を説明する図である。
第3の例では、例えばn−4番目のフレームの画像と、その2つ先のn−2番目のフレームの画像とから動きベクトルを演算する。そして、n−3番目のフレームの画像、次はn−2番目のフレームの画像と、その2つ先のn番目のフレームの画像とから、次の動きベクトルを演算する。
このように本実施形態では、ワイド側の場合、動きベクトル演算時のフレーム間隔を長くすることで、動きベクトル検出精度を向上させることができる。
FIG. 4C illustrates a third example of the motion vector calculation method.
In the third example, a motion vector is calculated from, for example, an image of the n−4th frame and an image of the n−2th frame that is the next two frames. Then, the next motion vector is calculated from the image of the (n-3) th frame, the next image of the (n-2) th frame, and the image of the nth frame that is the next two frames.
Thus, in this embodiment, in the case of the wide side, the motion vector detection accuracy can be improved by increasing the frame interval at the time of motion vector calculation.

動きベクトルの演算方法の指示情報とは、例えば、後述するレンズ鏡筒1Bに設定された通信バージョンであってもよい。カメラCPU2Aは、レンズ鏡筒1Bに設定された通信バージョンに基づいてレンズ鏡筒1Bのブレ補正性能を判断し、レンズ鏡筒1Bのブレ補正性能に適した動きベクトル情報(動きベクトルMV1、バージョン情報等)を送信することができる。   The instruction information of the motion vector calculation method may be, for example, a communication version set in a lens barrel 1B described later. The camera CPU 2A determines the blur correction performance of the lens barrel 1B based on the communication version set in the lens barrel 1B, and motion vector information (motion vector MV1, version information suitable for the blur correction performance of the lens barrel 1B). Etc.) can be transmitted.

例えば、カメラ1Aの通信バージョンが7であり、レンズ鏡筒1Bの通信バージョンが6である場合、カメラ1Aとレンズ鏡筒1Bとの通信には通信バージョン6が使用される。例えば、カメラ1Aの電源がオンされた後、カメラ1Aにレンズ鏡筒1Bが装着された後等に、レンズCPU2BからカメラCPU2Aに動きベクトルの演算方法の指示情報(レンズ鏡筒1Bに設定された通信バージョン6)が送信される。カメラCPU2Aは、通信バージョン6という情報に基づいてレンズ鏡筒1Bのブレ補正性能を判断し、レンズ鏡筒1Bのブレ補正性能に適した動きベクトル情報(動きベクトルMV1、バージョン情報等)を送信することができる。   For example, when the communication version of the camera 1A is 7, and the communication version of the lens barrel 1B is 6, the communication version 6 is used for communication between the camera 1A and the lens barrel 1B. For example, after the power of the camera 1A is turned on, after the lens barrel 1B is attached to the camera 1A, etc., instruction information on the calculation method of the motion vector from the lens CPU 2B to the camera CPU 2A (set in the lens barrel 1B) Communication version 6) is transmitted. The camera CPU 2A determines the blur correction performance of the lens barrel 1B based on the information of the communication version 6, and transmits motion vector information (motion vector MV1, version information, etc.) suitable for the blur correction performance of the lens barrel 1B. be able to.

(ブレ補正装置の動作)
次に、本実施形態のブレ補正装置100の動作の流れについて説明する。
図5は、本実施形態のブレ補正装置100の動作の流れを示したフローチャートである。
(Operation of the image stabilizer)
Next, an operation flow of the shake correction apparatus 100 according to the present embodiment will be described.
FIG. 5 is a flowchart showing an operation flow of the shake correction apparatus 100 of the present embodiment.

カメラシステム1の電源がONにされた後、ブレ補正装置100は光学防振の為の演算を開始する。カメラによっては、半押しスイッチが押された場合、ブレ補正装置100が光学防振の為の演算を開始する(ステップS001)。   After the camera system 1 is turned on, the shake correction apparatus 100 starts an operation for optical image stabilization. Depending on the camera, when the half-push switch is pressed, the shake correction apparatus 100 starts computation for optical image stabilization (step S001).

角速度センサ12の出力を、増幅部31で増幅した後、第1A/D変換部32によりA/D変換する(ステップS002)。
基準値演算部34は、角速度センサ12の出力のA/D変換後の信号を基に、演算上の角速度の基準値(ゼロdeg/s相当の値)を算出する。角速度の基準値は、温度特性や、起動直後のドリフト特性等により変化するため、例えば、工場出荷時における角速度センサ12の静止時出力を基準値に用いることはできない。
After the output of the angular velocity sensor 12 is amplified by the amplification unit 31, it is A / D converted by the first A / D conversion unit 32 (step S002).
The reference value calculation unit 34 calculates a reference value (a value corresponding to zero deg / s) of the calculated angular velocity based on the signal after A / D conversion of the output of the angular velocity sensor 12. Since the reference value of the angular velocity changes depending on the temperature characteristic, the drift characteristic immediately after startup, etc., for example, the stationary output of the angular velocity sensor 12 at the time of factory shipment cannot be used as the reference value.

基準値を算出方法について、所定時間の移動平均を演算する方法や、LPF処理により演算する方法が知られている。本実施形態では、LPF処理による基準値演算を用いることとする。   As a method for calculating the reference value, a method of calculating a moving average for a predetermined time and a method of calculating by LPF processing are known. In the present embodiment, reference value calculation by LPF processing is used.

図6は基準値演算部34を説明する図であり、図6(a)は、基準値演算部34(HPF)、図6(b)は基準値演算部34のLPF34aを示した図である。   6A and 6B are diagrams illustrating the reference value calculation unit 34. FIG. 6A illustrates the reference value calculation unit 34 (HPF), and FIG. 6B illustrates the LPF 34a of the reference value calculation unit 34. .

LPF34のカットオフ周波数fcは、0.1[Hz]程度の低い周波数に設定するのが一般的である。これは、手ブレは1〜10[Hz]程度の周波数が支配的であることに起因する。0.1[Hz]のfcであれば、手ブレ成分に与える影響は少なく、良好なブレ補正を行うことができる。   The cut-off frequency fc of the LPF 34 is generally set to a low frequency of about 0.1 [Hz]. This is because camera shake has a dominant frequency of about 1 to 10 [Hz]. If the fc is 0.1 [Hz], there is little influence on the camera shake component, and good blur correction can be performed.

しかしながら、実際の撮影時には、構図の微調整(パンニング検出できないレベルの)等、低周波の動きが加わるため、ω0演算結果に誤差を持ってしまうこともある。また、fcが低い(時定数が大きい)為に、一端誤差が大きくなってしまった場合、真値に収束するまでに時間を要してしまうという課題がある。本実施形態は、このω0の誤差を補正するものである。   However, during actual shooting, low-frequency motion such as fine adjustment of the composition (a level at which panning cannot be detected) is added, which may cause an error in the ω0 calculation result. In addition, since fc is low (time constant is large), there is a problem that it takes time to converge to a true value when the error is once increased. In the present embodiment, this ω0 error is corrected.

図5に戻り、第1動きベクトルMV1の情報が更新された場合(S004,YES)、S005へ進み、更新されていない場合(S004,NO)は、S006へ進む。なお、このS004〜S005の説明については後に詳述する。
また、露光中は第1動きベクトルMV1の情報が得られないため、このステップは、露光直前までの実施となる。
基準値減算後の角速度センサ12の出力を積算し、焦点距離、被写体距離、撮影倍率、ブレ補正レンズ特性情報を基に、ブレ補正レンズ群6の目標位置を演算する(S006)。
ブレ補正レンズ群6が可動端へ到達することを防ぐため、センタバイアス処理を行う(S007)。
Returning to FIG. 5, when the information of the first motion vector MV1 is updated (S004, YES), the process proceeds to S005, and when not updated (S004, NO), the process proceeds to S006. The description of S004 to S005 will be described later in detail.
In addition, since information on the first motion vector MV1 cannot be obtained during exposure, this step is performed until immediately before the exposure.
The outputs of the angular velocity sensor 12 after subtracting the reference value are integrated, and the target position of the shake correction lens group 6 is calculated based on the focal length, subject distance, shooting magnification, and shake correction lens characteristic information (S006).
Center bias processing is performed to prevent the blur correction lens group 6 from reaching the movable end (S007).

センタバイアス処理の方法については、目標位置情報に応じてバイアス量を設定する方法や、HPF処理、不完全積分処理(S006にて)等、種々あるが、ここでは方法は問わない。   There are various center bias processing methods such as a method of setting a bias amount according to target position information, HPF processing, incomplete integration processing (in S006), and the method is not limited here.

センタバイアス成分を加味した目標位置情報と、ブレ補正レンズ位置情報の差分から、レンズ駆動量を演算する(S008)。
ブレ補正レンズ群6を目標位置まで駆動させ(S009)、S002へ戻る。
The lens driving amount is calculated from the difference between the target position information including the center bias component and the blur correction lens position information (S008).
The blur correction lens group 6 is driven to the target position (S009), and the process returns to S002.

次に、基準値補正(S004〜S005、S011〜S016)について説明する。図7は、基準値補正演算を示すフローチャートである。
上述のように、第1動きベクトルMV1の情報が更新された場合(S004)、S005へ進む。更新されていない場合は、S006へ進む。
光学ブレ補正の制御周期は、MV1の更新周期に対して十分早い為、MV1が更新されるまでは、通常の防振と同様の演算処理を行う。ここでは、光学ブレ補正の制御周期1[ms]、第1動きベクトルMV1の更新周期:33[ms](=30[fps])とする。第1動きベクトルMV1の演算方法については、公知技術を用いる。
Next, reference value correction (S004 to S005, S011 to S016) will be described. FIG. 7 is a flowchart showing the reference value correction calculation.
As described above, when the information of the first motion vector MV1 is updated (S004), the process proceeds to S005. If it has not been updated, the process proceeds to S006.
Since the optical blur correction control cycle is sufficiently early with respect to the MV1 update cycle, the same arithmetic processing as normal image stabilization is performed until the MV1 is updated. Here, it is assumed that the control period of optical blur correction is 1 [ms] and the update period of the first motion vector MV1 is 33 [ms] (= 30 [fps]). A well-known technique is used for the calculation method of the first motion vector MV1.

受信した第1動きベクトルMV1を全て合計する(S011)。
S007にて演算したセンタバイアス成分を、第1動きベクトルMV1と同一スケールに換算する(S012)。
換算方法は、焦点距離、被写体距離、撮影倍率、第1動きベクトルMV1の分解能情報を基に演算する。

Bias_MV=Bias_θ*f1+β/MV_pitch
Bias_MV:センタバイアス成分(動きベクトル同一スケール)
Bias_θ:センタバイアス成分(角度)
f:焦点距離
β:撮影倍率
MV_pitch:MV1ピッチサイズ
All the received first motion vectors MV1 are summed (S011).
The center bias component calculated in S007 is converted to the same scale as the first motion vector MV1 (S012).
The conversion method is calculated based on the focal length, the subject distance, the shooting magnification, and the resolution information of the first motion vector MV1.

Bias_MV = Bias_θ * f1 + β / MV_pitch
Bias_MV: Center bias component (same motion vector scale)
Bias_θ: Center bias component (angle)
f: Focal length β: Image magnification MV_pitch: MV1 pitch size

また、第1動きベクトルMV1は検出するまでに遅れ時間が発生するため、センタバイアス成分も、第1動きベクトルMV1と同等の遅れ時間を持たせることが好ましい。例えば、30[fps]で、3フレーム分の遅れ時間を持っている場合、約100[ms]遅れることになる。このため、100[ms]前のバイアス情報を用いることで、より正確に第1動きベクトルMV1に含まれる、センタバイアス成分が演算できる。   In addition, since a delay time occurs until the first motion vector MV1 is detected, it is preferable that the center bias component also has a delay time equivalent to that of the first motion vector MV1. For example, if there is a delay time of 3 frames at 30 [fps], the delay is about 100 [ms]. Therefore, the center bias component included in the first motion vector MV1 can be calculated more accurately by using the bias information before 100 [ms].

S012で演算したセンタバイアス成分を第1動きベクトルMV1から減算する(S013)。これにより、基準値誤差による第2動きベクトルMV2の情報を取得することができる。
最新の第2動きベクトルMV2(n)と1フレーム前の第2動きベクトルMV2(n−1)の差分:MV_diffを取得(S014)。
MV_diffを基に、基準値を補正する量を設定する。基準値は、以下の考えにより、補正量を設定する(S015)。

MV_diff>0:ω0_comp=−ω0_comp_def
MV_diff<0:ω0_comp=+ω0_comp_def
MV_diff=0:ω0_comp=0

ω0_comp :基準値補正量
ω0_comp_def:基準値補正常数
The center bias component calculated in S012 is subtracted from the first motion vector MV1 (S013). Thereby, the information of the second motion vector MV2 due to the reference value error can be acquired.
A difference: MV_diff between the latest second motion vector MV2 (n) and the second motion vector MV2 (n-1) one frame before is acquired (S014).
An amount for correcting the reference value is set based on MV_diff. As the reference value, a correction amount is set based on the following idea (S015).

MV_diff> 0: ω0_comp = −ω0_comp_def
MV_diff <0: ω0_comp = + ω0_comp_def
MV_diff = 0: ω0_comp = 0

ω0_comp: reference value correction amount ω0_comp_def: reference value correction constant

S016において、現状のω0とω0_compとから、補正後のω0値を算出する。この結果と基準値電圧調整値を比較し、ω0(基準値)<基準値リミット範囲(基準値リミット電圧範囲)の関係にあるか否かを判定する。
この関係を満たしていれば、算出された動きベクトル情報が正しいと判定し、S017へ進む。
In S016, the corrected ω0 value is calculated from the current ω0 and ω0_comp. This result is compared with the reference value voltage adjustment value, and it is determined whether or not ω0 (reference value) <reference value limit range (reference value limit voltage range).
If this relationship is satisfied, it is determined that the calculated motion vector information is correct, and the process proceeds to S017.

ここで、S015にて演算したω0_compを、S003にて演算した基準値から減算(S017)。具体的には、図6(b)中の、V4’の値を補正した場合、動きベクトルを用いて基準値を補正することは、露光準備期間(半押し防振中、動画撮影時)のみであり、露光中は通常の基準値演算を実施する。   Here, ω0_comp calculated in S015 is subtracted from the reference value calculated in S003 (S017). Specifically, when the value of V4 ′ in FIG. 6B is corrected, the reference value is corrected using the motion vector only during the exposure preparation period (during half-push vibration isolation and during moving image shooting). And normal reference value calculation is performed during exposure.

本実施形態によると、露光準備期間のみの基準値補正であるが、露光直前の基準値が、より真値に近い状態で露光を開始することが可能となるため、露光中においても、良好なブレ補正が可能となる。   According to the present embodiment, the reference value correction is performed only during the exposure preparation period. However, since it is possible to start exposure with the reference value immediately before exposure being closer to the true value, it is favorable even during exposure. Blur correction is possible.

図8は基準値誤差と動きベクトルの関係図である。(a)は基準値演算結果であり、(b)は動きベクトルである。
図8は、基準値誤差と、検出される動きベクトル量(バイアス成分除去後)とを表す。動きベクトルは、検出遅れ時間を有する為、遅れて検出されている。ここでは、検出遅れ時間:T1=1フレームとしている。
FIG. 8 is a relationship diagram between the reference value error and the motion vector. (A) is a reference value calculation result, and (b) is a motion vector.
FIG. 8 shows the reference value error and the detected motion vector amount (after removing the bias component). Since the motion vector has a detection delay time, it is detected with a delay. Here, the detection delay time: T1 = 1 frame.

ここで、まず、本実施形態の理解容易のため、比較形態について説明する。比較形態では、図8(b)の動きベクトル情報を基に、基準値を補正する。以下、補正後の基準値を示す。   Here, first, comparative embodiments will be described for easy understanding of the present embodiment. In the comparison mode, the reference value is corrected based on the motion vector information in FIG. The corrected reference value is shown below.

比較形態は、図7のフローチャートのステップS016を含まず、ステップS016において基準値補正量を演算すると、補正後の基準値の大きさによらず、その基準値補正量を用いて基準値を演算する。
図9に示すように、基準値誤差成分を動きベクトルにより正確に検出できた場合、基準値誤差を低減することが可能となり、防振性能の向上につながる。
The comparison form does not include step S016 in the flowchart of FIG. 7. When the reference value correction amount is calculated in step S016, the reference value is calculated using the reference value correction amount regardless of the size of the corrected reference value. To do.
As shown in FIG. 9, when the reference value error component can be accurately detected from the motion vector, the reference value error can be reduced, leading to an improvement in the image stabilization performance.

しかし、検出された動きベクトル情報は、撮影シーンによっては、被写体ブレ成分と基準値誤差成分の切り分けを行うことができず、誤った情報を検出してしまう場合もある。図10は、誤検出された動きベクトル(被写体ブレ成分)を示したグラフである。
また、図11は、被写体ブレ成分の動きベクトル情報を用いて基準値補正を行った場合の、基準値演算結果である。図11に示すように、被写体ブレ成分等、誤った動きベクトル情報が送られた場合、基準値誤差をかえって増大させてしまうことになる。
However, the detected motion vector information cannot be separated into the subject blur component and the reference value error component depending on the shooting scene, and erroneous information may be detected. FIG. 10 is a graph showing an erroneously detected motion vector (subject blur component).
FIG. 11 shows a reference value calculation result when the reference value correction is performed using the motion vector information of the subject blur component. As shown in FIG. 11, when incorrect motion vector information such as a subject blur component is sent, the reference value error is increased.

これを防ぐ為には、動きベクトル検出部において、検出された動きベクトルが、手ブレ成分なのか、被写体ブレ成分なのか、切り分ける必要があるが、撮影シーンによっては、判別ができず、誤検出してしまう場合もある。   In order to prevent this, the motion vector detection unit needs to classify whether the detected motion vector is a camera shake component or a subject blur component, but depending on the shooting scene, it cannot be determined and is erroneously detected. There is also a case where it ends up.

近年、角速度センサの性能も向上し、基準値電圧の取り得る範囲が、極小さい(手ブレ成分以下)のセンサも提案されている。そこで、この情報を用いることで、動きベクトル誤検出時の基準値誤差を、抑制させることが可能となる。
本実施形態においては、図7のステップS016において、動きベクトルにより補正した基準値情報と、角速度センサの基準値リミット範囲とを比較し、補正後の基準値が基準値リミット範囲を超える場合には、得られた動きベクトル情報に誤りがあると判定し、基準値の補正を行わないこととする。
In recent years, the performance of an angular velocity sensor has been improved, and a sensor having a very small reference value voltage range (below the camera shake component) has been proposed. Therefore, by using this information, it is possible to suppress a reference value error when a motion vector is erroneously detected.
In the present embodiment, in step S016 of FIG. 7, the reference value information corrected by the motion vector is compared with the reference value limit range of the angular velocity sensor, and when the corrected reference value exceeds the reference value limit range. Therefore, it is determined that there is an error in the obtained motion vector information, and the reference value is not corrected.

すなわち、上述したようにS016において、現状のω0とω0_compとから、補正後のω0値を算出する。この結果と基準値電圧調整値を比較し、ω0(基準値)<基準値リミット範囲の関係にあるか否かを判定する。
この関係を満たしていれば、算出された動きベクトル情報が正しいと判定し、S017へ進む。この関係を満たしていない場合には、動きベクトル誤検出(被写体ブレ成分等)と判定し、基準値補正処理を行わず、S006へ進む。
That is, as described above, in S016, the corrected ω0 value is calculated from the current ω0 and ω0_comp. This result is compared with the reference voltage adjustment value to determine whether or not ω0 (reference value) <reference value limit range.
If this relationship is satisfied, it is determined that the calculated motion vector information is correct, and the process proceeds to S017. If this relationship is not satisfied, it is determined that the motion vector is erroneously detected (subject blur component or the like), and the process proceeds to S006 without performing the reference value correction process.

図12は、本実施形態と比較形態とを比較したグラフである。
本実施形態によると、動きベクトル情報を用いて基準値を補正する際に、角速度センサの基準値リミット範囲を記憶しておき、補正後の基準値が基準値電圧調整範囲内に収まっているか否かの判定部を設ける。
これにより図12に示すように、動きベクトル情報が正しい場合(手ブレ成分検出時)には、基準値誤差を低減させ、動きベクトル誤検出(被写体ブレ成分検出)時においても、基準値誤差の増大を抑制することが可能なブレ補正システムを実現することができる。
FIG. 12 is a graph comparing the present embodiment with the comparative embodiment.
According to this embodiment, when the reference value is corrected using the motion vector information, the reference value limit range of the angular velocity sensor is stored, and whether or not the corrected reference value is within the reference value voltage adjustment range. A determination unit is provided.
As a result, as shown in FIG. 12, when the motion vector information is correct (when a camera shake component is detected), the reference value error is reduced, and even when a motion vector is erroneously detected (object blur component detection), the reference value error is reduced. A blur correction system that can suppress the increase can be realized.

以上、本実施形態によると、基準値判定部44の判定結果を基に、動きベクトルによる基準値補正処理を変更するので、動きベクトル誤検出による、光学防振への悪影響を防止することが可能となる。   As described above, according to the present embodiment, since the reference value correction processing based on the motion vector is changed based on the determination result of the reference value determination unit 44, it is possible to prevent an adverse effect on optical image stabilization due to erroneous detection of the motion vector. It becomes.

基準値補正部42は、基準値判定部44の判定結果において、補正後の基準値がリミット範囲内となる場合には、基準値の補正を実施し、補正後の基準値がリミット範囲外となる場合には、基準値の補正を実施しない。
基準値がリミット範囲外の場合は、動きベクトル誤検出(被写体ブレ成分検出)時と考えられる。この場合、基準値を補正しないので基準値誤差の増大を抑制することが可能なブレ補正システムを実現することができる。
一方、基準値がリミット範囲内の場合は、動きベクトル情報が正しい場合(手ブレ成分検出時)と考えられる。この場合、基準値を補正するので、基準値誤差を低減させることができる。
In the determination result of the reference value determination unit 44, the reference value correction unit 42 corrects the reference value when the corrected reference value falls within the limit range, and the corrected reference value is outside the limit range. In such a case, the reference value is not corrected.
When the reference value is outside the limit range, it is considered that the motion vector is erroneously detected (subject blur component detection). In this case, since the reference value is not corrected, it is possible to realize a shake correction system that can suppress an increase in the reference value error.
On the other hand, when the reference value is within the limit range, it is considered that the motion vector information is correct (when a camera shake component is detected). In this case, since the reference value is corrected, the reference value error can be reduced.

本実施形態によると、動きベクトル情報はカメラ側送受信部21からレンズ側送受信部22に送信される。したがって、カメラ1Aとレンズ鏡筒1Bとが別体な本実施形態の場合であっても、レンズ鏡筒1Bは動きベクトル情報を受信することができる。   According to the present embodiment, the motion vector information is transmitted from the camera side transmission / reception unit 21 to the lens side transmission / reception unit 22. Therefore, even in the case of the present embodiment in which the camera 1A and the lens barrel 1B are separate, the lens barrel 1B can receive motion vector information.

カメラ1Aにおいて撮像素子3による動画撮影中又は背面液晶18にメニューを表示中の場合、カメラ側送受信部21とレンズ側送受信部22との間で、動きベクトル情報の送受信が行われないので、電力消費を抑えることができる。   When the camera 1A is shooting a moving image by the image sensor 3 or displaying a menu on the rear liquid crystal 18, no motion vector information is transmitted / received between the camera side transmitting / receiving unit 21 and the lens side transmitting / receiving unit 22. Consumption can be suppressed.

動きベクトル情報に、動きベクトル演算部41のバージョン情報も含めた場合、レンズCPU2Bにおいて動きベクトルの精度を把握することができ、各部において適切な演算を行うことができる。   When the version information of the motion vector calculation unit 41 is included in the motion vector information, the accuracy of the motion vector can be grasped by the lens CPU 2B, and appropriate calculation can be performed in each unit.

レンズ側送受信部22は、カメラ1Aに対して動きベクトル演算部41が行う演算方法を送信するので、精度のよい動きベクトル情報を得ることができる。   Since the lens side transmission / reception unit 22 transmits the calculation method performed by the motion vector calculation unit 41 to the camera 1A, accurate motion vector information can be obtained.

(第2実施形態)
次に、本発明の第2実施形態について説明する。図13は、第1実施形態のブレ補正装置200のブロック図である。第2実施形態のブレ補正装置200が第1実施形態のブレ補正装置100と異なる点は、基準値判定部44の判定結果に応じて、カメラCPU2A内の信号処理部40で行う電子ブレ補正処理方法が変更される点である。第2実施形態において、第1実施形態と同様の部分には同一の符号を付し、その説明を省略する。
(Second Embodiment)
Next, a second embodiment of the present invention will be described. FIG. 13 is a block diagram of the shake correction apparatus 200 of the first embodiment. The blur correction apparatus 200 of the second embodiment is different from the blur correction apparatus 100 of the first embodiment in that an electronic blur correction process is performed by the signal processing unit 40 in the camera CPU 2A according to the determination result of the reference value determination unit 44. The method is changed. In the second embodiment, the same parts as those in the first embodiment are denoted by the same reference numerals, and the description thereof is omitted.

第2実施形態では、基準値判定部44における、補正後の基準値が基準値リミット範囲内であるか否かの判定結果情報は、レンズ側送受信部22に送信される。
そして、レンズ側送受信部22からカメラ側送受信部21を介して信号処理部40にその判定結果が送られる。
信号処理部40は、電子ブレ補正処理部の機能を有しており、その判定結果に応じて、電子ブレ補正を行うかどうか決定する。
電子ブレ補正は、動きベクトル演算部41において演算された動きベクトル量に応じて、撮像素子3に取り込まれた画像の切り取り位置を変えて背面液晶18に表示する電子式の切り出し防振処理である。
In the second embodiment, the determination result information on whether or not the corrected reference value is within the reference value limit range in the reference value determination unit 44 is transmitted to the lens side transmission / reception unit 22.
Then, the determination result is sent from the lens side transmission / reception unit 22 to the signal processing unit 40 via the camera side transmission / reception unit 21.
The signal processing unit 40 has a function of an electronic shake correction processing unit, and determines whether to perform electronic shake correction according to the determination result.
The electronic blur correction is an electronic cutout stabilization process in which the cutout position of the image captured by the image sensor 3 is changed and displayed on the rear liquid crystal 18 according to the amount of motion vector calculated by the motion vector calculation unit 41. .

本実施形態では、補正後の基準値が、基準値リミット範囲内の場合、信号処理部40は、動きベクトルが手ブレ成分と判定し、電子ブレ補正処理を行う。
また、補正後の基準値が、基準値リミット範囲を超える場合には、検出した動きベクトルが被写体ブレ成分等、誤検出したと判断し、この場合には電子ブレ補正を実施しない。
In the present embodiment, when the corrected reference value is within the reference value limit range, the signal processing unit 40 determines that the motion vector is a camera shake component, and performs an electronic shake correction process.
If the corrected reference value exceeds the reference value limit range, it is determined that the detected motion vector is erroneously detected, such as a subject blur component, and in this case, electronic blur correction is not performed.

第2実施形態によると、第1実施形態と同様の効果に加え、補正後の基準値が、基準値リミット範囲を超える場合には、検出した動きベクトルが被写体ブレ成分等、誤検出したと判断し、この場合には電子ブレ補正を実施しないので、表示画像の劣化を防止することができる。   According to the second embodiment, in addition to the same effects as in the first embodiment, when the corrected reference value exceeds the reference value limit range, it is determined that the detected motion vector is erroneously detected, such as a subject blur component. In this case, since the electronic shake correction is not performed, the display image can be prevented from being deteriorated.

(第3実施形態)
次に、本発明の第3実施形態について説明する。第3実施形態において、第1実施形態又は第2実施形態と同様の部分には同一の符号を付し、その説明を省略する。
(Third embodiment)
Next, a third embodiment of the present invention will be described. In 3rd Embodiment, the same code | symbol is attached | subjected to the part similar to 1st Embodiment or 2nd Embodiment, and the description is abbreviate | omitted.

第3実施形態において、カメラ1Aとレンズ鏡筒1Bとの通信には通信バージョンが定められている。本実施形態においては、通信バージョンの数が大きくなるほど高度な通信を行うことができる。カメラ1A、及び、レンズ鏡筒1Bは、工場出荷時に所定の通信バージョンが設定されている。なお、カメラメーカから供給された通信バージョンのアップデートをユーザが行った場合、通信バージョンをアップさせることができる。   In the third embodiment, a communication version is defined for communication between the camera 1A and the lens barrel 1B. In this embodiment, advanced communication can be performed as the number of communication versions increases. The camera 1A and the lens barrel 1B have a predetermined communication version set at the time of factory shipment. When the user updates the communication version supplied from the camera manufacturer, the communication version can be upgraded.

カメラ1Aとレンズ鏡筒1Bとの通信は、カメラ1Aの通信バージョンとレンズ鏡筒1Bの通信バージョンとの共通する最も上位のバージョンが選択される。
例えば、カメラ1Aの通信バージョンが5であり、レンズ鏡筒1Bの通信バージョンが8である場合、カメラ1Aとレンズ鏡筒1Bとの通信には通信バージョン5が使用される。同様に、カメラ1Aの通信バージョンが7であり、レンズ鏡筒1Bの通信バージョンが2である場合、カメラ1Aとレンズ鏡筒1Bとの通信には通信バージョン2が使用される。
For communication between the camera 1A and the lens barrel 1B, the highest version in common between the communication version of the camera 1A and the communication version of the lens barrel 1B is selected.
For example, when the communication version of the camera 1A is 5 and the communication version of the lens barrel 1B is 8, the communication version 5 is used for communication between the camera 1A and the lens barrel 1B. Similarly, when the communication version of the camera 1A is 7 and the communication version of the lens barrel 1B is 2, the communication version 2 is used for communication between the camera 1A and the lens barrel 1B.

本実施形態において、カメラCPU2Aは、レンズ鏡筒1Bが対応できる通信バージョンが所定のバージョン(例えば、バージョン5以上である場合)であり、かつ、レンズ鏡筒1Bから要求信号があったときには、上述した動きベクトル情報(第1動きベクトルMV1、バージョン情報等を含む)を送信する。レンズCPU2Bにより、所定のバージョン要件を満たし、かつ、レンズ鏡筒1Bから要求信号があるので、レンズ鏡筒1Bにより動きベクトル情報を用いたブレ補正制御が可能であると思われるからである。   In the present embodiment, the camera CPU 2A determines that the communication version that can be supported by the lens barrel 1B is a predetermined version (for example, version 5 or higher) and a request signal is received from the lens barrel 1B. The motion vector information (including the first motion vector MV1, version information, etc.) is transmitted. This is because the lens CPU 2B satisfies the predetermined version requirements and receives a request signal from the lens barrel 1B, so that it is considered that the blur correction control using the motion vector information can be performed by the lens barrel 1B.

一方、カメラCPU2Aは、レンズ鏡筒1Bが対応できる通信バージョンが所定のバージョン(例えば、バージョン5未満である場合)である場合、又は、レンズ鏡筒1Bから要求信号がない場合には、上述した動きベクトル情報(第1動きベクトルMV1、バージョン情報等を含む)を送信しない。所定のバージョン要件を満たさない場合、又は、レンズ鏡筒1Bから要求信号がない場合の少なくとも一方であるので、レンズ鏡筒1Bにより動きベクトル情報を用いたブレ補正制御が不可能であると思われるからである。この場合、動きベクトル情報を送信しない分だけ通信の効率化(通信データ容量の削減)が可能となる。また、レンズ鏡筒1Bが所定のバージョン要件を満たさない場合において、レンズ鏡筒1Bが動きベクトル情報を用いた好ましくない制御(例えば、動きベクトルMV1を使用しない場合と比較してブレ補正性能が劣化したブレ補正制御)がされることを回避するためである。   On the other hand, when the communication version that the lens barrel 1B can handle is a predetermined version (for example, when it is less than version 5), or when there is no request signal from the lens barrel 1B, the camera CPU 2A described above. The motion vector information (including the first motion vector MV1, version information, etc.) is not transmitted. Since it is at least one of the case where the predetermined version requirement is not satisfied or the case where there is no request signal from the lens barrel 1B, it seems that the blur correction control using the motion vector information is impossible by the lens barrel 1B. Because. In this case, communication efficiency (reduction of communication data capacity) can be achieved as much as no motion vector information is transmitted. Further, when the lens barrel 1B does not satisfy the predetermined version requirement, the blur correction performance is deteriorated as compared with an unfavorable control using the motion vector information (for example, the case where the motion vector MV1 is not used). This is to prevent the image stabilization control) from being performed.

レンズ鏡筒1Bからの要求信号は、例えば、カメラ1Aの電源がオンされた後、レンズ鏡筒1Bがブレ補正を開始するとき(例えば、撮影者により撮影準備操作(例えば、レリーズボタンの半押し)がされた後、撮影者により像ブレ補正を開始する指示(例えば、ブレ補正を禁止するか否かを操作するスイッチをブレ補正を禁止しない状態する操作)がされた後)等にレンズ鏡筒1Bからカメラ1Aに送信される。   The request signal from the lens barrel 1B is, for example, when the lens barrel 1B starts blurring correction after the camera 1A is turned on (for example, a shooting preparation operation (for example, half-pressing the release button) ) After the camera has issued an instruction to start image blur correction (for example, a switch for operating whether to disable blur correction or an operation that disables blur correction). It is transmitted from the tube 1B to the camera 1A.

(変形形態)
以上、説明した実施形態に限定されることなく、以下に示すような種々の変形や変更が可能であり、それらも本発明の範囲内である。
(1)上述の実施形態では、レンズ鏡筒がカメラに対して着脱可能な形態について説明したが、これに限定されない。例えば、レンズ鏡筒とカメラとが一体となったいわゆるコンパクトカメラでもよい。また、カメラ内にミラーがある形態について説明したが、これに限定されず、ミラーレス構造のカメラであってもよい。さらに、カメラに限らず、携帯電話、他の携帯情報端末等であってもよい。
(Deformation)
The present invention is not limited to the above-described embodiment, and various modifications and changes as described below are possible, and these are also within the scope of the present invention.
(1) In the above-described embodiment, the form in which the lens barrel is detachable from the camera has been described. However, the present invention is not limited to this. For example, a so-called compact camera in which a lens barrel and a camera are integrated may be used. Moreover, although the form which has a mirror in a camera was demonstrated, it is not limited to this, The camera of a mirrorless structure may be sufficient. Furthermore, not only a camera but a mobile phone, another portable information terminal, etc. may be sufficient.

(2)上述の実施形態では、レンズ鏡筒の焦点距離が広角の場合、複数フレームごとの画像より動きベクトルを用いる例について説明したが、これに限らず、カメラ1Aは、レンズ鏡筒1Bより焦点距離が広角側であるという情報を受信した場合、カメラ側送受信部21からレンズ側送受信部22への動きベクトル情報等の送信を中止するようにしても良い。
なお、実施形態及び変形形態は、適宜組み合わせて用いることもできるが、詳細な説明は省略する。また、本発明は以上説明した実施形態によって限定されることはない。
(2) In the above-described embodiment, the example in which the motion vector is used from the image for each of the plurality of frames when the focal length of the lens barrel is wide has been described. When information indicating that the focal length is on the wide-angle side is received, transmission of motion vector information or the like from the camera-side transmitting / receiving unit 21 to the lens-side transmitting / receiving unit 22 may be stopped.
In addition, although embodiment and a deformation | transformation form can also be used in combination as appropriate, detailed description is abbreviate | omitted. Further, the present invention is not limited to the embodiment described above.

(3)上述の第2実施形態では、基準値判定部44の判定結果に応じて、カメラCPU2A内の信号処理部40で行う電子ブレ補正処理方法が変更される実施例を説明したが、例えば、カメラ1Aが像ブレを補正するために駆動可能な撮像素子3を有し、基準値判定部44の判定結果に応じて撮像素子3の駆動制御を行うものであってもよい。また、ブレ補正レンズを用いた像ブレを補正、カメラCPU2A内の信号処理部40で行う電子ブレ補正、駆動可能な撮像素子3を用いた像ブレを補正のうち少なくとも2つ以上のブレを補正を行うものであってもよい。 (3) In the above-described second embodiment, the electronic blur correction processing method performed by the signal processing unit 40 in the camera CPU 2A is changed according to the determination result of the reference value determination unit 44. The camera 1 </ b> A may include the image sensor 3 that can be driven to correct image blur, and may perform drive control of the image sensor 3 according to the determination result of the reference value determination unit 44. Further, at least two of the image blur correction using the blur correction lens, the electronic blur correction performed by the signal processing unit 40 in the camera CPU 2A, and the image blur correction using the driveable image sensor 3 are corrected. It may be what performs.

(4)上述の実施形態において、基準値補正部42は、基準値演算部34の出力が基準値のリミット範囲の範囲内にある場合、基準値演算部34の出力から基準値補正量演算部35により求めた基準値補正量を減算し、基準値演算部34の出力が基準値のリミット範囲の範囲外の場合、基準値演算部34の出力から基準値補正量演算部35により求めた基準値補正量の減算を行わない実施例を説明したがこれに限定されるものではない。 (4) In the above-described embodiment, the reference value correction unit 42 calculates the reference value correction amount calculation unit from the output of the reference value calculation unit 34 when the output of the reference value calculation unit 34 is within the limit range of the reference value. If the reference value correction amount obtained by 35 is subtracted, and the output of the reference value calculation unit 34 is outside the limit range of the reference value, the reference value correction amount calculation unit 35 obtained from the output of the reference value calculation unit 34 Although the embodiment in which the value correction amount is not subtracted has been described, the present invention is not limited to this.

例えば、基準値補正部42は、基準値演算部34の出力から基準値補正量演算部35により求めた基準値補正量を減算したものに第1の重み付けをしたものと、基準値演算部34の出力から基準値補正量演算部35により求めた基準値補正量の減算しないものに第2の重み付けをしたものとを平均してもよい。この場合、基準値演算部34の出力が基準値のリミット範囲の範囲内にあるときは第1の重み付けを第2の重み付けよりも大きくし、基準値演算部34の出力が基準値のリミット範囲の範囲外にあるときは第2の重み付けを第1の重み付けよりも大きくすることが好ましい。   For example, the reference value correction unit 42 first subtracts the reference value correction amount obtained by the reference value correction amount calculation unit 35 from the output of the reference value calculation unit 34, and the reference value calculation unit 34. The reference value correction amount obtained by the reference value correction amount calculation unit 35 may be averaged from the output obtained by subtracting the second weight. In this case, when the output of the reference value calculation unit 34 is within the limit range of the reference value, the first weight is set larger than the second weight, and the output of the reference value calculation unit 34 is the limit range of the reference value. When it is out of the range, it is preferable to make the second weight larger than the first weight.

1:カメラシステム1A:カメラ、1B:レンズ鏡筒1B:カメラCPU、2B:レンズCPU、3:撮像素子、4:ズームレンズ群、5:フォーカスレンズ群、6:ブレ補正レンズ群、7:ズームレンズ群駆動機構、8:フォーカスレンズ群駆動機構、9:ブレ補正レンズ群駆動機構、12:角速度センサ、21:レンズ位置検出部、31:増幅部、32:第1A/D変換部、33:第2A/D変換部、34:基準値演算部、35:センタバイアス除去部38:基準値補正量演算部、36:目標位置演算部、37:センタバイアス演算部、38:センタバイアス除去部、39:駆動量演算部、40:信号処理部、41:ベクトル演算部、42:基準値補正部、43:減算部、44:基準値判定部、45:レンズ記憶部、100,200:ブレ補正装置   1: camera system 1A: camera, 1B: lens barrel 1B: camera CPU, 2B: lens CPU, 3: image sensor, 4: zoom lens group, 5: focus lens group, 6: blur correction lens group, 7: zoom Lens group drive mechanism, 8: Focus lens group drive mechanism, 9: Blur correction lens group drive mechanism, 12: Angular velocity sensor, 21: Lens position detection unit, 31: Amplification unit, 32: First A / D conversion unit, 33: Second A / D converter, 34: reference value calculator, 35: center bias remover 38: reference value correction amount calculator, 36: target position calculator, 37: center bias calculator, 38: center bias remover, 39: Drive amount calculation unit, 40: Signal processing unit, 41: Vector calculation unit, 42: Reference value correction unit, 43: Subtraction unit, 44: Reference value determination unit, 45: Lens storage unit, 100, 200: B Correction device

本発明は、撮像装置に関する。 The present invention relates to an imaging apparatus .

本発明は、光学系により形成された被写体の像を撮像し、信号を出力する撮像素子と、
前記信号に基づいて画像を生成する画像生成部と、前記光学系の焦点距離に応じた時間差で撮像された2枚の前記画像に基づいて、前記撮像素子上における前記被写体の像の位置の変化を示す動きベクトルを算出する動きベクトル算出部と、を有する撮像装置に関する。
The present invention captures an image of a subject formed by an optical system and outputs a signal;
An image generation unit that generates an image based on the signal, and a change in the position of the image of the subject on the image sensor based on the two images captured with a time difference corresponding to the focal length of the optical system And a motion vector calculation unit that calculates a motion vector indicating

Claims (6)

像ブレを補正するブレ補正レンズと、
角速度を検出する角速度センサと、
前記角速度センサの出力信号の基準値を演算する演算部と、
カメラから動きベクトル情報と、バージョン情報とを受信する受信部と、
前記動きベクトル情報を用いて前記基準値を補正する補正部と、
前記角速度センサの前記出力信号と、前記補正部に補正された前記基準値とを用いて前記ブレ補正レンズを駆動する制御をする制御部とを備える交換レンズ。
An image stabilization lens that corrects image blur,
An angular velocity sensor for detecting angular velocity;
A calculation unit for calculating a reference value of an output signal of the angular velocity sensor;
A receiver for receiving motion vector information and version information from the camera;
A correction unit that corrects the reference value using the motion vector information;
An interchangeable lens comprising: a control unit that performs control to drive the blur correction lens using the output signal of the angular velocity sensor and the reference value corrected by the correction unit.
請求項1に記載の交換レンズおいて、
前記制御部は、前記受信部が受信した前記バージョン情報が所定のバージョンよりも古かった場合と、前記所定のバージョンよりも新しかった場合とで制御を異ならせる交換レンズ。
In the interchangeable lens according to claim 1,
The interchangeable lens in which the control unit makes control different when the version information received by the receiving unit is older than a predetermined version and when the version information is newer than the predetermined version.
請求項2に記載の交換レンズおいて、
前記制御部は、前記受信部が受信した前記バージョン情報が前記所定のバージョンよりも古かった場合には、前記角速度センサの前記出力信号と、前記補正部に補正された前記基準値とを用いて制御を行い、前記受信部が受信した前記バージョン情報が前記所定のバージョンよりも新しかった場合には、前記角速度センサの前記出力信号と、前記演算部に演算された前記基準値とを用いて制御を行う交換レンズ。
In the interchangeable lens according to claim 2,
When the version information received by the receiving unit is older than the predetermined version, the control unit uses the output signal of the angular velocity sensor and the reference value corrected by the correcting unit. When the version information received by the receiving unit is newer than the predetermined version, control is performed using the output signal of the angular velocity sensor and the reference value calculated by the calculating unit. Do the interchangeable lens.
請求項1から3までのいずれか1項に記載の交換レンズおいて、
前記受信部は、前記カメラの状態に関する情報が含まれるカメラ情報を受信し、
前記制御部は、前記受信部が受信した前記カメラ情報に基づいて前記受信部に前記動きベクトル情報を受信させるか否かを制御する交換レンズ。
In the interchangeable lens according to any one of claims 1 to 3,
The receiving unit receives camera information including information on the state of the camera;
The said control part is an interchangeable lens which controls whether the said receiving part receives the said motion vector information based on the said camera information which the said receiving part received.
請求項4に記載の交換レンズおいて、
前記受信部は、前記制御部が前記カメラ情報に基づいて前記カメラが動画撮影中であると判断した場合、及び、前記カメラがメニューを表示中であると判断した場合の少なくとも一方である場合には前記動きベクトル情報を受信しない交換レンズ。
In the interchangeable lens according to claim 4,
The reception unit is at least one of the case where the control unit determines that the camera is shooting a movie based on the camera information and the case where the camera determines that the menu is being displayed. Is an interchangeable lens that does not receive the motion vector information.
請求項1から5までのいずれか1項に記載の交換レンズおいて、
前記カメラが動きベクトルを演算するために使用される情報を送信する送信部を有する交換レンズ。
In the interchangeable lens according to any one of claims 1 to 5,
The interchangeable lens which has a transmission part which transmits the information used in order that the said camera calculates a motion vector.
JP2019114806A 2019-06-20 2019-06-20 Imaging device Pending JP2019152888A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2019114806A JP2019152888A (en) 2019-06-20 2019-06-20 Imaging device
JP2020125568A JP6943323B2 (en) 2019-06-20 2020-07-22 interchangeable lens

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019114806A JP2019152888A (en) 2019-06-20 2019-06-20 Imaging device

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2015021814A Division JP6543946B2 (en) 2015-02-06 2015-02-06 Shake correction device, camera and electronic device

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2020125568A Division JP6943323B2 (en) 2019-06-20 2020-07-22 interchangeable lens

Publications (1)

Publication Number Publication Date
JP2019152888A true JP2019152888A (en) 2019-09-12

Family

ID=67946347

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019114806A Pending JP2019152888A (en) 2019-06-20 2019-06-20 Imaging device

Country Status (1)

Country Link
JP (1) JP2019152888A (en)

Similar Documents

Publication Publication Date Title
JP6543946B2 (en) Shake correction device, camera and electronic device
US10827124B2 (en) Shake correction device, imaging apparatus, and shake correction method
JP6171575B2 (en) Blur correction device and optical apparatus
JP6990985B2 (en) Image shake correction device and method, image pickup device and image pickup system
JP6268981B2 (en) Blur correction device, interchangeable lens and camera
JP6943323B2 (en) interchangeable lens
JP6171576B2 (en) Blur correction device and optical apparatus
JP2019152888A (en) Imaging device
JP2019091063A (en) Shake correction device, electronic apparatus and camera
JP2011013555A (en) Camera-shake correction device and optical instrument
JP6590013B2 (en) Interchangeable lens and imaging device
JP6590018B2 (en) Blur correction device and camera
JP6610722B2 (en) Blur correction device and optical apparatus
JP6468343B2 (en) Interchangeable lenses and optical equipment
JP6717396B2 (en) Image stabilization apparatus and image pickup apparatus
JP6414285B2 (en) Blur correction device and optical apparatus
CN111953891A (en) Control apparatus, lens apparatus, image pickup apparatus, control method, and storage medium
JP6485499B2 (en) Blur correction device and optical apparatus
JP6299188B2 (en) Blur correction device, lens barrel and camera
WO2020012960A1 (en) Imaging device
JP7266480B2 (en) Imaging device, lens device, imaging system, imaging device control method, lens device control method
JP6318502B2 (en) Blur correction device and optical apparatus
JP2019003220A (en) interchangeable lens
JP2015106086A (en) Tremor correction device and optical device
JP7172214B2 (en) Interchangeable lenses, camera bodies and camera systems

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190624

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190701

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200421

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200526

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20201201