KR101951076B1 - Image capturing apparatus, control method thereof and computer program therefor - Google Patents

Image capturing apparatus, control method thereof and computer program therefor Download PDF

Info

Publication number
KR101951076B1
KR101951076B1 KR1020160021083A KR20160021083A KR101951076B1 KR 101951076 B1 KR101951076 B1 KR 101951076B1 KR 1020160021083 A KR1020160021083 A KR 1020160021083A KR 20160021083 A KR20160021083 A KR 20160021083A KR 101951076 B1 KR101951076 B1 KR 101951076B1
Authority
KR
South Korea
Prior art keywords
exposure period
motion
subject
information
image
Prior art date
Application number
KR1020160021083A
Other languages
Korean (ko)
Other versions
KR20160107098A (en
Inventor
마사유키 무쿠나시
Original Assignee
캐논 가부시끼가이샤
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 캐논 가부시끼가이샤 filed Critical 캐논 가부시끼가이샤
Publication of KR20160107098A publication Critical patent/KR20160107098A/en
Application granted granted Critical
Publication of KR101951076B1 publication Critical patent/KR101951076B1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/188Capturing isolated or intermittent images triggered by the occurrence of a predetermined event, e.g. an object reaching a predetermined position
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/73Circuitry for compensating brightness variation in the scene by influencing the exposure time
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • G08B13/19602Image analysis to detect motion of the intruder, e.g. by frame subtraction
    • G08B13/19608Tracking movement of a target, e.g. by detecting an object predefined as a target, using target direction and or velocity to predict its new position
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • G08B13/19617Surveillance camera constructional details
    • G08B13/1963Arrangements allowing camera rotation to change view, e.g. pivoting camera, pan-tilt and zoom [PTZ]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/68Control of cameras or camera modules for stable pick-up of the scene, e.g. compensating for camera body vibrations
    • H04N23/681Motion detection
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/68Control of cameras or camera modules for stable pick-up of the scene, e.g. compensating for camera body vibrations
    • H04N23/682Vibration or motion blur correction

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Studio Devices (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Adjustment Of Camera Lenses (AREA)
  • Computer Vision & Pattern Recognition (AREA)

Abstract

촬상 장치(100)에서, 제어부(132)는 촬상 장치의 움직임이 피사체의 움직임을 추종할 때, 촬상 장치의 움직임을 검출하는 제1 검출기(107)로부터 얻어지는 제1 움직임 정보 및 피사체의 움직임을 검출하는 제2 검출기(135)로부터 얻어지는 제2 움직임 정보를 이용하여 광학 소자(104)를 제어한다. 산출부(134)는 노광 기간 전의 복수의 시간에서 검출된 제2 움직임 정보를 이용하여 노광 기간 중의 상기 피사체의 움직임에 대한 예측 정보를 산출한다. 제어부는 예측 정보를 이용하여 노광 기간 중에 광학 소자를 제어한다.In the image capturing apparatus 100, the control unit 132 detects first motion information obtained from the first detector 107 that detects the motion of the image capturing apparatus and motion of the subject when the motion of the image capturing apparatus follows the motion of the subject And controls the optical element 104 by using the second motion information obtained from the second detector 135. [ The calculation unit 134 calculates the prediction information on the motion of the subject during the exposure period using the second motion information detected at a plurality of times before the exposure period. The control unit controls the optical element during the exposure period using the prediction information.

Figure R1020160021083
Figure R1020160021083

Description

촬상 장치, 그 제어 방법 및 그 컴퓨터 프로그램{IMAGE CAPTURING APPARATUS, CONTROL METHOD THEREOF AND COMPUTER PROGRAM THEREFOR}[0001] IMAGE CAPTURING APPARATUS, CONTROL METHOD THEREOF AND COMPUTER PROGRAM THEREFOR [0002]

본 발명은 소위 "팔로우 샷(follow shot)"에 있어서의 상의 흔들림(image blur)을 저감하는 기술에 관한 것이다.The present invention relates to a technique for reducing image blur in a so-called " follow shot ".

팔로우 샷은, 움직이고 있는 피사체의 속도감의 표현을 가능하게 하는 것으로, 촬영자가 피사체의 움직임에 맞춰서 촬상 장치(카메라)을 패닝함으로써, 피사체가 정지하고 배경이 흐르는 화상을 취득하는 촬영 기법이다. 그러한 팔로우 샷에 있어서, 패닝 속도가 피사체의 움직임 속도보다 빠르거나 늦으면 흐릿한 피사체 상을 포함하는 화상이 생성된다.The follow shot enables to express the speed feeling of a moving subject, and is a photographing technique in which the photographer stops the subject and acquires an image in which the background flows by panning the image capturing device (camera) in accordance with the movement of the subject. In such a follow shot, if the panning speed is earlier or later than the moving speed of the subject, an image including a blurred subject image is generated.

일본 특허 공개 04-163535호 공보는, 촬영(노광)전에 산출한 카메라에 대한 피사체의 각속도와 각속도 센서로부터 얻은 촬영중의 카메라의 각속도에 기초하여 촬영중에 광학계의 일부 또는 이미지 센서를 이동시켜서 피사체 상의 흔들림을 보정하는 카메라를 개시하고 있다. 이 카메라는 카메라에 대한 상대적인 각속도(이하 "상대 피사체 각속도"라고 함)을 피사체 상의 상면(image plane) 상에서의 화상의 변위량과 각속도 센서로부터의 출력을 이용하여 산출한다; 변위량은 시간적으로 순차적인 화상으로부터 검출된다.Japanese Patent Laid-Open Publication No. 04-163535 discloses a technique in which a part of an optical system or an image sensor is moved during photographing based on an angular velocity of a subject with respect to a camera calculated before photographing (exposure) and an angular velocity of the camera during photographing obtained from an angular velocity sensor, A camera for correcting the shake is disclosed. The camera calculates an angular velocity relative to the camera (hereinafter referred to as " relative object angular velocity ") using an amount of displacement of an image on an image plane on an object and an output from an angular velocity sensor; The amount of displacement is detected from a temporally sequential image.

일본 특허 공개 04-163535호 공보에서 개시된 카메라는, 상대 피사체 각속도가 상의 흔들림이 보정되는 촬영중에 있어서 일정하게 유지되고 있는 것을 전제로 하고 있다. 그러나, 피사체(예를 들어, 열차)가 등속 직선 운동을 하고 있어도, 피사체의 이동 방향에 직교하는 방향에 위치하는 카메라로부터 측정되는 상대 피사체 각속도는 변화(가속 또는 감속)한다. 이 경우, 상대 피사체 각속도의 측정 시간과 실제의 촬영 시간 사이에 타임 래그가 있을 경우에, 그 타임 래그 중에 있어서의 상대 피사체 각속도의 변화를 무시하면 촬영중에 있어서의 상 흔들림을 적절히 보정하는 것은 불가능하게 된다.The camera disclosed in Japanese Patent Application Laid-Open No. 04-163535 is premised on that the angular speed of the relative object is kept constant during photographing in which the shake of the object is corrected. However, even when a subject (e.g., a train) is moving at a constant speed, the relative object angular velocity measured by a camera positioned in a direction orthogonal to the moving direction of the subject changes (accelerates or decelerates). In this case, when there is a time lag between the measurement time of the relative object angular velocity and the actual photographing time, if the change of the relative object angular velocity during the time lag is ignored, it is impossible to appropriately correct the image shake during photographing do.

본 발명은 카메라로부터 검출된 피사체의 속도가 변화하는 경우에서도 피사체 상의 흔들림이 저감된 양호한 팔로우 샷을 행할 수 있는 촬상 장치를 제공한다.The present invention provides an imaging apparatus capable of performing a good follow shot in which a shake on a subject is reduced even when the speed of the subject detected by the camera changes.

본 발명은 피사체의 촬상을 수행하도록 구성된 촬상 장치를 제공한다. 이 장치는 상기 촬상 장치의 움직임이 상기 피사체의 움직임을 추종할 때, 상기 촬상 장치의 움직임을 검출하는 제1 검출기로부터 얻어지는 제1 움직임 정보 및 상기 피사체의 움직임을 검출하는 제2 검출기로부터 얻어지는 제2 움직임 정보를 이용하여 광학 소자를 제어하도록 구성된 제어부, 노광 기간 전의 복수의 시간에서 검출된 상기 제2 정보를 이용하여 상기 노광 기간 중의 상기 피사체의 움직임에 대한 예측 정보를 산출하도록 구성된 산출부를 포함한다. 상기 제어부는 상기 예측 정보를 이용하여 상기 노광 기간 중에 상기 광학 소자를 제어한다.The present invention provides an imaging apparatus configured to perform imaging of a subject. The apparatus includes first motion information obtained from a first detector for detecting a motion of the imaging device and second motion information obtained from a second detector for detecting the motion of the object when the motion of the imaging device follows the motion of the object, A control unit configured to control the optical element using the motion information, and a calculating unit configured to calculate the prediction information on the motion of the subject during the exposure period using the second information detected at a plurality of times before the exposure period. The control unit controls the optical element during the exposure period using the prediction information.

본 발명은 그것의 다른 양태로서 피사체의 촬상을 수행하도록 구성된 촬상 장치를 제공한다. 이 장치는 상기 촬상 장치의 움직임이 상기 피사체의 움직임을 추종할 때, 상기 촬상 장치의 움직임을 검출하는 제1 검출기로부터 얻어지는 제1 움직임 정보 및 상기 피사체의 움직임을 검출하는 제2 검출기로부터 얻어지는 제2 움직임 정보를 이용하여 광학 소자를 제어하도록 구성된 제어부, 및 노광 기간 전의 복수의 시간에서 검출된 상기 제2 정보를 이용하여 상기 노광 기간 중의 상기 피사체의 움직임에 대한 예측 정보를 산출하도록 구성된 산출부를 포함한다. 상기 제어부는 상기 예측 정보와 상기 노광 기간 중에 얻어지는 상기 제1 움직임 정보를 이용하여 상기 노광 기간 중에 상기 광학 소자를 제어한다.The present invention provides, as another aspect thereof, an imaging apparatus configured to perform imaging of a subject. The apparatus includes first motion information obtained from a first detector for detecting a motion of the imaging device and second motion information obtained from a second detector for detecting the motion of the object when the motion of the imaging device follows the motion of the object, A control unit configured to control the optical element using the motion information, and a calculation unit configured to calculate prediction information on the motion of the subject during the exposure period using the second information detected at a plurality of times before the exposure period . The control unit controls the optical element during the exposure period using the prediction information and the first motion information obtained during the exposure period.

본 발명은 그것의 또 다른 양태로서 촬상 장치에서 상기와 같이 광학 소자를 제어하는 방법, 컴퓨터 프로그램 또는 그 제어 프로그램을 저장하는 비일시적 컴퓨터 판독 가능 저장 매체를 제공한다.In another aspect thereof, the present invention provides a non-volatile computer-readable storage medium storing a computer program or a control program thereof for controlling an optical element as described above in an image pickup apparatus.

본 발명의 다른 양태들은 도면들에 관련하여 아래에 기술되는 실시예들로부터 명백할 것이다.Other aspects of the invention will be apparent from the embodiments described below with reference to the drawings.

도 1은 본 발명의 실시예 1인 카메라에 있어서의 각속도 설정 처리를 나타내는 흐름도.
도 2는 실시예 1의 카메라에 있어서의 팔로우 샷 보조 처리를 나타내는 흐름도.
도 3은 실시예 1의 카메라 구성을 도시하는 블록도.
도 4는 실시예 1의 카메라에 있어서의 상 안정화 시스템의 구성을 도시하는 블록도.
도 5는 실시예 1의 카메라에 있어서의 패닝 제어를 나타내는 흐름도.
도 6은 실시예 1의 카메라에 있어서의 팔로우 샷 보조 모드에서의 시프트 구동 제어 시스템의 구성을 도시하는 블록도.
도 7은 실시예 1의 카메라에 있어서의 패닝 판정 역치를 설명하는 도면.
도 8은 실시예 1에 있어서의 상대 피사체 각속도와 그 변화(각가속도)를 나타내는 그래프.
도 9는 실시예 1에 있어서의 상대 피사체 각속도를 설명하는 도면.
도 10은 실시예 1에 있어서의 특이점을 설명하는 도면.
도 11은 실시예 1에 있어서의 0°특이점의 판정을 설명하는 도면.
도 12는 본 발명의 실시예 2의 카메라에 있어서의 각속도 설정 처리를 나타내는 흐름도.
도 13a 내지 13d는 각각 실시예 2에 있어서의 2개의 지점간의 거리와 각도를 설명하는 도면.
도 14는 실시예 3의 카메라에 있어서의 팔로우 샷 보조 처리를 나타내는 흐름도.
도 15는 본 발명의 실시예 4인 렌즈 교환식 카메라 시스템의 구성을 도시하는 블록도.
도 16은 실시예 4의 교환 가능 렌즈에 있어서의 팔로우 샷 보조 제어 시스템의 구성을 도시하는 블록도.
도 17은 실시예 4에 있어서의 카메라 측 팔로우 샷 보조 처리를 나타내는 흐름도.
도 18은 실시예 4에 있어서의 렌즈 측 팔로우 샷 보조 처리를 나타내는 흐름도.
도 19는 본 발명의 실시예 5인 렌즈 교환식 카메라 시스템의 카메라 측 팔로우 샷 보조 처리를 나타내는 흐름도.
도 20은 실시예 5에 있어서의 교환 가능 렌즈 측 팔로우 샷 보조 처리를 나타내는 흐름도.
도 21은 실시예 5의 변형예에 있어서의 카메라 측 팔로우 샷 보조 처리를 나타내는 흐름도.
도 22는 실시예 5의 변형예에 있어서의 렌즈 측 팔로우 샷 보조 처리를 나타내는 흐름도.
BRIEF DESCRIPTION OF THE DRAWINGS FIG. 1 is a flowchart showing angular velocity setting processing in a camera according to Embodiment 1 of the present invention; FIG.
2 is a flowchart showing a follow shot assist processing in the camera of the first embodiment;
3 is a block diagram showing a camera configuration of the first embodiment;
4 is a block diagram showing a configuration of a phase stabilization system in a camera according to Embodiment 1. Fig.
5 is a flowchart showing panning control in the camera of the first embodiment;
6 is a block diagram showing the configuration of a shift drive control system in the follow shot assist mode in the camera of the first embodiment;
7 is a view for explaining a panning determination threshold in the camera of the first embodiment;
8 is a graph showing the relative object angular velocity and its change (angular acceleration) in the first embodiment;
9 is a view for explaining the relative object angular velocity in the first embodiment;
10 is a view for explaining the singularity in the first embodiment;
11 is a view for explaining the determination of the 0 占 singular point in the first embodiment;
12 is a flowchart showing the angular velocity setting process in the camera according to the second embodiment of the present invention;
Figs. 13A to 13D are diagrams for explaining distances and angles between two points in the second embodiment; Fig.
14 is a flowchart showing a follow shot assist processing in the camera of the third embodiment;
15 is a block diagram showing the configuration of a lens interchangeable camera system according to Embodiment 4 of the present invention.
16 is a block diagram showing a configuration of a follow shot auxiliary control system in an interchangeable lens of Embodiment 4. Fig.
17 is a flowchart showing a camera-side follow shot assist processing in the fourth embodiment;
18 is a flowchart showing the lens-side follow shot assist processing in the fourth embodiment;
19 is a flowchart showing a camera-side follow-shot auxiliary processing of a lens interchangeable camera system according to Embodiment 5 of the present invention.
20 is a flowchart showing an interchangeable lens-side follow shot assist processing in the fifth embodiment;
21 is a flowchart showing a camera-side follow shot assist processing in a modification of the fifth embodiment;
22 is a flowchart showing a lens-side follow-shot auxiliary processing in a modification of the fifth embodiment;

이하 첨부 도면들을 참고하여 본 발명의 예시적인 실시예들을 설명한다.Exemplary embodiments of the present invention will now be described with reference to the accompanying drawings.

[실시예 1][Example 1]

도 3은 본 발명의 제1 실시예(실시예 1)인 촬상 장치로서의 렌즈 교환식 카메라(이하 간단히 "카메라"라고 함)(100)의 구성을 나타내고 있다.Fig. 3 shows the configuration of a lens interchangeable camera (hereinafter simply referred to as " camera ") 100 as an image pickup apparatus which is a first embodiment (Embodiment 1) of the present invention.

카메라(100)는 피사체로부터의 광이 광학 상(피사체 상)을 형성하게 하는 촬영 광학계인 촬영 렌즈 유닛(101)을 구비하고 있다. 촬영 렌즈 유닛(101)은 주 렌즈 계(102)와, 촬영 렌즈 유닛(101)의 광축이 연장하는 광축 방향으로 이동해서 촬영 렌즈 유닛(101)의 초점 거리를 변경하는 줌 렌즈(103)와, 광축 방향으로 이동해서 초점 조절을 행하는 포커스 렌즈(도시하지 않음)를 포함한다. 또한, 촬영 렌즈 유닛(101)은 그 일부를 구성하는 광학 소자인 시프트 렌즈(104)를 포함한다.The camera 100 includes a photographing lens unit 101 which is a photographing optical system that causes light from a subject to form an optical image (subject image). The photographing lens unit 101 includes a main lens system 102 and a zoom lens 103 that moves in the optical axis direction in which the optical axis of the photographing lens unit 101 extends to change the focal length of the photographing lens unit 101, And a focus lens (not shown) moving in the optical axis direction to perform focus adjustment. Further, the photographing lens unit 101 includes a shift lens 104 which is an optical element that constitutes a part of the photographing lens unit 101. [

시프트 렌즈(104)는 팔로우 샷 보조를 위해서 광축에 대하여 직교하는 방향(이하 수정하여 "시프트 방향"이라고 함)으로 이동(시프트) 가능한 시프트 소자이다. 팔로우 샷 보조는 유저가 카메라(100)의 패닝에 의해 카메라의 방향을 변화시키면서 움직이는 피사체의 피사체 상을 촬영하는 팔로우 샷에서, 피사체 상의 흔들림을 저감하기 위해 수행된다. 또한, 시프트 렌즈(104)는 유저의 손 떨림에 의한 카메라(100)의 요동(이하 요동은 "카메라 요동"이라고 함)에 기인하는 피사체 상의 흔들림을, 시프트 렌즈(104)를 광축에 대하여 직교하는 방향으로 시프트 함으로써, 광학적으로 보정하는 상 안정화 기능도 갖는다.The shift lens 104 is a shift element capable of shifting (shifting) in a direction orthogonal to the optical axis (hereinafter referred to as " shift direction ") for assist of the follow shot. The follow shot assist is performed in order to reduce the shaking on the subject in the follow shot in which the user changes the direction of the camera by panning the camera 100 and shoots the subject image of the moving subject. The shift lens 104 is configured to shift the shift of the object caused by the swinging motion of the camera 100 caused by the hand tremor of the user (hereinafter referred to as "camera shaking motion") by the shift lens 104, Direction, and also has a phase stabilizing function for optically correcting.

카메라(100)는 줌 인코더(105)와, 시프트 위치 센서(106)와, 각속도 센서(107)와, 각속도 증폭기(108)와, 카메라 제어용 마이크로컴퓨터(130)와, 시프트 드라이버(109)와, 시프트 위치 증폭기(110)를 구비하고 있다.The camera 100 includes a zoom encoder 105, a shift position sensor 106, an angular velocity sensor 107, an angular velocity amplifier 108, a camera control microcomputer 130, a shift driver 109, And a shift position amplifier (110).

줌 인코더(105)는 줌 렌즈(103)의 광축 방향에서의 위치를 검출한다. 시프트 위치 센서(106)는 시프트 렌즈(104)의 시프트 방향에서의 위치를 검출한다. 각속도 센서(107)는 제1 움직임 검출기로서 광축에 대하여 직교하는 방향들(피치(pitch) 및 요(yaw) 방향들)에 있어서의 카메라(100)의 움직임 속도인 각속도(각속도 정보)를 검출한다. 각속도 증폭기(108)는 각속도 센서(107)로부터의 출력을 증폭한다.The zoom encoder 105 detects the position of the zoom lens 103 in the optical axis direction. The shift position sensor 106 detects the position of the shift lens 104 in the shift direction. The angular velocity sensor 107 detects the angular velocity (angular velocity information) which is the motion velocity of the camera 100 in the directions (pitch and yaw directions) orthogonal to the optical axis as the first motion detector . The angular velocity amplifier 108 amplifies the output from the angular velocity sensor 107. [

카메라 제어용 마이크로컴퓨터(이하 간단히 "카메라 마이크로컴퓨터"라고 함)(130)는 카메라(100) 전체의 동작을 제어한다. 시프트 드라이버(109)는 음성 코일 모터 등의 시프트 액추에이터와 그 구동 회로를 포함하고 시프트 액추에이터를 구동함으로써 시프트 렌즈(104)을 시프트시킨다. 시프트 위치 증폭기(110)는 시프트 위치 센서(106)로부터의 출력을 증폭한다.A camera control microcomputer (hereinafter simply referred to as " camera microcomputer ") 130 controls the operation of the entire camera 100. The shift driver 109 includes a shift actuator such as a voice coil motor and its drive circuit, and shifts the shift lens 104 by driving the shift actuator. The shift position amplifier 110 amplifies the output from the shift position sensor 106.

또한, 카메라(100)는 셔터(111)와, 이미지 센서(112)와, 아날로그 신호 처리 회로(113)와, 카메라 신호 처리 회로(114)와, 타이밍 제너레이터(115)와, 조작 스위치들(116)과, 셔터 모터(117)와, 셔터 드라이버(118)를 구비하고 있다.The camera 100 further includes a shutter 111, an image sensor 112, an analog signal processing circuit 113, a camera signal processing circuit 114, a timing generator 115, operation switches 116 ), A shutter motor 117, and a shutter driver 118. The shutter driver 118 is a shutter drive mechanism.

이미지 센서(112)는 CMOS 센서나 CCD 센서 등의 광전 변환 소자에 의해 구성되어, 촬영 렌즈 유닛(101)에 의해 형성된 피사체 상을 광전 변환해서 아날로그 전기 신호를 출력한다. 셔터(111)는 이미지 센서(112)의 노광 기간(바꾸어 말해서, 노광의 시간 길이)을 제어한다.The image sensor 112 is constituted by a photoelectric conversion element such as a CMOS sensor or a CCD sensor and photoelectrically converts the subject image formed by the photographing lens unit 101 to output an analog electric signal. The shutter 111 controls the exposure period of the image sensor 112 (in other words, the time length of exposure).

아날로그 신호 처리 회로(AFE)(113)는 이미지 센서(112)로부터 출력된 아날로그 신호를 증폭하고, 증폭 후의 아날로그 신호를 디지털 신호로서의 촬상 신호로 변환해서 카메라 신호 처리 회로(114)에 출력한다.The analog signal processing circuit (AFE) 113 amplifies the analog signal output from the image sensor 112, converts the amplified analog signal into an image signal as a digital signal, and outputs the image signal to the camera signal processing circuit 114.

카메라 신호 처리 회로(114)는 촬상 신호에 대하여 각종 화상 처리를 행함으로써 영상 신호(촬영 영상)를 생성한다. 촬영 영상(또는 이것으로부터 취출된 정지 화상)은 카메라(100)에 대하여 착탈이 가능한 메모리 카드(119)에 기록되거나, 액정 패널 등의 표시 소자에 의해 구성되는 모니터(이하 "LCD"라고 함)(120)에 표시되거나 한다.The camera signal processing circuit 114 generates a video signal (photographed image) by performing various image processes on the image pickup signal. The captured image (or a still image extracted from the captured image) is recorded in a memory card 119 that can be attached to or detached from the camera 100, or a monitor (hereinafter referred to as "LCD") 120 < / RTI >

타이밍 제너레이터(115)는 이미지 센서(112)와 아날로그 신호 처리 회로(113)의 동작 시간들을 설정한다.Timing generator 115 sets the operating times of image sensor 112 and analog signal processing circuit 113.

조작 스위치들(116)은 전원 스위치, 릴리즈 스위치, 모드 선택 스위치 등의 각종 스위치와, 다이얼을 포함한다. 본 실시예의 카메라(100)는 모드 선택 스위치의 조작을 통해서 팔로우 샷 보조 모드와 통상 촬영 모드 간에 전환이 가능하다. 셔터 모터(117)는 셔터 드라이버(118)에 의해 구동되어 셔터(111)가 차징(charging) 동작(닫는 동작)을 행하게 한다.The operation switches 116 include various switches such as a power switch, a release switch, a mode selection switch, and a dial. The camera 100 of this embodiment can switch between the follow shot assist mode and the normal shooting mode through the operation of the mode selection switch. The shutter motor 117 is driven by the shutter driver 118 to cause the shutter 111 to perform a charging operation (closing operation).

카메라 신호 처리 회로(114)는 촬영 영상 신호를 구성하는 프레임 화상들로부터 움직임 벡터를 검출하는 제2 검출기로서 움직임 벡터 검출부(135)을 포함한다.The camera signal processing circuit 114 includes a motion vector detection unit 135 as a second detector for detecting a motion vector from the frame images constituting the photographed image signal.

또한, 카메라 마이크로컴퓨터(130)는 상 안정화 제어부(131)와, 팔로우 샷 제어부(132)와, 셔터 제어부(133)와, 피사체 각속도 산출부(134)를 포함한다. 피사체 각속도 산출부(134)는 산출기에 상당하고, 팔로우 샷 제어부(132)는 제어기에 상당한다.The camera microcomputer 130 includes a phase stabilization control unit 131, a follow shot control unit 132, a shutter control unit 133, and a subject angular velocity calculation unit 134. The subject angular velocity calculating section 134 corresponds to the calculator, and the follow shot control section 132 corresponds to the controller.

상 안정화 제어부(131)는 피사체 상의 흔들림, 즉, 카메라 요동에 기인하는 상 흔들림을 보정(저감)하기 위해서 시프트 렌즈(104)의 시프트 구동을 제어하는 상 흔들림 보정 제어(상 안정화 제어)를 행한다.The image stabilization control section 131 performs image stabilization control (phase stabilization control) for controlling the shift drive of the shift lens 104 in order to correct (reduce) the image shake on the subject, that is, the image shake caused by the camera shake.

팔로우 샷 제어부(132)는 팔로우 샷 보조를 수행하기 위해서 시프트 렌즈(104)의 시프트 구동을 제어한다.The follow shot control unit 132 controls the shift drive of the shift lens 104 to perform the follow shot assist.

셔터 제어부(133)는 셔터 드라이버(118)를 통해서 릴리즈 전자기 마그네트(도시하지 않음)의 통전을 해제해서 셔터(111)가 차징된 상태로부터 개방 동작을 수행하게 하고 또한 셔터 모터(117)를 제어해서 셔터(111)가 차징 동작을 행하게 한다.The shutter control unit 133 releases the energization of the release electromagnetic magnet (not shown) through the shutter driver 118 to cause the shutter 111 to perform the opening operation from the charged state and also controls the shutter motor 117 And causes the shutter 111 to perform the charging operation.

피사체 각속도 산출부(134)는 피사체(주 피사체)의 카메라(100)에 대한 측정된 각속도로서 상대 피사체 각속도를 산출한다. 주 피사체는 촬영 대상을 의미한다. 카메라 마이크로컴퓨터(130)는 포커스 렌즈 제어, 조리개 제어 등을 행한다.The subject angular velocity calculating section 134 calculates the relative subject angular velocity as the measured angular velocity of the subject (main subject) with respect to the camera 100. [ The main subject means the subject to be photographed. The camera microcomputer 130 performs focus lens control, diaphragm control, and the like.

조작 스위치들(116)의 전원 스위치가 ON 조작되어 카메라(100)의 전원이 투입되면, 카메라 마이크로컴퓨터(130)는 카메라(100) 내의 상기 부분들 각각에의 전원 공급을 개시하는 동시에, 필요한 초기 설정을 행한다.When the power switch of the operation switches 116 is turned on and the power of the camera 100 is turned on, the camera microcomputer 130 starts power supply to each of the parts in the camera 100, .

팔로우 샷 보조 모드가 아닌 통상 촬영 모드에서는, 각속도 센서(107)가 카메라 요동을 검출하고, 그 검출 결과에 따라서 상 안정화 제어부(131)가 시프트 렌즈(104)을 시프트시킴으로써 카메라 요동에 의한 상 흔들림을 보정한다.In the normal shooting mode other than the follow shot assist mode, the angular velocity sensor 107 detects the camera shaking motion, and the phase stabilization control unit 131 shifts the shift lens 104 in accordance with the detection result, .

도 4는 카메라(100)의 상 안정화 시스템의 구성을 나타내고 있다. 도 4에 있어서, 도 3에 도시한 구성 요소와 공통되는 구성 요소는 도 3과 같은 부호로 표시하고, 그것들의 설명은 생략한다. 실제의 상 안정화 시스템은 시프트 렌즈(104)를 2개의 방향(피치 방향과 요 방향)으로 시프트시키는 2개의 시스템을 갖지만, 그 구성들은 동일하기 때문에, 도 4는 그 중 하나만을 나타내고 있다.Fig. 4 shows the configuration of the image stabilization system of the camera 100. Fig. In Fig. 4, components common to those shown in Fig. 3 are denoted by the same reference numerals as those in Fig. 3, and a description thereof will be omitted. The actual image stabilization system has two systems for shifting the shift lens 104 in two directions (pitch direction and yaw direction), but since the configurations are the same, Fig. 4 shows only one of them.

각속도 A/D 변환기(401)는 각속도 센서(107)(각속도 증폭기(108))로부터 출력되는 각속도 신호(아날로그 신호)를 디지털 신호로서의 각속도 데이터로 변환해서 필터 연산부(402)에 출력한다. 각속도 데이터는 카메라 요동의 주파수에 대응하는 약 1-10kHz의 주파수에서 샘플링된다.The angular velocity A / D converter 401 converts the angular velocity signal (analog signal) output from the angular velocity sensor 107 (angular velocity amplifier 108) into angular velocity data as a digital signal and outputs the angular velocity data to the filter operation unit 402. The angular velocity data is sampled at a frequency of about 1-10 kHz corresponding to the frequency of camera shake.

필터 연산부(402)는, 고역 통과 필터(HPF)에 의해 구성되어, 각속도 데이터에 포함되는 오프셋 성분을 제거하거나, 후술하는 패닝 제어부(407)로부터의 명령에 따라서 HPF의 차단 주파수를 변경하거나 한다. 제1 적분기(403)는 시프트 렌즈(104)의 목표 시프트 위치의 데이터인 목표 위치 데이터를 생성하기 위해서, 각속도 데이터를 각 변위 데이터로 변환한다.The filter operation unit 402 is constituted by a high pass filter (HPF) and removes an offset component included in the angular velocity data or changes the cutoff frequency of the HPF in accordance with a command from a panning control unit 407 described later. The first integrator 403 converts angular velocity data into angular displacement data to generate target position data which is data of the target shift position of the shift lens 104. [

시프트 위치 A/D 변환기(406)는 시프트 위치 센서(106)(시프트 위치 증폭기(110))로부터 출력되는 시프트 위치 신호(아날로그 신호)를 디지털 신호로서의 시프트 위치 데이터로 변환한다. 제1 가산기(404)는 시프트 렌즈(104)의 목표 위치 데이터로부터 시프트 위치 데이터(현재의 시프트 위치 데이터)를 감산함으로써 시프트 렌즈(104)의 구동량 데이터를 산출한다.The shift position A / D converter 406 converts the shift position signal (analog signal) output from the shift position sensor 106 (shift position amplifier 110) into shift position data as a digital signal. The first adder 404 calculates the drive amount data of the shift lens 104 by subtracting the shift position data (current shift position data) from the target position data of the shift lens 104. [

PWM 출력부(405)는 산출된 구동량 데이터를 시프트 드라이버(109)에 출력한다. 시프트 드라이버(109)는 구동량 데이터에 기초하여 시프트 액추에이터를 구동해서 시프트 렌즈(104)를 목표 시프트 위치에 시프트시킨다.The PWM output unit 405 outputs the calculated drive amount data to the shift driver 109. [ The shift driver 109 drives the shift actuator based on the drive amount data to shift the shift lens 104 to the target shift position.

패닝 제어부(407)는, 각속도 센서(107)(각속도 A/D 변환기(401))로부터 얻어지는 각속도 데이터로부터, 카메라(100)의 패닝이 수행되고 있는지의 여부를 판정한다. 패닝 제어부(407)은, 카메라(100)의 패닝이 수행되고 있다고 판정되는 경우에는, 필터 연산부(HPF)(402)의 차단 주파수를 변경하는 동시에 제1 적분기(403)의 출력을 조정한다.The panning control unit 407 determines whether or not panning of the camera 100 is being performed based on the angular velocity data obtained from the angular velocity sensor 107 (angular velocity A / D converter 401). The panning control unit 407 changes the cutoff frequency of the filter operation unit (HPF) 402 and adjusts the output of the first integrator 403 when it is determined that the camera 100 is being panned.

도 5는 패닝 제어부(407)에 의해 행해지는 패닝 제어의 예를 나타내고 있다. 패닝 제어부(407)(즉, 카메라 마이크로컴퓨터(130))는 컴퓨터 프로그램인 패닝 제어 프로그램을 따라서 이 패닝 제어를 행한다.5 shows an example of the panning control performed by the panning control unit 407. In Fig. The panning control unit 407 (i.e., the camera microcomputer 130) performs this panning control in accordance with a panning control program which is a computer program.

스텝 S501에 있어서, 패닝 제어부(407)는 각속도 A/D 변환기(401)로부터 도입한 각속도 데이터의 평균값이 미리 결정된 값 a보다도 큰지의 여부를 판정한다. 평균값(이하 "각속도 평균값"이라고 함)은 미리 결정된 횟수 샘플링된 각속도 데이터의 평균값이다. 각속도 평균값이 미리 결정된 값 a 이하인 경우에는, 패닝 제어부(407)는 패닝이 행해지고 있지 않다고 판정하고 스텝 S507로 진행한다. 한편, 각속도 평균값이 미리 결정된 값 a보다 큰 경우에는, 패닝 제어부(407)는 스텝 S502로 진행하여, 각속도 평균값이 미리 결정된 값 b(>a)보다 큰지의 여부를 판정한다. 각속도 평균값이 미리 결정된 값 b 이하인 경우에는, 패닝 제어부(407)는 저속 패닝이 행해지고 있다고 판정하고 스텝 S506으로 진행한다. 각속도 평균값이 미리 결정된 값 b보다 큰 경우에는, 패닝 제어부(407)는 고속 패닝이 행해지고 있다고 판정하고 스텝 S503으로 진행한다.In step S501, the panning control unit 407 determines whether the average value of the angular velocity data introduced from the angular velocity A / D converter 401 is larger than a predetermined value a. The average value (hereinafter referred to as " angular velocity average value ") is an average value of the angular velocity data sampled a predetermined number of times. If the angular velocity average value is equal to or less than the predetermined value a, the panning control section 407 determines that panning is not performed and proceeds to step S507. On the other hand, when the angular velocity average value is larger than the predetermined value a, the panning control unit 407 proceeds to step S502 and determines whether or not the angular velocity average value is larger than a predetermined value b (> a). When the angular velocity average value is equal to or smaller than the predetermined value b, the panning control section 407 determines that low-speed panning is performed, and proceeds to step S506. If the angular velocity average value is larger than the predetermined value b, the panning control unit 407 determines that high-speed panning is being performed and proceeds to step S503.

스텝 S503에서는, 패닝 제어부(407)는 필터 연산부(HPF)(402) 차단 주파수를 최대 값으로 설정한다. 다음으로 스텝 S504에서는, 패닝 제어부(407)는 상 안정화 제어를 OFF로 한다(즉, 비동작 상태로). 고속 패닝이 수행되고 있을 때 상 안정화 제어를 OFF로 하는 이유는 고속 패닝을 큰 카메라 요동으로 간주하여 시프트 렌즈(104)를 시프트시킬 경우 시프트 렌즈(104)가 그 시프트 끝에 도달한 시점에 촬영 영상이 크게 움직여서 유저에게 이상한 느낌을 부여하기 때문이다. 그렇게 하는 다른 이유는 고속 패닝은 촬영 영상을 크게 움직이므로 카메라 요동에 기인하는 상 흔들림이 유저에게 이상한 느낌을 거의 부여하지 않기 때문이다. 또한, HPF의 차단 주파수를 최대 값으로 설정한 후에 시프트 렌즈(104)의 시프트를 서서히 정지시킴으로써, 상 안정화 제어의 OFF에 따라 카메라 요동에 기인하는 상 흔들림이 갑자기 나타나서 유저에게 이상한 느낌을 부여하는 것을 회피할 수 있다.In step S503, the panning control unit 407 sets the cutoff frequency of the filter operation unit (HPF) 402 to the maximum value. Next, in step S504, the panning control unit 407 turns off the phase stabilization control (i.e., in the non-operating state). The reason why the image stabilization control is turned off when the high-speed panning is performed is that when the high-speed panning is regarded as a large camera fluctuation and the shift lens 104 is shifted, when the shift lens 104 reaches the shift end, This is because it gives a strange feeling to the user by moving greatly. Another reason for this is that the high-speed panning greatly moves the photographed image, so that the image shaking caused by the camera shaking hardly gives the user a strange feeling. Further, by gradually stopping the shift of the shift lens 104 after setting the cut-off frequency of the HPF to the maximum value, the phase fluctuation caused by the camera shaking suddenly appears due to the OFF of the image stabilization control, Can be avoided.

상 안정화 제어를 OFF로 한 패닝 제어부(407)는, 스텝 S505에 있어서, 제1 적분기(403)의 출력을 현재의 각 변위 데이터로부터 서서히 초기 위치 데이터로 변경한다. 제1 적분기(403)의 출력의 이 서서히 일어나는 변화는 시프트 렌즈(104)를, 시프트 렌즈(104)의 광축이 촬영 렌즈 유닛(101)의 광축과 일치하게 되는 초기 위치로 서서히 되돌린다.In step S505, the panning control unit 407 turns off the phase stabilization control, and gradually changes the output of the first integrator 403 from the current angular displacement data to the initial position data. This gradual change in the output of the first integrator 403 slowly returns the shift lens 104 to its initial position where the optical axis of the shift lens 104 coincides with the optical axis of the photographing lens unit 101. [

저속 패닝이 수행되고 있다고 판정한 패닝 제어부(407)는, 스텝 S506에 있어서, 각속도 데이터에 따라서 필터 연산부(HPF)(402)의 차단 주파수를 설정한다. 이는 저속 패닝 동안에는 카메라 요동에 기인하는 상 흔들림이 두드러지기 쉽고, 이러한 상 흔들림은 보정될 필요가 있기 때문이다. 차단 주파수는 패닝 동안에 촬영 영상의 부자연스러운 변화가 방지되면서 카메라 요동에 기인하는 상 흔들림이 보정 될 수 있도록 설정된다. 그 후, 스텝 S508에서, 패닝 제어부(407)는 상 안정화 제어를 ON으로 한다(즉, 동작 상태로).In step S506, the panning control unit 407 determines that the low-speed panning is being performed. The panning control unit 407 sets the cutoff frequency of the filter operation unit (HPF) 402 in accordance with the angular velocity data. This is because during the low-speed panning, the image shake due to the camera shake is likely to be conspicuous, and this image shake needs to be corrected. The cut-off frequency is set so that the image blur caused by the camera shake can be corrected while the unnatural change of the photographed image is prevented during panning. Thereafter, in step S508, the panning control unit 407 turns on the phase stabilization control (that is, in the operating state).

각속도 평균값이 미리 결정된 값 a 이하라고(즉, 패닝이 행해지고 있지 않다고) 판정해서 스텝 S507로 진행한 패닝 제어부(407)는 필터 연산부(HPF)(402)의 차단 주파수를 통상시의 값으로 설정한다. 그리고, 패닝 제어부(407)는 스텝 S508로 진행하여 상 안정화 제어를 ON으로 한다.The panning control unit 407 determines that the angular velocity average value is equal to or less than the predetermined value a (i.e., the panning is not being performed) and proceeds to step S507, and sets the cutoff frequency of the filter operation unit (HPF) 402 to a normal time value . Then, the panning control unit 407 proceeds to step S508 and turns on the phase stabilization control.

도 7은 패닝 동안의 요 방향에서의 각속도 데이터와 미리 결정된 값 a 및 b 간의 관계를 나타내고 있다. 도 7에서 참조 번호 701은 샘플링된 각속도 데이터를 나타낸다. 각속도 데이터는 카메라(100)의 우측 방향 패닝이 수행되는 경우에는 플러스(+) 값을 가지고 좌측 방향 패닝이 수행되는 경우에는 마이너스(-) 값을 가진다. 도 7에서는, 우측 방향의 고속(급격한) 패닝, 우측 방향의 저속 패닝 및 좌우 방향의 저속 패닝이 검출되고 있다.Fig. 7 shows the relationship between the angular velocity data in the yaw direction during panning and the predetermined values a and b. 7, reference numeral 701 denotes sampled angular velocity data. The angular velocity data has a plus (+) value when the camera 100 is panned in the right direction and a minus (-) value when the camera 100 is panned in the left direction. In FIG. 7, a high-speed (abrupt) panning in the rightward direction, a low-speed panning in the rightward direction, and a low-speed panning in the leftward and rightward directions are detected.

도 7에 도시된 바와 같이, 패닝 동안에는 각속도 데이터가 초기값(0)으로부터 크게 빗나간다. 시프트 렌즈(104)의 목표 위치 데이터를 산출하기 위해 이 각속도 데이터를 적분하는 제1 적분기(403)의 출력은 DC 같은 오프셋 성분으로 인해 매우 크게 증가하여, 시프트 렌즈(104)가 제어 불가능하게 된다. 따라서, 패닝이 검출된 경우에는, HPF의 차단 주파수를 높게 설정함으로써, 오프셋 성분을 차단하는 것이 필요하다.As shown in Fig. 7, during panning, the angular velocity data largely deviates from the initial value (0). The output of the first integrator 403 that integrates this angular velocity data to calculate the target position data of the shift lens 104 is greatly increased due to an offset component such as DC, and the shift lens 104 becomes uncontrollable. Therefore, when panning is detected, it is necessary to block the offset component by setting the cutoff frequency of the HPF to be high.

특히, 고속 패닝이 행해지고 있는 경우에는, 이러한 제어 불가능 상태가 드러날 가능성이 높기 때문에, HPF의 차단 주파수를 높게 설정함으로써 제1 적분기(403)의 출력이 증대하지 않도록 하는 것이 필요하다.In particular, in the case where high-speed panning is performed, it is necessary to prevent the output of the first integrator 403 from increasing by setting the cut-off frequency of the HPF to be high because the possibility of such uncontrollable state is high.

이상과 같은 패닝 제어에 의해, 패닝 중이라도, 유저에게 이상한 느낌을 거의 부여하지 않는 촬영 영상을 생성할 수 있다. 도 3에 있어서, 조작 스위치들(116) 중 모드 선택 스위치의 조작에 의해 팔로우 샷 보조 모드가 설정되면, 카메라 신호 처리 회로(114) 내의 움직임 벡터 검출기(135)가 연속적인 프레임 화상들로부터 피사체 상의 움직임 벡터를 검출한다. 검출된 움직임 벡터는 카메라 마이크로컴퓨터(130) 내의 팔로우 샷 제어부(132)에 입력된다. 이와 동시에, 팔로우 샷 제어부(132)는 각속도 센서(107)(각속도 증폭기(108))로부터의 각속도 신호(제1 움직임 정보)을 수신한다.By the panning control as described above, it is possible to generate a photographed image that gives almost no unusual feeling to the user even during panning. 3, when the follow shot assist mode is set by the operation of the mode selection switch among the operation switches 116, the motion vector detector 135 in the camera signal processing circuit 114 detects the motion of the subject image A motion vector is detected. The detected motion vector is input to the follow shot control unit 132 in the camera microcomputer 130. At the same time, the follow shot control unit 132 receives the angular velocity signal (first motion information) from the angular velocity sensor 107 (angular velocity amplifier 108).

팔로우 샷 중에 움직임 벡터 검출기(135)로부터 출력되는 움직임 벡터에는, 촬영 대상인 주 피사체 상의 움직임 벡터와 주 피사체 상의 뒤에 흐르고 있는 배경 상의 움직임 벡터가 있다. 이들 움직임 벡터 중, 다른 것보다 작은 움직임량을 나타내는 움직임 벡터가 주 피사체 상의 움직임 벡터이다. 주 피사체 상의 이 움직임 벡터(제2 움직임 정보)가 1 프레임 기간 중의 주 피사체 상의 상면 상, 즉 이미지 센서(112) 상에서의 변위(움직임)를 나타낸다.In the motion vector outputted from the motion vector detector 135 during the follow shot, there are a motion vector on the main subject and a motion vector on the background behind the main subject. Among these motion vectors, a motion vector indicating a motion amount smaller than the other is a motion vector on the main subject. This motion vector (second motion information) on the main subject indicates the displacement (movement) on the upper surface of the main subject in one frame period, that is, on the image sensor 112.

한편, 각속도 센서(107)로부터 출력되는 각속도 데이터는 카메라(100)의 패닝 속도(팔로우 샷 속도)에 대응하고 있다. 이 각속도 데이터와, 1 프레임 기간 중의 주 피사체 상의 상면 상에서의 변위량 및 촬영 렌즈 유닛(101)의 초점 거리로부터 산출되는 각속도 사이의 차분을 산출하면, 카메라(100)에 대한 주 피사체의 각속도(즉, 상대 피사체 각속도)가 얻어진다.On the other hand, the angular velocity data outputted from the angular velocity sensor 107 corresponds to the panning speed (following shot speed) of the camera 100. [ When the angular velocity data and the difference between the angular velocity calculated from the focal length of the photographing lens unit 101 and the amount of displacement on the upper surface of the main subject in one frame period are calculated, the angular velocity of the main object with respect to the camera 100 Relative object angular velocity) is obtained.

피사체 각속도 산출부(134)는, 프레임 화상이 생성되는 각 시간에, 즉 프레임 주기에 상대 피사체 각속도를 산출(취득)한다. 피사체 각속도 산출부(134)는 산출된 상대 피사체 각속도와 이 상대 피사체 각속도가 산출된 산출 시간(취득 시간)의 세트에 대한 정보를 팔로우 샷 제어부(132)에 송신한다.The subject angular velocity calculating section 134 calculates (acquires) relative object angular velocities at each time frame image is generated, that is, at a frame period. The subject angular velocity calculating section 134 transmits to the follow shot control section 132 information on the set of the calculated relative object angular velocity and the calculated time (acquisition time) at which the relative subject angular velocity was calculated.

도 6은 팔로우 샷 보조 모드에서의 시프트 렌즈(104)의 시프트 구동 제어를 행하는 시프트 구동 제어 시스템의 구성을 나타내고 있다. 도 6에 있어서, 도 3 및 도 4에 도시한 구성 요소와 공통되는 구성 요소는 도 3 및 도 4와 같은 부호로 표시하고, 그것들의 설명은 생략한다.Fig. 6 shows the configuration of a shift drive control system for performing shift drive control of the shift lens 104 in the follow shot assist mode. In Fig. 6, components common to those shown in Figs. 3 and 4 are denoted by the same reference numerals as those in Figs. 3 and 4, and a description thereof will be omitted.

팔로우 샷 제어부(132)는, 카메라 정보 취득부(601)와, 각속도 데이터 출력부(602)와, 피사체 각속도 설정부(603)와, 제2 가산기(604)와, 제2 적분기(605)와, 설정 변경부(606)를 포함한다.The follow shot control unit 132 includes a camera information acquisition unit 601, an angular velocity data output unit 602, a subject angular velocity setting unit 603, a second adder 604, a second integrator 605, And a setting changing unit 606. [

카메라 정보 취득부(601)는, 조작 스위치들(116)로부터, 모드 선택 스위치의 조작에 의해 팔로우 샷 보조 모드가 설정된 것을 나타내는 팔로우 샷 설정 정보와, 릴리즈 스위치의 조작에 의해 촬영이 지시된 것을 나타내는 릴리즈 정보를 취득한다. 각속도 데이터 출력부(602)는 미리 결정된 시간들에서 각속도 데이터를 샘플링하고 샘플링된 데이터를 피사체 각속도 산출부(134)에 출력한다.The camera information acquiring unit 601 acquires, from the operation switches 116, follow shot setting information indicating that the follow shot assist mode is set by the operation of the mode selection switch and information indicating that shooting has been instructed by the operation of the release switch Get release information. The angular velocity data output unit 602 samples the angular velocity data at predetermined times and outputs the sampled data to the subject angular velocity calculating unit 134. [

피사체 각속도 설정부(603)는 기록용 촬영 전(즉, 정지 화상 기록을 위한 이미지 센서(112)의 노광 전)에 피사체 각속도 산출부(134)가 산출한 상대 피사체 각속도와 그 산출 시간의 세트(복수의 세트)에 대한 정보를 취득한다. 피사체 각속도 설정부(603)는 이 취득된 정보를 각속도 이력으로서 유지(축적)한다. 이하의 설명에서는, 노광은 기록용 촬영을 의미한다. 피사체 각속도 설정부(603)는 그 노광 전의 각속도 이력을 사용하여, 노광 기간 동안의 추정된 각속도(예측 정보)로서 카메라(100)에 대한 상대 피사체 각속도를 산출 등에 의해 취득한다. 노광 전에 피사체 각속도 산출부(134)에 의해 산출된 상대 피사체 각속도는 이하에서 "노광기간전 상대 피사체 각속도"라고 하고, 노광 전의 각속도 이력은 이하에서 "노광기간전 각속도 이력"이라고 하고, 노광 기간 동안의 상대 피사체 각속도는 "노광기간중 상대 피사체 각속도"라고 한다. 피사체 각속도 설정부(603)은 취득한 노광기간중 상대 피사체 각속도를 팔로우 샷 보조에 있어서의 노광 기간 중의 시프트 렌즈(104)의 시프트 구동의 제어에 사용하는 상대 피사체 각속도로서 설정한다.The subject angular velocity setting unit 603 sets the angular speed of the relative object calculated by the subject angular velocity calculating unit 134 and the set time of the calculated time before the photographing (that is, before the exposure of the image sensor 112 for still image recording) And a plurality of sets). The subject angular velocity setting unit 603 holds (accumulates) the acquired information as the angular velocity history. In the following description, exposure refers to photographing for recording. The subject angular velocity setting unit 603 acquires the angular velocity of the relative object with respect to the camera 100 as an estimated angular velocity (prediction information) during the exposure period by using the angular velocity history before exposure. The angular velocity of the relative object calculated by the angular velocity calculation unit 134 before exposure is referred to as " relative object angular velocity before exposure period " and the angular velocity history before exposure is referred to as " angular velocity history before exposure period " Is referred to as " relative object angular velocity during exposure period ". The subject angular speed setting unit 603 sets the relative subject angular speed during the acquired exposure period as the relative subject angular speed to be used for the control of the shift drive of the shift lens 104 during the exposure period in the follow shot assist.

제2 가산기(604)는 각속도 센서(107)로부터의 각속도 데이터와 피사체 각속도 설정부(603)에 의해 설정된 노광기간중 상대 피사체 각속도 간의 차분을 산출한다. 제2 적분기(605)는 노광 기간 중에만 적분 동작을 행한다. 설정 변경부(606)는 카메라 정보 취득부(601)로부터의 팔로우 샷 보조 모드의 취득 통지에 따라서 패닝 제어부(407)의 설정을 변경한다. 조작 스위치들(116) 중 모드 선택 스위치 조작에 의해 팔로우 샷 보조 모드가 설정되면, 카메라 정보 취득부(601)는 팔로우 샷 설정 정보를 설정 변경부(606)에 통지한다. 설정 변경부(606)는, 팔로우 샷 설정 정보의 통지에 따라, 유저에 의한 고속 패닝을 제한하지 않기 위해서 패닝 제어부(407)에 있어서의 미리 결정된 값 a 및 b를 변경한다.The second adder 604 calculates the difference between the angular velocity data from the angular velocity sensor 107 and the relative angular velocity of the subject during the exposure period set by the subject angular velocity setting unit 603. [ The second integrator 605 performs the integration operation only during the exposure period. The setting changing section 606 changes the setting of the panning control section 407 in accordance with the notification of acquisition of the follow shot assist mode from the camera information obtaining section 601. [ When the follow shot assist mode is set by the mode selection switch operation among the operation switches 116, the camera information acquisition unit 601 notifies the setting change unit 606 of the follow shot setting information. The setting changing unit 606 changes the predetermined values a and b in the panning control unit 407 so as not to restrict the high speed panning by the user in accordance with the notification of the follow shot setting information.

또한, 제2 가산기(604)는 각속도 센서(107)로부터의 각속도 데이터와 피사체 각속도 설정부(603)로부터의 상대 피사체 각속도 간의 차를 산출하고, 그 차를 제2 적분기(605)에 송신한다.The second adder 604 calculates the difference between the angular velocity data from the angular velocity sensor 107 and the relative angular velocity of the object from the angular velocity setting unit 603 and transmits the difference to the second integrator 605. [

제2 적분기(605)는 카메라 정보 취득부(601)로부터의 릴리즈 정보에 따라, 노광 기간 중에 상기 차의 적분 동작을 개시하고 그 결과를 출력한다. 제2 적분기(605)는 노광 기간 이외의 기간에 있어서는 시프트 렌즈(104)가 그 초기 위치에 위치하는 값을 출력한다. 노광 기간의 종료 시에 시프트 렌즈(104)가 그 시점에서의 위치로부터 초기 위치까지 단시간에서 시프트해도 문제는 없다. 즉, 노광 기간의 종료 직후에는 이미지 센서(112)로부터의 아날로그 신호가 판독되기 때문에 LCD(120)는 촬영 영상을 표시하지 않으므로, 시프트 렌즈(104)의 시프트에 의한 촬영 영상의 움직임은 문제가 안 된다.The second integrator 605 starts the integral operation of the difference during the exposure period according to the release information from the camera information acquisition unit 601 and outputs the result. The second integrator 605 outputs a value at which the shift lens 104 is located at its initial position in a period other than the exposure period. There is no problem even if the shift lens 104 shifts from the position at that point of time to the initial position at a short time at the end of the exposure period. That is, since the analog signal from the image sensor 112 is read immediately after the end of the exposure period, the LCD 120 does not display the photographed image, so that the movement of the photographed image due to the shift of the shift lens 104 is not a problem do.

제2 적분기(605)의 출력은 제1 가산기(404)에 의해 제1 적분기(403)의 출력에 가산된다. 그 후, 그 가산 결과로부터, 시프트 위치 센서(106)(시프트 위치 A/D 변환기(406))로부터의 시프트 렌즈(104)의 시프트 위치 데이터가 감산되고, 이에 의해, 시프트 렌즈(104)의 구동량 데이터가 산출된다.The output of the second integrator 605 is added to the output of the first integrator 403 by the first adder 404. Thereafter, the shift position data of the shift lens 104 from the shift position sensor 106 (shift position A / D converter 406) is subtracted from the addition result, and thereby the shift lens 104 Amount data is calculated.

팔로우 샷 보조 모드에서, 실제로 유저에 의해 고속 패닝이 행해질 때, 패닝 제어부(407)는 바로 패닝 제어를 개시하고 도 5의 스텝 S504에서 설명한 바와 같이 상 안정화 제어를 OFF로 한다. 패닝 제어를 받는 시프트 렌즈(104)는 피사체 상의 상면 상에서의 변위량을 보정한다; 변위량은 카메라(100)의 패닝의 각속도와 카메라(100)에 대한 주 피사체(이하 간단히 "피사체"라고 함)의 각속도인 상대 피사체 각속도 간의 차분에 대응한다. 이 패닝 제어에 의해, 팔로우 샷 실패의 원인이 되는, 노광 기간 중의 카메라(100)의 패닝 속도와 피사체의 움직임 속도 간의 차분이 시프트 렌즈(104)의 시프트 구동에 의해 상쇄되어, 그 결과, 팔로우 샷이 성공한다.In the follow shot assist mode, when the high-speed panning is actually performed by the user, the panning control unit 407 immediately starts panning control and turns off the phase stabilization control as described in step S504 in Fig. The shift lens 104 subjected to the panning control corrects the amount of displacement on the image surface on the object; The amount of displacement corresponds to the difference between the angular velocity of the panning of the camera 100 and the relative angular velocity of the relative object to the camera 100 (hereinafter simply referred to as " subject "). By this panning control, the difference between the panning speed of the camera 100 and the moving speed of the subject during the exposure period, which causes the follow shot failure, is canceled by the shift drive of the shift lens 104, This will succeed.

피사체 각속도 설정부(603)는 노광 전에 피사체 각속도 산출부(134)로부터 취득되어 축적된 노광기간전 각속도 이력을 이용하여 노광기간중 상대 피사체 각속도를 설정할 때, 릴리즈 타임 래그와 노광 기간을 고려한다.The subject angular velocity setting unit 603 takes into account the release time lag and the exposure period when setting the relative subject angular velocity during the exposure period using the history of angular velocity before the exposure period obtained from the subject angular velocity calculation unit 134 before exposure.

예를 들어, 등속 직선 운동을 하고 있는 피사체에 대해 그 피사체의 진행 방향에 직교하는 방향에 위치하는 카메라(100)를 이용해 팔로우 샷이 수행되는 경우에, 카메라(100)로부터 측정되는 각속도는 연속적으로 변화한다. 이로 인해, 피사체의 측정된 각속도와 노광 기간 중의 그것의 실제 각속도는 서로 같지 않게 된다. 따라서, 이 각속도의 변화(즉, 각가속도)를 고려하지 않으면, 시프트 렌즈(104)의 시프트 구동에 의한 충분한 보정을 달성하는 것은 불가능하게 된다.For example, in the case where a follow shot is performed using a camera 100 positioned in a direction orthogonal to the moving direction of the subject with respect to a subject moving at uniform speed, the angular velocity measured from the camera 100 is continuously Change. As a result, the measured angular velocity of the subject and its actual angular velocity during the exposure period become unequal to each other. Therefore, unless the change in the angular velocity (i.e., the angular acceleration) is taken into account, it becomes impossible to achieve sufficient correction by the shift drive of the shift lens 104. [

도 8은 도 9에 도시하는 바와 같이 등속 직선 운동을 하고 있는 피사체(열차)의 각속도 ω의 변화를 나타내고 있다. 이 각속도 ω는 해당 피사체의 진행 방향에 직교하는 방향에 위치하는 카메라(100)로부터 측정된다. 도 9에 있어서, 피사체는 왼쪽 방향으로 속도 v에서 등속 직선 운동을 하고 있다. 점(이하 "원점"이라고 함) A는 피사체의 등속 직선 운동에 의한 이동 궤적 상에 있어서 카메라(100)로부터의 거리가 최단이 되는 위치를 나타낸다. L은 카메라(100)로부터 원점 A까지의 거리(즉, 카메라(100)로부터 이동 궤적까지의 최단 거리)이다. 또한, θ는 카메라(100)로부터 원점 A를 향하는 방향, 즉 피사체의 진행 방향에 직교하는 방향에 대하여 카메라(100)로부터 피사체로의 방향이 이루는 각도(즉, 카메라(100)의 방향)를 나타낸다. 각도 θ는 이하 "패닝 각도"라고 한다. 패닝 각도 θ는 원점 A보다 더 우측에서는 플러스(+) 값을 가지고 원점 A보다 더 좌측에서는 마이너스(-) 값을 가진다.Fig. 8 shows a change in the angular speed omega of a subject (train) that is moving at a constant velocity linearly as shown in Fig. The angular velocity? Is measured from the camera 100 positioned in a direction orthogonal to the traveling direction of the subject. In Fig. 9, the subject is performing a constant velocity linear motion at the velocity v in the left direction. A point (hereinafter referred to as " origin ") A indicates a position where the distance from the camera 100 is the shortest on the movement locus by the constant velocity linear motion of the subject. L is the distance from the camera 100 to the origin A (i.e., the shortest distance from the camera 100 to the movement trajectory). Represents the angle formed by the direction from the camera 100 to the subject (i.e., the direction of the camera 100) with respect to the direction from the camera 100 toward the origin A, i.e., the direction orthogonal to the moving direction of the subject . The angle? Is hereinafter referred to as "panning angle". The panning angle &thetas; has a plus (+) value on the right side from the origin A and a minus (-) value on the left side from the origin A.

도 8에서, 횡축은 도 9에서의 피사체가 원점 A에 위치할 때 0이 되는 패닝 각도 θ를 나타내고, 중앙의 종축은 피사체의 각속도 ω를 나타낸다. 실선은 각속도 ω의 변화를 나타낸다. 또한, 우측의 종축은 각가속도 α를 나타내고, 파선의 그래프가 각가속도 α의 변화를 나타낸다.In Fig. 8, the abscissa axis represents the panning angle [theta] when the subject in Fig. 9 is located at the origin A, and the ordinate axis at the center represents the angular velocity [omega] of the subject. The solid line shows the change of the angular velocity omega. The vertical axis on the right side represents the angular acceleration α, and the dashed line graph represents the change in the angular acceleration α.

각가속도 α의 변화는 카메라(100)의 위치를 기준으로 한 피사체의 위치에 따른 피사체의 각가속도의 변화이다. 도 8은 카메라(100)로부터 원점 A까지의 최단 거리가 20m이고, 피사체가 60km/h의 속도로 등속 직선 운동을 하고 있을 경우의 각속도 ω와 각가속도 α의 예를 나타내고 있다.The change in angular acceleration α is a change in the angular acceleration of the subject according to the position of the subject with reference to the position of the camera 100. Fig. 8 shows an example of the angular velocity omega and the angular acceleration alpha when the shortest distance from the camera 100 to the origin A is 20 m and the subject is performing a constant velocity linear motion at a speed of 60 km / h.

도 8에 있어서, 피사체가 원점 A를 통과할 때(θ=0°), 각속도 ω가 최대가 되고, 각가속도 α가 0이 된다. 피사체가 θ=+30°의 위치를 통과할 때, 각가속도 α가 최대가 된다. 피사체가 θ=-30°의 위치를 통과할 때, 각가속도 α가 최소가 된다. 패닝 각도 θ와 각속도 ω 및 각가속도 α 간의 관계는, 상술한 최단 거리나 피사체의 속도에 의존하지 않는다.In FIG. 8, when the subject passes the origin A (? = 0), the angular velocity? Becomes maximum and the angular acceleration? Becomes zero. When the subject passes the position of? = + 30 占, the angular acceleration α becomes the maximum. When the subject passes a position of? = -30 占, the angular acceleration α is minimized. The relationship between the panning angle [theta], the angular velocity [omega] and the angular acceleration [alpha] does not depend on the shortest distance described above or the velocity of the object.

도 2는 카메라 마이크로컴퓨터(130)가 팔로우 샷 보조 모드에서 행하는 팔로우 샷 보조 처리를 나타내는 흐름도이다. 카메라 마이크로컴퓨터(130)는 컴퓨터 프로그램인 팔로우 샷 보조 제어 프로그램에 따라 이를 실행한다. 유저는 카메라(100)을 패닝하면서 움직이는 피사체를 쫓는다.2 is a flowchart showing a follow shot assistant process performed by the camera microcomputer 130 in the follow shot assist mode. The camera microcomputer 130 executes this in accordance with a follow shot assist control program which is a computer program. The user follows the moving subject while panning the camera 100.

스텝 S201에 있어서, 카메라 마이크로컴퓨터(130)는 릴리즈 스위치의 절반 누름(half-press) 조작(SW1ON)이 수행되었는지 여부를 판정한다. SW1ON이 수행되는 경우에는, 카메라 마이크로컴퓨터(130)는 스텝 S202으로 진행하여, 시간 계측 카운터를 인크리먼트한 다음 스텝 S204로 진행한다. SW1ON이 수행되지 않은 경우에는, 카메라 마이크로컴퓨터(130)는 스텝 S203으로 진행하여, 시간 계측 카운터를 리셋한 다음 스텝 S201로 복귀한다.In step S201, the camera microcomputer 130 determines whether or not a half-press operation (SW1ON) of the release switch has been performed. When SW1ON is performed, the camera microcomputer 130 advances to step S202 to increment the time measurement counter, and then proceeds to step S204. If SW1ON is not performed, the camera microcomputer 130 proceeds to step S203, resets the time measurement counter, and then returns to step S201.

스텝 S204에서는, 카메라 마이크로컴퓨터(130)는 피사체 각속도 산출부(134)에 의해 노광기간전 상대 피사체 각속도(도 2에서는 간단히 "노광기간전 피사체 각속도"라고 기재함)가 이미 산출되어 있는지의 여부를 확인한다. 노광기간전 상대 피사체 각속도가 이미 산출되어 있는 경우에는, 카메라 마이크로컴퓨터(130)는 스텝 S205로 진행하여, 시간 계측 카운터가 미리 결정된 시간 T에 도달했는지의 여부를 확인한다. 노광기간전 상대 피사체 각속도가 아직 산출되어 있지 않은 경우 또는 노광기간전 상대 피사체 각속도가 이미 산출되어 있어도 시간 계측 카운터가 미리 결정된 시간 T에 도달한 경우(즉, SW1ON이 수행되는 기간이 미리 결정된 시간 T보다 긴 경우)에는, 카메라 마이크로컴퓨터(130)는 스텝 S206으로 진행한다.In step S204, the camera microcomputer 130 determines whether or not the subject angular velocity calculating section 134 has already calculated the relative subject angular velocity (referred to simply as " subject angular velocity before exposure period " in FIG. 2) Check. If the relative object angular velocity has already been calculated before the exposure period, the camera microcomputer 130 proceeds to step S205 to check whether or not the time measurement counter has reached the predetermined time T. [ Even if the angular velocity of the relative object before the exposure period has not yet been calculated or the angular velocity of the relative object has already been calculated before the exposure period, if the time measurement counter reaches the predetermined time T (i.e., the period during which the SW1ON is performed is the predetermined time T , The camera microcomputer 130 proceeds to step S206.

스텝 S206에서는, 카메라 마이크로컴퓨터(130)는 피사체 각속도 산출부(134)가 노광기간전 상대 피사체 각속도를 산출하게 한다. 제1 처리로서의 이 처리는 후술하는 SW2ON에 따라서 개시되는 노광 전에 피사체 각속도 산출부(134)가 상대 피사체 각속도를 산출하게 하고 피사체 각속도 설정부(603)가 노광기간전 각속도 이력을 취득하게 한다.In step S206, the camera microcomputer 130 causes the subject angular velocity calculating unit 134 to calculate the relative subject angular velocity before the exposure period. This processing as the first processing causes the subject angular velocity calculating section 134 to calculate the relative subject angular velocity before the exposure started in accordance with the SW2ON described later and allows the subject angular velocity setting section 603 to acquire the angular velocity history before the exposure period.

시간 계측 카운터가 미리 결정된 시간 T에 도달한 경우에 노광기간전 상대 피사체 각속도를 다시 산출하는 이유는 미리 결정된 시간 T 내에 피사체 속도가 변화할 가능성을 고려하기 위해서이다. 피사체 각속도 산출부(134)가 산출한 노광기간전 상대 피사체 각속도는, 그 산출마다, 팔로우 샷 제어부(132)의 피사체 각속도 설정부(603)에 송신된다. 스텝 S205에서 시간 계측 카운터가 아직 미리 결정된 시간 T에 도달하지 않은 경우에는, 카메라 마이크로컴퓨터(130)는 스텝 S208로 진행한다.The reason why the relative object angular velocity before the exposure period is again calculated when the time measurement counter reaches the predetermined time T is to consider the possibility that the subject speed changes within the predetermined time T. [ The angular velocity of the relative object before the exposure period calculated by the angular velocity calculation unit 134 is transmitted to the angular velocity setting unit 603 of the subject of the follow shot control unit 132 for each calculation. If the time measurement counter has not yet reached the predetermined time T in step S205, the camera microcomputer 130 proceeds to step S208.

스텝 S206의 후의 스텝 S207에서는, 카메라 마이크로컴퓨터(130)는 피사체 각속도 설정부(603)가 노광기간중 상대 피사체 각속도(도 2에서는 간단히 "노광기간중 피사체 각속도"라고 기재함)를 설정하게 한다. 제2 처리로서의 이 처리(각속도 설정 처리)의 상세에 대해서는 후술한다. 그리고, 카메라 마이크로컴퓨터(130)는 스텝 S208로 진행한다.In step S207 after step S206, the camera microcomputer 130 causes the subject angular velocity setting unit 603 to set the relative object angular velocity during the exposure period (simply referred to as "subject angular velocity during exposure period" in FIG. 2). Details of this process (angular velocity setting process) as the second process will be described later. Then, the camera microcomputer 130 proceeds to step S208.

스텝 S208에서는, 카메라 마이크로컴퓨터(130)는 릴리즈 스위치의 전 누름(full-press) 조작(SW2ON)이 수행되었는지의 여부를 판정한다. SW2ON이 수행되지 않은 경우에는, 카메라 마이크로컴퓨터(130)는 스텝 S201로 복귀한다. 한편, SW2ON이 수행된 경우에는, 카메라 마이크로컴퓨터(130)는 스텝 S209로 진행하여, 셔터 제어부(133)을 통해서 셔터(111)가 개방되게 하여 노광을 개시한다.In step S208, the camera microcomputer 130 determines whether or not a full-press operation (SW2ON) of the release switch has been performed. If SW2ON is not performed, the camera microcomputer 130 returns to step S201. On the other hand, if the SW2ON has been performed, the camera microcomputer 130 proceeds to step S209 to open the shutter 111 through the shutter control unit 133 and start exposure.

또한, 스텝 S210에 있어서, 카메라 마이크로컴퓨터(130)는 팔로우 샷 제어부(132)가 스텝 S207에서 설정된 노광기간중 상대 피사체 각속도에 따라 시프트 렌즈(104)의 시프트 구동을 제어하게 하고, 이에 의해, 피사체 상의 상면 상에서의 변위량을 보정하는 팔로우 샷 보조를 행한다. 이 시프트 구동의 제어에서, 도 5의 스텝 S502에서 고속 패닝이 수행되고 있다는 판정이 이루어지는 경우에는, 카메라 마이크로컴퓨터(130)는 상 안정화 제어부(131)를 통해서 카메라 요동에 기인하는 상 흔들림을 보정하기 위해서 시프트 렌즈(104)의 시프트 구동을 행한다.In step S210, the camera microcomputer 130 causes the follow shot control unit 132 to control the shift drive of the shift lens 104 in accordance with the relative object angular velocity during the exposure period set in step S207, A follow shot assist for correcting the amount of displacement on the image plane is performed. If it is determined that high-speed panning is being performed in step S502 of Fig. 5 in the control of the shift drive, the camera microcomputer 130 corrects the image blur caused by camera shaking through the image stabilization control unit 131 The shift lens 104 is shifted.

다음으로, 스텝 S211에서 카메라 마이크로컴퓨터(130)는 노광이 완료했는지의 여부를 판정한다. 노광이 완료한 경우에는, 카메라 마이크로컴퓨터(130)는 스텝 S212로 진행한다. 노광이 완료하지 않은 경우에는, 카메라 마이크로컴퓨터(130)는 스텝 S210으로 복귀된다.Next, in step S211, the camera microcomputer 130 determines whether or not exposure has been completed. When the exposure is completed, the camera microcomputer 130 proceeds to step S212. If the exposure has not been completed, the camera microcomputer 130 returns to step S210.

스텝 S212에서는, 카메라 마이크로컴퓨터(130)는 다시 SW2ON이 수행되었는지 여부를 판정한다. SW2ON이 수행된 경우에는, 카메라 마이크로컴퓨터(130)는 스텝 S209로 복귀하여 다음 노광을 행한다(즉, 연속 샷에서 다음 상의 촬영을 행한다). 한편, SW2ON이 수행되지 않은 경우에는, 카메라 마이크로컴퓨터(130)는 스텝 S201로 복귀한다.In step S212, the camera microcomputer 130 again determines whether SW2ON has been performed. If SW2ON has been performed, the camera microcomputer 130 returns to step S209 to perform the next exposure (i.e., take the next image in the continuous shot). On the other hand, when SW2ON is not performed, the camera microcomputer 130 returns to step S201.

도 1은 피사체 각속도 설정부(603)가 도 2의 스텝 S207에서 행하는 각속도 설정 처리를 나타내는 흐름도이다. 피사체 각속도 설정부(603)(즉, 카메라 마이크로컴퓨터(130))는 팔로우 샷 보조 제어 프로그램의 일부에 따라서 이 처리를 실행한다.1 is a flowchart showing an angular velocity setting process performed by the subject angular velocity setting unit 603 in step S207 in Fig. The subject angular velocity setting unit 603 (i.e., the camera microcomputer 130) executes this process in accordance with a part of the follow shot assist control program.

스텝 S101에 있어서, 카메라 마이크로컴퓨터(130)로부터 노광기간중 상대 피사체 각속도의 설정의 지시를 수신한 피사체 각속도 설정부(603)는 피사체 각속도 설정부(603)가 이전에 피사체 각속도 산출부(134)로부터 취득해서 축적한 노광기간전 각속도 이력을 판독한다.In step S101, the subject angular velocity setting unit 603, which has received an instruction to set the relative object angular velocity in the exposure period from the camera microcomputer 130, determines that the subject angular velocity setting unit 603 has previously detected the subject angular velocity calculating unit 134 And reads the stored angular velocity history before the exposure period.

그리고, 스텝 S102에 있어서, 피사체 각속도 설정부(603)는 판독한 노광기간전 각속도 이력에 포함되는 노광기간전 상대 피사체 각속도와 산출 시간의 복수의 세트로부터, 각속도의 특이점을 검출한다. 도 8에서, 패닝 각도 θ가 0°, +30° 및 -30°인 각속도의 3개의 특이점에서는, 그 각속도의 시간 변화율인 각가속도에서의 3종류의 특정한 변화가 발생된다.Then, in step S102, the subject angular velocity setting unit 603 detects the singularity of the angular velocity from a plurality of sets of the relative object angular velocity and the calculation time before the exposure period included in the read angular velocity history before the exposure period. 8, in the three singular points of the angular velocity with the panning angle [theta] of 0 [deg.], +30 [deg.], And -30 [deg.], Three kinds of specific changes occur in the angular acceleration, which is the time rate of change of the angular velocity.

피사체 각속도 설정부(603)는 노광기간전 각속도 이력에 있어서 인접하는 2개의 산출 시간에서의 상대 피사체 각속도의 차분을 해당 2개의 산출 시간 사이의 시간 간격으로 나눔으로써 각가속도(각가속도 정보)를 산출한다. 피사체 각속도 설정부(603)는 이 각가속도의 산출을 인접하는 2개의 산출 시간의 복수의 세트에 대해 수행하여 각가속도의 시간적 변화들을 산출한다. 그리고, 피사체 각속도 설정부(603)는, 시간적으로 변화하는 각가속도에 있어서, 플러스의 극대값(local maximum value)(즉, θ=+30°에서의 증가로부터 감소로의 변화)과 마이너스의 극대값(즉, θ=-30°에서의 감소로부터 증가로의 변화)을 검출하는 처리를 행한다. 또한, 피사체 각속도 설정부(603)는 각가속도에 있어서, 플러스와 마이너스 간의 변화(즉, θ=0°에서의 플러스와 마이너스 중 한쪽으로부터 다른 쪽으로의 변화)도 검출한다.The subject angular velocity setting unit 603 calculates the angular acceleration (angular acceleration information) by dividing the difference of the relative object angular velocities in the two adjacent calculation times in the angular velocity history before the exposure period by the time interval between the two calculation times. The subject angular velocity setting unit 603 performs the calculation of the angular acceleration on the plurality of sets of two adjacent calculation times to calculate the temporal changes of the angular acceleration. Then, the subject angular velocity setting unit 603 sets the angular velocity of the object to be angularly changed in accordance with the local maximum value (i.e., the change from increase to decrease at? = + 30 degrees) and the minus maximal value , and a change from decrease to increase at? = -30 占). Further, the subject angular velocity setting unit 603 also detects a change between positive and negative angles (i.e., a change from one of plus and minus at? = 0 degrees) to angular acceleration.

스텝 S103에서는, 피사체 각속도 설정부(603)는 상기 특이점 검출 처리에 의해 검출한 특이점의 수가 2개 이상인지의 여부를 판정한다. 즉, 피사체 각속도 설정부(603)는 패닝 각도 θ=0°, +30° 및 -30° 중에서, "0°, +30° 및 -30°", +30° 및 0°" 또는 "0° 및 -30°"에 상당하는 특이점들이 검출되었는지의 여부를 판정한다. 2개 이상의 특이점이 검출된 경우에는, 피사체 각속도 설정부(603)는 스텝 S104로 진행하고, 그렇지 않으면 스텝 S105로 진행한다.In step S103, the subject angular velocity setting unit 603 determines whether or not the number of singular points detected by the above-mentioned singular point detecting process is two or more. That is, the subject angular velocity setting unit 603 sets the angular velocity of the subject 603 at 0 °, + 30 °, and -30 °, + 30 °, and 0 ° or 0 ° And -30 DEG. "If two or more outliers are detected, the subject angular velocity setting unit 603 proceeds to step S104, and if not, proceeds to step S105.

스텝 S104에서는, 피사체 각속도 설정부(603)는 이하의 식(1)을 이용하여 노광기간중 상대 피사체 각속도 ω을 산출(설정)한다.In step S104, the subject angular velocity setting unit 603 calculates (sets) the relative subject angular velocity omega in the exposure period using the following equation (1).

Figure 112016017667570-pat00001
(1)
Figure 112016017667570-pat00001
(One)

식 (1)에 있어서, t30은 피사체가 패닝 각도 θ=+30° 및 -30° 중, 특이점이 검출되는 것에 대응하는 위치로부터 패닝 각도 θ=0°에 대응하는 위치까지 움직이는 데 걸리는 시간 길이를 나타낸다. 또한, tc는 피사체가 패닝 각도 θ=0°에 대응하는 위치를 통과한 시점부터 노광기간전 상대 피사체 각속도들 중 마지막 것이 검출된 시점, 즉, 릴리즈 정보가 입력되는 직전의 시점까지의 시간 길이를 나타낸다. 또한, tlag는 노광기간전 상대 피사체 각속도들 중 마지막 것이 검출된 시점부터 노광 기간의 중간점까지의 시간 길이를 나타낸다. 이하의 설명에서는 노광 기간의 중간점을 노광 기간의 절반 시점에 대응하지만, 노광 기간의 중간점은 노광 기간 안에 있는 한 노광 기간의 절반의 시점이 아니어도 좋다.In the formula (1), t 30 is the subject panning angle θ = + 30 ° and -30 ° in, that it takes to move to a position corresponding to the panning angle θ = 0 ° from the position corresponding to that the singular point detection time length . In addition, t c is the subject panning angle θ = from the time that has passed through the position corresponding to 0 ° before the exposure period relative subject angular velocity of the last it is detected during the time, that is, the time length from the immediately preceding time of release information has been entered . In addition, t lag represents the time length from the point at which the last one of the relative object angular velocities was detected before the exposure period to the middle point of the exposure period. In the following description, the middle point of the exposure period corresponds to half of the exposure period, but the midpoint of the exposure period may not be the half of the exposure period as long as it is within the exposure period.

도 10은 t30이 피사체가 θ=+30°의 위치로부터 θ=0°의 위치까지 움직이는 데 걸리는 시간 길이인 경우의 t30, tc 및 tlag를 나타내고 있다.10 shows t 30 , t c and t lag when t 30 is the length of time required for the subject to move from the position of θ = + 30 ° to the position of θ = 0 °.

식 (1)의 도출에 대해서 도 9에 관련하여 설명한다. 도 9에서, v는 피사체의 이동 속도(이하 "피사체 속도"라고 함)이고, L은 피사체(원점 A)의 이동 궤적과 카메라(100) 간의 최단 거리를 나타내고, t는 피사체가 θ의 위치로부터 원점 A까지 이동하는 데 걸리는 시간 길이를 나타낸다. 피사체의 각속도ω은, θ의 시간 미분이고, 다음과 같이 산출된다.The derivation of equation (1) will be described with reference to Fig. 9, v represents the moving speed of the subject (hereinafter referred to as " subject speed "), L represents the moving trajectory of the subject (origin A) and the shortest distance between the camera 100 and t represents the distance Represents the length of time it takes to move to origin A. The angular speed omega of the subject is a time derivative of?, And is calculated as follows.

Figure 112016017667570-pat00002
Figure 112016017667570-pat00002

여기서 u는 다음과 같이 정의된다:Where u is defined as:

Figure 112016017667570-pat00003
Figure 112016017667570-pat00003

arctan(u)를 u로 미분하고 그 미분 결과를 다시 u로 전개하면 다음과 같은 식이 된다.If arctan (u) is differentiated by u and its derivative result is expanded into u again, the following equation is obtained.

Figure 112016017667570-pat00004
Figure 112016017667570-pat00004

u를 t로 미분하면 다음이 되고:If u is differentiated by t, then:

Figure 112016017667570-pat00005
Figure 112016017667570-pat00005

이를 미분의 연쇄 법칙에 적용하면 다음과 같은 식이 된다.If we apply this to the law of series of differentials,

Figure 112016017667570-pat00006
Figure 112016017667570-pat00006

도 10에서 L을 구하면 다음이 되고,In Fig. 10, when L is obtained,

Figure 112016017667570-pat00007
Figure 112016017667570-pat00007

이 L과 과 t=tc+tlag를 상기 ω의 식에 적용하면 식 (1)이 된다.Applying this L and t = t c + t lag to the expression of ω yields equation (1).

스텝 S105에서는, 피사체 각속도 설정부(603)는 θ=+30°에 대응하는 특이점이 검출되었는지 여부를 판정한다. 이 특이점이 검출된 경우에는, 피사체 각속도 설정부(603)는 스텝 S106로 진행하고, 그렇지 않으면 스텝 S107로 진행한다.In step S105, the subject angular velocity setting unit 603 determines whether or not a singular point corresponding to? = + 30 占 is detected. When this singular point is detected, the subject angular velocity setting unit 603 proceeds to step S106, and if not, proceeds to step S107.

스텝 S106에서는, 피사체 각속도 설정부(603)는 식 (2)를 이용하여 노광기간중 상대 피사체 각속도 ω를 산출한다. 구체적으로, 피사체 각속도 설정부(603)는 먼저 노광기간전 각속도 이력에 있어서 최신의 2개의 산출 시간에서 산출된 노광기간전 상대 피사체 각속도의 차분(ωnn-1)을 구한다. 이어서, 피사체 각속도 설정부(603)는 피사체가 마지막 노광기간전 상대 피사체 각속도가 검출된 시점으로부터 노광 기간의 중간점까지 이동하는 데 걸리는 시간 tlag를 이용하여 상대 피사체 각속도 (ωnn - 1)tlag/tf를 구한다. 그 후, 피사체 각속도 설정부(603)는 산출된 상대 피사체 각속도 (ωnn - 1)tlag/tf에 대하여 1 이하의 가중치 W에 의해 가중치 부여를 행해서 최종 값인 노광기간중 상대 피사체 각속도 ω를 산출(설정)한다.In step S106, the subject angular velocity setting unit 603 calculates the relative subject angular velocity omega in the exposure period using equation (2). More specifically, the subject angular velocity setting unit 603 first calculates the difference between the exposure time before the subject relative angular velocity (ω n n-1) calculated in the latest two time calculation of the exposure period, before the angular velocity history. Then, the object angular velocity setting unit 603 subjects the last exposure time period before the subject relative angular velocity is relative with a lag time t it takes to move to the midpoint of the exposure time period from the detected time of the object angular velocity (ω nn - 1 ) Find t lag / t f . Thereafter, the subject angular velocity setting unit 603 performs weighting based on the weight W of 1 or less with respect to the calculated relative object angular velocity ( n - omega n - 1 ) t lag / t f , The angular speed? Is calculated (set).

Figure 112016017667570-pat00008
(2)
Figure 112016017667570-pat00008
(2)

식 (2)에 있어서, ωn은 2개의 최신의 산출 시간 중 최신의 산출 시간에서 산출된 각속도를 나타내고, ωn -1은 최신의 산출 시간보다 하나 전의 산출 시간에서 산출된 각속도이다. 또한, tf는 ωn에 대응하는 최신의 산출 시간과 ωn -1에 대응하는 이전 산출 시간 사이의 시간 길이를 나타낸다.In equation (2),? N represents the angular velocity calculated at the latest calculation time among the two latest calculation times, and? N- 1 is the angular velocity calculated at the calculation time one before the latest calculation time. In addition, f t represents the length of time between the previous calculation time corresponding to the latest of the calculation time and ω n -1 corresponding to the ω n.

스텝 S107에서는, 피사체 각속도 설정부(603)는 θ=0°에 대응하는 특이점이 검출되었는지 여부를 판정한다. 이 특이점이 검출된 경우에는, 피사체 각속도 설정부(603)는 스텝 S108로 진행하고, 그렇지 않으면 스텝 S111로 진행한다.In step S107, the subject angular velocity setting unit 603 determines whether or not a singular point corresponding to? = 0 degrees is detected. If this singular point is detected, the subject angular velocity setting unit 603 proceeds to step S108, and if not, proceeds to step S111.

스텝 S108에서는, 피사체 각속도 설정부(603)는 노광기간전 각속도 이력이 대칭의 중심점으로서 θ=0°에 대하여, 노광 기간의 중간점에서의 상대 피사체 각속도와 대칭이 되는 상대 피사체 각속도(이하 "대칭 이력 각속도"라고 함)를 포함하는지 여부를 판정한다. 각속도 이력이 대칭 이력 각속도를 포함하는 경우에는, 피사체 각속도 설정부(603)는 스텝 S109로 진행하고, 그렇지 않으면 스텝 S110로 진행한다.In step S108, the subject angular velocity setting unit 603 sets the angular velocity of the object relative to the relative object angular velocity (hereinafter referred to as " symmetric ") angular velocity which is symmetric with the relative object angular velocity at the midpoint of the exposure period, Quot; history angular velocity "). When the angular velocity history includes the symmetric history angular velocity, the subject angular velocity setting unit 603 proceeds to step S109, and if not, proceeds to step S110.

도 11은 대칭 이력 각속도를 나타내고 있다. 각속도 이력이 축적되는 기간은 "이력 축적 기간"이라고 한다. 도 11에 도시된 이력 축적 기간 1은 원점 A보다 더 우측에 있는 tlag+tc보다 짧기 때문에, 각속도 이력은 대칭 이력 각속도를 포함하지 않는다. 한편, 이력 축적 기간 2는 원점 A보다 더 우측에 있는 tlag+tc보다 길기 때문에, 각속도 이력은 대칭 이력 각속도를 포함한다.11 shows the symmetry history angular velocity. The period during which the angular velocity history is accumulated is called the " history accumulation period ". Since the history accumulation period 1 shown in Fig. 11 is shorter than t lag + t c on the right side of the origin A, the angular velocity history does not include the symmetric history angular velocity. On the other hand, since the history accumulation period 2 is longer than t lag + t c , which is further to the right than the origin A, the angular velocity history includes the symmetric history angular velocity.

스텝 S109에서는, 피사체 각속도 설정부(603)는 대칭 이력 각속도를 노광기간중 상대 피사체 각속도 ω로서 설정한다.In step S109, the subject angular velocity setting unit 603 sets the symmetric history angular velocity as the relative subject angular velocity omega in the exposure period.

스텝 S110에서는, 피사체 각속도 설정부(603)는 가중치 W를 1 이상으로 한 식 (2)를 이용하여 노광기간중 상대 피사체 각속도 ω를 설정한다.In step S110, the subject angular velocity setting unit 603 sets the relative subject angular velocity omega in the exposure period using equation (2) in which the weight W is 1 or more.

스텝 S111에서는, 피사체 각속도 설정부(603)는 θ=-30°에 대응하는 특이점이 검출되었는지 여부를 판정한다. 이 특이점이 검출된 경우에는, 피사체 각속도 설정부(603)는 스텝 S112로 진행하고, 그렇지 않으면 스텝 S113으로 진행한다.In step S111, the subject angular velocity setting unit 603 determines whether or not a singular point corresponding to? = -30 占 is detected. If this singular point is detected, the subject angular velocity setting unit 603 proceeds to step S112, and if not, proceeds to step S113.

스텝 S112에서는, 피사체 각속도 설정부(603)는 가중치 W를 1 이하로 한 식 (2)를 이용하여 노광기간중 상대 피사체 각속도 ω를 설정한다.In step S112, the subject angular velocity setting unit 603 sets the relative subject angular velocity omega in the exposure period using equation (2) in which the weight W is 1 or less.

스텝 S113에서는, 피사체 각속도 설정부(603)는 가중치 W를 1로 한 식 (2)를 이용하여 노광기간중 상대 피사체 각속도 ω를 설정한다.In step S113, the subject angular velocity setting unit 603 sets the relative subject angular velocity omega in the exposure period using equation (2) in which the weight W is 1.

본 실시예에 의하면, 카메라(100)로부터 측정하는 피사체의 각속도가 변화하는 경우에도 피사체 상의 흔들림이 저감된 양호한 팔로우 샷을 가능하게 하는 팔로우 샷 보조를 실현할 수 있다.According to the present embodiment, even when the angular speed of the subject measured by the camera 100 changes, it is possible to realize the follow shot assist which enables a good follow shot with reduced blur on the subject.

[실시예 2][Example 2]

이어서, 본 발명의 제2 실시예(실시예 2)인 촬상 장치로서의 카메라에 대해서 설명한다. 본 실시예의 카메라의 구성은 실시예 1의 카메라(100)와 공통이고, 이에 따라 본 실시예의 카메라의 구성 요소들은 실시예 1과 같은 부호로 표시한다.Next, a camera as an image pickup apparatus which is a second embodiment (second embodiment) of the present invention will be described. The configuration of the camera of this embodiment is the same as that of the camera 100 of the first embodiment. Accordingly, the components of the camera of this embodiment are indicated by the same reference numerals as those of the first embodiment.

실시예 1은 피사체 각속도 산출부(134)가 노광기간전 상대 피사체 각속도와 이것의 산출이 이루어진 산출 시간을 팔로우 샷 제어부(132)에 송신하고, 팔로우 샷 제어부(132)가 노광기간전 상대 피사체 각속도와 산출 시간의 세트들을 노광기간전 각속도 이력으로서 축적하는 경우에 대해서 설명하였다. 실시예 2는 피사체 각속도 산출부(134)가 노광기간전 상대 피사체 각속도와 산출 시간 외에, 해당 산출 시간에서의 피사체 거리(거리 정보)와 상대 피사체 각속도의 이전 산출 시간으로부터의 도 9에 나타낸 패닝 각도 θ의 변화량도 팔로우 샷 제어부(132)에 송신하고, 팔로우 샷 제어부(132)가 노광기간전 상대 피사체 각속도, 산출 시간, 피사체 거리 및 패닝 각도 θ의 변화량의 세트들을 노광기간전 각속도 이력으로서 축적하는 경우에 대해서 설명한다. 피사체 거리는, 예를 들어, 촬영 렌즈 유닛(101)에 있어서의 줌렌즈(103) 및 포커스 렌즈(도시하지 않음)의 위치들에 관한 정보로부터 산출될 수 있다. 패닝 각도 θ의 변화량은 각속도 데이터를 적분함으로써 산출될 수 있다. 본 실시예에서는, 피사체 거리를 취득하기 위해서 오토 포커스 동작을 행하고, 그에 의해 움직이는 피사체에 대하여 촬영 렌즈 유닛(101)의 정초점(in-focus) 상태를 유지함으로써 움직이는 피사체의 정확한 피사체 거리를 산출할 수 있다. 또한, 피사체와 카메라의 양쪽에 구비된 GPS로부터 취득된 위치 정보로부터 피사체 거리를 취득할 수도 있다.In the first embodiment, the subject angular velocity calculating section 134 transmits the relative object angular velocity before the exposure period and the calculation time at which the relative angular velocity is calculated to the follow shot control section 132. When the follow shot control section 132 determines that the relative object angular velocity And sets of the calculation time are accumulated as the angular velocity history before the exposure period. In the second embodiment, in addition to the relative object angular velocity and the calculation time before the exposure period, the object angular velocity calculating section 134 calculates the angular velocity of the subject relative to the panning angle (distance information) θ to the follow shot control unit 132, and the follow shot control unit 132 accumulates sets of the relative object angular velocity, the calculation time, the object distance and the variation amount of the panning angle θ before the exposure period as the angular velocity history before the exposure period Will be described. The subject distance can be calculated from the information about the positions of the zoom lens 103 and the focus lens (not shown) in the photographing lens unit 101, for example. The variation amount of the panning angle? Can be calculated by integrating the angular velocity data. In this embodiment, an autofocus operation is performed to acquire the subject distance, whereby an accurate subject distance of a moving subject can be calculated by maintaining the in-focus state of the photographing lens unit 101 with respect to a moving subject have. Further, the subject distance may be obtained from the positional information acquired from the GPS provided on both the subject and the camera.

도 12는 피사체 각속도 설정부(603)가 행하는 각속도 결정 처리(제2 처리)을 나타내는 흐름도이다. 피사체 각속도 설정부(603)(즉, 카메라 마이크로컴퓨터(130))는 실시예 1에서 설명한 팔로우 샷 보조 제어 프로그램의 일부를 따라서 이 처리를 실행한다.12 is a flowchart showing an angular velocity determination process (second process) performed by the subject angular velocity setting unit 603. The subject angular velocity setting unit 603 (that is, the camera microcomputer 130) executes this process according to a part of the follow shot assist control program described in the first embodiment.

스텝 S601에 있어서, 카메라 마이크로컴퓨터(130)로부터 노광기간중 상대 피사체 각속도의 설정을 지시를 수신한 피사체 각속도 설정부(603)는 피사체 각속도 설정부(603)가 이전에 피사체 각속도 산출부(134)로부터 취득해서 축적한 노광기간전 각속도 이력을 판독한다.In step S601, the subject angular velocity setting unit 603 receives the instruction to set the relative object angular velocity in the exposure period from the camera microcomputer 130. The subject angular velocity setting unit 603 previously sets the subject angular velocity calculating unit 134, And reads the stored angular velocity history before the exposure period.

스텝 S602에 있어서, 피사체 각속도 설정부(603)는 판독한 노광기간전 각속도 이력에 포함되는 노광기간전 상대 피사체 각속도와 산출 시간의 복수의 세트로부터, 피사체의 각속도 시간 변화율인 각가속도를 산출하고, 그 산출 결과로부터 피사체가 등속 직선 운동을 하고 있는지 여부를 판정한다. 구체적으로는, 피사체 각속도 설정부(603)는 각가속도의 시간 변화가 도 8에 나타낸 각가속도의 그래프와 동등한지 여부를 판정한다. 피사체가 등속 직선 운동을 하고 있는 경우에는, 피사체 각속도 설정부(603)는 스텝 S603으로 진행한다. 피사체가 등속 직선 운동을 하고 있지 않으면, 피사체 각속도 설정부(603)는 스텝 S604로 진행한다. In step S602, the subject angular velocity setting unit 603 calculates the angular acceleration, which is the rate of change of the angular velocity of the subject, from the plurality of sets of the relative object angular velocity and the calculation time before exposure period included in the read angular velocity history before exposure period, It is determined whether or not the subject is performing a constant velocity linear motion from the calculation result. Specifically, the subject angular velocity setting unit 603 determines whether or not the time variation of the angular acceleration is equal to the graph of the angular acceleration shown in Fig. When the subject is performing a constant velocity linear motion, the subject angular velocity setting unit 603 proceeds to step S603. If the subject is not performing the constant velocity linear motion, the subject angular velocity setting unit 603 proceeds to step S604.

스텝 S603에서는, 피사체 각속도 설정부(603)는 노광기간전 각속도 이력에 있어서 최신의 2개의 산출 시간에서의 피사체 거리와 그 산출 시간들 간의 패닝 각도 θ의 변화량을 사용하여, 이하의 식 (3) 내지 (8)을 이용하여 노광기간중 상대 피사체 각속도 ω를 산출한다.In step S603, the subject angular velocity setting unit 603 sets the following equation (3) using the subject distance in the latest two calculation times in the angular velocity history before the exposure period and the amount of change in the panning angle? (8) is used to calculate the relative object angular speed omega in the exposure period.

Figure 112016017667570-pat00009
(3)
Figure 112016017667570-pat00009
(3)

Figure 112016017667570-pat00010
(4)
Figure 112016017667570-pat00010
(4)

Figure 112016017667570-pat00011
(5)
Figure 112016017667570-pat00011
(5)

Figure 112016017667570-pat00012
(6)
Figure 112016017667570-pat00012
(6)

Figure 112016017667570-pat00013
(7)
Figure 112016017667570-pat00013
(7)

Figure 112016017667570-pat00014
(8)
Figure 112016017667570-pat00014
(8)

식 (3) 내지 (8) 내의 기호에 대해서는 도 13a 내지 13d를 이용하여 설명한다. L과 v는 각각, 도 9에도 나타낸 바와 같이, 본 실시예의 카메라(100')로부터 피사체의 등속 직선 운동의 이동 궤적까지의 최단 거리(즉, 원점 A까지의 거리) 및 피사체의 등속 직선 운동의 속도(피사체 속도)이다. 또한, t는 피사체가 원점 A를 통과한 시점부터 노광 기간의 중간점까지의 시간 길이이고, m은 특정 시점(즉, 노광기간전 상대 피사체 각속도가 산출되는 산출 시간)에서의 피사체 거리를 나타내고, n은 m보다 전의 시점(즉, 노광기간전 상대 피사체 각속도가 산출되는 이전 산출 시간)에서의 피사체 거리를 나타낸다. 또한, Δθ는 피사체 거리가 n인 시점(이하 "제1 시점"이라고 함)으로부터 피사체 거리가 m인 시점(이하 "제2 시점"이라고 함)까지의 패닝 각도 θ의 변화량을 나타낸다. D는 제1 시점부터 제2 시점까지의 이동 거리를 나타내며, tf는 제1 시점부터 제2 시점까지의 시간 길이이다. tlag는 제2 시점부터 노광 기간의 중간점까지의 시간 길이를 나타낸다.The symbols in the expressions (3) to (8) will be described with reference to Figs. 13A to 13D. L and v are the shortest distance from the camera 100 'of this embodiment to the moving locus of the constant velocity linear motion of the subject (i.e., the distance to the origin A) and the constant velocity linear motion of the subject Speed (subject speed). Here, t is the length of time from the point of time when the subject passed the origin A to the middle point of the exposure period, and m is the distance of the subject in a specific time (i.e., the calculation time at which the relative object angular velocity before the exposure period is calculated) n represents the subject distance in the time point before m (i.e., the previous calculation time at which the relative object angular velocity before the exposure period is calculated). Represents the amount of change of the panning angle? From the time point when the object distance is n (hereinafter referred to as "first time point") to the time point when the object distance is m (hereinafter referred to as "second time point"). D represents a movement distance from the first time point to the second time point, and t f is a time length from the first time point to the second time point. t lag represents the length of time from the second time point to the middle point of the exposure period.

도 13a는 식 (7)에 있어서

Figure 112016017667570-pat00015
인 경우를 나타내며, 도 13b는 식 (7)에 있어서
Figure 112016017667570-pat00016
인 경우를 나타낸다.13A is a graph showing the relationship between
Figure 112016017667570-pat00015
13B shows a case where the equation (7)
Figure 112016017667570-pat00016
.

도 13c는 식 (8)에 있어서 m≤n의 경우를 나타내며, 도 13d는 식 (8)에 있어서 m>n인 경우를 나타내고 있다.FIG. 13C shows the case of m? N in the equation (8), and FIG. 13D shows the case of m> n in the equation (8).

식 (4)에 의해 표현된 최단 거리 L은 도 13a 내지 13d의 모두에 있어서, 변 msinθ와 변 D를 가진 삼각형과 변 L과 변 n을 가진 삼각형의 유사 관계(msinθ:D=L:n)로부터 산출될 수 있다. 식 (6)에 의해 표현된 이동 거리 D는 도 13a 내지 13d 모두에 있어서, 변 msinθ와 변 D를 가진 삼각형의 피타고라스 정리에 의해 산출될 수 있다.13A to 13D, the shortest distance L represented by the equation (4) is the similarity relationship (msin?: D = L: n) between the triangle having the sides msin? And D and the triangle having the sides L and n, Lt; / RTI > The moving distance D expressed by the equation (6) can be calculated by the Pythagorean theorem of the triangle having the sides msin &thetas; and the sides D in both Figs. 13A to 13D.

도 13a 내지 13c에서, 이동 거리 D는 다음으로부터 산출될 수 있다:13A to 13C, the travel distance D can be calculated from:

Figure 112016017667570-pat00017
.
Figure 112016017667570-pat00017
.

도 13d에서, 이동 거리 D는 다음으로부터 산출될 수 있다:13D, the travel distance D can be calculated from: < RTI ID = 0.0 >

Figure 112016017667570-pat00018
.
Figure 112016017667570-pat00018
.

스텝 S604에서는, 피사체 각속도 설정부(603)는 실시예 1에서 설명한 식 (2)를 이용하여 가중치 W를 1로 하여 노광기간중 상대 피사체 각속도 ω를 설정한다.In step S604, the subject angular velocity setting unit 603 uses the equation (2) described in the first embodiment to set the weight W to 1 to set the relative object angular velocity omega in the exposure period.

본 실시예는 임의의 2개의 시점의 피사체 거리와 그 사이의 패닝 각도 θ의 변화량 Δθ를 취득함으로써 노광기간중 상대 피사체 각속도 ω를 산출할 수 있다. 이에 따라, 카메라(100')로부터 측정되는 피사체의 각속도가 변화하는 경우에도 피사체 상의 흔들림이 저감된 양호한 팔로우 샷을 가능하게 하는 팔로우 샷 보조를 실현할 수 있다.The present embodiment can calculate the relative object angular speed omega in the exposure period by acquiring the object distance at any two view points and the amount of change DELTA [theta] of the panning angle [theta] therebetween. Thus, even when the angular speed of the subject measured by the camera 100 'changes, it is possible to realize the follow shot assist which enables a good follow shot with reduced blur on the subject.

[실시예 3][Example 3]

이어서, 본 발명의 제3 실시예(실시예 3)인 촬상 장치로서의 카메라에 대해서 설명한다. 본 실시예의 카메라 구성은 실시예 1의 카메라(100)과 공통이고, 이에 따라, 본 실시예의 카메라의 구성 요소들은 실시예 1과 같은 부호로 표시한다.Next, a camera as an image pickup apparatus which is a third embodiment (third embodiment) of the present invention will be described. The camera configuration of the present embodiment is common to the camera 100 of the first embodiment. Accordingly, the components of the camera of the present embodiment are denoted by the same reference numerals as those of the first embodiment.

실시예 1 및 2는 노광기간중 상대 피사체 각속도가 노광 전에 1회만 산출되고, 그 산출 결과에 기초하여 팔로우 샷 보조가 수행되는 경우에 대해서 설명하였다. 이 경우, 노광 기간이 짧으면 문제는 없지만, 노광 기간이 길어지면 그 노광 기간 동안의 상대 피사체 각속도의 변화 때문에 양호한 팔로우 샷 보조를 행하는 것이 불가능하게 된다. 따라서, 본 실시예는 해당 노광 기간 동안의 노광기간중 상대 피사체 각속도를 순차 산출(반복 갱신)하고, 최신의 산출 결과에 따라 시프트 렌즈(104)의 시프트 구동을 제어함으로써, 노광 기간이 긴 경우에도 양호한 팔로우 샷 보조를 수행하는 것을 가능하게 한다.Embodiments 1 and 2 have described the case where the relative object angular velocity during the exposure period is calculated only once before exposure and the follow shot assist is performed based on the calculated result. In this case, there is no problem if the exposure period is short, but if the exposure period becomes long, good follow shot assist can not be performed due to the change of the relative object angular velocity during the exposure period. Therefore, in the present embodiment, the relative object angular speed is continuously calculated (repeatedly updated) during the exposure period during the exposure period and the shift drive of the shift lens 104 is controlled in accordance with the latest calculation result, Thereby making it possible to perform good follow shot assist.

도 14는 본 실시예에 있어서 카메라 마이크로컴퓨터(130)가 팔로우 샷 보조 모드에서 행하는 팔로우 샷 보조 처리를 나타내는 흐름도이다. 카메라 마이크로컴퓨터(130)은 컴퓨터 프로그램인 팔로우 샷 보조 제어 프로그램에 따라 이 처리를 실행한다. 도 14에 있어서, 실시예 1에서 도 2의 흐름도에 있는 것들과 공통인 스텝들은 도 2와 동일한 스텝 번호로 예시되고, 그 설명은 생략된다.14 is a flowchart showing the follow shot auxiliary processing performed by the camera microcomputer 130 in the follow shot assist mode in this embodiment. The camera microcomputer 130 executes this processing in accordance with a follow shot assist control program which is a computer program. In Fig. 14, the steps common to those in the flow chart of Fig. 2 in Embodiment 1 are illustrated by the same step numbers as those in Fig. 2, and a description thereof is omitted.

본 실시예에서는, 카메라 마이크로컴퓨터(130)는, 실시예 1과 마찬가지로, 스텝 S206에 있어서, 피사체 각속도 산출부(134)가 노광기간전 상대 피사체 각속도를 산출하게 한다. 이 처리(제1 처리) 후에, 카메라 마이크로컴퓨터(130)는, 다음 스텝 S701에서, 피사체 각속도 설정부(603)가, 스텝 S206에서 산출된 노광기간전 상대 피사체 각속도와 그 산출 시간을 각속도 이력으로서 유지하게 한다. 실시예 2에 설명된 방법에 의해 노광기간중 상대 피사체 각속도가 산출되는 경우에, 카메라 마이크로컴퓨터(130)는 피사체 각속도 설정부(603)가, 산출된 노광기간전 상대 피사체 각속도와 그 산출 시간 외에, 그 산출 시간에서의 피사체 거리와 노광기간전 상대 피사체 각속도의 이전 산출 시간으로부터의 패닝 각도 θ의 변화량도 유지하게 한다.In this embodiment, similarly to the first embodiment, the camera microcomputer 130 causes the subject angular velocity calculating unit 134 to calculate the relative subject angular velocity before the exposure period in step S206. After this process (first process), in step S701, the camera microcomputer 130 sets the angular speed of the subject relative to the subject before the exposure period calculated in step S206 and the calculation time thereof as the angular velocity history . When the relative object angular velocity in the exposure period is calculated by the method described in the second embodiment, the camera microcomputer 130 determines that the subject angular velocity setting unit 603 has set the angular velocity of the relative object before the calculated exposure period and the calculation time thereof , And also maintains the amount of change of the panning angle? From the subject distance in the calculation time and the previous calculation time of the relative object angular velocity before the exposure period.

스텝 S209에서 노광을 개시한 후에 노광 기간 동안(기록용 촬영 중)의 스텝 S702에 있어서, 카메라 마이크로컴퓨터(130)는 피사체 각속도 설정부(603)가 새로운 노광기간중 상대 피사체 각속도를 산출(설정)하게 한다. 이 처리는 제2 처리에 대응한다. 카메라 마이크로컴퓨터(130)는 스텝 S702의 처리를 스텝 S211에서 노광이 완료할 때까지 반복해서 노광기간중 상대 피사체 각속도를 반복 갱신한다. 그리고, 카메라 마이크로컴퓨터(130)는, 스텝 S210에 있어서, 스텝 S702에서 노광기간중 상대 피사체 각속도가 갱신될 때마다, 팔로우 샷 제어부(132)가 갱신된 노광기간중 상대 피사체 각속도에 따라 시프트 렌즈(104)의 시프트 구동을 제어하게 한다.The camera microcomputer 130 determines whether or not the subject angular velocity setting unit 603 calculates (sets) the relative subject angular velocity in the new exposure period during the exposure period (during recording for recording) after the exposure starts in step S209 . This process corresponds to the second process. The camera microcomputer 130 repeatedly updates the relative object angular speed during the exposure period by repeating the processing of step S702 until the exposure is completed in step S211. Then, in step S210, the camera microcomputer 130 determines whether or not the relative speed of the subject lens is changed in accordance with the relative object angular velocity during the updated exposure period, when the relative object angular velocity in the exposure period is updated in step S702 104).

본 실시예는 노광 기간 중에도 노광기간중 상대 피사체 각속도를 반복해 산출하고, 이 새로이 산출된 노광기간중 상대 피사체 각속도에 기초하여 팔로우 샷 보조를 행한다. 즉, 노광 기간이 미리 결정된 기간보다도 긴 경우에는, 산출하는 노광기간중 상대 피사체 각속도의 수를 증가시킨다(즉, 예측 정보를 산출하는 횟수를 증가시킨다. 이에 따라, 노광 기간이 긴 경우에도 피사체 상의 흔들림이 저감된 양호한 팔로우 샷을 가능하게 하는 팔로우 샷 보조를 행할 수 있다. The present embodiment repeatedly calculates the relative object angular velocity during the exposure period during the exposure period and performs the follow shot assist based on the relative object angular velocity in the newly calculated exposure period. That is, when the exposure period is longer than the predetermined period, the number of relative object angular velocities in the calculated exposure period is increased (i.e., the number of times of calculating the prediction information is increased) It is possible to perform a follow shot assist which enables a good follow shot with reduced shaking.

[실시예 4][Example 4]

이어서, 도 15에 관련하여, 본 발명의 제4 실시예(실시예 4)인 촬상 장치로서 렌즈 교환식 카메라 시스템에 대해서 설명한다. 교환 가능 렌즈(140)는 렌즈 교환식 카메라(141)에 대하여 제거 가능하게 장착된다. 도 15에 있어서, 도 3에 도시한 실시예 1의 카메라(100)와 공통되는 구성 요소들은 실시예 1과 같은 부호로 표시하고, 그것들의 설명은 생략한다.Next, with reference to Fig. 15, a lens interchangeable camera system will be described as an image pickup apparatus that is a fourth embodiment (fourth embodiment) of the present invention. The interchangeable lens 140 is removably mounted to the interchangeable lens 141. [ In Fig. 15, components common to the camera 100 of the first embodiment shown in Fig. 3 are denoted by the same reference numerals as those of the first embodiment, and a description thereof will be omitted.

본 실시예에서는, 카메라(141) 내의 카메라 마이크로컴퓨터(144)와 교환 가능 렌즈(140) 내의 렌즈 마이크로컴퓨터(142)가 실시예 1에 있어서 카메라 마이크로컴퓨터(130)에 의해 수행되는 처리들을 분담해서 행한다. 렌즈 마이크로컴퓨터(142)와 카메라 마이크로컴퓨터(144)는 교환 가능 렌즈(140)에 설치된 마운트 접점부(146)와 카메라(141)에 설치된 마운트 접점부(147)를 통해서 정보 송수신을 위한 시리얼 통신을 행한다. 카메라 마이크로컴퓨터(144)는 셔터 제어부(133)와 피사체 각속도 산출부(134)을 포함한다. 렌즈 마이크로컴퓨터(142)는 상 안정화 제어부(131)와 팔로우 샷 제어부(132')를 포함한다. 팔로우 샷 제어부(132')는 카메라 마이크로컴퓨터(144)(피사체 각속도 산출부(134))로부터 시리얼 통신에 의해 정보를 수신하는 점에서 실시예 1의 팔로우 샷 제어부(132)와 상이하다. 본 실시예에서는, 교환 가능 렌즈(140)에 포함된 렌즈 마이크로컴퓨터(142)가 제어기에 상당하고, 산출기로서의 피사체 각속도 산출부(134)는 카메라 마이크로컴퓨터(144)에 포함된다.In the present embodiment, the camera microcomputer 144 in the camera 141 and the lens microcomputer 142 in the interchangeable lens 140 share the processes performed by the camera microcomputer 130 in the first embodiment I do. The lens microcomputer 142 and the camera microcomputer 144 perform serial communication for information transmission and reception through the mount contact portion 146 provided on the interchangeable lens 140 and the mount contact portion 147 provided on the camera 141 I do. The camera microcomputer 144 includes a shutter control section 133 and a subject angular velocity calculating section 134. [ The lens microcomputer 142 includes a phase stabilization control unit 131 and a follow shot control unit 132 '. The follow shot control unit 132 'is different from the follow shot control unit 132 of the first embodiment in that information is received by serial communication from the camera microcomputer 144 (subject angular velocity calculation unit 134). In this embodiment, the lens microcomputer 142 included in the interchangeable lens 140 corresponds to the controller, and the subject angular velocity calculating unit 134 as the calculator is included in the camera microcomputer 144. [

도 16은 교환 가능 렌즈(140)에 설치된 시프트 구동 제어 시스템의 구성을 나타내고; 이 시스템은 본 실시예에 있어서 팔로우 샷 보조 모드에서의 시프트 렌즈(104)의 시프트 구동 제어를 행한다. 도 16에 있어서, 실시예 1의 도 6에 나타낸 구성 요소와 공통되는 구성 요소들은 실시예 1에서와 같은 부호로 표시하고, 그것들의 설명은 생략한다.16 shows a configuration of a shift drive control system provided in the interchangeable lens 140; This system performs the shift drive control of the shift lens 104 in the follow shot assist mode in this embodiment. In Fig. 16, components common to the components shown in Fig. 6 of the first embodiment are denoted by the same reference numerals as those in the first embodiment, and a description thereof will be omitted.

팔로우 샷 제어부(132')는 카메라 정보 취득부(611)와, 각속도 데이터 출력부(612)와, 피사체 각속도 설정부(613)와, 제2 가산기(604)와, 제2 적분기(605)를 포함한다.The follow shot control unit 132 'includes a camera information acquisition unit 611, an angular velocity data output unit 612, a subject angular velocity setting unit 613, a second adder 604, and a second integrator 605 .

카메라 정보 취득부(611)는, 통신 제어부(614)을 통해 카메라 마이크로컴퓨터(144)로부터 실시예 1에서 설명한 팔로우 샷 설정 정보와 릴리즈 정보를 취득한다. 각속도 데이터 출력부(612)는 미리 정해진 시간들에서 실시예 1에서 설명한 각속도 데이터를 샘플링하고, 샘플링된 각속도 데이터를 통신 제어부(614)를 통해 카메라 마이크로컴퓨터(144) 내의 피사체 각속도 산출부(134)에 송신한다.The camera information acquisition unit 611 acquires the follow shot setting information and the release information described in the first embodiment from the camera microcomputer 144 through the communication control unit 614. [ The angular velocity data output unit 612 samples the angular velocity data described in Embodiment 1 at predetermined times and supplies the sampled angular velocity data to the subject angular velocity calculating unit 134 in the camera microcomputer 144 via the communication control unit 614. [ .

피사체 각속도 설정부(613)는 카메라 마이크로컴퓨터(144) 내의 피사체 각속도 산출부(134)로부터 송신되는 정보를 통신 제어부(614)을 통해 수신한다. 송신되는 정보는 노광 전에 피사체 각속도 산출부(134)가 산출한 노광기간전 상대 피사체 각속도와 그 산출 시간(취득 시간)으로부터 이 정보가 피사체 각속도 설정부(613)에 송신되는 통신 시간까지의 지연 시간의 세트(또는 복수의 세트)를 포함한다. 피사체 각속도 설정부(613)는 수신한 지연 시간을 렌즈 마이크로컴퓨터(142)의 내부 시간으로서의 렌즈 측 산출 시간으로 변환하고, 이 산출 시간과 수신한 노광기간전 상대 피사체 각속도의 복수의 세트를 포함하는 정보를 노광기간전 각속도 이력으로서 유지(축적)한다. 그리고, 피사체 각속도 설정부(613)는 그 노광기간전 각속도 이력을 이용하여 노광기간중 상대 피사체 각속도를 설정(추정)한다.The subject angular velocity setting unit 613 receives information transmitted from the subject angular velocity calculating unit 134 in the camera microcomputer 144 through the communication control unit 614. [ The information to be transmitted includes the relative object angular speed before the exposure period calculated by the subject angular velocity calculating section 134 before the exposure and the delay time from the calculation time (acquisition time) to the communication time at which this information is transmitted to the subject angular velocity setting section 613 (Or a plurality of sets). The object angular velocity setting unit 613 converts the received delay time into a lens side calculation time as the internal time of the lens microcomputer 142 and calculates the angular velocity of the lens microcomputer 142 based on this calculated time and a plurality of sets of relative object angular velocities before the received exposure period (Accumulates) the information as the angular velocity history before the exposure period. Then, the subject angular velocity setting unit 613 sets (estimates) the relative object angular velocity during the exposure period using the angular velocity history before the exposure period.

도 17은 카메라 마이크로컴퓨터(144)가 팔로우 샷 보조 모드에서 행하는 팔로우 샷 보조 처리를 나타내는 흐름도이다. 카메라 마이크로컴퓨터(144)은 컴퓨터 프로그램인 카메라 측 팔로우 샷 보조 제어 프로그램에 따라 이 처리를 실행한다. 도 17에 있어서, 실시예 1에서 도 2의 흐름도의 것들과 공통인 스텝들은 도 2와 동 스텝 번호로 예시하고, 그것들의 설명은 생략한다.17 is a flowchart showing a follow shot assistant process performed by the camera microcomputer 144 in the follow shot assist mode. The camera microcomputer 144 executes this processing in accordance with a camera side follow shot assist control program which is a computer program. 17, the steps common to those of the flow chart of Fig. 2 in the first embodiment are illustrated by the same step numbers as those in Fig. 2, and a description thereof will be omitted.

스텝 S206에서는, 카메라 마이크로컴퓨터(144)는 피사체 각속도 산출부(134)가 노광기간전 상대 피사체 각속도를 산출하게 한다. 이 처리(제1 처리) 후에, 카메라 마이크로컴퓨터(144)는 스텝 S801에 있어서, 산출된 노광기간전 상대 피사체 각속도와 그 산출 시간으로부터 통신 시간인 현시점까지의 지연 시간의 세트들을 포함하는 정보를 렌즈 마이크로컴퓨터(142)에 송신한다.In step S206, the camera microcomputer 144 causes the subject angular velocity calculating unit 134 to calculate the relative subject angular velocity before the exposure period. After this processing (first processing), in step S801, the camera microcomputer 144 sets information including sets of the relative object angular speed before the calculated exposure period and the delay time from the calculated time to the present time, And transmits it to the microcomputer 142.

그 후, 스텝 S208에서 SW2ON이 수행되면, 카메라 마이크로컴퓨터(144)는 스텝 S802에 있어서, 노광 개시의 시간 정보를 렌즈 마이크로컴퓨터(142)에 송신하고 이미지 센서(112)의 노광을 행한다. 또한, 노광이 종료된 후에, 카메라 마이크로컴퓨터(144)는 스텝 S803에서 노광 종료의 시간 정보를 렌즈 마이크로컴퓨터(142)에 송신한다. 이 후, 카메라 마이크로컴퓨터(144)는 스텝 S212로 진행한다.Thereafter, when SW2ON is performed in step S208, the camera microcomputer 144 transmits time information of exposure start to the lens microcomputer 142 and performs exposure of the image sensor 112 in step S802. After the exposure is completed, the camera microcomputer 144 transmits the exposure end time information to the lens microcomputer 142 in step S803. Thereafter, the camera microcomputer 144 proceeds to step S212.

도 18은 렌즈 마이크로컴퓨터(142)가 팔로우 샷 보조 모드에서 행하는 팔로우 샷 보조 처리를 나타내는 흐름도이다. 렌즈 마이크로컴퓨터(142)는 컴퓨터 프로그램인 렌즈 측 팔로우 샷 보조 제어 프로그램에 따라 이 처리를 실행한다.18 is a flowchart showing the follow shot auxiliary processing that the lens microcomputer 142 performs in the follow shot assist mode. The lens microcomputer 142 executes this processing in accordance with the lens side follow shot assist control program which is a computer program.

스텝 S901에 있어서, 렌즈 마이크로컴퓨터(142)는 카메라 마이크로컴퓨터(144)로부터 노광기간전 상대 피사체 각속도와 지연 시간의 세트들을 포함하는 정보를 수신했는지의 여부를 결정한다. 정보를 수신한 경우에는, 렌즈 마이크로컴퓨터(142)는 스텝 S902로 진행하고, 그렇지 않은 경우에는 본 스텝의 처리를 반복한다.In step S901, the lens microcomputer 142 determines whether it has received information from the camera microcomputer 144, including sets of relative object angular velocities and delay times before the exposure period. When the information is received, the lens microcomputer 142 proceeds to step S902, and if not, repeats the processing of this step.

스텝 S902에서는, 렌즈 마이크로컴퓨터(142)는 수신한 노광기간전 상대 피사체 각속도를 유지한다.In step S902, the lens microcomputer 142 maintains the relative object angular speed before the received exposure period.

이어서, 스텝 S903에서는, 렌즈 마이크로컴퓨터(142)는, 스텝 S901에서 수신한 지연 시간으로부터, 노광기간전 상대 피사체 각속도의 렌즈 측 산출 시간을 계산하고, 그 산출 시간과 노광기간전 상대 피사체 각속도의 세트들을 포함하는 정보를 노광기간전 각속도 이력으로서 유지한다.Subsequently, in step S903, the lens microcomputer 142 calculates the lens side calculation time of the relative object angular speed before the exposure period from the delay time received in step S901, and sets the lens side calculation time of the relative object angular speed before the exposure period As an angular velocity history before the exposure period.

스텝 S904에서는, 렌즈 마이크로컴퓨터(142)는 노광 기간의 중간점에서의 상대 피사체 각속도(노광기간중 상대 피사체 각속도)를 설정한다. 렌즈 마이크로컴퓨터(142)는 이 설정을 실시예 1에서 도 1에 도시된 흐름도를 이용하여 설명한 각속도 설정 처리(제2 처리)에 의해 행한다. 또한, 렌즈 마이크로컴퓨터(142)는 상기 설정을 카메라 마이크로컴퓨터(144)로부터 피사체 거리와 패닝 각도 θ의 변화량에 관한 정보를 수신함으로써, 실시예 2에서 도 12를 이용하여 설명한 각속도 결정 처리에 의해 행할 수도 있다.In step S904, the lens microcomputer 142 sets the relative object angular velocity (relative object angular velocity in the exposure period) at the midpoint of the exposure period. The lens microcomputer 142 performs this setting by the angular velocity setting processing (second processing) described in the first embodiment using the flowchart shown in Fig. Further, the lens microcomputer 142 receives the information on the subject distance and the amount of change in the panning angle? From the camera microcomputer 144 by performing the above-described angular velocity determination processing described in Embodiment 2 with reference to Fig. 12 It is possible.

다음으로 스텝 S905에서는, 렌즈 마이크로컴퓨터(142)는 카메라 마이크로컴퓨터(144)로부터 노광 개시 시간 정보를 수신했는지의 여부를 판정한다. 노광 개시 시간 정보를 수신한 경우에는, 렌즈 마이크로컴퓨터(142)는 스텝 S906로 진행하고, 그렇지 않은 경우에는 스텝 S901로 복귀한다.Next, in step S905, the lens microcomputer 142 determines whether or not the exposure start time information has been received from the camera microcomputer 144. [ When the exposure start time information is received, the lens microcomputer 142 proceeds to step S906, and if not, returns to step S901.

스텝 S906에서는, 렌즈 마이크로컴퓨터(142)는 실시예 1에서 도 2에 도시한 스텝 S210과 마찬가지로, 피사체 상의 상면 상에서의 변위량을 보정하도록, 팔로우 샷 제어부(132)를 통해서 시프트 렌즈(104)의 시프트 구동을 제어한다. 이와 동시에, 실시예 1에서 도 5에 도시한 스텝 S502와 마찬가지로 고속 패닝이 수행되고 있다고 판정된 경우에는, 렌즈 마이크로컴퓨터(142)는 상 안정화 제어부(131)를 통해서 카메라 요동에 기인하는 상 흔들림을 보정하기 위해서 시프트 렌즈(104)의 시프트 구동을 제어한다.In step S906, similarly to step S210 shown in Fig. 2 in the first embodiment, the lens microcomputer 142 shifts the shift lens 104 through the follow shot control unit 132 so as to correct the amount of displacement on the image- And controls the driving. At the same time, when it is determined in the first embodiment that high-speed panning is being performed as in step S502 shown in Fig. 5, the lens microcomputer 142 causes the image stabilization control unit 131 to perform image stabilization caused by camera shaking And controls the shift drive of the shift lens 104 to correct the shift.

그리고, 스텝 S907에서는, 렌즈 마이크로컴퓨터(142)는 카메라 마이크로컴퓨터(144)로부터 노광 종료 시간 정보를 수신했는지의 여부를 판정한다. 노광 종료 시간 정보를 수신한 경우에는, 렌즈 마이크로컴퓨터(142)는 스텝 S901로 복귀하고, 그렇지 않은 경우에는 스텝 S906으로 복귀하여 팔로우 샷 보조 처리를 계속한다.In step S907, the lens microcomputer 142 determines whether or not exposure end time information has been received from the camera microcomputer 144. [ When the exposure end time information is received, the lens microcomputer 142 returns to step S901, and if not, returns to step S906 to continue the follow shot assist processing.

본 실시예는 렌즈 교환식 카메라 시스템이 실시예 1 또는 실시예 2에서 설명한 것과 유사한 팔로우 샷 보조를 행하는 것을 가능하게 한다.This embodiment enables a lens interchangeable camera system to perform a follow shot assist similar to that described in the first or second embodiment.

교환 가능 렌즈(140)이 실시예 3에서 설명한 것이라고 유사한 팔로우 샷 보조를 행하게 하는 경우에는, 렌즈 마이크로컴퓨터(142)는 도 18의 스텝 S904에서의 처리를 스텝 S906 전에 행하고, 스텝 S907에서 노광 종료 시간 정보를 수신하지 않은 경우에는 스텝 S904로 복귀한다.The lens microcomputer 142 performs the processing in step S904 in Fig. 18 before step S906 when the interchangeable lens 140 performs the similar follow shot assist as described in the third embodiment, and in step S907, If the information is not received, the process returns to step S904.

본 실시예는 카메라 마이크로컴퓨터(144)가 렌즈 마이크로컴퓨터(142)에 노광기간전 상대 피사체 각속도의 산출 시간으로부터 그것의 통신 시간까지의 지연 시간을 송신하고, 렌즈 마이크로컴퓨터(142)이 해당 지연 시간으로부터 렌즈 측 산출 시간을 계산하는 경우에 대해서 설명하였다. 그러나, 렌즈 마이크로컴퓨터(142)의 내부 시간과 카메라 마이크로컴퓨터(144)의 내부 시간을 미리 일치시키고, 카메라 마이크로컴퓨터(144)가 렌즈 마이크로컴퓨터(142)에 노광기간전 상대 피사체 각속도와 그 산출 시간을 송신하는 구성이 이용될 수도 있다.In this embodiment, the camera microcomputer 144 transmits to the lens microcomputer 142 the delay time from the calculation time of the relative object angular speed before the exposure period to its communication time, and when the lens microcomputer 142 detects the delay time And the lens side calculation time is calculated from the lens side calculation time. However, when the internal time of the lens microcomputer 142 and the internal time of the camera microcomputer 144 match in advance, and the camera microcomputer 144 causes the lens microcomputer 142 to calculate the relative object angular speed before the exposure period and its calculation time May be used.

[실시예 5][Example 5]

이어서, 본 발명의 제5 실시예(실시예 5)인 촬상 장치로서의 렌즈 교환식 카메라 시스템에 대해서 설명한다. 도 15 및 도 16에 나타낸 실시예 4의 교환 가능 렌즈(140) 및 카메라(141)과 공통되는 구성 요소들은 실시예 4와 같은 부호로 표시하고, 그것들의 설명은 생략한다.Next, a lens interchangeable camera system as an image pickup apparatus according to a fifth embodiment (Embodiment 5) of the present invention will be described. Components common to the interchangeable lens 140 and the camera 141 of the fourth embodiment shown in Figs. 15 and 16 are denoted by the same reference numerals as those of the fourth embodiment, and a description thereof will be omitted.

실시예 4는 렌즈 마이크로컴퓨터(142)가 노광기간중 상대 피사체 각속도를 산출하는 경우에 대해서 설명했지만, 실시예 5는 카메라 마이크로컴퓨터(144)가 노광기간중 상대 피사체 각속도를 산출하는 경우에 대해 설명한다. 구체적으로는, 카메라 마이크로컴퓨터(144)는 노광의 개시 시간까지의 타임 래그를 고려한 노광기간중의 상대 피사체 각속도들의 리스트를 작성하고 그 수는 시프트 렌즈(104)의 시프트 구동 시간들의 수에 대응한다. 카메라 마이크로컴퓨터(144)는 해당 리스트를 렌즈 마이크로컴퓨터(142)에 송신한다.Embodiment 4 describes a case where the lens microcomputer 142 calculates the relative object angular velocity during the exposure period. The fifth embodiment describes a case where the camera microcomputer 144 calculates the relative object angular velocity during the exposure period do. Specifically, the camera microcomputer 144 creates a list of the relative object angular velocities during the exposure period considering the time lag up to the start time of exposure, and the number corresponds to the number of shift driving times of the shift lens 104 . The camera microcomputer 144 transmits the list to the lens microcomputer 142. [

도 19는 카메라 마이크로컴퓨터(144)가 이 실시예에서 팔로우 샷 보조 모드에서 행하는 팔로우 샷 보조 처리를 나타내는 흐름도이다. 카메라 마이크로컴퓨터(144)는 컴퓨터 프로그램인 카메라 측 팔로우 샷 보조 제어 프로그램에 따라 이 처리를 실행한다. 도 19에 있어서, 실시예 4에서 도 17의 흐름도에 있는 것들과 공통인 스텝들은 도 17의 것들과 동일한 스텝 번호로 예시하고, 그것의 설명은 생략한다.Fig. 19 is a flowchart showing the follow shot auxiliary processing that the camera microcomputer 144 performs in the follow shot assist mode in this embodiment. The camera microcomputer 144 executes this processing in accordance with a camera side follow shot assist control program which is a computer program. In FIG. 19, the steps common to those in the flowchart of FIG. 17 in Embodiment 4 are illustrated by the same step numbers as those in FIG. 17, and a description thereof is omitted.

스텝 S1001에서는, 카메라 마이크로컴퓨터(144)는 스텝 S206(제1 처리)에 있어서 산출된 노광기간전 상대 피사체 각속도를 유지한다.In step S1001, the camera microcomputer 144 maintains the relative object angular speed before the exposure period calculated in step S206 (first process).

다음으로 스텝 S1002에서는, 카메라 마이크로컴퓨터(144)는 실시예 1에서 도 2를 이용하여 설명한 스텝 S207과 마찬가지의 처리(제2 처리)를 행해서 노광기간중 상대 피사체 각속도를 산출한다. 그러나, 본 스텝에서는, 카메라 마이크로컴퓨터(144)는 시프트 렌즈(104)의 시프트 구동의 미리 결정된 주기적 시간들에 대한 복수의 노광기간중 상대 피사체 각속도를 포함하는 리스트를 작성하고, 이 리스트를 렌즈 마이크로컴퓨터(142)에 송신한다.Next, in step S1002, the camera microcomputer 144 performs a process (second process) similar to that of step S207 described in the first embodiment with reference to Fig. 2 to calculate the relative object angular speed during the exposure period. However, in this step, the camera microcomputer 144 creates a list including relative object angular velocities during a plurality of exposure periods for predetermined periodic times of the shift operation of the shift lens 104, And transmits it to the computer 142.

예를 들어, 노광 기간이 1/100초이고, 시프트 렌즈(104)의 시프트 구동 주기가 1 kHz인 경우에는, 시프트 렌즈(104)는 노광 기간 내에서 10회 구동된다. 이에 따라, 카메라 마이크로컴퓨터(144)는 이 10회의 시프트 구동 시간들 각각에 대한 노광기간중 상대 피사체 각속도를 산출하고 산출한 10개의 노광기간중 상대 피사체 각속도를 포함하는 리스트를 렌즈 마이크로컴퓨터(142)에 송신한다.For example, when the exposure period is 1/100 second and the shift drive period of the shift lens 104 is 1 kHz, the shift lens 104 is driven 10 times within the exposure period. Accordingly, the camera microcomputer 144 calculates the relative object angular velocity during the exposure period for each of the ten shift driving times, and outputs the list including the relative object angular velocity during the calculated ten exposure periods to the lens microcomputer 142. [ .

본 실시예에서는, 카메라 마이크로컴퓨터(144) 내의 피사체 각속도 산출부(134)가 노광기간중 상대 피사체 각속도들을 산출하고 그것들의 리스트를 작성한다. 즉, 카메라 마이크로컴퓨터(144)이 산출기에 상당하고, 렌즈 마이크로컴퓨터(142)은 제어기에 상당한다.In the present embodiment, the subject angular velocity calculating section 134 in the camera microcomputer 144 calculates the relative angular velocities of the subject during the exposure period and creates a list of them. That is, the camera microcomputer 144 corresponds to the calculator, and the lens microcomputer 142 corresponds to the controller.

도 20은 렌즈 마이크로컴퓨터(142)가 팔로우 샷 보조 모드에서 행하는 팔로우 샷 보조 처리를 나타내는 흐름도이다. 렌즈 마이크로컴퓨터(142)은 컴퓨터 프로그램인 팔로우 샷 보조 제어 프로그램에 따라 이 처리를 실행한다. 도 20에 있어서, 실시예 4에서 도 18의 흐름도에 있는 것들과 공통인 스텝들은 도 18과 동일한 스텝 번호로 예시되고, 그들에 대한 설명을 생략한다.20 is a flowchart showing a follow shot assistant process performed by the lens microcomputer 142 in the follow shot assist mode. The lens microcomputer 142 executes this processing in accordance with a follow shot assist control program which is a computer program. In Fig. 20, the steps common to those in the flowchart of Fig. 18 in Embodiment 4 are illustrated by the same step numbers as those in Fig. 18, and a description thereof will be omitted.

스텝 S1101에서는, 렌즈 마이크로컴퓨터(142)는 카메라 마이크로컴퓨터(144)로부터 노광기간중 상대 피사체 각속도의 리스트를 수신했는지의 여부를 판정한다. 리스트를 수신한 경우에는, 렌즈 마이크로컴퓨터(142)는 스텝 S905로 진행하고, 그렇지 않은 경우에는 본 스텝의 처리를 반복한다.In step S1101, the lens microcomputer 142 determines whether or not the camera microcomputer 144 has received the list of relative object angular velocities during the exposure period. When the list is received, the lens microcomputer 142 proceeds to step S905, and if not, repeats the processing of this step.

스텝 S905에서 카메라 마이크로컴퓨터(144)로부터 노광 개시 시간 정보를 수신한 렌즈 마이크로컴퓨터(142)는 스텝 S1102에 있어서, 스텝 S1101에서 수신한 리스트로부터, 시프트 렌즈(104)의 각각의 시프트 구동 시간들에 대한 노광기간중 상대 피사체 각속도를 판독한다. 그리고, 렌즈 마이크로컴퓨터(142)는 가장 이른 시프트 구동 시간으로부터 순서대로, 각각의 시프트 구동 시간들에 대해 사용될 노광기간중 상대 피사체 각속도들을 설정한다.The lens microcomputer 142 that has received the exposure start time information from the camera microcomputer 144 in step S905 determines in step S1102 the shift start time of each shift lens 104 from the list received in step S1101 The relative object angular velocity during the exposure period is read. Then, the lens microcomputer 142 sets the relative object angular velocities in the exposure periods to be used for the respective shift driving times, in order from the earliest shift driving time.

다음으로 스텝 S1103에서는, 렌즈 마이크로컴퓨터(142)는 팔로우 샷 제어부(132')가 스텝 S1102에서 결정된 노광기간중 상대 피사체 각속도에 따라 시프트 렌즈(104)의 시프트 구동을 제어하게 한다. 시프트 구동의 제어에서, 렌즈 마이크로컴퓨터(142)는 스텝 S1102에서 설정된 순서로, 시프트 렌즈(104)의 각각의 시프트 구동 시간들에서 사용되는 노광기간중 상대 피사체 각속도를 변경한다. 즉, 노광기간중 상대 피사체 각속도가 순차 갱신된다.Next, in step S1103, the lens microcomputer 142 causes the follow shot control unit 132 'to control the shift drive of the shift lens 104 in accordance with the relative object angular speed during the exposure period determined in step S1102. In the control of the shift drive, the lens microcomputer 142 changes the relative object angular speed during the exposure period used in each of the shift drive times of the shift lens 104 in the order set in step S1102. That is, the relative object angular speed during the exposure period is sequentially updated.

또한, 시프트 구동의 제어에서, 실시예 1에서 도 5에 도시한 스텝 S502와 마찬가지로 고속 패닝이 수행되고 있다고 판정된 경우에는, 렌즈 마이크로컴퓨터(142)는 상 안정화 제어부(131)을 통해서 카메라 요동으로 인한 상 흔들림을 보정하기 위해서 시프트 렌즈(104)을 시프트 구동을 행한다. 렌즈 마이크로컴퓨터(142)는 이상의 처리들을 노광의 종료(스텝 S907)까지 반복한다. 이에 의해, 이 실시예는 노광 중의 피사체 각속도의 변화에 대응할 수 있다.If it is determined that high-speed panning is being performed in the same manner as in step S502 shown in Fig. 5 in the first embodiment under the control of the shift drive, the lens microcomputer 142 drives the camera through the image stabilization control unit 131 The shift lens 104 is shifted to correct the image shake caused by the shift. The lens microcomputer 142 repeats the above processes until the end of exposure (step S907). Thus, this embodiment can cope with a change in the subject angular velocity during exposure.

또한, 본 실시예에서는 카메라와 렌즈 마이크로컴퓨터들(144 및 142)이 노광기간중 피사체 각속도들의 리스트를 데이터로서 송수신하지만, 노광 개시 시의 상대 피사체 각속도와 상대 피사체 각가속도를 송수신하는 것도 노광기간중 상대 피사체 각속도의 변화에 대응할 수 있다. 도 21은 본 실시예의 변형예로서, 카메라 마이크로컴퓨터(144)이 팔로우 샷 보조 모드에서 행하는 팔로우 샷 보조 처리를 나타내는 흐름도이다. 도 21에 있어서, 도 19의 흐름도의 것들과 공통인 스텝들은 도 19와 동일한 스텝 번호로 예시되고, 그것들의 설명은 생략한다.In the present embodiment, the camera and the lens microcomputers 144 and 142 transmit and receive the list of the angular velocities of the object during the exposure period as data, but the transmission and reception of the relative object angular velocity and the relative object angular velocity at the start of exposure, It is possible to cope with a change in the subject angular velocity. FIG. 21 is a flowchart showing a follow shot auxiliary process performed by the camera microcomputer 144 in the follow shot assist mode, which is a modification of the present embodiment. In Fig. 21, the steps common to those of the flowchart of Fig. 19 are illustrated by the same step numbers as those in Fig. 19, and a description thereof is omitted.

스텝 S206에서 산출한 노광기간전 상대 피사체 각속도를 스텝 S1001에서 유지한 카메라 마이크로컴퓨터(144)는 스텝 S1202에 있어서, 도 19의 스텝 S1002와 마찬가지로 복수의 노광기간중 상대 피사체 각속도를 산출한다. 그리고, 카메라 마이크로컴퓨터(144)는 해당 복수의 노광기간중 상대 피사체 각속도를 이용하여 노광 개시 시의 상대 피사체 각속도와 카메라에 대한 피사체의 움직임의 예측 정보로서의 추정 가속도인 상대 피사체 각가속도를 산출한다. 카메라 마이크로컴퓨터(144)는 노광 개시 시의 상대 피사체 각속도와 상대 피사체 각가속도를 포함하는 정보를 카메라 마이크로컴퓨터(144)에 송신한다. 그 후, 카메라 마이크로컴퓨터(144)는 스텝 S208과 이후의 스텝으로 진행한다.In step S1202, the camera microcomputer 144, which has stored the angular speed of the relative object in the exposure period calculated in step S206 in step S1001, calculates the relative object angular speed in a plurality of exposure periods in the same manner as in step S1002 in Fig. Then, the camera microcomputer 144 calculates the relative object angular velocity, which is the estimated acceleration, as the predicted information of the relative object angular velocity at the start of exposure and the motion of the object with respect to the camera, using the relative object angular velocity during the plurality of exposure periods. The camera microcomputer 144 transmits information including the relative object angular velocity and the relative object angular acceleration at the start of exposure to the camera microcomputer 144. [ Thereafter, the camera microcomputer 144 proceeds to step S208 and subsequent steps.

도 22는 본 변형예에 있어서 렌즈 마이크로컴퓨터(142)가 팔로우 샷 보조 모드에서 행하는 팔로우 샷 보조 처리를 나타내는 흐름도이다. 도 22에 있어서, 도 20의 흐름도의 것들과 공통인 스텝들은 도 20과 동일한 스텝 번호로 예시되고, 그것들의 설명은 생략한다.22 is a flowchart showing a follow shot auxiliary processing that the lens microcomputer 142 performs in the follow shot assist mode in this modification. In Fig. 22, steps common to those of the flowchart of Fig. 20 are illustrated by the same step numbers as those in Fig. 20, and a description thereof will be omitted.

스텝 S1301에서는, 렌즈 마이크로컴퓨터(142)는 카메라 마이크로컴퓨터(144)로부터 노광 개시 시의 상대 피사체 각속도와 상대 피사체 각가속도를 포함하는 정보를 수신했는지의 여부를 판정한다. 그 정보를 수신한 경우에는, 렌즈 마이크로컴퓨터(142)는 스텝 S905로 진행하고, 그렇지 않은 경우에는 본 스텝의 처리를 반복한다.In step S1301, the lens microcomputer 142 determines whether or not information including the relative object angular velocity and relative object angular acceleration at the start of exposure is received from the camera microcomputer 144. [ When the information is received, the lens microcomputer 142 proceeds to step S905, and if not, repeats the processing of this step.

스텝 S905에서 노광이 개시되었다고 판정한 렌즈 마이크로컴퓨터(142)는 스텝 S1302로 진행한다. 스텝 S1302에서는, 카메라 마이크로컴퓨터(144)는 수신한 노광 개시 시의 상대 피사체 각속도와, 수신한 상대 피사체 각가속도 및 노광 개시 시간 이후의 경과 시간을 사용하여, 시프트 렌즈(104)의 시프트 구동의 각각의 미리 결정된 주기적 시간들(보정 시간들)에 대한 노광기간중 상대 피사체 각속도를 설정한다.The lens microcomputer 142 determines that the exposure has started in step S905, and proceeds to step S1302. In step S1302, the camera microcomputer 144 determines whether or not each of the shift motions of the shift lens 104 is performed using the relative object angular velocity at the start of exposure, the received relative object angular acceleration and the elapsed time after the exposure start time, The relative object angular speed during the exposure period for predetermined periodic times (correction times) is set.

그리고, 스텝 S1103에서는, 렌즈 마이크로컴퓨터(142)는, 팔로우 샷 제어부(132')가, 스텝 S1302에서 설정된 각각의 보정 시간들에 대한 상대 피사체 각속도에 따라, 각각의 보정 시간들에서, 시프트 렌즈(104)의 시프트 구동을 제어하게 한다. 이렇게 해서, 노광기간중 상대 피사체 각속도가 순차 갱신된다.Then, in step S1103, the lens microcomputer 142 determines whether or not the follow shot control section 132 ', in accordance with the relative object angular velocity for each of the correction times set in step S1302, 104). Thus, the relative object angular velocity during the exposure period is updated in sequence.

시프트 구동의 이 제어에서, 실시예 1에서 도 5에 도시한 스텝 S502와 마찬가지로 고속 패닝이 수행되고 있다고 판정된 경우에는, 렌즈 마이크로컴퓨터(142)는 상 안정화 제어부(131)를 통해서 카메라 요동에 기인하는 상 흔들림을 보정하기 위해서 시프트 렌즈(104)의 시프트 구동을 행한다. 렌즈 마이크로컴퓨터(142)는 이상의 처리를 노광 종료(스텝 S907)까지 반복한다. 이에 의해, 이 실시예는 노광 중의 피사체 각속도의 변화에 대응할 수 있다.In this control of the shift drive, if it is determined that high-speed panning is being performed as in step S502 shown in Fig. 5 in the first embodiment, the lens microcomputer 142 causes the image stabilization control unit 131 The shift lens 104 is shifted to correct the image shake. The lens microcomputer 142 repeats the above processing until the end of exposure (step S907). Thus, this embodiment can cope with a change in the subject angular velocity during exposure.

본 실시예는 렌즈 교환식 카메라 시스템이 노광 기간 중에 상대 피사체 각속도가 변화해도 피사체 상의 흔들림이 저감된 양호한 팔로우 샷 보조를 수행하는 것을 가능하게 한다.This embodiment makes it possible for the interchangeable lens camera system to perform favorable follow shot assist with reduced fluctuation on the subject even when the relative object angular velocity changes during the exposure period.

상술한 각 실시예는 팔로우 샷 보조 및 카메라 요동에 대한 상 흔들림의 보정을 촬영 렌즈 유닛(101)의 일부를 구성하는 시프트 렌즈(104)를 시프트시킴으로써 행하는 경우에 대해서 설명하였지만, 팔로우 샷 보조 및 상 흔들림 보정은 촬영 렌즈 유닛의 전체를 시프트시키는 것에 의해 또는 이미지 센서(112)를 광학 소자(시프트 가능 소자)로서 시프트시키는 것에 의해 행할 수도 있다.Although the above embodiments have been described with respect to the case where the follow-shot assist and the correction of the image shake with respect to the camera shake are performed by shifting the shift lens 104 constituting a part of the photographing lens unit 101, The shake correction may be performed by shifting the entire imaging lens unit or by shifting the image sensor 112 as an optical element (shiftable element).

다른 실시예들Other Embodiments

본 발명의 실시예들은 또한 상술한 본 발명의 실시예들 중 하나 이상의 실시예의 기능들을 수행하기 위해 저장 매체(예를 들어, 비일시적 컴퓨터 판독 가능 저장 매체)에 기록된 컴퓨터 실행가능 명령어를 판독하여 실행하는 시스템 또는 장치의 컴퓨터에 의해, 그리고 예를 들어 상술한 실시예(들) 중 하나 이상의 실시예의 기능들을 수행하기 위해 저장 매체로부터 컴퓨터 실행 가능 명령어를 판독하여 실행하는 것에 의해, 상기 시스템 또는 장치의 컴퓨터에 의해 수행되는 방법에 의해 구현될 수도 있다. 컴퓨터는 중앙 처리 유닛(CPU), 마이크로 처리 유닛(MPU), 또는 기타 회로 중 하나 이상을 포함할 수 있고, 개별 컴퓨터들 또는 개별 컴퓨터 프로세서들의 네트워크를 포함할 수 있다. 컴퓨터 실행가능 명령어는 예를 들어, 네트워크 또는 저장 매체로부터 컴퓨터에 제공될 수 있다. 저장 매체는 예를 들어, 하드 디스크, 랜덤 액세스 메모리(RAM), 판독 전용 메모리(ROM), 분산형 컴퓨팅 시스템의 저장 장치, 광학 디스크(예를 들어, 콤팩트 디스크(CD), 디지털 다기능 디스크(DVD), 또는 블루레이 디스크(BD™)), 플래시 메모리 디바이스, 메모리 카드 등 중에서 하나 이상을 포함할 수 있다.Embodiments of the present invention may also be embodied by reading computer-executable instructions recorded on a storage medium (e.g., non-volatile computer-readable storage medium) to perform the functions of one or more of the embodiments of the invention described above By reading and executing computer-executable instructions from a storage medium in order to perform the functions of, for example, one or more embodiments of the above-described embodiment (s), the system or apparatus May be implemented by a method performed by a computer of the user. The computer may include one or more of a central processing unit (CPU), a micro processing unit (MPU), or other circuitry and may comprise a network of individual computers or individual computer processors. The computer-executable instructions may be provided to the computer, for example, from a network or storage medium. The storage medium may be, for example, a hard disk, a random access memory (RAM), a read only memory (ROM), a storage device of a distributed computing system, an optical disk (e.g., a compact disk (CD), a digital versatile disk ), Or a Blu-ray Disc (BD ™)), a flash memory device, a memory card, and the like.

본 발명을 예시적인 실시예들에 관련하여 설명하였지만, 본 발명은 개시된 예시적인 실시예들로 제한되지 않는다는 것을 이해해야 한다. 이하의 청구항들의 범위는 이러한 모든 변형 및 동등한 구조 및 기능을 포함하도록 최광의로 해석되어야 한다.While the present invention has been described with reference to exemplary embodiments, it is to be understood that the invention is not limited to the disclosed exemplary embodiments. The scope of the following claims is to be accorded the broadest interpretation so as to encompass all such modifications and equivalent structures and functions.

Claims (37)

피사체의 촬상을 수행하도록 구성된 촬상 장치로서,
상기 촬상 장치의 움직임이 주 피사체의 움직임을 추종할 때, (a) 상기 촬상 장치의 움직임을 검출하는 제1 검출기로부터 얻어지는 제1 움직임 정보 및 (b) 상기 주 피사체의 화상의 움직임을 검출하는 제2 검출기로부터 얻어지는 제2 움직임 정보를 이용하여, 광학 소자를 제어하도록 구성된 제어부; 및
상기 주 피사체의 촬상을 위한 노광 기간 전의 상이한 시간들에서 검출된 상기 제2 움직임 정보를 이용하여, 상기 노광 기간 중에 상기 주 피사체의 상기 화상의 속도에 대한 예측 정보를 산출하도록 구성된 산출부를 포함하고,
상기 예측 정보는, 상기 노광 기간 전의 상기 주 피사체의 상기 화상의 속도로부터 산출된 상기 속도의 변화를 포함하고,
상기 제어부는, 상기 주 피사체가 촬영 화상 내에 여전히 있고 배경이 흐르는 촬영 화상을 획득하기 위해 팔로우 샷 모드에서 상기 노광 기간 중에 상기 광학 소자를 제어하기 위해 상기 예측 정보를 이용하도록 구성되고,
상기 제어부는, 상기 팔로우 샷 모드가 아닌 촬영 모드에서는 상기 노광 기간 중에 상기 광학 소자를 제어하기 위해 상기 예측 정보를 이용하지 않도록 구성되는,
촬상 장치.
An imaging device configured to perform imaging of a subject,
(A) first motion information obtained from a first detector for detecting a motion of the imaging device, and (b) motion information for detecting motion of an image of the main object, A controller configured to control the optical element using second motion information obtained from the second detector; And
And a calculation unit configured to calculate prediction information on the speed of the image of the main subject during the exposure period using the second motion information detected at different times before the exposure period for imaging the main subject,
Wherein the prediction information includes a change in the speed calculated from a speed of the image of the main subject before the exposure period,
Wherein the control unit is configured to use the prediction information to control the optical element during the exposure period in the follow shot mode to obtain a shot image in which the main subject is still in the shot image and the background is flowing,
Wherein the control unit is configured not to use the prediction information to control the optical element during the exposure period in an imaging mode other than the follow shot mode,
.
제1항에 있어서,
상기 산출부는,
상기 노광 기간 전의 상기 주 피사체의 상기 화상의 각속도 정보;
상기 노광 기간 전의 상기 주 피사체의 상기 화상의 각가속도 정보;
상기 각속도 정보와 상기 각가속도 정보가 산출되는 산출 시간; 및
상기 노광 기간이 개시되는 개시 시간
을 이용하여 상기 예측 정보를 산출하도록 구성되는,
촬상 장치.
The method according to claim 1,
The calculating unit calculates,
Angular velocity information of the image of the main subject before the exposure period;
Angle acceleration information of the image of the main subject before the exposure period;
A calculation time at which the angular velocity information and the angular velocity information are calculated; And
The start time at which the exposure period starts
To calculate the prediction information,
.
제1항에 있어서,
상기 산출부는, 상기 촬상 장치의 위치에 대한 상기 주 피사체의 위치에 따라 각가속도의 변화를 이용하여 상기 예측 정보를 산출하도록 구성되는,
촬상 장치.
The method according to claim 1,
Wherein the calculating unit is configured to calculate the prediction information by using a change in angular acceleration depending on a position of the main subject with respect to a position of the imaging device,
.
제3항에 있어서,
상기 산출부는, 상기 촬상 장치로부터 상기 주 피사체까지의 거리에 기초한 거리 정보를 이용하여, 상기 촬상 장치의 위치에 대한 상기 주 피사체의 상기 위치를 산출하도록 구성되는,
촬상 장치.
The method of claim 3,
Wherein the calculating unit is configured to calculate the position of the main object with respect to the position of the image pickup apparatus using distance information based on a distance from the image pickup apparatus to the main object,
.
제1항에 있어서,
상기 산출부는, 상기 노광 기간이 미리 결정된 시간보다 긴 경우 상기 광학 소자를 제어하는 데 이용되는 상기 예측 정보를 산출하는 횟수를 증가시키도록 구성되는,
촬상 장치.
The method according to claim 1,
Wherein the calculating unit is configured to increase the number of times of calculating the prediction information used to control the optical element when the exposure period is longer than a predetermined time,
.
제1항에 있어서,
상기 제어부는, 상기 노광 기간 중에 상기 광학 소자를 제어하기 위해 상기 노광 기간 중에 얻어지는 (a) 상기 예측 정보와 (b) 상기 제1 움직임 정보를 이용하도록 구성되는,
촬상 장치.
The method according to claim 1,
Wherein the control unit is configured to use (a) the prediction information and (b) the first motion information obtained during the exposure period to control the optical element during the exposure period,
.
피사체의 촬상을 수행하도록 구성된 촬상 장치의 제어 방법으로서,
상기 촬상 장치의 움직임이 주 피사체의 움직임을 추종할 때, (a) 상기 촬상 장치의 움직임을 검출하는 제1 검출기로부터 얻어지는 제1 움직임 정보 및 (b) 상기 주 피사체의 화상의 움직임을 검출하는 제2 검출기로부터 얻어지는 제2 움직임 정보를 이용하여, 광학 소자를 제어하는 단계; 및
상기 주 피사체의 촬상을 위한 노광 기간 전의 상이한 시간들에서 검출된 상기 제2 움직임 정보를 이용하여, 상기 노광 기간 중에 상기 주 피사체의 상기 화상의 속도에 대한 예측 정보를 산출하는 단계를 포함하고,
상기 예측 정보는, 상기 노광 기간 전의 상기 주 피사체의 상기 화상의 속도로부터 산출된 상기 속도의 변화를 포함하고,
상기 방법은, 상기 주 피사체가 촬영 화상 내에 여전히 있고 배경이 흐르는 촬영 화상을 획득하기 위해 팔로우 샷 모드에서 상기 예측 정보를 이용하여, 상기 노광 기간 중에 상기 광학 소자를 제어하고,
상기 방법은, 상기 팔로우 샷 모드가 아닌 촬영 모드에서는 상기 예측 정보를 이용하지 않고, 상기 노광 기간 중에 상기 광학 소자를 제어하는,
촬상 장치의 제어 방법.
A control method for an imaging apparatus configured to perform imaging of a subject,
(A) first motion information obtained from a first detector for detecting a motion of the imaging device, and (b) motion information for detecting motion of an image of the main object, Controlling the optical element using second motion information obtained from the second detector; And
And calculating prediction information on the speed of the image of the main subject during the exposure period using the second motion information detected at different times before the exposure period for imaging the main subject,
Wherein the prediction information includes a change in the speed calculated from a speed of the image of the main subject before the exposure period,
The method includes the steps of controlling the optical element during the exposure period using the prediction information in the follow shot mode to obtain a shot image in which the main subject is still in the shot image and the background is flowing,
The method includes the steps of controlling the optical element during the exposure period without using the prediction information in an imaging mode other than the follow shot mode,
A control method of an image pickup apparatus.
제7항에 있어서,
상기 방법은 상기 노광 기간 중에 얻어지는 (a) 상기 예측 정보와 (b) 상기 제1 움직임 정보를 이용하여, 상기 노광 기간 중에 상기 광학 소자를 제어하는,
촬상 장치의 제어 방법.
8. The method of claim 7,
The method includes the steps of (a) using the prediction information obtained during the exposure period and (b) using the first motion information to control the optical element during the exposure period,
A control method of an image pickup apparatus.
피사체의 촬상을 수행하도록 구성된 촬상 장치의 컴퓨터를 작동하는 컴퓨터 프로그램인 제어 프로그램을 저장하는 비일시적 컴퓨터 판독가능 기록 매체이며,
상기 제어 프로그램은 상기 컴퓨터로 하여금,
상기 촬상 장치의 움직임이 주 피사체의 움직임을 추종할 때, (a) 상기 촬상 장치의 움직임을 검출하는 제1 검출기로부터 얻어지는 제1 움직임 정보 및 (b) 상기 주 피사체의 화상의 움직임을 검출하는 제2 검출기로부터 얻어지는 제2 움직임 정보를 이용하여, 광학 소자를 제어하고,
상기 주 피사체의 촬상을 위한 노광 기간 전의 상이한 시간들에서 검출된 상기 제2 움직임 정보를 이용하여, 상기 노광 기간 중에 상기 주 피사체의 상기 화상의 속도에 대한 예측 정보를 산출하게 하고,
상기 예측 정보는, 상기 노광 기간 전의 상기 주 피사체의 상기 화상의 속도로부터 산출된 상기 속도의 변화를 포함하고,
상기 제어 프로그램은 상기 컴퓨터로 하여금, 상기 주 피사체가 촬영 화상 내에 여전히 있고 배경이 흐르는 촬영 화상을 획득하기 위해 팔로우 샷 모드에서 상기 예측 정보를 이용하여, 상기 노광 기간 중에 상기 광학 소자를 제어하게 하고,
상기 제어 프로그램은 상기 컴퓨터로 하여금, 상기 팔로우 샷 모드가 아닌 촬영 모드에서는 상기 예측 정보를 이용하지 않고, 상기 노광 기간 중에 상기 광학 소자를 제어하게 하는,
비일시적 컴퓨터 판독가능 기록 매체.
A non-transitory computer readable recording medium storing a control program which is a computer program for operating a computer of an imaging apparatus configured to perform imaging of a subject,
Wherein the control program causes the computer to:
(A) first motion information obtained from a first detector for detecting a motion of the imaging device, and (b) motion information for detecting motion of an image of the main object, 2 detector using the first motion information, the second motion information obtained from the second detector,
The prediction information for the speed of the image of the main subject during the exposure period is calculated using the second motion information detected at different times before the exposure period for imaging the main subject,
Wherein the prediction information includes a change in the speed calculated from a speed of the image of the main subject before the exposure period,
The control program causes the computer to control the optical element during the exposure period using the prediction information in a follow shot mode to obtain a shot image in which the main subject is still in the shot image and the background is flowing,
Wherein the control program causes the computer to control the optical element during the exposure period without using the prediction information in an imaging mode other than the follow shot mode,
Non-transitory computer readable recording medium.
제9항에 있어서,
상기 제어 프로그램은 상기 컴퓨터로 하여금, 상기 노광 기간 중에 얻어지는 (a) 상기 예측 정보와 (b) 상기 제1 움직임 정보를 이용하여, 상기 노광 기간 중에 상기 광학 소자를 제어하게 하는,
비일시적 컴퓨터 판독가능 기록 매체.
10. The method of claim 9,
Wherein the control program causes the computer to control the optical element during the exposure period using (a) the prediction information obtained during the exposure period and (b) the first motion information,
Non-transitory computer readable recording medium.
제1항에 있어서,
상기 제어부는, 상기 제2 움직임 정보가 상기 노광 기간 이전에 마지막으로 검출된 시점부터 상기 노광 기간의 중간점까지의 시간 길이를 이용하여, 상기 예측 정보를 산출하도록 구성되는,
촬상 장치.
The method according to claim 1,
Wherein the control unit is configured to calculate the prediction information by using a time length from a time point when the second motion information was last detected before the exposure period to a midpoint of the exposure period,
.
피사체의 촬상을 수행하도록 구성된 촬상 장치로서,
(a) 상기 촬상 장치의 움직임을 검출하는 제1 검출기로부터 얻어지는 제1 움직임 정보 및 (b) 주 피사체의 화상의 움직임을 검출하는 제2 검출기로부터 얻어지는 제2 움직임 정보를 이용하여, 광학 소자를 제어하도록 구성된 제어부; 및
상기 주 피사체의 촬상을 위한 노광 기간 전에 검출된 상기 제2 움직임 정보를 이용하여, 상기 노광 기간 중에 상기 주 피사체의 상기 화상의 움직임에 대한 예측 정보를 산출하도록 구성된 산출부를 포함하고,
상기 제어부는, 상기 주 피사체가 촬영 화상 내에 여전히 있고 배경이 흐르는 촬영 화상을 획득하기 위해 팔로우 샷 모드에서 상기 노광 기간 중에 상기 광학 소자를 제어하기 위해 상기 예측 정보를 이용하도록 구성되고,
상기 제어부는, 상기 팔로우 샷 모드가 아닌 촬영 모드에서는 상기 노광 기간 중에 상기 광학 소자를 제어하기 위해 상기 예측 정보를 이용하지 않도록 구성되고,
상기 제2 움직임 정보는, 상기 노광 기간 전에 상이한 시간들에서 검출된 속도에 관한 정보를 이용하여 산출되는 가속도에 관한 정보를 포함하는,
촬상 장치.
An imaging device configured to perform imaging of a subject,
(a) using the first motion information obtained from the first detector for detecting the motion of the image pickup device and (b) the second motion information obtained from the second detector for detecting the motion of the image of the main object, ; And
And a calculating unit configured to calculate the prediction information on the motion of the image of the main subject during the exposure period using the second motion information detected before the exposure period for imaging the main subject,
Wherein the control unit is configured to use the prediction information to control the optical element during the exposure period in the follow shot mode to obtain a shot image in which the main subject is still in the shot image and the background is flowing,
Wherein the control unit is configured not to use the prediction information to control the optical element during the exposure period in the photographing mode other than the follow shot mode,
Wherein the second motion information includes information about an acceleration calculated using information on a speed detected at different times before the exposure period,
.
제12항에 있어서,
상기 산출부는,
상기 노광 기간 전의 상기 주 피사체의 상기 화상의 각속도 정보;
상기 노광 기간 전의 상기 주 피사체의 상기 화상의 각가속도 정보;
상기 각속도 정보와 상기 각가속도 정보가 산출되는 산출 시간; 및
상기 노광 기간이 개시되는 개시 시간
을 이용하여 상기 예측 정보를 산출하도록 구성되는,
촬상 장치.
13. The method of claim 12,
The calculating unit calculates,
Angular velocity information of the image of the main subject before the exposure period;
Angle acceleration information of the image of the main subject before the exposure period;
A calculation time at which the angular velocity information and the angular velocity information are calculated; And
The start time at which the exposure period starts
To calculate the prediction information,
.
제12항에 있어서,
상기 산출부는, 상기 촬상 장치의 위치에 대한 상기 주 피사체의 위치에 따라 각가속도의 변화를 이용하여 상기 예측 정보를 산출하도록 구성되는,
촬상 장치.
13. The method of claim 12,
Wherein the calculating unit is configured to calculate the prediction information by using a change in angular acceleration depending on a position of the main subject with respect to a position of the imaging device,
.
제14항에 있어서,
상기 산출부는, 상기 촬상 장치로부터 상기 주 피사체까지의 거리에 기초한 거리 정보를 이용하여, 상기 촬상 장치의 위치에 대한 상기 주 피사체의 상기 위치를 산출하도록 구성되는,
촬상 장치.
15. The method of claim 14,
Wherein the calculating unit is configured to calculate the position of the main object with respect to the position of the image pickup apparatus using distance information based on a distance from the image pickup apparatus to the main object,
.
제12항에 있어서,
상기 산출부는, 상기 노광 기간이 미리 결정된 시간보다 긴 경우 상기 광학 소자를 제어하는 데 이용되는 상기 예측 정보를 산출하는 횟수를 증가시키도록 구성되는,
촬상 장치.
13. The method of claim 12,
Wherein the calculating unit is configured to increase the number of times of calculating the prediction information used to control the optical element when the exposure period is longer than a predetermined time,
.
제12항에 있어서,
상기 제어부는, 상기 노광 기간 중에 상기 광학 소자를 제어하기 위해 상기 노광 기간 중에 얻어지는 (a) 상기 예측 정보와 (b) 상기 제1 움직임 정보를 이용하도록 구성되는,
촬상 장치.
13. The method of claim 12,
Wherein the control unit is configured to use (a) the prediction information and (b) the first motion information obtained during the exposure period to control the optical element during the exposure period,
.
제12항에 있어서,
상기 제어부는, 상기 제2 움직임 정보가 상기 노광 기간 이전에 마지막으로 검출된 시점부터 상기 노광 기간의 중간점까지의 시간 길이를 이용하여, 상기 예측 정보를 산출하도록 구성되는,
촬상 장치.
13. The method of claim 12,
Wherein the control unit is configured to calculate the prediction information by using a time length from a time point when the second motion information was last detected before the exposure period to a midpoint of the exposure period,
.
피사체의 촬상을 수행하도록 구성된 촬상 장치의 제어 방법으로서,
(a) 상기 촬상 장치의 움직임을 검출하는 제1 검출기로부터 얻어지는 제1 움직임 정보 및 (b) 주 피사체의 화상의 움직임을 검출하는 제2 검출기로부터 얻어지는 제2 움직임 정보를 이용하여, 광학 소자를 제어하는 단계; 및
상기 주 피사체의 촬상을 위한 노광 기간 전에 검출된 상기 제2 움직임 정보를 이용하여, 상기 노광 기간 중에 상기 주 피사체의 상기 화상의 움직임에 대한 예측 정보를 산출하는 단계를 포함하고,
상기 방법은, 상기 주 피사체가 촬영 화상 내에 여전히 있고 배경이 흐르는 촬영 화상을 획득하기 위해 팔로우 샷 모드에서 상기 예측 정보를 이용하여, 상기 노광 기간 중에 상기 광학 소자를 제어하고,
상기 방법은, 상기 팔로우 샷 모드가 아닌 촬영 모드에서는 상기 예측 정보를 이용하지 않고, 상기 노광 기간 중에 상기 광학 소자를 제어하고,
상기 제2 움직임 정보는, 상기 노광 기간 전에 상이한 시간들에서 검출된 속도에 관한 정보를 이용하여 산출되는 가속도에 관한 정보를 포함하는,
촬상 장치의 제어 방법.
A control method for an imaging apparatus configured to perform imaging of a subject,
(a) using the first motion information obtained from the first detector for detecting the motion of the image pickup device and (b) the second motion information obtained from the second detector for detecting the motion of the image of the main object, ; And
And calculating prediction information on the motion of the image of the main subject during the exposure period using the second motion information detected before the exposure period for imaging the main subject,
The method includes the steps of controlling the optical element during the exposure period using the prediction information in the follow shot mode to obtain a shot image in which the main subject is still in the shot image and the background is flowing,
The method includes the steps of controlling the optical element during the exposure period without using the prediction information in an imaging mode other than the follow shot mode,
Wherein the second motion information includes information about an acceleration calculated using information on a speed detected at different times before the exposure period,
A control method of an image pickup apparatus.
피사체의 촬상을 수행하도록 구성된 촬상 장치의 컴퓨터를 작동하는 컴퓨터 프로그램인 제어 프로그램을 저장하는 비일시적 컴퓨터 판독가능 기록 매체이며,
상기 제어 프로그램은 상기 컴퓨터로 하여금,
(a) 상기 촬상 장치의 움직임을 검출하는 제1 검출기로부터 얻어지는 제1 움직임 정보 및 (b) 주 피사체의 화상의 움직임을 검출하는 제2 검출기로부터 얻어지는 제2 움직임 정보를 이용하여, 광학 소자를 제어하고,
상기 주 피사체의 촬상을 위한 노광 기간 전에 검출된 상기 제2 움직임 정보를 이용하여, 상기 노광 기간 중에 상기 주 피사체의 상기 화상의 움직임에 대한 예측 정보를 산출하게 하고,
상기 제어 프로그램은 상기 컴퓨터로 하여금, 상기 주 피사체가 촬영 화상 내에 여전히 있고 배경이 흐르는 촬영 화상을 획득하기 위해 팔로우 샷 모드에서 상기 예측 정보를 이용하여, 상기 노광 기간 중에 상기 광학 소자를 제어하게 하고,
상기 제어 프로그램은 상기 컴퓨터로 하여금, 상기 팔로우 샷 모드가 아닌 촬영 모드에서는 상기 예측 정보를 이용하지 않고, 상기 노광 기간 중에 상기 광학 소자를 제어하게 하고,
상기 제2 움직임 정보는, 상기 노광 기간 전에 상이한 시간들에서 검출된 속도에 관한 정보를 이용하여 산출되는 가속도에 관한 정보를 포함하는,
비일시적 컴퓨터 판독가능 기록 매체.
A non-transitory computer readable recording medium storing a control program which is a computer program for operating a computer of an imaging apparatus configured to perform imaging of a subject,
Wherein the control program causes the computer to:
(a) using the first motion information obtained from the first detector for detecting the motion of the image pickup device and (b) the second motion information obtained from the second detector for detecting the motion of the image of the main object, and,
And the second motion information detected before the exposure period for imaging the main subject is used to calculate the prediction information on the motion of the image of the main subject during the exposure period,
The control program causes the computer to control the optical element during the exposure period using the prediction information in a follow shot mode to obtain a shot image in which the main subject is still in the shot image and the background is flowing,
The control program causes the computer to control the optical element during the exposure period without using the prediction information in the photographing mode other than the follow shot mode,
Wherein the second motion information includes information about an acceleration calculated using information on a speed detected at different times before the exposure period,
Non-transitory computer readable recording medium.
제12항에 있어서,
상기 속도에 관한 정보는 각속도 정보이고, 상기 가속도에 관한 정보는 각가속도에 관한 정보인,
촬상 장치.
13. The method of claim 12,
Wherein the information about the speed is angular velocity information, and the information about the acceleration is information about angular acceleration,
.
제19항에 있어서,
상기 속도에 관한 정보는 각속도 정보이고, 상기 가속도에 관한 정보는 각가속도에 관한 정보인,
촬상 장치의 제어 방법.
20. The method of claim 19,
Wherein the information about the speed is angular velocity information, and the information about the acceleration is information about angular acceleration,
A control method of an image pickup apparatus.
제20항에 있어서,
상기 속도에 관한 정보는 각속도 정보이고, 상기 가속도에 관한 정보는 각가속도에 관한 정보인,
비일시적 컴퓨터 판독가능 기록 매체.
21. The method of claim 20,
Wherein the information about the speed is angular velocity information, and the information about the acceleration is information about angular acceleration,
Non-transitory computer readable recording medium.
피사체의 촬상을 수행하도록 구성된 촬상 장치로서,
상기 촬상 장치의 움직임이 상기 피사체의 움직임을 추종할 때, (a) 상기 촬상 장치의 움직임을 검출하는 제1 검출기로부터 얻어지는 제1 움직임 정보 및 (b) 상기 피사체의 화상의 움직임을 검출하는 제2 검출기로부터 얻어지는 제2 움직임 정보를 이용하여, 광학 소자를 제어하도록 구성된 제어부; 및
상기 피사체의 촬상을 위한 노광 기간 전의 상이한 시간들에서 검출된 상기 제2 움직임 정보를 이용하여, 상기 노광 기간 중에 상기 피사체의 상기 화상의 속도에 대한 예측 정보를 산출하도록 구성된 산출부를 포함하고,
상기 예측 정보는, 상기 노광 기간 전의 상기 피사체의 상기 화상의 속도로부터 산출된 상기 속도의 변화를 포함하고,
상기 예측 정보는, 상기 노광 기간 전의 상기 촬상 장치의 상기 움직임으로부터 산출된 움직임의 변화를 포함하고,
상기 제어부는, 상기 노광 기간 중에 상기 광학 소자를 제어하기 위해 상기 예측 정보를 이용하도록 구성되는,
촬상 장치.
An imaging device configured to perform imaging of a subject,
(A) first motion information obtained from a first detector for detecting a motion of the imaging device, and (b) second motion information obtained from a second motion information detecting means for detecting a motion of the subject, A control unit configured to control the optical element using second motion information obtained from the detector; And
And a calculating unit configured to calculate prediction information on the speed of the image of the subject during the exposure period using the second motion information detected at different times before the exposure period for imaging the subject,
Wherein the prediction information includes a change in the speed calculated from a speed of the image of the subject before the exposure period,
Wherein the prediction information includes a change in motion calculated from the motion of the imaging device before the exposure period,
Wherein the control unit is configured to use the prediction information to control the optical element during the exposure period,
.
피사체의 촬상을 수행하도록 구성된 촬상 장치로서,
(a) 상기 촬상 장치의 움직임을 검출하는 제1 검출기로부터 얻어지는 제1 움직임 정보 및 (b) 상기 피사체의 화상의 움직임을 검출하는 제2 검출기로부터 얻어지는 제2 움직임 정보를 이용하여, 광학 소자를 제어하도록 구성된 제어부; 및
상기 피사체의 촬상을 위한 노광 기간 중에 검출된 상기 제1 움직임 정보 및 상기 노광 기간 전에 상이한 시간들에서 검출된 상기 제2 움직임 정보를 이용하여, 상기 노광 기간 중에 상기 피사체의 상기 화상의 움직임에 대한 예측 정보를 산출하도록 구성된 산출부를 포함하고,
상기 제어부는, 상기 노광 기간 중에 상기 광학 소자를 제어하기 위해 상기 예측 정보를 이용하도록 구성되고,
상기 제1 움직임 정보는, 상기 노광 기간 중에 검출된 속도에 관한 정보를 포함하고,
상기 제2 움직임 정보는, 상기 노광 기간 전에 상이한 시간들에서 검출된 속도에 관한 정보를 이용하여 산출되는 가속도에 관한 정보를 포함하는,
촬상 장치.
An imaging device configured to perform imaging of a subject,
(a) using the first motion information obtained from the first detector for detecting the motion of the image pickup apparatus and (b) the second motion information obtained from the second detector for detecting the motion of the image of the object, ; And
Wherein the first motion information detected during an exposure period for taking an image of the subject and the second motion information detected at different times before the exposure period are used to predict a motion of the image of the subject during the exposure period And a calculation unit configured to calculate information,
Wherein the control unit is configured to use the prediction information to control the optical element during the exposure period,
Wherein the first motion information includes information about a speed detected during the exposure period,
Wherein the second motion information includes information about an acceleration calculated using information on a speed detected at different times before the exposure period,
.
피사체의 촬상을 수행하도록 구성된 촬상 장치의 제어 방법으로서,
상기 촬상 장치의 움직임이 상기 피사체의 움직임을 추종할 때, (a) 상기 촬상 장치의 움직임을 검출하는 제1 검출기로부터 얻어지는 제1 움직임 정보 및 (b) 상기 피사체의 화상의 움직임을 검출하는 제2 검출기로부터 얻어지는 제2 움직임 정보를 이용하여, 광학 소자를 제어하는 단계; 및
상기 피사체의 촬상을 위한 노광 기간 전의 상이한 시간들에서 검출된 상기 제2 움직임 정보를 이용하여, 상기 노광 기간 중의 상기 피사체의 상기 화상의 속도에 대한 예측 정보를 산출하는 단계를 포함하고,
상기 예측 정보는, 상기 노광 기간 전의 상기 피사체의 상기 화상의 속도로부터 산출된 상기 속도의 변화를 포함하고,
상기 예측 정보는, 상기 노광 기간 전의 상기 촬상 장치의 상기 움직임으로부터 산출된 움직임의 변화를 포함하고,
상기 방법은, 상기 예측 정보를 이용하여 상기 노광 기간 중에 상기 광학 소자를 제어하는,
촬상 장치의 제어 방법.
A control method for an imaging apparatus configured to perform imaging of a subject,
(A) first motion information obtained from a first detector for detecting a motion of the imaging device, and (b) second motion information obtained from a second motion information detecting means for detecting a motion of the subject, Controlling the optical element using second motion information obtained from the detector; And
And calculating prediction information on the speed of the image of the subject during the exposure period using the second motion information detected at different times before the exposure period for imaging the subject,
Wherein the prediction information includes a change in the speed calculated from a speed of the image of the subject before the exposure period,
Wherein the prediction information includes a change in motion calculated from the motion of the imaging device before the exposure period,
The method includes the steps of controlling the optical element during the exposure period using the prediction information,
A control method of an image pickup apparatus.
피사체의 촬상을 수행하도록 구성된 촬상 장치의 컴퓨터를 작동하는 컴퓨터 프로그램인 제어 프로그램을 저장하는 비일시적 컴퓨터 판독가능 기록 매체이며,
상기 제어 프로그램은 상기 컴퓨터로 하여금,
상기 촬상 장치의 움직임이 상기 피사체의 움직임을 추종할 때, (a) 상기 촬상 장치의 움직임을 검출하는 제1 검출기로부터 얻어지는 제1 움직임 정보 및 (b) 상기 피사체의 화상의 움직임을 검출하는 제2 검출기로부터 얻어지는 제2 움직임 정보를 이용하여, 광학 소자를 제어하고,
상기 피사체의 촬상을 위한 노광 기간 전의 상이한 시간들에서 검출된 상기 제2 움직임 정보를 이용하여, 상기 노광 기간 중에 상기 피사체의 상기 화상의 속도에 대한 예측 정보를 산출하게 하고,
상기 예측 정보는, 상기 노광 기간 전의 상기 피사체의 상기 화상의 속도로부터 산출된 상기 속도의 변화를 포함하고,
상기 예측 정보는, 상기 노광 기간 전의 상기 촬상 장치의 상기 움직임으로부터 산출된 움직임의 변화를 포함하고,
상기 제어 프로그램은 상기 컴퓨터로 하여금, 상기 예측 정보를 이용하여 상기 노광 기간 중에 상기 광학 소자를 제어하게 하는,
비일시적 컴퓨터 판독가능 기록 매체.
A non-transitory computer readable recording medium storing a control program which is a computer program for operating a computer of an imaging apparatus configured to perform imaging of a subject,
Wherein the control program causes the computer to:
(A) first motion information obtained from a first detector for detecting a motion of the imaging device, and (b) second motion information obtained from a second motion information detecting means for detecting a motion of the subject, The optical element is controlled using the second motion information obtained from the detector,
The second motion information detected at different times before the exposure period for imaging of the object is used to calculate the prediction information on the speed of the image of the subject during the exposure period,
Wherein the prediction information includes a change in the speed calculated from a speed of the image of the subject before the exposure period,
Wherein the prediction information includes a change in motion calculated from the motion of the imaging device before the exposure period,
Wherein the control program causes the computer to control the optical element during the exposure period using the prediction information,
Non-transitory computer readable recording medium.
피사체의 촬상을 수행하도록 구성된 촬상 장치의 제어 방법으로서,
(a) 상기 촬상 장치의 움직임을 검출하는 제1 검출기로부터 얻어지는 제1 움직임 정보 및 (b) 상기 피사체의 화상의 움직임을 검출하는 제2 검출기로부터 얻어지는 제2 움직임 정보를 이용하여, 광학 소자를 제어하는 단계; 및
상기 피사체의 촬상을 위한 노광 기간 중에 검출된 상기 제1 움직임 정보 및 상기 노광 기간 전에 상이한 시간들에서 검출된 상기 제2 움직임 정보를 이용하여, 상기 노광 기간 중에 상기 피사체의 상기 화상의 움직임에 대한 예측 정보를 산출하는 단계를 포함하고,
상기 방법은, 상기 예측 정보를 이용하여 상기 노광 기간 중에 상기 광학 소자를 제어하고,
상기 제1 움직임 정보는, 상기 노광 기간 중에 검출되는 속도에 관한 정보를 포함하고,
상기 제2 움직임 정보는, 상기 노광 기간 전에 상이한 시간들에서 검출된 속도에 관한 정보를 이용하여 산출되는 가속도에 관한 정보를 포함하는,
촬상 장치의 제어 방법.
A control method for an imaging apparatus configured to perform imaging of a subject,
(a) using the first motion information obtained from the first detector for detecting the motion of the image pickup apparatus and (b) the second motion information obtained from the second detector for detecting the motion of the image of the object, ; And
Wherein the first motion information detected during an exposure period for taking an image of the subject and the second motion information detected at different times before the exposure period are used to predict a motion of the image of the subject during the exposure period Comprising the steps of:
The method includes controlling the optical element during the exposure period using the prediction information,
Wherein the first motion information includes information about a speed detected during the exposure period,
Wherein the second motion information includes information about an acceleration calculated using information on a speed detected at different times before the exposure period,
A control method of an image pickup apparatus.
피사체의 촬상을 수행하도록 구성된 촬상 장치의 컴퓨터를 작동하는 컴퓨터 프로그램인 제어 프로그램을 저장하는 비일시적 컴퓨터 판독가능 기록 매체이며,
상기 제어 프로그램은 상기 컴퓨터로 하여금,
(a) 상기 촬상 장치의 움직임을 검출하는 제1 검출기로부터 얻어지는 제1 움직임 정보 및 (b) 상기 피사체의 화상의 움직임을 검출하는 제2 검출기로부터 얻어지는 제2 움직임 정보를 이용하여, 광학 소자를 제어하고,
상기 피사체의 촬상을 위한 노광 기간 중에 검출된 상기 제1 움직임 정보 및 상기 노광 기간 전에 상이한 시간들에서 검출된 상기 제2 움직임 정보를 이용하여, 상기 노광 기간 중에 상기 피사체의 상기 화상의 움직임에 대한 예측 정보를 산출하게 하고,
상기 제어 프로그램은 상기 컴퓨터로 하여금, 상기 예측 정보를 이용하여 상기 노광 기간 중에 상기 광학 소자를 제어하게 하고,
상기 제1 움직임 정보는, 상기 노광 기간 중에 검출된 속도에 관한 정보를 포함하고,
상기 제2 움직임 정보는, 상기 노광 기간 전에 상이한 시간들에서 검출된 속도에 관한 정보를 이용하여 산출되는 가속도에 관한 정보를 포함하는,
비일시적 컴퓨터 판독가능 기록 매체.
A non-transitory computer readable recording medium storing a control program which is a computer program for operating a computer of an imaging apparatus configured to perform imaging of a subject,
Wherein the control program causes the computer to:
(a) using the first motion information obtained from the first detector for detecting the motion of the image pickup apparatus and (b) the second motion information obtained from the second detector for detecting the motion of the image of the object, and,
Wherein the first motion information detected during an exposure period for taking an image of the subject and the second motion information detected at different times before the exposure period are used to predict a motion of the image of the subject during the exposure period Information,
The control program causing the computer to control the optical element during the exposure period using the prediction information,
Wherein the first motion information includes information about a speed detected during the exposure period,
Wherein the second motion information includes information about an acceleration calculated using information on a speed detected at different times before the exposure period,
Non-transitory computer readable recording medium.
피사체의 촬상을 수행하도록 구성된 촬상 장치로서,
상기 촬상 장치의 움직임이 상기 피사체의 움직임을 추종할 때, (a) 상기 촬상 장치의 움직임을 검출하는 제1 검출기로부터 얻어지는 제1 움직임 정보 및 (b) 상기 피사체의 화상의 움직임을 검출하는 제2 검출기로부터 얻어지는 제2 움직임 정보를 이용하여, 광학 소자를 제어하도록 구성된 제어부; 및
상기 피사체의 촬상을 위한 노광 기간 전에 검출된 상기 제2 움직임 정보를 이용하여, 상기 노광 기간 중에 상기 피사체의 상기 화상의 속도에 대한 예측 정보를 산출하도록 구성된 산출부를 포함하고,
상기 예측 정보는, 상기 노광 기간 전의 상기 피사체의 상기 화상의 속도로부터 산출된 상기 속도의 변화를 포함하고,
상기 제2 검출기는, 상기 피사체의 상기 촬상을 생성하도록 상기 피사체의 상기 화상을 검출하도록 구성되고,
상기 제어부는, 상기 노광 기간 중에 상기 광학 소자를 제어하기 위해 상기 예측 정보를 이용하도록 구성되는,
촬상 장치.
An imaging device configured to perform imaging of a subject,
(A) first motion information obtained from a first detector for detecting a motion of the imaging device, and (b) second motion information obtained from a second motion information detecting means for detecting a motion of the subject, A control unit configured to control the optical element using second motion information obtained from the detector; And
And a calculating unit configured to calculate prediction information on the speed of the image of the subject during the exposure period using the second motion information detected before the exposure period for imaging the subject,
Wherein the prediction information includes a change in the speed calculated from a speed of the image of the subject before the exposure period,
Wherein the second detector is configured to detect the image of the subject to generate the imaging of the subject,
Wherein the control unit is configured to use the prediction information to control the optical element during the exposure period,
.
피사체의 촬상을 수행하도록 구성된 촬상 장치로서,
(a) 상기 촬상 장치의 움직임을 검출하는 제1 검출기로부터 얻어지는 제1 움직임 정보 및 (b) 상기 피사체의 화상의 움직임을 검출하는 제2 검출기로부터 얻어지는 제2 움직임 정보를 이용하여, 광학 소자를 제어하도록 구성된 제어부; 및
상기 피사체의 촬상을 위한 노광 기간 전에 검출된 상기 제2 움직임 정보를 이용하여, 상기 노광 기간 중에 상기 피사체의 상기 화상의 움직임에 대한 예측 정보를 산출하도록 구성된 산출부를 포함하고,
상기 제2 검출기는, 상기 피사체의 상기 촬상을 생성하도록 상기 피사체의 상기 화상을 검출하도록 구성되고,
상기 제어부는, 상기 노광 기간 중에 상기 광학 소자를 제어하기 위해 상기 예측 정보를 이용하도록 구성되고,
상기 제2 움직임 정보는 속도에 관한 정보를 포함하고,
상기 예측 정보는, 상기 노광 기간 전에 상이한 시간들에서 검출된 속도에 관한 정보를 이용하여 산출되는 가속도에 관한 정보를 포함하는,
촬상 장치.
An imaging device configured to perform imaging of a subject,
(a) using the first motion information obtained from the first detector for detecting the motion of the image pickup apparatus and (b) the second motion information obtained from the second detector for detecting the motion of the image of the object, ; And
And a calculating unit configured to calculate the prediction information on the motion of the image of the subject during the exposure period using the second motion information detected before the exposure period for imaging the subject,
Wherein the second detector is configured to detect the image of the subject to generate the imaging of the subject,
Wherein the control unit is configured to use the prediction information to control the optical element during the exposure period,
Wherein the second motion information includes information about a velocity,
Wherein the prediction information includes information on an acceleration calculated using information on a speed detected at different times before the exposure period,
.
피사체의 촬상을 수행하도록 구성된 촬상 장치의 제어 방법으로서,
상기 촬상 장치의 움직임이 주 피사체의 움직임을 추종할 때, (a) 상기 촬상 장치의 움직임을 검출하는 제1 검출기로부터 얻어지는 제1 움직임 정보 및 (b) 상기 피사체의 화상의 움직임을 검출하는 제2 검출기로부터 얻어지는 제2 움직임 정보를 이용하여, 광학 소자를 제어하는 단계; 및
상기 피사체의 촬상을 위한 노광 기간 전에 검출된 상기 제2 움직임 정보를 이용하여, 상기 노광 기간 중에 상기 피사체의 상기 화상의 속도에 대한 예측 정보를 산출하는 단계를 포함하고,
상기 예측 정보는, 상기 노광 기간 전의 상기 피사체의 상기 화상의 속도로부터 산출된 상기 속도의 변화를 포함하고,
상기 제2 검출기는, 상기 피사체의 상기 촬상을 생성하도록 상기 피사체의 상기 화상을 검출하도록 구성되고,
상기 방법은, 상기 예측 정보를 이용하여 상기 노광 기간 중에 상기 광학 소자를 제어하는,
촬상 장치의 제어 방법.
A control method for an imaging apparatus configured to perform imaging of a subject,
(A) first motion information obtained from a first detector for detecting a motion of the imaging device, and (b) second motion information obtained from a second motion information detecting device for detecting a motion of the subject, Controlling the optical element using second motion information obtained from the detector; And
And calculating prediction information on the speed of the image of the subject during the exposure period using the second motion information detected before the exposure period for imaging the subject,
Wherein the prediction information includes a change in the speed calculated from a speed of the image of the subject before the exposure period,
Wherein the second detector is configured to detect the image of the subject to generate the imaging of the subject,
The method includes the steps of controlling the optical element during the exposure period using the prediction information,
A control method of an image pickup apparatus.
피사체의 촬상을 수행하도록 구성된 촬상 장치의 컴퓨터를 작동하는 컴퓨터 프로그램인 제어 프로그램을 저장하는 비일시적 컴퓨터 판독가능 기록 매체이며,
상기 제어 프로그램은 상기 컴퓨터로 하여금,
상기 촬상 장치의 움직임이 주 피사체의 움직임을 추종할 때, (a) 상기 촬상 장치의 움직임을 검출하는 제1 검출기로부터 얻어지는 제1 움직임 정보 및 (b) 상기 피사체의 화상의 움직임을 검출하는 제2 검출기로부터 얻어지는 제2 움직임 정보를 이용하여, 광학 소자를 제어하고,
상기 피사체의 촬상을 위한 노광 기간 전에 검출된 상기 제2 움직임 정보를 이용하여, 상기 노광 기간 중에 상기 피사체의 상기 화상의 속도에 대한 예측 정보를 산출하게 하고,
상기 예측 정보는, 상기 노광 기간 전의 상기 피사체의 상기 화상의 속도로부터 산출된 상기 속도의 변화를 포함하고,
상기 제2 검출기는, 상기 피사체의 상기 촬상을 생성하도록 상기 피사체의 상기 화상을 검출하도록 구성되고,
상기 제어 프로그램은 상기 컴퓨터로 하여금, 상기 예측 정보를 이용하여 상기 노광 기간 중에 상기 광학 소자를 제어하게 하는,
비일시적 컴퓨터 판독가능 기록 매체.
A non-transitory computer readable recording medium storing a control program which is a computer program for operating a computer of an imaging apparatus configured to perform imaging of a subject,
Wherein the control program causes the computer to:
(A) first motion information obtained from a first detector for detecting a motion of the imaging device, and (b) second motion information obtained from a second motion information detecting device for detecting a motion of the subject, The optical element is controlled using the second motion information obtained from the detector,
The second motion information detected before the exposure period for imaging of the object is used to calculate the prediction information on the speed of the image of the subject during the exposure period,
Wherein the prediction information includes a change in the speed calculated from a speed of the image of the subject before the exposure period,
Wherein the second detector is configured to detect the image of the subject to generate the imaging of the subject,
Wherein the control program causes the computer to control the optical element during the exposure period using the prediction information,
Non-transitory computer readable recording medium.
피사체의 촬상을 수행하도록 구성된 촬상 장치의 제어 방법으로서,
(a) 상기 촬상 장치의 움직임을 검출하는 제1 검출기로부터 얻어지는 제1 움직임 정보 및 (b) 상기 피사체의 화상의 움직임을 검출하는 제2 검출기로부터 얻어지는 제2 움직임 정보를 이용하여, 광학 소자를 제어하는 단계; 및
상기 피사체의 촬상을 위한 노광 기간 전에 검출된 상기 제2 움직임 정보를 이용하여, 상기 노광 기간 중에 상기 피사체의 상기 화상의 상기 움직임에 대한 예측 정보를 산출하는 단계를 포함하고,
상기 제2 검출기는, 상기 피사체의 상기 촬상을 생성하도록 상기 피사체의 상기 화상을 검출하고,
상기 방법은, 상기 예측 정보를 이용하여 상기 노광 기간 중에 상기 광학 소자를 제어하고,
상기 제2 움직임 정보는 속도에 관한 정보를 포함하고,
상기 예측 정보는, 상기 노광 기간 전에 상이한 시간들에서 검출된 속도에 관한 정보를 이용하여 산출되는 가속도에 관한 정보를 포함하는,
촬상 장치의 제어 방법.
A control method for an imaging apparatus configured to perform imaging of a subject,
(a) using the first motion information obtained from the first detector for detecting the motion of the image pickup apparatus and (b) the second motion information obtained from the second detector for detecting the motion of the image of the object, ; And
And calculating prediction information on the motion of the image of the subject during the exposure period using the second motion information detected before the exposure period for imaging the subject,
The second detector detects the image of the subject so as to generate the image pickup of the subject,
The method includes controlling the optical element during the exposure period using the prediction information,
Wherein the second motion information includes information about a velocity,
Wherein the prediction information includes information on an acceleration calculated using information on a speed detected at different times before the exposure period,
A control method of an image pickup apparatus.
피사체의 촬상을 수행하도록 구성된 촬상 장치의 컴퓨터를 작동하는 컴퓨터 프로그램인 제어 프로그램을 저장하는 비일시적 컴퓨터 판독가능 기록 매체이며,
상기 제어 프로그램은 상기 컴퓨터로 하여금,
(a) 상기 촬상 장치의 움직임을 검출하는 제1 검출기로부터 얻어지는 제1 움직임 정보 및 (b) 상기 피사체의 화상의 움직임을 검출하는 제2 검출기로부터 얻어지는 제2 움직임 정보를 이용하여, 광학 소자를 제어하고,
상기 피사체의 촬상을 위한 노광 기간 전에 검출된 상기 제2 움직임 정보를 이용하여, 상기 노광 기간 중에 상기 피사체의 상기 화상의 움직임에 대한 예측 정보를 산출하게 하고,
상기 제2 검출기는, 상기 피사체의 상기 촬상을 생성하도록 상기 피사체의 상기 화상을 검출하고,
상기 제어 프로그램은 상기 컴퓨터로 하여금, 상기 예측 정보를 이용하여 상기 노광 기간 중에 상기 광학 소자를 제어하게 하고,
상기 제2 움직임 정보는 속도에 관한 정보를 포함하고,
상기 예측 정보는, 상기 노광 기간 전에 상이한 시간들에서 검출된 속도에 관한 정보를 이용하여 산출되는 가속도에 관한 정보를 포함하는,
비일시적 컴퓨터 판독가능 기록 매체.
A non-transitory computer readable recording medium storing a control program which is a computer program for operating a computer of an imaging apparatus configured to perform imaging of a subject,
Wherein the control program causes the computer to:
(a) using the first motion information obtained from the first detector for detecting the motion of the image pickup apparatus and (b) the second motion information obtained from the second detector for detecting the motion of the image of the object, and,
And the second motion information detected before the exposure period for the imaging of the object is used to calculate the prediction information on the motion of the image of the subject during the exposure period,
The second detector detects the image of the subject so as to generate the image pickup of the subject,
The control program causing the computer to control the optical element during the exposure period using the prediction information,
Wherein the second motion information includes information about a velocity,
Wherein the prediction information includes information on an acceleration calculated using information on a speed detected at different times before the exposure period,
Non-transitory computer readable recording medium.
제1항에 있어서,
상기 팔로우 샷 모드와 촬영 모드 사이에서 모드를 전환하는 모드 스위치를 더 포함하는,
촬상 장치.
The method according to claim 1,
Further comprising a mode switch for switching the mode between the follow shot mode and the shooting mode,
.
제12항에 있어서,
상기 제어부는, 화상 흔들림 보정 모드에서 카메로 요동에 의해 유발되는 상기 촬상 장치의 흔들림에 의한 상기 피사체의 상기 화상의 흔들림을 보정하는,
촬상 장치.
13. The method of claim 12,
Wherein the control unit corrects the shake of the image of the subject caused by the shaking of the image pickup device caused by the camera shake in the image shake correction mode,
.
KR1020160021083A 2015-03-03 2016-02-23 Image capturing apparatus, control method thereof and computer program therefor KR101951076B1 (en)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JPJP-P-2015-041436 2015-03-03
JP2015041436 2015-03-03
JP2015250675A JP6529430B2 (en) 2015-03-03 2015-12-22 Imaging device, control method, control program, and storage medium
JPJP-P-2015-250675 2015-12-22

Publications (2)

Publication Number Publication Date
KR20160107098A KR20160107098A (en) 2016-09-13
KR101951076B1 true KR101951076B1 (en) 2019-02-21

Family

ID=56898873

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020160021083A KR101951076B1 (en) 2015-03-03 2016-02-23 Image capturing apparatus, control method thereof and computer program therefor

Country Status (3)

Country Link
JP (1) JP6529430B2 (en)
KR (1) KR101951076B1 (en)
CN (1) CN105939454B (en)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10218906B2 (en) * 2017-03-22 2019-02-26 Htc Corporation Camera device and method for camera device
JP6887858B2 (en) * 2017-04-14 2021-06-16 キヤノン株式会社 Image blur correction device, imaging device and control method
JP2019008221A (en) * 2017-06-27 2019-01-17 キヤノン株式会社 Imaging apparatus and control method for the same
JP7073078B2 (en) * 2017-11-14 2022-05-23 キヤノン株式会社 Image pickup device and its control method
JP6904843B2 (en) * 2017-08-03 2021-07-21 キヤノン株式会社 Imaging device and its control method
CN108540725A (en) * 2018-05-14 2018-09-14 Oppo广东移动通信有限公司 Anti-fluttering method, electronic device, imaging system, storage medium and computer equipment
CN108848305B (en) * 2018-06-20 2020-09-01 维沃移动通信有限公司 Photographing method and terminal equipment
US11265480B2 (en) * 2019-06-11 2022-03-01 Qualcomm Incorporated Systems and methods for controlling exposure settings based on motion characteristics associated with an image sensor
JP7451152B2 (en) 2019-11-26 2024-03-18 キヤノン株式会社 Imaging device, control method and computer program
CN112235514A (en) * 2020-10-13 2021-01-15 余波 Camera shutter speed adjusting method and device based on artificial intelligence

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008136174A (en) * 2006-10-24 2008-06-12 Sanyo Electric Co Ltd Imaging apparatus and imaging control method

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0798471A (en) * 1993-09-28 1995-04-11 Canon Inc Camera
US7546026B2 (en) * 2005-10-25 2009-06-09 Zoran Corporation Camera exposure optimization techniques that take camera and scene motion into account
JP5065060B2 (en) * 2008-01-16 2012-10-31 キヤノン株式会社 Imaging apparatus and control method thereof
JP2013006174A (en) * 2011-05-24 2013-01-10 Hakki Sangyo Kk Flocculant composition and flocculation method for purifying dye wastewater

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008136174A (en) * 2006-10-24 2008-06-12 Sanyo Electric Co Ltd Imaging apparatus and imaging control method

Also Published As

Publication number Publication date
CN105939454A (en) 2016-09-14
JP6529430B2 (en) 2019-06-12
CN105939454B (en) 2019-06-25
KR20160107098A (en) 2016-09-13
JP2016167798A (en) 2016-09-15

Similar Documents

Publication Publication Date Title
KR101951076B1 (en) Image capturing apparatus, control method thereof and computer program therefor
US10362236B2 (en) Image capturing apparatus, control method thereof and storage medium storing control program therefor
CN106375656B (en) Image processing apparatus, control method thereof, image pickup device, and control method thereof
JP6341691B2 (en) Image shake correction apparatus, control method therefor, optical apparatus, and imaging apparatus
JP6246015B2 (en) Image processing apparatus and control method thereof
JP7058945B2 (en) Image stabilization device and its control method, image pickup device
JP6995561B2 (en) Image stabilization device and its control method, image pickup device
CN107786809B (en) Image pickup and accessory apparatus, communication control method thereof, image pickup system, and storage medium
US10250808B2 (en) Imaging apparatus and control method therefor
CN107040711B (en) Image stabilization apparatus and control method thereof
CN109698912B (en) Image pickup apparatus and control method thereof
US10708503B2 (en) Image capture system, image capturing apparatus, lens unit, control methods therefor, and storage medium
JP2018036445A (en) Controller, imaging apparatus, lens unit, control method, program, and storage medium
CN108668074B (en) Image blur correction device, control method thereof, image pickup apparatus, and storage medium
JP2016170285A (en) Image blur correction device, optical equipment, imaging apparatus, and control method
JP6990985B2 (en) Image shake correction device and method, image pickup device and image pickup system
US10812715B2 (en) Imaging apparatus and method of controlling imaging apparatus
JP2015145901A (en) Imaging apparatus
JP7073078B2 (en) Image pickup device and its control method
JP2017112456A (en) Device and method for zoom control, and imaging apparatus
JP6703789B2 (en) Image blur correction apparatus and method, and image pickup apparatus
JP7451152B2 (en) Imaging device, control method and computer program
JP6800642B2 (en) Accessory device, control device, control method of these
JP2019036828A (en) Image blur correction device and control method thereof, imaging apparatus
JP2019008221A (en) Imaging apparatus and control method for the same

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right