JP2015119400A - Imaging apparatus, method for controlling the same, and control program - Google Patents

Imaging apparatus, method for controlling the same, and control program Download PDF

Info

Publication number
JP2015119400A
JP2015119400A JP2013262806A JP2013262806A JP2015119400A JP 2015119400 A JP2015119400 A JP 2015119400A JP 2013262806 A JP2013262806 A JP 2013262806A JP 2013262806 A JP2013262806 A JP 2013262806A JP 2015119400 A JP2015119400 A JP 2015119400A
Authority
JP
Japan
Prior art keywords
image
zoom
main subject
imaging
zoom frame
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2013262806A
Other languages
Japanese (ja)
Other versions
JP6223170B2 (en
Inventor
頌弘 仲田
Nobuhiro Nakata
頌弘 仲田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2013262806A priority Critical patent/JP6223170B2/en
Publication of JP2015119400A publication Critical patent/JP2015119400A/en
Application granted granted Critical
Publication of JP6223170B2 publication Critical patent/JP6223170B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Studio Devices (AREA)

Abstract

PROBLEM TO BE SOLVED: To easily recognize the position of a main object, when the main object is out of an imaging field angle, even in such a state that the main object can be specified only at a high magnification, because the main object is extremely small.SOLUTION: A calculation part 114 acquires the relative position and relative size of a second image obtained after zoom-up with respect to a first image obtained before the zoom-up of a zoom lens. A control part 108 displays a first zoom frame 204 indicating the position of the second image in the first image on the first image, based on the relative position and the relative size. When the main object is out of the field angle of the second image, after the main object is selected in the second image, the control part displays a second zoom frame 209 corresponding to the first zoom frame just before the main object is out of the field angle of the second image on the first image.

Description

本発明は、撮像装置、その制御方法、および制御プログラムに関し、特に、ズーム機能を備える撮像装置に関する。   The present invention relates to an imaging apparatus, a control method thereof, and a control program, and more particularly to an imaging apparatus having a zoom function.

近年、デジタルカメラなどの撮像装置において、焦点距離の長い高倍率レンズを備える撮像装置が知られている。この撮像装置を用いれば、遠方の被写体をLCDなどの表示画面に大きく映し出すことが可能となる。ところが、高倍率ズームの際には、多少の撮像画角のずれに起因して主被写体を見失うという状況が度々発生する。   2. Description of the Related Art In recent years, an imaging apparatus including a high-power lens having a long focal length is known as an imaging apparatus such as a digital camera. By using this imaging apparatus, it is possible to project a distant subject greatly on a display screen such as an LCD. However, during high-power zooming, a situation in which the main subject is often lost due to a slight shift in the angle of view of the image capture often occurs.

さらには、一旦主被写体を撮像画角から逃してしまうと、ワイド端における撮像画角に対して高倍率ズームにおいていずれの範囲が表示されているのかを認識することが困難となる。この結果、ユーザは、主被写体を再度探索するため、撮像レンズの焦点距離を一時的にワイド端側に戻して撮像画角を広げる必要がある。   Furthermore, once the main subject is missed from the imaging field angle, it is difficult to recognize which range is displayed in the high-power zoom with respect to the imaging field angle at the wide end. As a result, in order to search for the main subject again, the user needs to temporarily return the focal length of the imaging lens to the wide end side to widen the imaging field angle.

このような再探索を回避するため、ズームアップ直前においてワイド端で取り込んだ画像をサブ画像としてLCDに表示するようにした撮像装置がある(特許文献1参照)。そして、この撮像装置では、現在(つまり、ズームアップ後)の撮像画角がサブ画像のいずれの範囲に対応するかを示すズーム枠をサブ画像に重畳して表示する。   In order to avoid such a re-search, there is an image pickup apparatus that displays an image captured at the wide end immediately before zooming up on a LCD as a sub image (see Patent Document 1). In this imaging apparatus, a zoom frame indicating which range of the sub-image corresponds to the current imaging angle of view (that is, after zooming up) is displayed superimposed on the sub-image.

これによって、特許文献1に記載の撮像装置では、ズームアップの際に主被写体が撮像画角から外れたとしても、ユーザは、サブ画像におけるズーム枠の位置関係に応じて主被写体がどこに存在するかを確認することができる。   As a result, in the imaging apparatus described in Patent Document 1, even if the main subject deviates from the imaging angle of view during zooming up, the user is present where the main subject exists according to the positional relationship of the zoom frames in the sub-image. Can be confirmed.

さらに、第1の撮像部と第2の撮像部とを備える撮像装置がある(特許文献2参照)。この撮像装置では、第1の撮像部によって被写体を撮像し、第2の撮像部によって第1の撮像部よりも広角で主被写体を撮像する。そして、主被写体が第1の撮像部の撮像画角から外れた際、第2の撮像部による撮影結果に基づいて、第1の撮像部の撮像画角と主被写体との位置関係に応じた報知を行う。これによって、特許文献2に記載の撮像装置では、ユーザは第1の撮像部の撮像画角と主被写体との位置関係を容易に把握することができる。   Furthermore, there exists an imaging device provided with a 1st imaging part and a 2nd imaging part (refer patent document 2). In this imaging apparatus, the first imaging unit images the subject, and the second imaging unit images the main subject at a wider angle than the first imaging unit. When the main subject deviates from the imaging angle of view of the first imaging unit, based on the imaging result of the second imaging unit, the main subject is in accordance with the positional relationship between the imaging angle of view of the first imaging unit and the main subject. Notification. Thereby, in the imaging device described in Patent Literature 2, the user can easily grasp the positional relationship between the imaging field angle of the first imaging unit and the main subject.

特開2011−135599号公報JP 2011-135599 A 特開2012−29245号公報JP 2012-29245 A

ところで、特許文献1に記載の撮像装置では、ズームアップ前においてワイド端で主被写体の位置を予め特定する必要がある。そして、ワイド端において主被写体の位置が特定できていないと、ズームアップ後の撮像画角がサブ画像のいずれの範囲に対応するかを示すズーム枠をサブ画像に重畳することが困難となる。   By the way, in the imaging device described in Patent Document 1, it is necessary to specify the position of the main subject in advance at the wide end before zooming up. If the position of the main subject cannot be specified at the wide end, it is difficult to superimpose on the sub image a zoom frame indicating which range of the sub image the imaged angle of view after zooming up corresponds to.

一方、特許文献2に記載の撮像装置では、高倍率においてのみ主被写体を特定することができる場合、つまり、主被写体が極めて小さい場合には、広角で撮像を行う第2の撮像部では主被写体を認識することができなくなってしまう。   On the other hand, in the imaging apparatus described in Patent Document 2, when the main subject can be specified only at a high magnification, that is, when the main subject is extremely small, the second imaging unit that performs imaging at a wide angle performs the main subject. It becomes impossible to recognize.

そこで、本発明の目的は、主被写体が極めて小さく高倍率においてのみ主被写体を特定できる状態であっても、主被写体が撮像画角から外れた際主被写体の位置を容易に把握することができる撮像装置、その制御方法、および制御プログラムを提供することにある。   Therefore, an object of the present invention is to easily grasp the position of the main subject when the main subject deviates from the imaging angle of view even when the main subject is extremely small and can be specified only at a high magnification. An imaging apparatus, a control method thereof, and a control program are provided.

上記の目的を達成するため、本発明による撮像装置は、ワイド端とズーム端との間で移動可能なズームレンズを備え被写体を撮像する撮像手段を有する撮像装置であって、前記ズームレンズを前記ズーム端の方向に移動させるズームアップが行われる前に前記撮像手段によって第1の画像を得るとともに、前記ズームアップの後に前記撮像手段によって第2の画像を得て、前記第1の画像に対する前記第2の画像の相対位置および相対サイズを求める算出手段と、前記相対位置および前記相対サイズに基づいて前記第1の画像における前記第2の画像の位置を示す第1のズーム枠を生成して、前記第1の画像に前記第1のズーム枠を表示する第1の表示制御手段と、前記第2の画像において主被写体が選択された後、前記第2の画像の画角から前記主被写体が外れると、当該主被写体が前記第2の画像の画角から外れる直前の前記第1のズーム枠に対応する第2のズーム枠を前記第1の画像に表示する第2の表示制御手段と、を有することを特徴とする。   In order to achieve the above object, an image pickup apparatus according to the present invention is an image pickup apparatus having an image pickup unit that includes a zoom lens movable between a wide end and a zoom end and picks up an image of a subject. A first image is obtained by the imaging means before zooming up to move in the direction of the zoom end, and a second image is obtained by the imaging means after the zooming up, and the first image is obtained with respect to the first image. Calculating means for calculating a relative position and a relative size of the second image; and generating a first zoom frame indicating the position of the second image in the first image based on the relative position and the relative size. First display control means for displaying the first zoom frame on the first image, and after the main subject is selected in the second image, the angle of view of the second image When the main subject is detached, a second zoom frame corresponding to the first zoom frame immediately before the main subject deviates from the angle of view of the second image is displayed on the first image. And a control means.

本発明による制御方法は、ワイド端とズーム端との間で移動可能なズームレンズを備え被写体を撮像する撮像手段を有する撮像装置の制御方法であって、前記ズームレンズを前記ズーム端の方向に移動させるズームアップが行われる前に前記撮像手段によって第1の画像を得るとともに、前記ズームアップの後に前記撮像手段によって第2の画像を得て、前記第1の画像に対する前記第2の画像の相対位置および相対サイズを求める算出ステップと、前記相対位置および前記相対サイズに基づいて前記第1の画像における前記第2の画像の位置を示す第1のズーム枠を生成して、前記第1の画像に前記第1のズーム枠を表示する第1の表示制御ステップと、前記第2の画像において主被写体が選択された後、前記第2の画像の画角から前記主被写体が外れると、当該主被写体が前記第2の画像の画角から外れる直前の前記第1のズーム枠に対応する第2のズーム枠を前記第1の画像に表示する第2の表示制御ステップと、を有することを特徴とする。   A control method according to the present invention is a control method of an imaging apparatus having an imaging unit that includes a zoom lens movable between a wide end and a zoom end, and has an imaging means for imaging a subject, and the zoom lens is directed toward the zoom end. A first image is obtained by the imaging means before zooming up to be moved, and a second image is obtained by the imaging means after the zoom-up, and the second image relative to the first image is obtained. Calculating a relative position and a relative size; generating a first zoom frame indicating a position of the second image in the first image based on the relative position and the relative size; and A first display control step for displaying the first zoom frame on the image; and after the main subject is selected in the second image, the main image is determined from the angle of view of the second image. Second display control for displaying, on the first image, a second zoom frame corresponding to the first zoom frame immediately before the main subject deviates from the angle of view of the second image when the subject is removed. And a step.

本発明による制御プログラムは、ワイド端とズーム端との間で移動可能なズームレンズを備え被写体を撮像する撮像手段を有する撮像装置で用いられる制御プログラムであって、前記撮像装置が備えるコンピュータに、前記ズームレンズを前記ズーム端の方向に移動させるズームアップが行われる前に前記撮像手段によって第1の画像を得るとともに、前記ズームアップの後に前記撮像手段によって第2の画像を得て、前記第1の画像に対する前記第2の画像の相対位置および相対サイズを求める算出ステップと、前記相対位置および前記相対サイズに基づいて前記第1の画像における前記第2の画像の位置を示す第1のズーム枠を生成して、前記第1の画像に前記第1のズーム枠を表示する第1の表示制御ステップと、前記第2の画像において主被写体が選択された後、前記第2の画像の画角から前記主被写体が外れると、当該主被写体が前記第2の画像の画角から外れる直前の前記第1のズーム枠に対応する第2のズーム枠を前記第1の画像に表示する第2の表示制御ステップと、を実行させることを特徴とする。   A control program according to the present invention is a control program used in an imaging apparatus having an imaging unit that includes a zoom lens that can move between a wide end and a zoom end and that captures an image of a subject. A first image is obtained by the imaging means before zooming up to move the zoom lens in the direction of the zoom end, and a second image is obtained by the imaging means after the zooming up, A calculation step for obtaining a relative position and a relative size of the second image with respect to one image; and a first zoom indicating a position of the second image in the first image based on the relative position and the relative size A first display control step of generating a frame and displaying the first zoom frame on the first image; and After the main subject is selected, when the main subject deviates from the angle of view of the second image, the main subject corresponds to the first zoom frame immediately before deviating from the angle of view of the second image. And a second display control step of displaying a second zoom frame on the first image.

本発明によれば、第2の画像の画角から主被写体が外れると、当該主被写体が第2の画像の画角から外れる直前の第1のズーム枠に対応する第2のズーム枠を第1の画像に表示するようにしたので、主被写体が極めて小さく高倍率においてのみ主被写体を特定できる状態であっても、主被写体が撮像画角から外れた際主被写体の位置を容易に把握することができる。   According to the present invention, when the main subject deviates from the angle of view of the second image, the second zoom frame corresponding to the first zoom frame immediately before the main subject deviates from the angle of view of the second image is changed to the first zoom frame. Since the image is displayed in one image, even when the main subject is extremely small and can be specified only at a high magnification, the position of the main subject can be easily grasped when the main subject deviates from the imaging angle of view. be able to.

本発明の第1の実施形態による撮像装置の一例についてその構成を示すブロック図である。1 is a block diagram illustrating a configuration of an example of an imaging apparatus according to a first embodiment of the present invention. 図1に示すカメラにおける撮像動作の際に表示部に表示される画面の遷移の一例を説明するための図であり、(a)は静止画撮像モードが設定された直後の表示画面を示す図、(b)はワイド端からズームアップを行った後の表示画面を示す図、(c)は主被写体の選択を行う際の表示画面を示す図、(d)は選択した主被写体を追尾した際の最後の時点における表示画面を示す図、(e)は主被写体が追尾不能となった後に所定の時間が経過した後の表示画面を示す図である。FIG. 4 is a diagram for explaining an example of a transition of a screen displayed on a display unit during an imaging operation in the camera illustrated in FIG. 1, and (a) is a diagram illustrating a display screen immediately after a still image imaging mode is set. (B) is a figure which shows the display screen after zooming in from a wide end, (c) is a figure which shows the display screen at the time of selecting a main subject, (d) is tracking the selected main subject. The figure which shows the display screen in the last time at the time, (e) is a figure which shows the display screen after predetermined time passes, after the main subject became unable to track. 図1に示すカメラで行われるサブ画像、第1のズーム枠、および第2のズーム枠の表示制御について説明するためのフローチャートである(その1)。FIG. 3 is a flowchart for explaining display control of a sub image, a first zoom frame, and a second zoom frame performed by the camera shown in FIG. 1 (No. 1). 図1に示すカメラで行われるサブ画像、第1のズーム枠、および第2のズーム枠の表示制御について説明するためのフローチャートである(その2)。FIG. 8 is a flowchart for explaining display control of a sub image, a first zoom frame, and a second zoom frame performed by the camera shown in FIG. 1 (part 2). 本発明の第2の実施形態によるカメラで行われるサブ画像、第1のズーム枠、および第2のズーム枠の表示制御について説明するためのフローチャートである(その1)。It is a flowchart for demonstrating the display control of the sub image performed with the camera by the 2nd Embodiment of this invention, a 1st zoom frame, and a 2nd zoom frame (the 1). 本発明の第2の実施形態によるカメラで行われるサブ画像、第1のズーム枠、および第2のズーム枠の表示制御について説明するためのフローチャートである(その2)。It is a flowchart for demonstrating the display control of the sub image performed by the camera by the 2nd Embodiment of this invention, a 1st zoom frame, and a 2nd zoom frame (the 2).

以下、本発明の実施の形態による撮像装置の一例について図面を参照して説明する。   Hereinafter, an example of an imaging apparatus according to an embodiment of the present invention will be described with reference to the drawings.

[第1の実施形態]
図1は、本発明の第1の実施形態による撮像装置の一例についてその構成を示すブロック図である。
[First Embodiment]
FIG. 1 is a block diagram showing the configuration of an example of an imaging apparatus according to the first embodiment of the present invention.

図示の撮像装置は、例えば、デジタルカメラ(以下単にカメラと呼ぶ)100であり、レンズ鏡筒101を有している。そして、レンズ鏡筒101には、レンズ群が保持されている。図示の例では、レンズ鏡筒101は少なくともズームレンズ102およびフォーカスレンズ103が備えられている。   The illustrated imaging apparatus is, for example, a digital camera (hereinafter simply referred to as a camera) 100 and includes a lens barrel 101. The lens barrel 101 holds a lens group. In the illustrated example, the lens barrel 101 includes at least a zoom lens 102 and a focus lens 103.

ズームレンズ102は、ズームレンズ駆動制御部112によって駆動制御され焦点距離を調整して光学的に画角を変更する(つまり、ズームレンズ102はワイド端とズーム端との間で移動可能である)。フォーカスレンズ103は、フォーカスレンズ駆動制御部113によって駆動制御されてピント調整を行う。   The zoom lens 102 is driven and controlled by the zoom lens drive control unit 112 and optically changes the angle of view by adjusting the focal length (that is, the zoom lens 102 is movable between the wide end and the zoom end). . The focus lens 103 is driven and controlled by the focus lens drive control unit 113 to perform focus adjustment.

レンズ鏡筒101の後段には、CCD又はCMOSイメージセンサなどの撮像素子104が配置されている。撮像素子104にはレンズ鏡筒101を介して光学像(被写体像)が結像する。そして、撮像素子104は光学像に応じた電気信号(アナログ信号、つまり、撮像信号)を出力する。   An imaging element 104 such as a CCD or CMOS image sensor is disposed at the rear stage of the lens barrel 101. An optical image (subject image) is formed on the image sensor 104 via the lens barrel 101. The image sensor 104 outputs an electrical signal (analog signal, that is, an image signal) corresponding to the optical image.

撮像信号処理部105は撮像素子104の出力である撮像信号を受けて、当該撮像信号をA/D変換した後、所定の信号処理を施して映像信号(画像データ)として出力する。映像信号処理部106は撮像信号処理部105の出力である映像信号に対して、例えば、画素補間処理、色変換処理、およびリサイズ処理などの画像処理を施す。そして、映像信号処理部106は表示用画像信号を表示部107に出力する。   The imaging signal processing unit 105 receives an imaging signal that is an output of the imaging element 104, A / D-converts the imaging signal, performs predetermined signal processing, and outputs it as a video signal (image data). The video signal processing unit 106 performs image processing such as pixel interpolation processing, color conversion processing, and resizing processing on the video signal that is the output of the imaging signal processing unit 105. Then, the video signal processing unit 106 outputs the display image signal to the display unit 107.

さらに、映像信号処理部106は、表示用画像信号(つまり、表示用画像)に対して、後述するサブ画像と第1および第2のズーム枠とを付加する表示処理を行う。そして、映像信号処理部106は、サブ画像と第1および第2のズーム枠とが付加された表示用画像信号を表示部107に出力する。   Furthermore, the video signal processing unit 106 performs display processing for adding a later-described sub image and first and second zoom frames to the display image signal (that is, the display image). Then, the video signal processing unit 106 outputs a display image signal to which the sub image and the first and second zoom frames are added to the display unit 107.

表示部107は、例えば、TFT型LCDであり、映像信号処理部106の出力である表示用画像信号に応じた画像を画面表示する。制御部108は、カメラ100全体の制御を司り、例えば、CPUなどの演算装置で構成される。制御部108は、ROM109に記録された各種の制御プログラムに従ってカメラ100を制御する。   The display unit 107 is, for example, a TFT type LCD, and displays an image corresponding to the display image signal output from the video signal processing unit 106 on the screen. The control unit 108 controls the entire camera 100, and is configured by an arithmetic device such as a CPU, for example. The control unit 108 controls the camera 100 according to various control programs recorded in the ROM 109.

記憶部110には、撮像信号処理部105の出力である映像信号(画像データ)が記録されるとともに、映像信号処理部106の出力である表示用画像信号が記憶される。ズームスイッチ111はズームレンズ102を操作する際に用いられる。ユーザによるズームスイッチ111の操作に応じて、ズームレンズ駆動制御部112は、制御部108の制御下でズームレンズ102を駆動制御する。また、フォーカスレンズ駆動制御部113は、制御部108の制御下でフォーカスレンズ103を駆動制御する。   In the storage unit 110, a video signal (image data) that is an output of the imaging signal processing unit 105 is recorded, and a display image signal that is an output of the video signal processing unit 106 is stored. The zoom switch 111 is used when operating the zoom lens 102. The zoom lens drive control unit 112 drives and controls the zoom lens 102 under the control of the control unit 108 according to the operation of the zoom switch 111 by the user. The focus lens drive control unit 113 controls the drive of the focus lens 103 under the control of the control unit 108.

算出部114は、後述するサブ画像に対する、現在撮像されているライブビュー画像の相対画角サイズおよび位置を算出する。被写体選択部115は、主被写体を選択する際に用いられる。被写体選択部115は、表示部107に表示された画像の任意の領域を選択するため、方向キーおよび決定キーなどの物理ボタン、そして、表示部107の全面に配置されたタッチパネルなどを有している。   The calculation unit 114 calculates the relative field angle size and position of a live view image that is currently captured with respect to a sub-image described later. The subject selection unit 115 is used when selecting a main subject. The subject selection unit 115 includes physical buttons such as a direction key and a determination key and a touch panel arranged on the entire surface of the display unit 107 in order to select an arbitrary region of the image displayed on the display unit 107. Yes.

追尾部116は、被写体選択部115の操作によって主被写体として選択された被写体領域を追尾する処理を行う。操作部117は、カメラ100に電源電圧を供給するための電源スイッチ、撮像開始を指示するレリーズスイッチ、およびモード切替えスイッチなどを備えている。そして、操作部117の操作に応じた操作信号が制御部108に送られる。角速度センサ118は、カメラ100に加わる角速度を検出する。   The tracking unit 116 performs processing for tracking the subject area selected as the main subject by the operation of the subject selection unit 115. The operation unit 117 includes a power switch for supplying a power supply voltage to the camera 100, a release switch for instructing start of imaging, a mode switch, and the like. Then, an operation signal corresponding to the operation of the operation unit 117 is sent to the control unit 108. Angular velocity sensor 118 detects the angular velocity applied to camera 100.

図2は、図1に示すカメラ100における撮像動作の際に表示部107に表示される画面の遷移の一例を説明するための図である。そして、図2(a)は静止画撮像モードが設定された直後の表示画面を示す図であり、図2(b)はワイド端からズームアップを行った後の表示画面を示す図である。また、図2(c)は主被写体の選択を行う際の表示画面を示す図であり、図2(d)は選択した主被写体を追尾した際の最後の時点における表示画面を示す図である。さらに、図2(e)は主被写体が追尾不能となった後に所定の時間が経過した後の表示画面を示す図である。   FIG. 2 is a diagram for explaining an example of transition of the screen displayed on the display unit 107 during the imaging operation of the camera 100 shown in FIG. FIG. 2A is a diagram showing a display screen immediately after the still image capturing mode is set, and FIG. 2B is a diagram showing the display screen after zooming in from the wide end. FIG. 2C is a diagram showing a display screen when the main subject is selected, and FIG. 2D is a diagram showing a display screen at the last time point when the selected main subject is tracked. . Further, FIG. 2 (e) is a diagram showing a display screen after a predetermined time has elapsed after the main subject becomes unable to be tracked.

いま、カメラ100において、操作部117に備えられたモード切替えスイッチが操作されて静止画を撮影可能な撮像モード(静止画撮像モード)が設定されたとする。静止画撮像モード設定直後においては、表示部107の画面上にはライブビュー画像201(第1の画像)が表示される(図2(a)参照)。   Now, in the camera 100, it is assumed that a mode switching switch provided in the operation unit 117 is operated and an imaging mode (still image imaging mode) capable of capturing a still image is set. Immediately after setting the still image capturing mode, the live view image 201 (first image) is displayed on the screen of the display unit 107 (see FIG. 2A).

図示のライブビュー画像201は、ズームレンズ102がワイド端に位置する際の画像である。ライブビュー画像201が表示部201に表示された後、ズームスイッチ111によってズームレンズ102がワイド端からズームアップされると、表示部107には図2(b)に示す画像が表示される。   The illustrated live view image 201 is an image when the zoom lens 102 is positioned at the wide end. After the live view image 201 is displayed on the display unit 201, when the zoom lens 102 is zoomed up from the wide end by the zoom switch 111, the image illustrated in FIG. 2B is displayed on the display unit 107.

図2(b)においては、ズームアップ後のライブビュー画像203(第2の画像)が表示部107に表示される。そして、ズームアップ前においてワイド端で得られたライブビュー画像201がサブ画像202(第1の画像)としてライブビュー画像203に重畳されて表示部107に表示される。さらに、サブ画像202には、サブ画像202の画角に対するライブビュー画像203の画角を表す第1のズーム枠204が重畳表示される。   In FIG. 2B, the live view image 203 (second image) after zooming up is displayed on the display unit 107. Then, the live view image 201 obtained at the wide end before zooming up is superimposed on the live view image 203 and displayed on the display unit 107 as a sub image 202 (first image). Further, the first zoom frame 204 representing the angle of view of the live view image 203 with respect to the angle of view of the sub image 202 is superimposed and displayed on the sub image 202.

なお、サブ画像202の表示に当たっては、算出部114によってサブ画像202に対する、ライブビュー画像203の相対画角サイズおよび位置が算出されることになる。   In displaying the sub image 202, the calculation unit 114 calculates the relative field angle size and position of the live view image 203 with respect to the sub image 202.

続いて、さらにズームアップを行うと、表示部107には図2(c)に示すライブビュー画像205(第2の画像)が表示される。この際にも、ズームアップ前においてワイド端で得られたライブビュー画像201がサブ画像202としてライブビュー画像205に重畳されて表示部107に表示される。さらに、サブ画像202には、サブ画像202の画角に対するライブビュー画像205の画角を表す第1のズーム枠204が重畳表示される。   Subsequently, when zooming up is further performed, a live view image 205 (second image) shown in FIG. 2C is displayed on the display unit 107. Also at this time, the live view image 201 obtained at the wide end before zooming up is superimposed on the live view image 205 as a sub image 202 and displayed on the display unit 107. Further, a first zoom frame 204 representing the angle of view of the live view image 205 with respect to the angle of view of the sub image 202 is superimposed on the sub image 202.

ここで、ユーザが被写体選択部115によって被写体206を主被写体として選択したとする。主被写体206を選択すると、ズームアップの継続中、追尾部116は、制御部108の制御下で主被写体を追尾する。そして、ズームアップによって主被写体206がライブビュー画像207から外れる直前の状態となってとする(図2(d)参照)。ここでは、表示部107にはライブビュー画像207(第2の画像)が表示されるとともに、当該ライブビュー画像207に重畳してサブ画像202が表示される。さらに、サブ画像202に重畳して第1のズーム枠204が表示される。   Here, it is assumed that the user selects the subject 206 as the main subject by the subject selection unit 115. When the main subject 206 is selected, the tracking unit 116 tracks the main subject under the control of the control unit 108 while zooming in is continued. Then, a state immediately before the main subject 206 is detached from the live view image 207 by zooming up is set (see FIG. 2D). Here, the live view image 207 (second image) is displayed on the display unit 107, and the sub image 202 is displayed superimposed on the live view image 207. Further, the first zoom frame 204 is displayed so as to be superimposed on the sub image 202.

図2(d)においては、主被写体206が追尾可能であった最後の時点におけるライブビュー画像207が表示されており、主被写体206が追尾不能な状態となってから、所定の時間が経過すると、表示部107に図2(e)に示す画面が表示される。   In FIG. 2D, the live view image 207 at the last time point when the main subject 206 was trackable is displayed, and when a predetermined time elapses after the main subject 206 becomes untrackable. The screen shown in FIG. 2E is displayed on the display unit 107.

図2(e)に示す画面においては、ズームアップ後のライブビュー画像208(第2の画像)が表示され、当該ライブビュー画像に重畳してサブ画像202が表示される。さらに、サブ画像202には、サブ画像202の画角に対するライブビュー画像208の画角を表す第1のズーム枠204が重畳表示される。   On the screen shown in FIG. 2E, the live view image 208 (second image) after zooming up is displayed, and the sub image 202 is displayed superimposed on the live view image. Furthermore, a first zoom frame 204 representing the angle of view of the live view image 208 with respect to the angle of view of the sub image 202 is superimposed on the sub image 202.

また、当該サブ画像202には、主被写体206がライブビュー画像207の画角内に存在した最後の時点において、サブ画像202の画角に対するライブビュー画像207の画角を表す第2のズーム枠209が重畳して表示される。つまり、図2(e)に示す第2のズーム枠209は図2(d)における第1のズーム枠204に相当するものである。   In addition, the sub image 202 includes a second zoom frame representing the angle of view of the live view image 207 with respect to the angle of view of the sub image 202 at the last time point when the main subject 206 is within the angle of view of the live view image 207. 209 is superimposed and displayed. That is, the second zoom frame 209 shown in FIG. 2 (e) corresponds to the first zoom frame 204 in FIG. 2 (d).

ここで、操作部117に備えられたモード切替えスイッチ操作によって静止画撮像モードが設定されてズームアップが行われた際のサブ画像、第1のズーム枠、および第2のズーム枠の表示制御について説明する。   Here, regarding the display control of the sub image, the first zoom frame, and the second zoom frame when the still image capturing mode is set by the operation of the mode changeover switch provided in the operation unit 117 and the zoom up is performed. explain.

図3Aおよび図3Bは、図1に示すカメラで行われるサブ画像、第1のズーム枠、および第2のズーム枠の表示制御について説明するためのフローチャートである。なお、図示のフローチャートに係る処理は制御部108の制御下で行われる。   3A and 3B are flowcharts for explaining display control of the sub image, the first zoom frame, and the second zoom frame performed by the camera shown in FIG. Note that the processing according to the illustrated flowchart is performed under the control of the control unit 108.

表示制御が開始されると、制御部108の制御下で、映像信号処理部106は、撮像信号処理部105の出力である映像信号(画像データ)に対して画素補間処理、色変換処理、およびリサイズ処理などを施して表示用画像信号(つまり、ライブビュー画像)を生成する。そして、映像信号処理部106は記憶部110を介して当該ライブビュー画像を表示部107に表示する(ステップS301)。例えば、ステップS301においては、図2(a)に示すライブビュー画像201が表示部107に表示される。   When display control is started, under the control of the control unit 108, the video signal processing unit 106 performs pixel interpolation processing, color conversion processing, and video signal (image data) output from the imaging signal processing unit 105, and A display image signal (that is, a live view image) is generated by performing resizing processing or the like. Then, the video signal processing unit 106 displays the live view image on the display unit 107 via the storage unit 110 (step S301). For example, in step S301, the live view image 201 shown in FIG.

続いて、制御部108はズームスイッチ111によってズーム操作が行われたか否かを判定する(ステップS302)。ズームスイッチ111によってズーム操作が行われないと(ステップS302において、NO)、制御部108は待機する。一方、ズームスイッチ111によってズーム操作が行われると(ステップS302において、YES)、制御部108はズームスイッチ111におけるズーム操作量およびズーム操作方向を検出する(ステップS303)。   Subsequently, the control unit 108 determines whether or not a zoom operation has been performed by the zoom switch 111 (step S302). If the zoom operation is not performed by the zoom switch 111 (NO in step S302), the control unit 108 stands by. On the other hand, when the zoom operation is performed by the zoom switch 111 (YES in step S302), the control unit 108 detects the zoom operation amount and the zoom operation direction in the zoom switch 111 (step S303).

続いて、制御部108は、検出したズーム操作方向に基づいて当該ズーム操作がズームアップであるか否かを判定する(ステップS304)。ズーム操作がズームアップであると(ステップS304において、YES)、制御部108はズームレンズ102の現在位置がワイド端であるか否かを判定する(ステップS305)。   Subsequently, the control unit 108 determines whether or not the zoom operation is zooming up based on the detected zoom operation direction (step S304). If the zoom operation is zooming up (YES in step S304), control unit 108 determines whether or not the current position of zoom lens 102 is the wide end (step S305).

ズーム操作がズームアップでないと(ステップS304において、NO)、つまり、ズームアウトであると、制御部108は、検出したズーム操作量およびズーム操作方向に基づいてズームレンズ駆動制御部112を制御してズームレンズ102を駆動する(ステップS306)。そして、制御部108はステップS302の処理に戻る。   If the zoom operation is not zoom up (NO in step S304), that is, if it is zoom out, the control unit 108 controls the zoom lens drive control unit 112 based on the detected zoom operation amount and zoom operation direction. The zoom lens 102 is driven (step S306). And the control part 108 returns to the process of step S302.

ズームレンズ102の現在位置がワイド端でないと(ステップS305において、NO)、制御部108はステップS306の処理に進む。一方、ズームレンズ102の現在位置がワイド端であると(ステップS305において、YES)、制御部108の制御下で映像信号処理部106は画像データに対して画素補間処理、色変換処理、およびリサイズ処理などを施してサブ画像を生成する(ステップS307)。そして、映像信号処理部106は当該サブ画像を記憶部110のサブ画像用領域に記憶する。   If the current position of the zoom lens 102 is not the wide end (NO in step S305), the control unit 108 proceeds to the process of step S306. On the other hand, when the current position of zoom lens 102 is at the wide end (YES in step S305), video signal processing unit 106 performs pixel interpolation processing, color conversion processing, and resizing on the image data under the control of control unit 108. A sub-image is generated by performing processing or the like (step S307). Then, the video signal processing unit 106 stores the sub image in the sub image area of the storage unit 110.

上記のサブ画像は上記のライブビュー画像(ズームアップ前のライブビュー画像、つまり、現在の画像データ)をリサイズ処理した画像であり、当該リサイズ処理においては、ステップS301で行われたリサイズ処理よりもその縮小率を高くしてライブビュー画像をリサイズする。   The sub image is an image obtained by resizing the live view image (live view image before zoom-up, that is, current image data). In the resize process, the resize process is more than the resize process performed in step S301. Increase the reduction ratio and resize the live view image.

続いて、制御部108はサブ画像用領域に記憶されたサブ画像をライブビュー画像に重畳して表示部107に表示する(ステップS308)。そして、制御部108は、検出したズーム操作量およびズーム操作方向に基づいてズームレンズ駆動制御部112を制御してズームレンズ102を駆動する(ステップS309)。   Subsequently, the control unit 108 superimposes the sub image stored in the sub image area on the live view image and displays it on the display unit 107 (step S308). Then, the control unit 108 controls the zoom lens drive control unit 112 based on the detected zoom operation amount and zoom operation direction to drive the zoom lens 102 (step S309).

次に、制御部108の制御下で、算出部114は、ステップS303で検出されたズーム操作量およびズーム操作方向に基づいて第1のズーム枠のサイズ(相対サイズ)を算出する(ステップS310)。なお、第1のズーム枠のサイズの算出は逐次行われる。   Next, under the control of the control unit 108, the calculation unit 114 calculates the size (relative size) of the first zoom frame based on the zoom operation amount and the zoom operation direction detected in step S303 (step S310). . Note that the calculation of the size of the first zoom frame is performed sequentially.

続いて、算出部114はサブ画像に対するライブビュー画像の相対位置を算出する(ステップS311)。なお、サブ画像に対するライブビュー画像の相対位置の算出は逐次行われる。   Subsequently, the calculation unit 114 calculates the relative position of the live view image with respect to the sub image (step S311). Note that the calculation of the relative position of the live view image with respect to the sub image is performed sequentially.

上記の相対位置の算出に当たっては、角速度センサ118で得られるカメラ100の角速度に応じて、算出部114はサブ画像の記憶時から現在までのカメラ100の移動量を求める。そして、算出部114は当該移動量に応じてサブ画像に対するライブビュー画像の相対位置を算出する。なお、相対位置の算出の際には、角速度センサ118を用いることなく、画像処理によってサブ画像とライブビュー画像とを比較して相対位置を算出するようにしてもよい。   In calculating the relative position, the calculation unit 114 obtains the movement amount of the camera 100 from the time when the sub image is stored until the present time, according to the angular velocity of the camera 100 obtained by the angular velocity sensor 118. Then, the calculation unit 114 calculates the relative position of the live view image with respect to the sub image according to the movement amount. When calculating the relative position, the relative position may be calculated by comparing the sub-image and the live view image by image processing without using the angular velocity sensor 118.

続いて、制御部108は、上述の第1のズーム枠のサイズおよび相対位置に応じて映像信号処理部106を制御して、第1のズーム枠を表示部107に表示する(ステップS312)。なお、第1のズーム枠のサイズおよび相対位置の更新に応じて第1のズーム枠の表示も逐次更新されることになる。   Subsequently, the control unit 108 controls the video signal processing unit 106 according to the size and relative position of the first zoom frame, and displays the first zoom frame on the display unit 107 (step S312). Note that the display of the first zoom frame is sequentially updated in accordance with the update of the size and relative position of the first zoom frame.

上記のステップS312において、例えば、図2(b)に示すライブビュー画像203が表示部107に表示されるとともに、サブ画像202がライブビュー画像203に重畳して表示される。さらに、サブ画像202に重畳して第1のズーム枠204が表示される。   In step S <b> 312, for example, the live view image 203 illustrated in FIG. 2B is displayed on the display unit 107 and the sub image 202 is displayed so as to be superimposed on the live view image 203. Further, the first zoom frame 204 is displayed so as to be superimposed on the sub image 202.

次に、制御部108は、被写体選択部115の操作によって操作によって主被写体が選択されたか否かを判定する(ステップS313)。主被写体を選択する際には、例えば、図2(c)に示す画面が表示部107に表示されている。   Next, the control unit 108 determines whether or not a main subject has been selected by an operation of the subject selection unit 115 (step S313). When selecting the main subject, for example, a screen shown in FIG. 2C is displayed on the display unit 107.

主被写体が選択されないと(ステップS313において、NO)、制御部108は待機する。なお、主被写体を選択する際には、ユーザによる被写体選択部115の操作に拘わらず、制御部108が認識処理などによって主被写体を選択するようにしてもよい。   If the main subject is not selected (NO in step S313), control unit 108 waits. Note that when the main subject is selected, the control unit 108 may select the main subject by a recognition process or the like regardless of the operation of the subject selection unit 115 by the user.

主被写体が選択されると(ステップS313において、YES)、制御部108は追尾部116によって、選択された主被写体の追尾を行う(ステップS314)。この際、追尾部116は、主被写体の領域におけるRGB信号、輝度信号、および外接矩形の縦横比などを主被写体の特徴量として求めて、当該特徴量を記憶部110に記憶する。そして、追尾部116は、記憶部110に記憶された特徴量に応じて、撮像の結果順次得られる画像データにおいて当該特徴量と最も類似する領域を検出して、主被写体の追尾を行う。なお、主被写体の追尾手法は上記の手法に限定されるものではなく、主被写体を追尾する手法であれば他の手法を用いるようにしてもよい。   When the main subject is selected (YES in step S313), the control unit 108 tracks the selected main subject using the tracking unit 116 (step S314). At this time, the tracking unit 116 determines the RGB signal, the luminance signal, the aspect ratio of the circumscribed rectangle, and the like in the main subject area as the feature amount of the main subject, and stores the feature amount in the storage unit 110. The tracking unit 116 then tracks the main subject by detecting a region most similar to the feature amount in the image data sequentially obtained as a result of imaging in accordance with the feature amount stored in the storage unit 110. Note that the main subject tracking method is not limited to the above-described method, and other methods may be used as long as the main subject is tracked.

続いて、制御部108は、記憶部110の特定領域に、第1のズーム枠のサイズおよびサブ画像に対するライブビュー画像の相対位置の記憶を開始する(ステップS315)。そして、制御部108は、追尾部116において主被写体の追尾が不能となったか否かを判定する(ステップS316)。つまり、制御部108は主被写体がライブビュー画像の画角から外れたか否かを判定することになる。   Subsequently, the control unit 108 starts storing the size of the first zoom frame and the relative position of the live view image with respect to the sub image in the specific area of the storage unit 110 (step S315). Then, the control unit 108 determines whether or not the tracking of the main subject is disabled in the tracking unit 116 (step S316). That is, the control unit 108 determines whether or not the main subject has deviated from the angle of view of the live view image.

追尾部116による主被写体の追尾不能が不能とならないと(ステップS316において、NO)、つまり、主被写体の追尾が可能な状態である限り、制御部108は待機する。一方、追尾部116による主被写体の追尾不能が不能となると(ステップS316において、YES)、制御部108は、記憶部110の特定領域への第1のズーム枠のサイズおよびサブ画像に対するライブビュー画像の相対位置の記憶を終了する(ステップS317)。   If tracking of the main subject by the tracking unit 116 is not disabled (NO in step S316), that is, as long as the main subject can be tracked, the control unit 108 stands by. On the other hand, when tracking of the main subject by tracking unit 116 becomes impossible (YES in step S316), control unit 108 determines the size of the first zoom frame to the specific area of storage unit 110 and the live view image for the sub image. The storage of the relative position is terminated (step S317).

ここでは、主被写体206が追尾可能であった最後の時点におけるライブビュー画像が表示部107に表示されることになる。例えば、図2(d)に示すライブビュー画像207が表示部107に表示されるとともに、サブ画像202がライブビュー画像203に重畳して表示される。さらに、サブ画像202に重畳して第1のズーム枠204が表示される。   Here, the live view image at the last time when the main subject 206 could be tracked is displayed on the display unit 107. For example, the live view image 207 shown in FIG. 2D is displayed on the display unit 107 and the sub image 202 is displayed superimposed on the live view image 203. Further, the first zoom frame 204 is displayed so as to be superimposed on the sub image 202.

図2(d)に示すライブビュー画像207が表示部107に表示された直後、主被写体206がライブビュー画像207の画角から外れ追尾不能となったとする。この場合、図2(d)に示す第1のズーム枠204の表示のために用いられた第1のズーム枠のサイズおよびサブ画像202に対するライブビュー画像207の相対位置が記憶部110の特定領域に最終的に記憶されたことになる。   Assume that immediately after the live view image 207 shown in FIG. 2D is displayed on the display unit 107, the main subject 206 deviates from the angle of view of the live view image 207 and tracking becomes impossible. In this case, the size of the first zoom frame used for display of the first zoom frame 204 shown in FIG. 2D and the relative position of the live view image 207 with respect to the sub image 202 are specified areas in the storage unit 110. It was finally memorized.

続いて、制御部108は、追尾不能と判定した後、予め設定された所定の時間が経過したか否かを判定する(ステップS318)。所定の時間が経過しないと(ステップS318において、NO)、制御部108は追尾不能となった主被写体が追尾部116によって再認識可能となったか否かを判定する(ステップS319)。   Subsequently, after determining that tracking is impossible, the control unit 108 determines whether a predetermined time set in advance has elapsed (step S318). If the predetermined time has not elapsed (NO in step S318), control unit 108 determines whether or not the main subject that has become untrackable can be re-recognized by tracking unit 116 (step S319).

主被写体の再認識が可能となると(ステップS319において、YES)、制御部108はステップS314の処理に戻って、追尾部116によって主被写体の追尾を開始する。主被写体の再認識が不能であると(ステップS319において、NO)、制御部108は、被写体選択部115によって主被写体が再選択されているか否かを判定する(ステップS320)。   When the main subject can be re-recognized (YES in step S319), control unit 108 returns to the process in step S314, and tracking unit 116 starts tracking the main subject. If re-recognition of the main subject is impossible (NO in step S319), control unit 108 determines whether or not the main subject is re-selected by subject selection unit 115 (step S320).

主被写体の再選択が行われないと(ステップS320において、NO)、制御部108はステップS318の処理に戻って、追尾不能な状態となってから所定の時間が経過したか否かを判定する。主被写体の再選択が行われると(ステップS320において、YES)、制御部108はステップS314の処理に戻って、追尾部116によって主被写体の追尾を開始する。   If the main subject is not reselected (NO in step S320), control unit 108 returns to the process in step S318 and determines whether or not a predetermined time has passed since the tracking became impossible. . When the main subject is reselected (YES in step S320), control unit 108 returns to the process in step S314, and tracking unit 116 starts tracking the main subject.

このようにして、主被写体が再認識可能な状態となるか又は追尾可能な被写体が主被写体として再選択されるまでステップS318からステップS320の処理が行われることになる。   In this way, the processing from step S318 to step S320 is performed until the main subject becomes re-recognizable or the trackable subject is reselected as the main subject.

所定の時間が経過すると(ステップS318において、YES)、制御部108は、記憶部110の特定領域に最後に記憶された第1のズーム枠のサイズおよびサブ画像に対するライブビュー画像の相対位置を参照して、表示部107に第2のズーム枠を表示する(ステップS321)。ステップS321の処理によって、例えば、図2(e)に示すように、表示部107にはライブビュー画像208内にサブ画像202が重畳して表示される。さらに、サブ画像202には第1のズーム枠204および第2のズーム枠209が重畳し表示されることになる。前述のように、図2(e)に示す第2のズーム枠209は図2(d)における第1のズーム枠204に相当し、第1のズーム枠204と同一のサイズで同一の位置に表示される。   When the predetermined time has elapsed (YES in step S318), control unit 108 refers to the size of the first zoom frame stored last in the specific area of storage unit 110 and the relative position of the live view image to the sub image. Then, the second zoom frame is displayed on the display unit 107 (step S321). By the processing in step S321, for example, as shown in FIG. 2E, the sub image 202 is superimposed on the live view image 208 and displayed on the display unit 107. Further, the first zoom frame 204 and the second zoom frame 209 are superimposed and displayed on the sub image 202. As described above, the second zoom frame 209 shown in FIG. 2 (e) corresponds to the first zoom frame 204 in FIG. 2 (d), and has the same size and the same position as the first zoom frame 204. Is displayed.

続いて、制御部108は、追尾部116によって追尾不能な主被写体が再認識可能となったか否かを判定する(ステップS322)。追尾不能な主被写体が再認識可能とならないと(ステップS322において、NO)、制御部108は、被写体選択部115によって主被写体が再選択されているか否かを判定する(ステップS323)。   Subsequently, the control unit 108 determines whether or not a main subject that cannot be tracked can be re-recognized by the tracking unit 116 (step S322). If the main subject that cannot be tracked is not re-recognizable (NO in step S322), control unit 108 determines whether or not the main subject is reselected by subject selection unit 115 (step S323).

主被写体の再選択が行われないと(ステップS323において、NO)、制御部108はステップS322の処理に戻って、追尾不能な主被写体が再認識可能となったか否かを判定する。主被写体の再選択が行われると(ステップS323において、YES)、制御部108は第2のズーム枠の表示を終了して(ステップS324)、ステップS314の処理に戻って、追尾部116によって主被写体の追尾を開始する。同様に、追尾不能な主被写体が再認識可能となると(ステップS322において、YES)、制御部108は、ステップS324の処理に進んで、第2のズーム枠の表示を終了する。   If the main subject is not reselected (NO in step S323), the control unit 108 returns to the process in step S322 and determines whether or not the main subject that cannot be tracked can be re-recognized. When the main subject is reselected (YES in step S323), the control unit 108 ends the display of the second zoom frame (step S324), returns to the process in step S314, and is performed by the tracking unit 116. Start tracking the subject. Similarly, when the main subject that cannot be tracked can be re-recognized (YES in step S322), control unit 108 proceeds to the process of step S324 and ends the display of the second zoom frame.

このようにして、主被写体が再認識可能な状態となるか又は追尾可能な他の被写体が主被写体として再選択されるまで、ステップS322からステップS323の処理が行われることになる。   In this way, the processing from step S322 to step S323 is performed until the main subject becomes re-recognizable or another subject that can be tracked is selected again as the main subject.

なお、上述の例では、表示部107に表示されるサブ画像202としてズームアップ直前のワイド端における画像データを用いるようにしたが、ワイド端における画像データ以外の画像データを用いるようにしてもよい。例えば、所定のズーム倍率以下の条件において予め定められた時間、ライブビュー画像の画角が変更されなかった場合には、予め定められた時間が経過した時点において映像信号処理部106に入力された画像データを用いてサブ画像を生成するようにしてもよい。この際には、サブ画像および第1のズーム枠の更新は次にズームアップの操作指示が行われた後に行われることになる。   In the above example, the image data at the wide end immediately before zooming up is used as the sub image 202 displayed on the display unit 107, but image data other than the image data at the wide end may be used. . For example, when the angle of view of the live view image has not been changed for a predetermined time under a condition of a predetermined zoom magnification or less, the video signal processing unit 106 is input when the predetermined time has elapsed. A sub image may be generated using image data. At this time, the sub-image and the first zoom frame are updated after the next zoom-in operation instruction is performed.

さらに、上記のステップS321においては、記憶部110の特定領域に最後に記憶された第1のズーム枠のサイズおよびサブ画像に対するライブビュー画像の相対位置を用いて第2のズーム枠を表示するようにしたが、例えば、記憶部110に最初に記憶された第1のズーム枠のサイズおよび相対位置を用いるようにしてもよい。この場合には、図2(e)において、第2のズーム枠209は、図2(c)における第1のズーム枠204と同一のサイズでかつ同一の位置に表示される。   Further, in the above step S321, the second zoom frame is displayed using the size of the first zoom frame stored last in the specific area of the storage unit 110 and the relative position of the live view image with respect to the sub image. However, for example, the size and relative position of the first zoom frame initially stored in the storage unit 110 may be used. In this case, in FIG. 2E, the second zoom frame 209 is displayed at the same size and the same size as the first zoom frame 204 in FIG.

また、第2のズーム枠を表示する際には、第2のズーム枠を表示する直前における第1のズーム枠のサイズと記憶部110の特定領域に記憶された第1のズーム枠のサイズとを比較して最も類似する第1のズーム枠のサイズを用いるようにしてもよい。これによって、第1のズーム枠のサイズと第2のズーム枠のサイズとが類似するので、第1のズーム枠を第2のズーム枠に合わせやすくなる。つまり、ユーザは主被写体を再度ライブビュー画像の画角に入れることが容易となる。   Further, when displaying the second zoom frame, the size of the first zoom frame immediately before displaying the second zoom frame and the size of the first zoom frame stored in the specific area of the storage unit 110 are displayed. And the most similar size of the first zoom frame may be used. As a result, the size of the first zoom frame and the size of the second zoom frame are similar, so that the first zoom frame can be easily adjusted to the second zoom frame. That is, the user can easily put the main subject in the angle of view of the live view image again.

加えて、ライブビュー画像の画角において主被写体の位置を遂次検出して、ライブビュー画像の画角において主被写体の位置が中心位置に最も近い時点における第1のズーム枠のサイズおよび相対位置を用いて、第2のズーム枠を表示するようにしてもよい。そして、ライブビュー画像の画角に主被写体が存在する期間に得られた第1のズーム枠のサイズおよび相対位置であれば、いずれの第1のズーム枠のサイズおよび相対位置を用いるようにしてもよい。   In addition, the size and relative position of the first zoom frame at the time point when the position of the main subject is closest to the center position in the angle of view of the live view image is sequentially detected at the angle of view of the live view image. May be used to display the second zoom frame. Then, if the size and relative position of the first zoom frame obtained during the period in which the main subject exists at the angle of view of the live view image, the size and relative position of any first zoom frame are used. Also good.

上述の例では、ワイド端からズームアップを行った後に主被写体の選択を行うものとしたが、ワイド端からズームアップを行う前に主被写体を選択するようにしてもよい。この場合には、ステップS312の処理が終了した後、ステップS313およびステップS314の処理を省略してステップS315の処理に進む。   In the above example, the main subject is selected after zooming in from the wide end, but the main subject may be selected before zooming in from the wide end. In this case, after the process of step S312 is complete | finished, the process of step S313 and step S314 is abbreviate | omitted and it progresses to the process of step S315.

また、上述の例では、サブ画像をライブビュー画像に重畳して表示するようにしたが。ライブビュー画像とは別の表示領域にサブ画像を重畳させることなく表示するようにしてもよい。そして、この際には、ライブビュー画像の表示領域のサイズを変更するようにしてもよく、表示部107とは別に内蔵又は外付けされたサブ画像用の表示部にサブ画像を表示するようにしてもよい。   In the above example, the sub-image is displayed superimposed on the live view image. You may make it display, without superimposing a sub image on the display area different from a live view image. In this case, the size of the display area of the live view image may be changed, and the sub image is displayed on a display unit for a sub image incorporated or externally provided separately from the display unit 107. May be.

このように、本発明の第1の実施形態では、主被写体が現在のライブビュー画像の画角から外れると、ワイド端などで得られたライブビュー画像に対応するサブ画像に現在のライブビュー画像の位置を示す第1のズーム枠を表示する。さらに、当該サブ画像に主被写体の位置を示す第2のズーム枠を表示する。これによって、主被写体が撮像画角から外れた際においても、ユーザは主被写体位置を容易に把握することができる。   As described above, in the first embodiment of the present invention, when the main subject deviates from the angle of view of the current live view image, the current live view image is displayed on the sub image corresponding to the live view image obtained at the wide end or the like. A first zoom frame indicating the position of is displayed. Further, a second zoom frame indicating the position of the main subject is displayed on the sub-image. As a result, even when the main subject deviates from the imaging angle of view, the user can easily grasp the position of the main subject.

[第2の実施形態]
続いて、本発明の第2の実施形態におるカメラの一例について説明する。なお、第2の実施形態によるカメラの構成は図1に示すカメラと同様であるので、ここでは、説明を省略する。
[Second Embodiment]
Next, an example of a camera according to the second embodiment of the present invention will be described. The configuration of the camera according to the second embodiment is the same as that of the camera shown in FIG.

上述の第1の実施形態においては、ワイド端からズームアップ操作が行われると、常にサブ画像および第1のズーム枠を表示部107に表示するようにした。ところが、主被写体がライブビュー画像の画角に存在し、ユーザが主被写体を認識している場合には、ワイド端におけるライブビュー画像に対応するサブ画像において現在のライブビュー画像の相対位置を知る必要性が低いことがある。   In the first embodiment described above, when the zoom-up operation is performed from the wide end, the sub image and the first zoom frame are always displayed on the display unit 107. However, when the main subject exists at the angle of view of the live view image and the user recognizes the main subject, the relative position of the current live view image is known in the sub image corresponding to the live view image at the wide end. The need may be low.

このため、第2の実施形態においてはサブ画像および第1のズーム枠を常に表示部107表示することなく、主被写体がライブビュー画像の画角に存在しなくなった際に、サブ画像および第1のズーム枠を表示するようにする。   For this reason, in the second embodiment, the sub image and the first zoom frame are not always displayed on the display unit 107, and the sub image and the first zoom frame are displayed when the main subject no longer exists at the angle of view of the live view image. The zoom frame is displayed.

図4Aおよび図4Bは、本発明の第2の実施形態によるカメラで行われるサブ画像、第1のズーム枠、および第2のズーム枠の表示制御について説明するためのフローチャートである。   4A and 4B are flowcharts for explaining display control of the sub-image, the first zoom frame, and the second zoom frame performed by the camera according to the second embodiment of the present invention.

なお、図示のフローチャートに係る処理は制御部108の制御下で行われる。また、図4Aおよび図4Bにおいて、図3Aおよび図3Bに示すステップと同一のステップについて同一の参照符号を付して説明を省略する。   Note that the processing according to the illustrated flowchart is performed under the control of the control unit 108. 4A and 4B, the same steps as those shown in FIGS. 3A and 3B are denoted by the same reference numerals, and description thereof is omitted.

図3Aおよび図3Bで説明したステップS307の処理を行った後、制御部108は、図3Aおよび図3Bで説明したステップS309〜S311の処理を行う。つまり、ここでは、制御部108はライブビュー画像に重畳してサブ画像の表示を行わない。   After performing the process of step S307 described with reference to FIGS. 3A and 3B, the control unit 108 performs the processes of steps S309 to S311 described with reference to FIGS. 3A and 3B. That is, here, the control unit 108 does not superimpose the live view image and does not display the sub image.

ステップS311の処理が終了すると、制御部108は、図3Aおよび図3Bで説明したステップS313〜S317の処理を行う。ここでは、制御部108は第1のズーム枠の表示を行わない。   When the process of step S311 ends, the control unit 108 performs the processes of steps S313 to S317 described with reference to FIGS. 3A and 3B. Here, the control unit 108 does not display the first zoom frame.

ステップS317の処理の後、制御部108は、ステップS307においてサブ画像領域に記憶したサブ画像を表示部107に表示するとともに、ステップS310およびステップS311で得られた第1のズーム枠のサイズおよび相対位置に応じてサブ画像に重畳して第1のズーム枠を表示する(ステップS416)。その後、制御部108は、図3Aおよび図3Bで説明したステップS318の処理を行う。   After the process of step S317, the control unit 108 displays the sub-image stored in the sub-image area in step S307 on the display unit 107, and the size and relative size of the first zoom frame obtained in step S310 and step S311. The first zoom frame is displayed superimposed on the sub-image according to the position (step S416). Thereafter, the control unit 108 performs the process of step S318 described with reference to FIGS. 3A and 3B.

追尾不能となってから所定の時間が経過しないと(ステップS318において、NO)、制御部108は追尾不能となった主被写体が追尾部116によって再認識可能となったか否かを判定する(ステップS418)。主被写体の再認識が不能であると(ステップS418において、NO)、制御部108は、被写体選択部115によって主被写体が再選択されているか否かを判定する(ステップS419)。主被写体の再選択が行われないと(ステップS419において、NO)、制御部108はステップS318の処理に戻って、追尾不能な状態となってから所定の時間が経過したか否かを判定する。   If the predetermined time has not elapsed since the tracking became impossible (NO in step S318), the control unit 108 determines whether or not the main subject that has become untrackable can be re-recognized by the tracking unit 116 (step S318). S418). If re-recognition of the main subject is impossible (NO in step S418), control unit 108 determines whether or not the main subject has been re-selected by subject selection unit 115 (step S419). If the main subject is not reselected (NO in step S419), control unit 108 returns to the process in step S318 and determines whether or not a predetermined time has passed since the tracking became impossible. .

主被写体の再選択が行われると(ステップS419において、YES)、制御部108はサブ画像および第1のズーム枠の表示を終了する(ステップS420)。そして、制御部108は、ステップS314の処理に戻って、追尾部116によって主被写体の追尾を行う。同様に、主被写体の再認識が可能となると(ステップS418において、YES)、制御部108はステップS420の処理に進み、サブ画像および第1のズーム枠の表示を終了する。   When the main subject is reselected (YES in step S419), control unit 108 ends the display of the sub image and the first zoom frame (step S420). Then, the control unit 108 returns to the process of step S314 and performs tracking of the main subject by the tracking unit 116. Similarly, when the main subject can be re-recognized (YES in step S418), control unit 108 proceeds to the process of step S420, and ends the display of the sub image and the first zoom frame.

追尾不能となってから所定の時間が経過すると(ステップS318において、YES)、制御部108は、図3Aおよび図3Bで説明したステップS321〜S323の処理を行う。そして、主被写体が再認識されるか又は主被写体が再選択されると、制御部108は、サブ画像、第1のズーム枠、および第2のズーム枠の表示を終了する(ステップS424)。その後、制御部108は、ステップS314の処理に戻って、追尾部116によって主被写体の追尾を行う。   When a predetermined time has elapsed since tracking became impossible (YES in step S318), control unit 108 performs the processes of steps S321 to S323 described with reference to FIGS. 3A and 3B. When the main subject is re-recognized or the main subject is selected again, the control unit 108 ends the display of the sub image, the first zoom frame, and the second zoom frame (step S424). Thereafter, the control unit 108 returns to the process of step S314, and the tracking unit 116 tracks the main subject.

このように、本発明の第2の実施形態では、主被写体がライブビュー画像の画角に存在していない場合にのみサブ画像および第1のズーム枠を表示部107に表示する。これによって、サブ画像が不必要な場合にはサブ画像によってライブビュー画像の可視領域が制限されるという事態を防止することができる。   Thus, in the second embodiment of the present invention, the sub image and the first zoom frame are displayed on the display unit 107 only when the main subject does not exist at the angle of view of the live view image. As a result, when the sub image is unnecessary, it is possible to prevent a situation in which the visible region of the live view image is limited by the sub image.

なお、上述の例では、主被写体がライブビュー画像の画角に存在しなくなると、直ちにサブ画像および第1のズーム枠を表示部107に表示するようにしたが、追尾不能となった後、所定の時間が経過すると、第2のズーム枠とともにサブ画像および第1のズーム枠を表示するようにしてもよい。   In the above example, when the main subject no longer exists at the angle of view of the live view image, the sub image and the first zoom frame are immediately displayed on the display unit 107. When a predetermined time elapses, the sub image and the first zoom frame may be displayed together with the second zoom frame.

上述の説明から明らかなように、図1に示す例においては、レンズ鏡筒101、撮像素子、および撮像信号処理部105が撮像手段として機能する。また、算出部114および制御部118は算出手段として機能し、制御部108は表示部107とともに第1の表示制御手段および第2の表示制御手段として機能する。   As is clear from the above description, in the example shown in FIG. 1, the lens barrel 101, the imaging element, and the imaging signal processing unit 105 function as imaging means. The calculation unit 114 and the control unit 118 function as a calculation unit, and the control unit 108 functions as a first display control unit and a second display control unit together with the display unit 107.

以上、本発明について実施の形態に基づいて説明したが、本発明は、これらの実施の形態に限定されるものではなく、この発明の要旨を逸脱しない範囲の様々な形態も本発明に含まれる。   As mentioned above, although this invention was demonstrated based on embodiment, this invention is not limited to these embodiment, Various forms of the range which does not deviate from the summary of this invention are also contained in this invention. .

例えば、上記の実施の形態の機能を制御方法として、この制御方法を撮像装置に実行させるようにすればよい。また、上述の実施の形態の機能を有するプログラムを制御プログラムとして、当該制御プログラムを撮像装置が備えるコンピュータに実行させるようにしてもよい。なお、制御プログラムは、例えば、コンピュータに読み取り可能な記録媒体に記録される。   For example, the function of the above embodiment may be used as a control method, and this control method may be executed by the imaging apparatus. Further, a program having the functions of the above-described embodiments may be used as a control program, and the control program may be executed by a computer included in the imaging apparatus. The control program is recorded on a computer-readable recording medium, for example.

上記の制御方法および制御プログラムの各々は、少なくとも算出ステップ、第1の表示制御ステップ、および第2の表示制御ステップを有している。   Each of the above control method and control program has at least a calculation step, a first display control step, and a second display control step.

また、本発明は、以下の処理を実行することによっても実現される。つまり、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種の記録媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPUなど)がプログラムを読み出して実行する処理である。   The present invention can also be realized by executing the following processing. That is, software (program) that realizes the functions of the above-described embodiments is supplied to a system or apparatus via a network or various recording media, and the computer (or CPU, MPU, etc.) of the system or apparatus reads the program. To be executed.

102 ズームレンズ
104 撮像素子
105 撮像信号処理部
106 映像信号処理部
107 表示部
108 制御部
110 記憶部
111 ズームスイッチ
115 被写体選択部
116 追尾部
DESCRIPTION OF SYMBOLS 102 Zoom lens 104 Image pick-up element 105 Image pick-up signal processing part 106 Image | video signal processing part 107 Display part 108 Control part 110 Memory | storage part 111 Zoom switch 115 Subject selection part 116 Tracking part

Claims (8)

ワイド端とズーム端との間で移動可能なズームレンズを備え被写体を撮像する撮像手段を有する撮像装置であって、
前記ズームレンズを前記ズーム端の方向に移動させるズームアップが行われる前に前記撮像手段によって第1の画像を得るとともに、前記ズームアップの後に前記撮像手段によって第2の画像を得て、前記第1の画像に対する前記第2の画像の相対位置および相対サイズを求める算出手段と、
前記相対位置および前記相対サイズに基づいて前記第1の画像における前記第2の画像の位置を示す第1のズーム枠を生成して、前記第1の画像に前記第1のズーム枠を表示する第1の表示制御手段と、
前記第2の画像において主被写体が選択された後、前記第2の画像の画角から前記主被写体が外れると、当該主被写体が前記第2の画像の画角から外れる直前の前記第1のズーム枠に対応する第2のズーム枠を前記第1の画像に表示する第2の表示制御手段と、
を有することを特徴とする撮像装置。
An image pickup apparatus having an image pickup means for picking up an image of a subject having a zoom lens movable between a wide end and a zoom end,
A first image is obtained by the imaging means before zooming up to move the zoom lens in the direction of the zoom end, and a second image is obtained by the imaging means after the zooming up, Calculating means for calculating a relative position and a relative size of the second image with respect to one image;
A first zoom frame indicating the position of the second image in the first image is generated based on the relative position and the relative size, and the first zoom frame is displayed on the first image. First display control means;
After the main subject is selected in the second image, when the main subject deviates from the angle of view of the second image, the first subject immediately before the main subject deviates from the angle of view of the second image. Second display control means for displaying a second zoom frame corresponding to the zoom frame on the first image;
An imaging device comprising:
前記第1の表示制御手段は、前記第1の画像を所定の縮小率で縮小してサブ画像として前記第2の画像に重畳させて表示することを特徴とする請求項1に記載の撮像装置。   2. The imaging apparatus according to claim 1, wherein the first display control unit reduces the first image at a predetermined reduction ratio and displays the first image as a sub-image superimposed on the second image. . 前記第1の表示制御手段は、表示部において互いに異なる表示領域に前記第1の画像および前記第2の画像を表示することを特徴とする請求項1に記載の撮像装置。   The imaging apparatus according to claim 1, wherein the first display control unit displays the first image and the second image in different display areas in the display unit. 前記第2の表示制御手段は、前記主被写体が前記第2の画像の画角から外れた状態で所定の時間が経過すると、前記第2のズーム枠を前記第1の画像に表示することを特徴とする請求項1〜3のいずれか1項に記載の撮像装置。   The second display control means displays the second zoom frame on the first image when a predetermined time elapses with the main subject deviating from the angle of view of the second image. The imaging apparatus according to any one of claims 1 to 3, wherein the imaging apparatus is characterized in that 前記第1の画像は前記ズームレンズが前記ワイド端に位置する際の画像であることを特徴とする請求項1〜4のいずれか1項に記載の撮像装置。   The imaging apparatus according to claim 1, wherein the first image is an image when the zoom lens is positioned at the wide end. 前記第1の表示制御手段は、前記主被写体が前記第2の画像の画角から外れると、前記第2の画像とともに前記第1の画像に前記第1のズーム枠を表示することを特徴とする請求項1〜5のいずれか1項に記載の撮像装置。   The first display control means displays the first zoom frame on the first image together with the second image when the main subject deviates from the angle of view of the second image. The imaging device according to any one of claims 1 to 5. ワイド端とズーム端との間で移動可能なズームレンズを備え被写体を撮像する撮像手段を有する撮像装置の制御方法であって、
前記ズームレンズを前記ズーム端の方向に移動させるズームアップが行われる前に前記撮像手段によって第1の画像を得るとともに、前記ズームアップの後に前記撮像手段によって第2の画像を得て、前記第1の画像に対する前記第2の画像の相対位置および相対サイズを求める算出ステップと、
前記相対位置および前記相対サイズに基づいて前記第1の画像における前記第2の画像の位置を示す第1のズーム枠を生成して、前記第1の画像に前記第1のズーム枠を表示する第1の表示制御ステップと、
前記第2の画像において主被写体が選択された後、前記第2の画像の画角から前記主被写体が外れると、当該主被写体が前記第2の画像の画角から外れる直前の前記第1のズーム枠に対応する第2のズーム枠を前記第1の画像に表示する第2の表示制御ステップと、
を有することを特徴とする制御方法。
A method for controlling an imaging apparatus having an imaging unit that includes a zoom lens that is movable between a wide end and a zoom end and that captures an image of a subject,
A first image is obtained by the imaging means before zooming up to move the zoom lens in the direction of the zoom end, and a second image is obtained by the imaging means after the zooming up, Calculating a relative position and a relative size of the second image with respect to one image;
A first zoom frame indicating the position of the second image in the first image is generated based on the relative position and the relative size, and the first zoom frame is displayed on the first image. A first display control step;
After the main subject is selected in the second image, when the main subject deviates from the angle of view of the second image, the first subject immediately before the main subject deviates from the angle of view of the second image. A second display control step of displaying a second zoom frame corresponding to the zoom frame on the first image;
A control method characterized by comprising:
ワイド端とズーム端との間で移動可能なズームレンズを備え被写体を撮像する撮像手段を有する撮像装置で用いられる制御プログラムであって、
前記撮像装置が備えるコンピュータに、
前記ズームレンズを前記ズーム端の方向に移動させるズームアップが行われる前に前記撮像手段によって第1の画像を得るとともに、前記ズームアップの後に前記撮像手段によって第2の画像を得て、前記第1の画像に対する前記第2の画像の相対位置および相対サイズを求める算出ステップと、
前記相対位置および前記相対サイズに基づいて前記第1の画像における前記第2の画像の位置を示す第1のズーム枠を生成して、前記第1の画像に前記第1のズーム枠を表示する第1の表示制御ステップと、
前記第2の画像において主被写体が選択された後、前記第2の画像の画角から前記主被写体が外れると、当該主被写体が前記第2の画像の画角から外れる直前の前記第1のズーム枠に対応する第2のズーム枠を前記第1の画像に表示する第2の表示制御ステップと、
を実行させることを特徴とする制御プログラム。
A control program used in an image pickup apparatus having an image pickup means for picking up an image of a subject having a zoom lens movable between a wide end and a zoom end,
In the computer provided in the imaging device,
A first image is obtained by the imaging means before zooming up to move the zoom lens in the direction of the zoom end, and a second image is obtained by the imaging means after the zooming up, Calculating a relative position and a relative size of the second image with respect to one image;
A first zoom frame indicating the position of the second image in the first image is generated based on the relative position and the relative size, and the first zoom frame is displayed on the first image. A first display control step;
After the main subject is selected in the second image, when the main subject deviates from the angle of view of the second image, the first subject immediately before the main subject deviates from the angle of view of the second image. A second display control step of displaying a second zoom frame corresponding to the zoom frame on the first image;
A control program characterized by causing
JP2013262806A 2013-12-19 2013-12-19 Imaging device, control method thereof, and control program Expired - Fee Related JP6223170B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013262806A JP6223170B2 (en) 2013-12-19 2013-12-19 Imaging device, control method thereof, and control program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013262806A JP6223170B2 (en) 2013-12-19 2013-12-19 Imaging device, control method thereof, and control program

Publications (2)

Publication Number Publication Date
JP2015119400A true JP2015119400A (en) 2015-06-25
JP6223170B2 JP6223170B2 (en) 2017-11-01

Family

ID=53531746

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013262806A Expired - Fee Related JP6223170B2 (en) 2013-12-19 2013-12-19 Imaging device, control method thereof, and control program

Country Status (1)

Country Link
JP (1) JP6223170B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022209363A1 (en) * 2021-03-30 2022-10-06 富士フイルム株式会社 Information processing device, information processing system, information processing method, and program
WO2022228259A1 (en) * 2021-04-30 2022-11-03 华为技术有限公司 Target tracking method and related apparatus

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008009263A (en) * 2006-06-30 2008-01-17 Casio Comput Co Ltd Imaging device and program therefor
JP2010252258A (en) * 2009-04-20 2010-11-04 Sanyo Electric Co Ltd Electronic device and image capturing apparatus
JP2011211522A (en) * 2010-03-30 2011-10-20 Sony Corp Speaker apparatus
JP2012060595A (en) * 2010-09-13 2012-03-22 Canon Inc Imaging apparatus and control method for the same
JP2012060209A (en) * 2010-09-06 2012-03-22 Casio Comput Co Ltd Imaging apparatus and program
JP2013054429A (en) * 2011-09-01 2013-03-21 Renesas Electronics Corp Object tracking device

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008009263A (en) * 2006-06-30 2008-01-17 Casio Comput Co Ltd Imaging device and program therefor
JP2010252258A (en) * 2009-04-20 2010-11-04 Sanyo Electric Co Ltd Electronic device and image capturing apparatus
JP2011211522A (en) * 2010-03-30 2011-10-20 Sony Corp Speaker apparatus
JP2012060209A (en) * 2010-09-06 2012-03-22 Casio Comput Co Ltd Imaging apparatus and program
JP2012060595A (en) * 2010-09-13 2012-03-22 Canon Inc Imaging apparatus and control method for the same
JP2013054429A (en) * 2011-09-01 2013-03-21 Renesas Electronics Corp Object tracking device

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022209363A1 (en) * 2021-03-30 2022-10-06 富士フイルム株式会社 Information processing device, information processing system, information processing method, and program
WO2022228259A1 (en) * 2021-04-30 2022-11-03 华为技术有限公司 Target tracking method and related apparatus

Also Published As

Publication number Publication date
JP6223170B2 (en) 2017-11-01

Similar Documents

Publication Publication Date Title
JP5538865B2 (en) Imaging apparatus and control method thereof
US8736666B2 (en) Imaging device, display control method and program
JP5473551B2 (en) Auto focus system
JP5591006B2 (en) Control device for automatic tracking camera system and automatic tracking camera system having the same
JP5514506B2 (en) Intruder monitoring system and intruder monitoring method
US20110115929A1 (en) Image capturing apparatus
JP2005215040A (en) Autofocus system
US20110019066A1 (en) Af frame auto-tracking system
KR20120131365A (en) Image photographing device and control method thereof
JP2010124120A (en) Autofocus system
JP2009199049A (en) Imaging apparatus and imaging apparatus control method, and computer program
JP2008003335A (en) Imaging apparatus, focus control method, focus control program
KR20140014288A (en) Imaging device
JP2006058431A (en) Autofocusing system
JP2006184742A (en) Autofocus system
JP6223170B2 (en) Imaging device, control method thereof, and control program
JP2015148763A (en) Automatic focusing device and automatic focusing method
TW202002606A (en) Image-capturing device and method for operating the same
JP2010081041A (en) Controller of automatic tracking camera, automatic tracking camera system, and control method for automatic tracking camera
JP5081133B2 (en) Auto focus system
JP6289207B2 (en) IMAGING DEVICE, IMAGING DEVICE CONTROL METHOD, IMAGING DEVICE CONTROL PROGRAM, AND STORAGE MEDIUM
JP2020088810A (en) Imaging apparatus and control method of imaging apparatus
JP6025954B2 (en) Imaging apparatus and control method thereof
JP5744527B2 (en) Imaging apparatus and control method thereof
JP2011097130A (en) Imaging device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20161216

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170828

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170905

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20171003

R151 Written notification of patent or utility model registration

Ref document number: 6223170

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

LAPS Cancellation because of no payment of annual fees