JP5321237B2 - Imaging apparatus and imaging program - Google Patents

Imaging apparatus and imaging program Download PDF

Info

Publication number
JP5321237B2
JP5321237B2 JP2009119945A JP2009119945A JP5321237B2 JP 5321237 B2 JP5321237 B2 JP 5321237B2 JP 2009119945 A JP2009119945 A JP 2009119945A JP 2009119945 A JP2009119945 A JP 2009119945A JP 5321237 B2 JP5321237 B2 JP 5321237B2
Authority
JP
Japan
Prior art keywords
subject
tracking
frame
shooting screen
shooting
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2009119945A
Other languages
Japanese (ja)
Other versions
JP2010268372A (en
Inventor
宏之 岩崎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2009119945A priority Critical patent/JP5321237B2/en
Publication of JP2010268372A publication Critical patent/JP2010268372A/en
Application granted granted Critical
Publication of JP5321237B2 publication Critical patent/JP5321237B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Studio Devices (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To perform automatic control of a camera based on the result of subject tracking. <P>SOLUTION: A subject-tracking section 3 tracks a subject position within a photographing screen by performing template matching, based on the result of photometry by a sub image sensor 5, a focus-detecting section 4, a photographing recording section 7, an exposure operating section 8, a direction control section 9, and a zoom control section 10 perform automatic control for automatically photographing a subject, based on the tracking result of the subject and preset photographing conditions. <P>COPYRIGHT: (C)2011,JPO&amp;INPIT

Description

本発明は、撮像装置、および撮影プログラムに関する。   The present invention relates to an imaging apparatus and an imaging program.

次のようなカメラ制御システムが知られている。このカメラ制御システムは、焦点結果に基づいて自動的に撮影方向を制御する(例えば、特許文献1)。   The following camera control systems are known. This camera control system automatically controls the shooting direction based on the focus result (for example, Patent Document 1).

特開平11−127378号公報Japanese Patent Laid-Open No. 11-127378

しかしながら、従来のカメラ制御システムでは、焦点検出結果に基づいて自動的に撮影方向を制御するものであるため、撮影方向を決定するためにその都度焦点検出を行う必要があり、処理速度を高速化することが困難であった。   However, since the conventional camera control system automatically controls the shooting direction based on the focus detection result, it is necessary to perform focus detection every time in order to determine the shooting direction, and the processing speed is increased. It was difficult to do.

請求項1の発明の撮像装置は、撮影画面内を測光する測光手段と、測光手段による測光結果に基づいて、撮影画面内の被写体の位置を追尾する追尾手段と、追尾手段による追尾結果と予め設定された撮影条件とに基づいて、被写体を撮影するための自動制御を行う制御手段と、追尾手段による追尾結果を被写体の移動軌跡として記憶する記憶手段とを備え、追尾手段は、被写体の移動軌跡に基づいて被写体が移動する先の領域を探索領域として推定し、探索領域内で被写体を探索することを特徴とする。
請求項2の発明の撮像装置は、撮影画面内を測光する測光手段と、測光手段による測光結果に基づいて、撮影画面内の被写体の位置を追尾する追尾手段と、追尾手段による追尾結果と予め設定された撮影条件とに基づいて、被写体を撮影するための自動制御を行う制御手段とを備え、追尾手段は、被写体の移動軌跡に基づいて、被写体が撮影画面内に入るフレームイン動作を行った領域を探索開始領域として推定し、被写体が撮影画面から出るフレームアウト動作からフレームイン動作までの間に、探索開始領域内で被写体を探索することを特徴とする。
請求項6の発明の撮像プログラムは、コンピュータに、撮影画面内を測光させ、に基づいて、撮影画面内の被写体の位置を追尾させ、追尾結果と予め設定された撮影条件とに基づいて、被写体を撮影するための自動制御を行わせ、追尾による追尾結果を被写体の移動軌跡として記憶させ、追尾は、被写体の移動軌跡に基づいて被写体が移動する先の領域を探索領域として推定し、探索領域内で被写体を探索することを特徴とする。
請求項7の発明の撮像プログラムは、コンピュータに、撮影画面内を測光させ、に基づいて、撮影画面内の被写体の位置を追尾させ、追尾結果と予め設定された撮影条件とに基づいて、被写体を撮影するための自動制御を行わせ、追尾は、被写体の移動軌跡に基づいて、被写体が撮影画面内に入るフレームイン動作を行った領域を探索開始領域として推定し、被写体が撮影画面から出るフレームアウト動作からフレームイン動作までの間に、探索開始領域内で被写体を探索することを特徴とする。
The image pickup apparatus according to the first aspect of the present invention includes a light metering unit that performs light metering within a photographing screen, a tracking unit that tracks the position of a subject within the photographing screen based on a light metering result by the light metering unit, a tracking result obtained by the tracking unit, and a tracking result. A control unit that performs automatic control for shooting a subject based on the set shooting conditions, and a storage unit that stores a tracking result of the tracking unit as a movement locus of the subject, the tracking unit moving the subject A region to which the subject moves is estimated as a search region based on the trajectory, and the subject is searched for in the search region .
The image pickup apparatus according to the second aspect of the present invention includes a light metering unit that performs light metering within a photographing screen, a tracking unit that tracks the position of a subject within the photographing screen based on a light metering result by the light metering unit, a tracking result obtained by the tracking unit, and a tracking result. Control means for performing automatic control for photographing the subject on the basis of the set photographing conditions, and the tracking means performs a frame-in operation in which the subject enters the photographing screen based on the movement locus of the subject. The region is estimated as the search start region, and the subject is searched in the search start region between the frame-out operation where the subject exits the shooting screen and the frame-in operation .
According to a sixth aspect of the present invention, there is provided an imaging program that causes a computer to perform photometry within a photographing screen, and based on the tracking result and a predetermined photographing condition based on the subject position within the photographing screen. The tracking result of tracking is stored as a movement trajectory of the subject, and the tracking is estimated based on the movement trajectory of the subject as a search region. It is characterized by searching for a subject within .
According to a seventh aspect of the present invention, there is provided an imaging program for causing a computer to perform photometry in a shooting screen, tracking the position of the subject in the shooting screen, and subjecting the subject based on the tracking result and preset shooting conditions. The tracking is performed based on the movement trajectory of the subject, and the area where the subject enters the shooting screen is estimated as the search start region, and the subject exits the shooting screen. The subject is searched in the search start area between the frame-out operation and the frame-in operation .

本発明によれば、自動撮影時の処理速度を高速化することができる。   According to the present invention, the processing speed at the time of automatic photographing can be increased.

カメラの一実施の形態の構成を示すブロック図である。It is a block diagram which shows the structure of one Embodiment of a camera. 三脚によるカメラの固定例、および遠隔操作に用いる外部モニターと操作パネルの具体例を示す図である。It is a figure which shows the fixed example of the camera by a tripod, and the specific example of the external monitor and operation panel used for remote control. カメラ100の処理を示すフローチャート図である。FIG. 6 is a flowchart showing processing of the camera 100. テンプレート画像の具体例を示す図である。It is a figure which shows the specific example of a template image. サブイメージセンサ5における分割領域を模式的に示した図である。FIG. 4 is a diagram schematically showing divided areas in a sub image sensor 5. 前回の追尾軌跡に基づく追尾開始時の追尾探索範囲の設定例を示した図である。It is the figure which showed the example of a setting of the tracking search range at the time of the tracking start based on the last tracking locus | trajectory. 被写体位置と撮影条件とに基づく追尾探索範囲の更新例を示す図である。It is a figure which shows the example of an update of the tracking search range based on a to-be-photographed object position and imaging conditions. 撮影画面内に配置された複数のAFエリアを模式的に示した図である。It is the figure which showed typically the some AF area arrange | positioned in the imaging | photography screen. 方向制御部9およびズーム制御部10により自動制御を行った場合の撮影画面の具体例を示す図である。It is a figure which shows the specific example of the imaging | photography screen at the time of performing automatic control by the direction control part 9 and the zoom control part 10. FIG. 変形例におけるプログラム制御による自動制御の内容を模式的に示した図である。It is the figure which showed typically the content of the automatic control by the program control in a modification.

図1は、本実施の形態におけるカメラの一実施の形態の構成を示すブロック図である。カメラ100は、テンプレート選択部1と、被写体検出部2と、被写体追尾部3と、焦点制御部4と、サブイメージセンサ5と、メインイメージセンサ6と、撮影記録部7と、露出演算部8と、方向制御部9と、ズーム制御部10と、プログラム記録部11と、遠隔操作部12と、外部モニター13とを備えている。   FIG. 1 is a block diagram illustrating a configuration of an embodiment of a camera according to the present embodiment. The camera 100 includes a template selection unit 1, a subject detection unit 2, a subject tracking unit 3, a focus control unit 4, a sub image sensor 5, a main image sensor 6, a photographing recording unit 7, and an exposure calculation unit 8. A direction control unit 9, a zoom control unit 10, a program recording unit 11, a remote operation unit 12, and an external monitor 13.

本実施の形態におけるカメラ100は、撮影画面内に入るフレームイン動作と、撮影画面から出るフレームアウト動作とを繰り返す被写体を対象として、フレームインしてからフレームアウトするまでの被写体の位置を追尾する。例えば、コースを周回する車や人物などを追尾対象の被写体とした場合には、カメラ100は、コースの一部を撮影画面内に捉えるように設置される。これによって、被写体がコースを周回することにより、被写体はフレームイン動作と撮影画面から出るフレームアウト動作とを交互に繰り返すことになる。   The camera 100 according to the present embodiment tracks the position of a subject from frame-in to frame-out for a subject that repeats a frame-in operation that enters the shooting screen and a frame-out operation that exits the shooting screen. . For example, when a car or a person who goes around the course is a subject to be tracked, the camera 100 is installed so that a part of the course is captured in the shooting screen. As a result, when the subject goes around the course, the subject alternately repeats the frame-in operation and the frame-out operation that comes out of the shooting screen.

被写体追尾の手法としては、例えば公知のテンプレートマッチング法が用いられ、追尾対象の被写体を撮影したテンプレート画像をあらかじめ用意しておき、撮影画面内に設定された追尾探索範囲(追尾探索領域)内の画像と、テンプレート画像との類似度を演算を行ってマッチング処理を行うことにより、撮影画面内の被写体位置を特定して追尾を行う。   As a method for subject tracking, for example, a known template matching method is used. A template image obtained by photographing a subject to be tracked is prepared in advance, and a tracking search range (tracking search region) set in the photographing screen is prepared. By performing a matching process by calculating the similarity between the image and the template image, the subject position in the shooting screen is specified and tracking is performed.

また、本実施の形態におけるカメラ100は、上述した被写体追尾の結果に基づいてカメラ100による被写体の撮影を自動制御する。なお、自動制御を行うか否かは、使用者がカメラ100上で任意に設定することができる。撮影の自動制御の内容としては、被写体がフレームインした場合には、フレームアウトするまで被写体が撮影画面の中央付近に位置するように首振り制御を行ったり、被写体が一定の大きさで撮影されるようにズーム制御を行ったりする。   In addition, the camera 100 according to the present embodiment automatically controls shooting of a subject by the camera 100 based on the result of subject tracking described above. Whether or not to perform automatic control can be arbitrarily set on the camera 100 by the user. The details of automatic shooting control include swing control so that the subject is positioned near the center of the shooting screen until the subject is out of frame, or the subject is shot at a certain size. Zoom control is performed.

なお、本実施の形態では、図2(a)に示すように、カメラ100は、カメラ100の向きを水平方向、および垂直方向に変更するための回転機構を備えた三脚2aにより固定されており、後述する方向制御部9は、三脚2aの回転機構を制御することによって、首振り制御を行って撮影方向を変更することができる。また、カメラ100は、ズーム機構を備えたレンズ鏡筒2bを備えており、後述するズーム制御部10は、レンズ鏡筒2bのズーム機構を制御することにより、ズーム倍率を変更することができる。   In the present embodiment, as shown in FIG. 2A, the camera 100 is fixed by a tripod 2a provided with a rotation mechanism for changing the orientation of the camera 100 in the horizontal direction and the vertical direction. The direction control unit 9 to be described later can change the shooting direction by performing swing control by controlling the rotation mechanism of the tripod 2a. The camera 100 includes a lens barrel 2b including a zoom mechanism, and the zoom control unit 10 described later can change the zoom magnification by controlling the zoom mechanism of the lens barrel 2b.

また、カメラ100が備える不図示の液晶モニターに表示される内容は、無線または有線により接続された図2(b)に示す外部モニター13上にも表示される。例えば、この外部モニター13に、撮影画面内の画像を時系列で表示したスルー画を表示することにより、使用者はカメラ100から離れた場所で、被写体の追尾状況を確認することができる。   The contents displayed on a liquid crystal monitor (not shown) provided in the camera 100 are also displayed on the external monitor 13 shown in FIG. For example, by displaying a through image in which images on the shooting screen are displayed in time series on the external monitor 13, the user can check the tracking status of the subject at a location away from the camera 100.

また、使用者は、遠隔操作部12を操作することにより、カメラ100を遠隔操作することもできる。遠隔操作部12としては、例えば図2(c)に示すような操作パネルが用いられる。この操作パネルは、遠隔操作装置上に配置されて使用者が手動で操作パネルを操作できるようにしてもよいし、あるいは図2(c)に示すような操作パネルを図形化して外部モニター13上に表示し、使用者がマウスやキーボードを操作して、外部モニター13上で操作パネルを操作できるようにしてもよい。   The user can also remotely operate the camera 100 by operating the remote operation unit 12. For example, an operation panel as shown in FIG. 2C is used as the remote operation unit 12. This operation panel may be arranged on the remote operation device so that the user can manually operate the operation panel, or the operation panel as shown in FIG. The user may operate the operation panel on the external monitor 13 by operating the mouse or keyboard.

具体的には、使用者は、AFエリア選択パネル2cを操作することにより、後述する焦点検出部4を制御して、焦点検出に用いるAFエリア(オートフォーカスエリア)を選択することができる。なお、AFエリア選択パネル2cには、図8で後述するように、撮影画面内に配置されている複数のAFエリアと同じ配列でボタンが配列されており、使用者は、何れかのボタンを選択することにより、焦点検出に用いるAFエリアを選択することができる。   Specifically, the user can select an AF area (autofocus area) used for focus detection by operating the AF area selection panel 2c to control a focus detection unit 4 described later. As will be described later with reference to FIG. 8, the AF area selection panel 2 c has buttons arranged in the same arrangement as a plurality of AF areas arranged in the shooting screen. By selecting, the AF area used for focus detection can be selected.

使用者は、三脚向き変更つまみ2dと2eを操作することによって、後述する方向制御部9を制御して、上述した三脚2aの回転機構によりカメラ100の撮影方向を変更することもできる。具体的には、三脚向き変更つまみ2dを左方向へ動かすとカメラ100は左方向に回転し、三脚向き変更つまみ2dを右方向へ動かすとカメラ100は右方向に回転する。また、三脚向き変更つまみ2eを上方向へ動かすとカメラ100は上方向を向き、三脚向き変更つまみ2eを下方向へ動かすとカメラ100は下方向を向く。使用者は、三脚向き変更つまみ2dと2eを組み合わせて操作することにより、カメラ100の撮影方向を好みの方向へ変更することができる。   The user can also change the shooting direction of the camera 100 by operating the tripod direction changing knobs 2d and 2e to control a direction control unit 9 described later and the rotation mechanism of the tripod 2a described above. Specifically, when the tripod orientation change knob 2d is moved to the left, the camera 100 is rotated to the left, and when the tripod orientation change knob 2d is moved to the right, the camera 100 is rotated to the right. Further, when the tripod direction change knob 2e is moved upward, the camera 100 faces upward, and when the tripod direction change knob 2e is moved downward, the camera 100 faces downward. The user can change the shooting direction of the camera 100 to a desired direction by operating the tripod direction change knobs 2d and 2e in combination.

また、使用者は、露出調整つまみ2fを操作することにより、後述する露出演算部8を制御して、露出補正値を変更することもできる。具体的には、露出調整つまみ2fを上方向へ動かすと露出をオーバー気味に変更することができ、下方向へ動かすと露出をアンダー気味に変更することができる。また、使用者は、ズーム倍率変更つまみ2gを操作することにより、後述するズーム制御部10を制御して、上述したレンズ鏡筒2aのズーム機構により、撮影時のズーム倍率を変更することができる。具体的には、ズーム倍率変更つまみ2gを上方向へ動かすと望遠(Tele)側にズームレンズを移動させてズーム倍率を大きくすることができ、下方向へ動かすと広角(Wide)側にズームレンズを移動させてズーム倍率を小さくすることができる。   Further, the user can change the exposure correction value by operating an exposure adjustment knob 2f to control an exposure calculation unit 8 described later. Specifically, when the exposure adjustment knob 2f is moved upward, the exposure can be changed to overexposure, and when it is moved downward, the exposure can be changed to underexposure. Further, the user can change the zoom magnification at the time of photographing by operating the zoom magnification change knob 2g to control the zoom control unit 10 described later and the zoom mechanism of the lens barrel 2a described above. . Specifically, when the zoom magnification changing knob 2g is moved upward, the zoom lens can be moved to the telephoto side to increase the zoom magnification, and when moved downward, the zoom lens is moved toward the wide angle side. The zoom magnification can be reduced by moving.

このように使用者は遠隔操作部12を操作してカメラ100を遠隔操作することにより、例えば自動制御されるズーム倍率や撮影方向等を微調整することができる。なお、焦点検出部4、露出演算部8、方向制御部9、およびズーム制御部10は、遠隔操作部12を介した使用者からの操作がない場合には、プログラム制御によってあらかじめ設定されている制御内容で撮影の自動制御を行うが、使用者によって遠隔操作部12が操作された場合には、遠隔操作部12から出力される操作信号を割り込み信号として受け付けて、使用者による遠隔操作部12の操作内容に基づいた制御を行う。   As described above, the user can finely adjust, for example, an automatically controlled zoom magnification and shooting direction by operating the remote operation unit 12 to remotely operate the camera 100. The focus detection unit 4, the exposure calculation unit 8, the direction control unit 9, and the zoom control unit 10 are set in advance by program control when there is no operation from the user via the remote operation unit 12. Although the photographing is automatically controlled according to the control content, when the remote operation unit 12 is operated by the user, the operation signal output from the remote operation unit 12 is received as an interrupt signal, and the remote operation unit 12 by the user is received. Control based on the operation content of.

図3は、本実施の形態におけるカメラ100の処理を示すフローチャートである。以下、図3を用いて、本実施の形態のカメラ100による被写体の自動追尾処理を図1に示した各部の機能と共に説明する。なお、図3に示す処理は、使用者によって被写体追尾の開始が指示されると起動するプログラムとして実行される。   FIG. 3 is a flowchart showing processing of the camera 100 in the present embodiment. Hereinafter, the automatic tracking process of the subject by the camera 100 according to the present embodiment will be described with the functions of the respective units shown in FIG. 1 using FIG. Note that the processing shown in FIG. 3 is executed as a program that is activated when the user instructs the start of subject tracking.

ステップS1において、テンプレート選択部1は、あらかじめ記録されているテンプレート画像の中から、使用者によって指定されたテンプレート画像を選択する。例えば、図4(a)に示す画像と、図4(b)に示す画像と、図4(c)に示す画像とがテンプレート画像として記録されている場合に、使用者によって図4(b)に示すテンプレート画像が指定された場合には、当該テンプレート画像をテンプレートマッチングに用いるテンプレート画像として選択する。その後、ステップS2へ進む。   In step S1, the template selection unit 1 selects a template image designated by the user from pre-recorded template images. For example, when the image shown in FIG. 4 (a), the image shown in FIG. 4 (b), and the image shown in FIG. 4 (c) are recorded as template images, the user can change the image shown in FIG. Is designated as a template image used for template matching. Then, it progresses to step S2.

ステップS2では、被写体検出部2は、サブイメージセンサ5からの出力データを読み込む。なお、サブイメージセンサ5は、図5に示すように、撮影画面内の領域を複数の分割領域に分割して測光し、その結果得られる測光情報を被写体検出部2、および後述する遠隔操作部12へ出力する。   In step S <b> 2, the subject detection unit 2 reads output data from the sub image sensor 5. As shown in FIG. 5, the sub-image sensor 5 divides an area in the photographing screen into a plurality of divided areas and performs photometry, and the photometric information obtained as a result is measured by the subject detection unit 2 and a remote operation unit described later. 12 is output.

その後、ステップS3へ進み、被写体検出部2は、現在は被写体追尾中であるか否かを判断する。被写体追尾中であるか否かは、例えば被写体追尾フラグがオンになっているか否かによって管理され、被写体検出部2は、当該被写体追尾フラグがオンになっている場合には、被写体追尾中であると判断する。ステップS3で肯定判断した場合には、後述するステップS5へ進む。これに対して、ステップS3で否定判断した場合には、ステップS4へ進む。   Thereafter, the process proceeds to step S3, and the subject detection unit 2 determines whether or not the subject is currently being tracked. Whether the subject is being tracked is managed based on, for example, whether the subject tracking flag is on, and the subject detection unit 2 is tracking the subject when the subject tracking flag is on. Judge that there is. If a positive determination is made in step S3, the process proceeds to step S5 described later. On the other hand, if a negative determination is made in step S3, the process proceeds to step S4.

ステップS4では、被写体検出部2は、ステップS2で読み込んだ測光情報と、ステップS1で選択したテンプレート画像とを用いたテンプレートマッチング結果に基づいて、撮影画面内から追尾対象の被写体が検出されたか否かを判断する。このとき、被写体検出部2は、撮影画面内に設定する追尾探索範囲を前回の被写体追尾時に最初に被写体を検出した位置、すなわち被写体が撮影画面内にフレームインした位置を含んだ領域とする。このように、追尾探索範囲を撮影画面内の所定範囲内に限定することによって、テンプレートマッチングに要する時間を短縮することができる。   In step S4, the subject detection unit 2 determines whether or not the subject to be tracked has been detected from the shooting screen based on the template matching result using the photometric information read in step S2 and the template image selected in step S1. Determine whether. At this time, the subject detection unit 2 sets the tracking search range set in the shooting screen as a region including the position where the subject is first detected at the time of the previous tracking of the subject, that is, the position where the subject is framed in the shooting screen. In this way, by limiting the tracking search range to a predetermined range in the shooting screen, the time required for template matching can be shortened.

本実施の形態では、前回のフレームインからフレームアウトまでの被写体追尾結果に基づいて撮影画面内における被写体の移動軌跡(以下、「前回の追尾軌跡」と呼ぶ)を記録しておき、被写体追尾部3は、前回の追尾軌跡に基づいて、被写体がフレームインした位置を特定する。そして、被写体追尾部3は、特定したフレームイン位置に基づいて、今回の被写体追尾開始時の追尾探索範囲を設定する。例えば、図6に示すように前回の追尾軌跡6aが記録されている場合には、被写体検出部2は、前回の追尾軌跡6aに基づいて、前回の被写体追尾時に被写体がフレームイン後に移動した軌跡を含むように、追尾開始時の追尾探索範囲6bを設定する。そして、被写体検出部2は、設定した追尾探索範囲6b内を対象として被写体検出を行うことにより、被写体がフレームインした時点で、被写体6cを検出することができる。   In the present embodiment, the movement trajectory of the subject in the shooting screen (hereinafter referred to as “previous tracking trajectory”) is recorded based on the subject tracking result from the previous frame-in to the frame-out, and the subject tracking unit 3 specifies the position where the subject is framed in based on the previous tracking locus. Then, the subject tracking unit 3 sets a tracking search range at the start of subject tracking this time based on the specified frame-in position. For example, when the previous tracking locus 6a is recorded as shown in FIG. 6, the subject detection unit 2 uses the previous tracking locus 6a to track the subject moved after frame-in during the previous subject tracking. The tracking search range 6b at the start of tracking is set so as to include The subject detection unit 2 can detect the subject 6c when the subject enters the frame by performing subject detection within the set tracking search range 6b.

ステップS4で否定判断した場合には、まだ撮影画面内に追尾対象の被写体がフレームインしていないと判断し、ステップS2へ戻って処理を繰り返す。これに対して、ステップS4で肯定判断した場合には、撮影画面内に追尾対象の被写体がフレームインしたと判断し、被写体追尾フラグをオンにして、ステップS5へ進む。   If a negative determination is made in step S4, it is determined that the subject to be tracked is not yet in the shooting screen, and the process returns to step S2 to repeat the process. On the other hand, if an affirmative determination is made in step S4, it is determined that the subject to be tracked is in the shooting screen, the subject tracking flag is turned on, and the process proceeds to step S5.

ステップS5では、被写体追尾部3は、被写体検出部2による被写体検出結果に基づいて撮影画面内における被写体位置を特定することにより被写体追尾を行う。本実施の形態では、被写体の追尾速度を向上するために、被写体追尾部3は、上述したステップS4における被写体検出時と同様に、前回の追尾軌跡6aに基づいて、被写体追尾中の追尾探索範囲を設定する。具体的には、被写体追尾部3は、以下のように処理を行う。   In step S5, the subject tracking unit 3 performs subject tracking by specifying the subject position in the shooting screen based on the subject detection result by the subject detection unit 2. In the present embodiment, in order to improve the tracking speed of the subject, the subject tracking unit 3 performs the tracking search range during subject tracking based on the previous tracking locus 6a as in the case of subject detection in step S4 described above. Set. Specifically, the subject tracking unit 3 performs processing as follows.

被写体追尾部3は、被写体が図6に示した追尾探索範囲6b内で移動している間は、当該追尾探索範囲6bを対象としてテンプレートマッチングを行えば、被写体追尾を継続することができる。しかし、被写体が移動を続けた場合には、いずれ被写体は追尾探索範囲6bの範囲外へ移動してしまい、このままでは被写体追尾を継続することができなくなる。よって、被写体追尾部3は、被写体が現在設定されている追尾探索範囲6bで所定距離移動した場合には、前回の追尾軌跡6aに基づいて、現在の被写体位置から被写体の移動方向の所定範囲を含むように、被写体追尾範囲を更新する。   While the subject is moving within the tracking search range 6b shown in FIG. 6, the subject tracking unit 3 can continue subject tracking by performing template matching for the tracking search range 6b. However, if the subject continues to move, the subject will eventually move out of the tracking search range 6b, and subject tracking cannot be continued in this state. Therefore, when the subject moves a predetermined distance in the currently set tracking search range 6b, the subject tracking unit 3 determines a predetermined range in the moving direction of the subject from the current subject position based on the previous tracking locus 6a. Update the subject tracking range to include.

例えば、図7(a)に示すように、被写体追尾部3は、被写体が被写体位置7aに到達したことを検出した場合には、現在の被写体位置7aから被写体の移動方向の所定範囲を含んだ被写体追尾範囲7bを再設定する。また、被写体追尾部3は、その後、被写体が移動した結果、図7(b)に示すように、被写体が被写体位置7cに到達したことを検出した場合には、現在の被写体位置7cから被写体の移動方向の所定範囲を含んだ被写体追尾範囲7dを再設定する。   For example, as shown in FIG. 7A, when the subject tracking unit 3 detects that the subject has reached the subject position 7a, the subject tracking unit 3 includes a predetermined range in the moving direction of the subject from the current subject position 7a. The subject tracking range 7b is reset. When the subject tracking unit 3 detects that the subject has reached the subject position 7c as a result of the movement of the subject thereafter, as shown in FIG. 7B, the subject tracking unit 3 detects the subject from the current subject position 7c. The subject tracking range 7d including a predetermined range in the moving direction is reset.

これによって、被写体追尾部3は、前回の追尾軌跡6aと現在の被写体位置とに基づいて、撮影画面内に設定する追尾探索領域を逐次更新することができ、被写体が移動しても継続して被写体追尾を継続することができる。また、テンプレートマッチングの対象とする追尾探索領域を一定の範囲内に限定することにより、テンプレートマッチングの速度を高速化することができる。   Thus, the subject tracking unit 3 can sequentially update the tracking search area set in the shooting screen based on the previous tracking locus 6a and the current subject position, and continues even if the subject moves. Subject tracking can be continued. Further, by limiting the tracking search area to be template matching within a certain range, the template matching speed can be increased.

その後、ステップS6へ進み、焦点制御部4は、追尾中の被写体に合焦するように焦点調節を行う。本実施の形態では、図8に示すように、撮影画面内には複数のAFエリアが配置されており、焦点制御部4は、これらの複数のAFエリアのうち、撮影画面内で追尾中の被写体位置に最も近い位置に配置されているAFエリアを焦点検出に用いて、例えば公知の位相差方式やコントラスト方式等の焦点調節方法により焦点調節を行う。その後、ステップS7へ進む。   Thereafter, the process proceeds to step S6, and the focus control unit 4 performs focus adjustment so as to focus on the tracked subject. In the present embodiment, as shown in FIG. 8, a plurality of AF areas are arranged in the shooting screen, and the focus control unit 4 is tracking in the shooting screen among these AF areas. The focus adjustment is performed by, for example, a known focus adjustment method such as a phase difference method or a contrast method, using the AF area arranged at the position closest to the subject position for focus detection. Thereafter, the process proceeds to step S7.

ステップS7では、露出演算部8は、追尾中の被写体が最適な明るさとなるように露出演算を行って露出値を決定し、露出制御を行う。その後、ステップS8へ進み、方向制御部9およびズーム制御部10は、被写体の追尾を用いて撮影の自動制御を行うか否かを判断する。なお、自動制御を行うか否かは、上述したように、使用者がカメラ100上で任意に設定することができるため、方向制御部9およびズーム制御部10は、使用者による設定内容に基づいてステップS8の判断を行う。   In step S7, the exposure calculation unit 8 performs an exposure calculation so that the subject being tracked has an optimal brightness, determines an exposure value, and performs exposure control. Thereafter, the process proceeds to step S8, and the direction control unit 9 and the zoom control unit 10 determine whether or not to perform automatic shooting control using subject tracking. Whether or not automatic control is to be performed can be arbitrarily set on the camera 100 by the user as described above. Therefore, the direction control unit 9 and the zoom control unit 10 are based on the setting contents by the user. Step S8 is then determined.

ステップS8で肯定判断した場合には、ステップS9へ進み、方向制御部9およびズーム制御部10は、被写体の追尾結果とあらかじめ設定されている撮影条件とに基づいて、被写体を自動撮影するための自動制御を行う。例えば、上述したように、方向制御部9は、被写体が撮影画面の中央付近に位置するように首振り制御(方向制御)を行う。また、ズーム制御部10は、撮影画面内における被写体の大きさが一定になるようにズーム倍率を調整する。その後、ステップS11へ進む。   If an affirmative determination is made in step S8, the process proceeds to step S9, where the direction control unit 9 and the zoom control unit 10 are for automatically shooting the subject based on the tracking result of the subject and preset shooting conditions. Perform automatic control. For example, as described above, the direction control unit 9 performs swing control (direction control) so that the subject is located near the center of the shooting screen. Further, the zoom control unit 10 adjusts the zoom magnification so that the size of the subject in the shooting screen is constant. Then, it progresses to step S11.

図9は、方向制御部9およびズーム制御部10により自動制御を行った場合の撮影画面の具体例を示す図である。図9(a)は、被写体がフレームインした直後の撮影画面を示しており、この段階では、被写体である車両が撮影画面内の左上に位置した状態で追尾が開始される。その後、方向制御部9およびズーム制御部10により自動制御が行われると、時間の経過とともに被写体は移動軌跡9aに沿って移動する。また、この例では被写体はカメラ100の方向に向かって移動しているため、撮影画面内における被写体の大きさは大きくなっていく。   FIG. 9 is a diagram illustrating a specific example of a shooting screen when automatic control is performed by the direction control unit 9 and the zoom control unit 10. FIG. 9A shows a shooting screen immediately after the subject is framed in. At this stage, tracking is started in a state where the vehicle that is the subject is located at the upper left in the shooting screen. Thereafter, when automatic control is performed by the direction control unit 9 and the zoom control unit 10, the subject moves along the movement locus 9a as time passes. In this example, since the subject is moving toward the camera 100, the size of the subject in the shooting screen increases.

よって、図9(b)〜(d)の各図に示すように、方向制御部9は、被写体追尾部3によって被写体追尾が行われている間は、被写体検出部2によって検出された被写体の撮影画面内の位置に基づいて、被写体が撮影画面内の中央に位置するように、三脚2aの回転機構を制御してカメラ100の撮影方向を変更する。また、ズーム制御部10は、撮影画面内における被写体の大きさが一定になるように、レンズ鏡筒2bのズーム機構を制御して、撮影ズーム倍率を変更する。   Therefore, as shown in each of FIGS. 9B to 9D, the direction control unit 9 detects the subject detected by the subject detection unit 2 while the subject tracking unit 3 is tracking the subject. Based on the position in the shooting screen, the shooting direction of the camera 100 is changed by controlling the rotation mechanism of the tripod 2a so that the subject is positioned in the center of the shooting screen. Further, the zoom control unit 10 controls the zoom mechanism of the lens barrel 2b so as to change the shooting zoom magnification so that the size of the subject in the shooting screen is constant.

これに対して、ステップS8で否定判断した場合には、ステップS10へ進み、方向制御部9およびズーム制御部10は、プログラム制御によってあらかじめ設定されている撮影条件に基づく制御内容でカメラ100の自動制御を行う。その後、ステップS11へ進む。   On the other hand, if a negative determination is made in step S8, the process proceeds to step S10, where the direction control unit 9 and the zoom control unit 10 automatically control the camera 100 with the control content based on the shooting conditions set in advance by program control. Take control. Then, it progresses to step S11.

ステップS11では、撮影記録部7は、遠隔操作部12からの出力信号の有無を検出することにより、使用者によって遠隔操作部12が操作された結果、遠隔操作部12からの外部割込みがあったか否かを判断する。ステップS11で肯定判断した場合には、ステップS12へ進み、焦点検出部4、露出演算部8、方向制御部9、およびズーム制御部10は、上述したように、使用者による遠隔操作部12の操作内容に基づいた制御を行って、ステップS13へ進む。これに対して、ステップS11で否定判断した場合には、そのままステップS13へ進む。   In step S11, the photographing recording unit 7 detects whether there is an external interrupt from the remote operation unit 12 as a result of the user operating the remote operation unit 12 by detecting the presence or absence of an output signal from the remote operation unit 12. Determine whether. When an affirmative determination is made in step S11, the process proceeds to step S12, and the focus detection unit 4, the exposure calculation unit 8, the direction control unit 9, and the zoom control unit 10 perform the operation of the remote operation unit 12 by the user as described above. Control based on the operation content is performed, and the process proceeds to step S13. On the other hand, if a negative determination is made in step S11, the process directly proceeds to step S13.

ステップS13では、撮影記録部7は、あらかじめ設定された撮影条件が成立したときに、自動的にレリーズを行って撮影するように設定されているか否かを判断する。自動レリーズを行うか否かは、使用者があらかじめ設定しておくものとする。ステップS13で肯定判断した場合には、ステップS14へ進む。ステップS14では、所定のレリーズ条件が成立したか否かを判断する。ここで、レリーズ条件は、使用者によってあらかじめ設定されており、例えば、追尾中の被写体が撮影画面内に存在する場合、デフォーカス量が一定以下となった場合等の種々の条件をレリーズ条件に設定することが可能である。ステップS14で否定判断した場合には、ステップS2へ戻って処理を繰り返す。これに対して、ステップS14で肯定判断した場合には、後述するステップS16へ進む。   In step S13, the photographing recording unit 7 determines whether or not it is set to automatically release and take a picture when a preset photographing condition is satisfied. It is assumed that the user sets in advance whether or not to perform automatic release. If a positive determination is made in step S13, the process proceeds to step S14. In step S14, it is determined whether or not a predetermined release condition is satisfied. Here, the release conditions are set in advance by the user. For example, when the subject being tracked is present in the shooting screen, various conditions such as when the defocus amount is below a certain level are used as the release conditions. It is possible to set. If a negative determination is made in step S14, the process returns to step S2 and is repeated. On the other hand, if a positive determination is made in step S14, the process proceeds to step S16 described later.

一方、ステップS13で否定判断した場合には、ステップS15へ進む。ステップS15では、撮影記録部7は、遠隔操作部12を介してレリーズ信号を受信したか否かを判断する。すなわち使用者によって遠隔操作でレリーズが指示されたか否かを判断する。なお、図2(c)には図示していないが、遠隔操作部12には、レリーズを指示するためのレリーズボタンを配置しておき、使用者は、当該レリーズボタンを押下することによって、遠隔操作でレリーズを指示することができる。ステップS15で否定判断した場合には、後述するステップS17へ進み、ステップS15で肯定判断した場合には、ステップS16へ進む。   On the other hand, if a negative determination is made in step S13, the process proceeds to step S15. In step S <b> 15, the photographing recording unit 7 determines whether a release signal has been received via the remote operation unit 12. That is, it is determined whether or not the user has instructed the release by remote operation. Although not shown in FIG. 2C, a release button for instructing the release is arranged on the remote operation unit 12, and the user presses the release button to remotely Release can be instructed by operation. If a negative determination is made in step S15, the process proceeds to step S17 described later. If an affirmative determination is made in step S15, the process proceeds to step S16.

ステップS16では、撮影記録部7は、メインイメージセンサ6で撮像された被写体像の画像信号に対して種々の画像処理を行って画像データを生成し、画像データを所定の画像形式、例えばJPEG形式に圧縮して画像ファイルを生成する。そして、撮影記録部7は、生成した画像ファイルを不図示の記憶媒体、例えばメモリカードに記録する。その後、ステップS17へ進む。   In step S16, the photographing / recording unit 7 performs various image processing on the image signal of the subject image captured by the main image sensor 6 to generate image data, and the image data is converted into a predetermined image format, for example, JPEG format. To generate an image file. The photographing recording unit 7 records the generated image file on a storage medium (not shown), for example, a memory card. Thereafter, the process proceeds to step S17.

ステップS17では、被写体追尾部3は、被写体検出部2による被写体検出結果に基づいて、撮影画面内で被写体を追尾中(捕捉中)であるか否かを判断する。ステップS17で肯定判断した場合には、ステップS2へ戻って処理を繰り返す。これに対して、ステップS17で否定判断した場合には、ステップS18へ進む。ステップS18では、カメラ100の各構成要素は、被写体は撮影画面内からフレームアウトしたと判断して、次回のフレームイン時の被写体追尾に備えたリセット処理を行って、処理を終了する。   In step S <b> 17, the subject tracking unit 3 determines whether or not the subject is being tracked (captured) in the shooting screen based on the subject detection result by the subject detection unit 2. If an affirmative determination is made in step S17, the process returns to step S2 and is repeated. On the other hand, if a negative determination is made in step S17, the process proceeds to step S18. In step S18, each component of the camera 100 determines that the subject has gone out of the frame from the shooting screen, performs a reset process in preparation for subject tracking at the next frame-in, and ends the process.

リセット処理としては、例えば、被写体追尾部3は、被写体追尾中には被写体が撮影画面内にフレームインしてからフレームアウトするまでの被写体位置の時系列変化をバッファメモリに記録しておき、リセット処理において、被写体位置の時系列変化、すなわち被写体の追尾結果を前回の追尾軌跡6aとしてメモリに記録する。また、テンプレート選択部1は、現在選択されているテンプレートの選択を解除する。また、方向制御部9は、三脚2aの回転機構を制御して、カメラ100の撮影方向をあらかじめ設定されているホームポジションに戻す。また、ズーム機構10は、鏡筒2bのズーム機構を制御して、ズーム倍率をデフォルト設定値、例えば1倍に戻す。なお、本実施の形態では、リセット処理でテンプレートの選択を解除することとしたが、テンプレートの選択は解除しないこととしてもよい。   As the reset process, for example, the subject tracking unit 3 records, in the buffer memory, a time-series change of the subject position from when the subject is framed in the shooting screen to when it is out of frame during subject tracking. In the processing, the time-series change of the subject position, that is, the tracking result of the subject is recorded in the memory as the previous tracking locus 6a. Further, the template selection unit 1 cancels the selection of the currently selected template. In addition, the direction control unit 9 controls the rotation mechanism of the tripod 2a to return the shooting direction of the camera 100 to a preset home position. Further, the zoom mechanism 10 controls the zoom mechanism of the lens barrel 2b to return the zoom magnification to a default setting value, for example, 1.times. In the present embodiment, the template selection is canceled by the reset process, but the template selection may not be canceled.

以上説明した本実施の形態によれば、以下のような作用効果を得ることができる。
(1)被写体追尾部3は、サブイメージセンサ5による測光結果に基づいて、テンプレートマッチングを行って撮影画面内の被写体位置を追尾し、方向制御部9およびズーム制御部10は、被写体の追尾結果とあらかじめ設定されている撮影条件とに基づいて、被写体を自動撮影するための自動制御を行うようにした。これによって、被写体が最適な構図で撮影されるように自動的に制御を行うことができる。
According to the present embodiment described above, the following operational effects can be obtained.
(1) The subject tracking unit 3 performs template matching based on the photometric result of the sub image sensor 5 to track the subject position in the shooting screen, and the direction control unit 9 and the zoom control unit 10 perform the subject tracking result. And automatic control for automatically shooting the subject based on the shooting conditions set in advance. Thus, control can be automatically performed so that the subject is photographed with an optimal composition.

(2)被写体は、撮影画面内に入るフレームイン動作と、撮影画面から出るフレームアウト動作とを繰り返し交互に行うものであり、被写体追尾部3は、フレームイン動作からフレームアウト動作までの間に、撮影画面内の前記被写体の位置を繰り返し追尾するようにした。これによって、被写体が撮影画面内に存在する間、被写体追尾を継続することができる。 (2) The subject repeatedly performs a frame-in operation that enters the shooting screen and a frame-out operation that exits from the shooting screen, and the subject tracking unit 3 operates between the frame-in operation and the frame-out operation. The position of the subject in the shooting screen is repeatedly tracked. Thus, subject tracking can be continued while the subject is present in the shooting screen.

(3)被写体追尾部3は、被写体の追尾結果を前回の追尾軌跡6aとして記憶するようにした。これによって、次回の被写体追尾において、前回の追尾軌跡6aに基づく追尾探索範囲の設定が可能となる。 (3) The subject tracking unit 3 stores the tracking result of the subject as the previous tracking locus 6a. Thus, in the next subject tracking, the tracking search range based on the previous tracking locus 6a can be set.

(4)被写体追尾部3は、被写体の前回の追尾軌跡6aに基づいて被写体が移動する先の領域を追尾探索範囲として推定し、当該追尾探索範囲内で被写体を探索するようにした。これによって、被写体追尾部3は、前回の追尾軌跡6aと現在の被写体位置とに基づいて、撮影画面内に設定する追尾探索領域を逐次更新することができ、被写体が移動しても継続して被写体追尾を継続することができる。また、テンプレートマッチングの対象とする追尾探索領域を一定の範囲内に限定することにより、テンプレートマッチングの速度を高速化することができる。 (4) The subject tracking unit 3 estimates a region to which the subject moves as a tracking search range based on the previous tracking locus 6a of the subject, and searches for the subject within the tracking search range. Thus, the subject tracking unit 3 can sequentially update the tracking search area set in the shooting screen based on the previous tracking locus 6a and the current subject position, and continues even if the subject moves. Subject tracking can be continued. Further, by limiting the tracking search area to be template matching within a certain range, the template matching speed can be increased.

(5)被写体追尾部3は、被写体の前回の追尾軌跡6aに基づいて被写体がフレームイン動作を行った領域を追尾開始時の追尾探索範囲として設定し、被写体のフレームアウト動作からフレームイン動作までの間に、設定した追尾探索範囲内で被写体を探索するようにした。これによって、追尾開始時に設定する追尾探索範囲を一定の範囲内に限定することができるため、追尾処理を高速化することができる。 (5) The subject tracking unit 3 sets an area where the subject has performed a frame-in operation based on the previous tracking locus 6a of the subject as a tracking search range at the start of tracking, and from the subject frame-out operation to the frame-in operation. During this time, the subject was searched within the set tracking search range. Thereby, since the tracking search range set at the start of tracking can be limited to a certain range, the tracking process can be speeded up.

―変形例―
なお、上述した実施の形態のカメラは、以下のように変形することもできる。
(1)上述した実施の形態では、使用者は、図2(c)に示すような操作パネルを用いてカメラ100の遠隔操作を行う例について説明した。しかしながら、他の操作性を有する部材を用いて遠隔操作ができるようにしてもよい。例えば、カメラ100と同じ操作感をもつ遠隔操作用カメラを用いて遠隔操作を行うようにしてもよい。
-Modification-
The camera according to the above-described embodiment can be modified as follows.
(1) In the above-described embodiment, an example has been described in which the user performs remote operation of the camera 100 using the operation panel as illustrated in FIG. However, remote operation may be performed using a member having other operability. For example, remote operation may be performed using a remote operation camera having the same operational feeling as the camera 100.

(2)上述した実施の形態では、図3のステップS10において、方向制御部9およびズーム制御部10は、プログラム制御によってあらかじめ設定されている制御内容で自動制御を行う例について説明した。しかしながら、図10に示すように、レリーズタイミング10a〜10h、ズーム倍率の時系列変化10i、AFエリア位置の時系列変化10jおよび10k、三脚2aの上下方向の時系列変化10l、三脚2aの左右方向の時系列変化10m、および露出補正値の時系列変化10nをプログラムにより定義しておくようにしてもよい。そして、当該プログラムを用いて焦点検出部4、撮影記録部7、露出演算部8、方向制御部9、ズーム制御部10のそれぞれを制御することにより、被写体追尾の精度が低いときなどに、被写体を自動撮影するための自動制御を行うようにしてもよい。なお、当該プログラムによる制御内容は、使用者が任意に設定してもよいし、過去の被写体追尾結果に基づいて自動的に設定するようにしてもよい。 (2) In the above-described embodiment, the example in which the direction control unit 9 and the zoom control unit 10 perform automatic control with the control content set in advance by program control in step S10 of FIG. 3 has been described. However, as shown in FIG. 10, release timings 10a to 10h, zoom magnification time series changes 10i, AF area position time series changes 10j and 10k, tripod 2a vertical time series change 10l, and tripod 2a horizontal direction The time series change 10m and the exposure correction value time series change 10n may be defined by a program. Then, by controlling each of the focus detection unit 4, the photographing recording unit 7, the exposure calculation unit 8, the direction control unit 9, and the zoom control unit 10 using the program, the subject tracking accuracy is low. You may make it perform the automatic control for automatically image | photographing. Note that the control content by the program may be arbitrarily set by the user, or may be automatically set based on past subject tracking results.

(3)上述した実施の形態では、被写体追尾部3は、被写体の前回の追尾軌跡6aに基づいて被写体がフレームイン動作を行った領域を追尾開始時の追尾探索範囲として設定する例について説明した。しかしながら、追尾開始時の追尾探索範囲を使用者が指定できるようにし、被写体追尾部3は、使用者によって指定された領域を追尾開始時の追尾探索範囲として設定するようにしてもよい。 (3) In the above-described embodiment, the subject tracking unit 3 has described an example in which the region where the subject has performed a frame-in operation based on the previous tracking locus 6a of the subject is set as the tracking search range at the start of tracking. . However, the tracking search range at the start of tracking may be specified by the user, and the subject tracking unit 3 may set the area specified by the user as the tracking search range at the start of tracking.

(4)上述した実施の形態では、被写体追尾部3は、被写体の前回の追尾軌跡6aに基づいて被写体がフレームイン動作を行った領域を追尾開始時の追尾探索範囲として設定する例について説明した。しかしながら、フレームイン時の被写体位置にAFエリアが設定されていないと被写体追尾を行っていても被写体に合焦させることができない。そのため、被写体追尾部3は、撮影画面内のAFエリアが設定されている範囲より外側の範囲を追尾開始時の追尾探索範囲として設定し、追尾探索範囲内での被写体追尾のときはテンプレートマッチングを行った後にAF動作や撮影動作を行わず、被写体が追尾探索範囲より内側(つまり、AFエリアが設定されている範囲)にあるときにテンプレートマッチングの後にAF動作や撮影動作を行うこととしてもよい。 (4) In the above-described embodiment, the subject tracking unit 3 has described an example in which the area where the subject has performed a frame-in operation based on the previous tracking locus 6a of the subject is set as the tracking search range at the start of tracking. . However, if an AF area is not set at the subject position at the time of frame-in, the subject cannot be focused even if subject tracking is performed. Therefore, the subject tracking unit 3 sets a range outside the range in which the AF area in the shooting screen is set as a tracking search range at the start of tracking, and performs template matching when tracking a subject within the tracking search range. After performing the AF operation and the photographing operation, the AF operation and the photographing operation may be performed after the template matching when the subject is inside the tracking search range (that is, the range where the AF area is set). .

なお、本発明の特徴的な機能を損なわない限り、本発明は、上述した実施の形態における構成に何ら限定されない。また、上述の実施の形態と複数の変形例を組み合わせた構成としてもよい。   Note that the present invention is not limited to the configurations in the above-described embodiments as long as the characteristic functions of the present invention are not impaired. Moreover, it is good also as a structure which combined the above-mentioned embodiment and a some modification.

100 カメラ、1 テンプレート選択部、2 被写体検出部、3 被写体追尾部、4 焦点制御部、5 サブイメージセンサ、6 メインイメージセンサ、7 撮影記録部、8 露出演算部、9 方向制御部、10 ズーム制御部、11 プログラム記録部、12 遠隔操作部、13 外部モニター 100 camera, 1 template selection unit, 2 subject detection unit, 3 subject tracking unit, 4 focus control unit, 5 sub image sensor, 6 main image sensor, 7 shooting recording unit, 8 exposure calculation unit, 9 direction control unit, 10 zoom Control unit, 11 Program recording unit, 12 Remote control unit, 13 External monitor

Claims (7)

撮影画面内を測光する測光手段と、
前記測光手段による測光結果に基づいて、前記撮影画面内の被写体の位置を追尾する追尾手段と、
前記追尾手段による追尾結果と予め設定された撮影条件とに基づいて、前記被写体を撮影するための自動制御を行う制御手段と
前記追尾手段による追尾結果を前記被写体の移動軌跡として記憶する記憶手段とを備え、
前記追尾手段は、前記被写体の移動軌跡に基づいて前記被写体が移動する先の領域を探索領域として推定し、前記探索領域内で前記被写体を探索することを特徴とする撮像装置。
A metering means for metering the inside of the shooting screen;
Tracking means for tracking the position of the subject in the shooting screen based on the photometric result of the photometric means;
Control means for performing automatic control for photographing the subject based on a result of tracking by the tracking means and a preset photographing condition ;
Storage means for storing a tracking result by the tracking means as a movement locus of the subject,
The tracking device is configured to estimate, as a search area, a region to which the subject moves based on a movement locus of the subject, and to search for the subject in the search region .
撮影画面内を測光する測光手段と、
前記測光手段による測光結果に基づいて、前記撮影画面内の被写体の位置を追尾する追尾手段と、
前記追尾手段による追尾結果と予め設定された撮影条件とに基づいて、前記被写体を撮影するための自動制御を行う制御手段とを備え
前記追尾手段は、前記被写体の移動軌跡に基づいて、前記被写体が前記撮影画面内に入るフレームイン動作を行った領域を探索開始領域として推定し、前記被写体が前記撮影画面から出るフレームアウト動作から前記フレームイン動作までの間に、前記探索開始領域内で前記被写体を探索することを特徴とする撮像装置。
A metering means for metering the inside of the shooting screen;
Tracking means for tracking the position of the subject in the shooting screen based on the photometric result of the photometric means;
Control means for performing automatic control for photographing the subject based on a result of tracking by the tracking means and a preset photographing condition ;
The tracking means estimates, as a search start area, a region where the subject has performed a frame-in operation that enters the shooting screen based on a movement trajectory of the subject, and from the frame-out operation in which the subject exits the shooting screen. The imaging apparatus , wherein the subject is searched in the search start area before the frame-in operation .
請求項に記載の撮像装置において、
前記被写体は、前記撮影画面内に入るフレームイン動作と、前記撮影画面から出るフレームアウト動作とを繰り返し交互に行うものであり、
前記追尾手段は、前記フレームイン動作から前記フレームアウト動作までの間に、前記撮影画面内の前記被写体の位置を繰り返し追尾することを特徴とする撮像装置。
The imaging device according to claim 2 ,
The subject repeats alternately a frame-in operation that enters the shooting screen and a frame-out operation that exits the shooting screen,
The imaging apparatus, wherein the tracking unit repeatedly tracks the position of the subject in the shooting screen from the frame-in operation to the frame-out operation.
請求項1に記載の撮像装置において、
前記追尾手段は、前記被写体の移動軌跡に基づいて、前記被写体が前記撮影画面内に入るフレームイン動作を行った領域を探索開始領域として推定し、前記被写体が前記撮影画面から出るフレームアウト動作から前記フレームイン動作までの間に、前記探索開始領域内で前記被写体を探索することを特徴とする撮像装置。
The imaging device according to claim 1,
The tracking means estimates, as a search start area, a region where the subject has performed a frame-in operation that enters the shooting screen based on a movement trajectory of the subject, and from the frame-out operation in which the subject exits the shooting screen. The imaging apparatus , wherein the subject is searched in the search start area before the frame-in operation .
請求項乃至請求項4の何れか1項に記載の撮像装置において、
前記被写体がフレームイン動作を行う領域を探索開始領域として指定する指定手段を備え、
前記追尾手段は、前記被写体が前記撮影画面から出るフレームアウト動作から前記フレームイン動作までの間に、前記探索開始領域内で前記被写体を探索することを特徴とする撮像装置。
The imaging apparatus according to any one of claims 1 to 4,
A designation means for designating a region where the subject performs a frame-in operation as a search start region;
The imaging device, wherein the tracking unit searches for the subject in the search start region between a frame-out operation where the subject comes out of the shooting screen and the frame-in operation.
コンピュータに、
撮影画面内を測光させ、
前記測光結果に基づいて、前記撮影画面内の被写体の位置を追尾させ、
前記追尾結果と予め設定された撮影条件とに基づいて、前記被写体を撮影するための自動制御を行わせ、
前記追尾による追尾結果を前記被写体の移動軌跡として記憶させ、
前記追尾は、前記被写体の移動軌跡に基づいて前記被写体が移動する先の領域を探索領域として推定し、前記探索領域内で前記被写体を探索することを特徴とする撮像プログラム。
On the computer,
Measure the light in the shooting screen,
Based on the photometric result, track the position of the subject in the shooting screen,
Based on the tracking result and preset shooting conditions, automatic control for shooting the subject is performed,
Storing the tracking result of the tracking as the movement trajectory of the subject;
The tracking program estimates an area to which the subject moves based on a movement locus of the subject as a search area, and searches the subject in the search area .
コンピュータに、
撮影画面内を測光させ、
前記測光結果に基づいて、前記撮影画面内の被写体の位置を追尾させ、
前記追尾結果と予め設定された撮影条件とに基づいて、前記被写体を撮影するための自動制御を行わせ、
前記追尾は、前記被写体の移動軌跡に基づいて、前記被写体が前記撮影画面内に入るフレームイン動作を行った領域を探索開始領域として推定し、前記被写体が前記撮影画面から出るフレームアウト動作から前記フレームイン動作までの間に、前記探索開始領域内で前記被写体を探索することを特徴とする撮像プログラム。
On the computer,
Measure the light in the shooting screen,
Based on the photometric result, track the position of the subject in the shooting screen,
Based on the tracking result and preset shooting conditions, automatic control for shooting the subject is performed,
The tracking is based on the movement trajectory of the subject and estimates a region where the subject has entered a frame-in operation into the shooting screen as a search start region, and the subject moves from a frame-out operation where the subject exits the shooting screen. An imaging program for searching for the subject within the search start area before a frame-in operation .
JP2009119945A 2009-05-18 2009-05-18 Imaging apparatus and imaging program Active JP5321237B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009119945A JP5321237B2 (en) 2009-05-18 2009-05-18 Imaging apparatus and imaging program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009119945A JP5321237B2 (en) 2009-05-18 2009-05-18 Imaging apparatus and imaging program

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2013145547A Division JP2013201793A (en) 2013-07-11 2013-07-11 Imaging apparatus

Publications (2)

Publication Number Publication Date
JP2010268372A JP2010268372A (en) 2010-11-25
JP5321237B2 true JP5321237B2 (en) 2013-10-23

Family

ID=43364957

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009119945A Active JP5321237B2 (en) 2009-05-18 2009-05-18 Imaging apparatus and imaging program

Country Status (1)

Country Link
JP (1) JP5321237B2 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6140945B2 (en) * 2012-07-26 2017-06-07 キヤノン株式会社 Focus adjustment device and imaging device
JP2014093645A (en) * 2012-11-02 2014-05-19 Casio Comput Co Ltd Imaging apparatus, imaging method, and program
JP6155893B2 (en) * 2013-06-20 2017-07-05 カシオ計算機株式会社 Image processing apparatus and program
JP6369604B2 (en) * 2017-06-07 2018-08-08 カシオ計算機株式会社 Image processing apparatus, image processing method, and program

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4821460B2 (en) * 2006-06-28 2011-11-24 株式会社ニコン Autofocus device and camera
JP4915264B2 (en) * 2007-03-27 2012-04-11 カシオ計算機株式会社 Imaging apparatus and program thereof
JP4468419B2 (en) * 2007-07-25 2010-05-26 キヤノン株式会社 Image capturing apparatus and image capturing apparatus control method

Also Published As

Publication number Publication date
JP2010268372A (en) 2010-11-25

Similar Documents

Publication Publication Date Title
US8035726B2 (en) Digital camera and focus control method
JP4957943B2 (en) Imaging apparatus and program thereof
US8891952B2 (en) Image sensing apparatus, control method, and user interface display apparatus
JP4907740B2 (en) Imaging device
EP2007135B1 (en) Imaging apparatus
JP2003241072A (en) Camera
JP2008148089A (en) Projection apparatus and camera
JP5321237B2 (en) Imaging apparatus and imaging program
JP2013201793A (en) Imaging apparatus
JP2007101907A (en) Autofocus controller, image forming apparatus using same and autofocus control method
JP5409483B2 (en) Imaging device
US10979619B2 (en) Image capturing apparatus capable of highly-accurate autofocus calibration and control method thereof, and storage medium
US9467615B2 (en) Imaging apparatus including dynamic image focus detection
JP4701837B2 (en) Automatic focus adjustment device
JP4983666B2 (en) Imaging device
JP4674472B2 (en) Digital camera
JP2018037807A (en) Imaging apparatus, control method, program, and storage medium
JP2017200131A (en) Field angle control device and field angle control method
JP5407538B2 (en) Camera and focus detection area display program
JP5458530B2 (en) camera
JP6452336B2 (en) Imaging apparatus and control method thereof
JP5273220B2 (en) Imaging apparatus and program thereof
JP2021010067A (en) Imaging apparatus, control method thereof and program
JP4930905B2 (en) Imaging apparatus and program thereof
JP2006154322A (en) Photographing device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120328

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130122

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130326

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130527

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130618

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130701

R150 Certificate of patent or registration of utility model

Ref document number: 5321237

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250