JP2007067555A - Imaging apparatus and method - Google Patents

Imaging apparatus and method Download PDF

Info

Publication number
JP2007067555A
JP2007067555A JP2005248103A JP2005248103A JP2007067555A JP 2007067555 A JP2007067555 A JP 2007067555A JP 2005248103 A JP2005248103 A JP 2005248103A JP 2005248103 A JP2005248103 A JP 2005248103A JP 2007067555 A JP2007067555 A JP 2007067555A
Authority
JP
Japan
Prior art keywords
image
frame
control unit
subject
control
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2005248103A
Other languages
Japanese (ja)
Inventor
Toshiki Saito
俊樹 齋藤
Gengo Moritoshi
源吾 森年
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2005248103A priority Critical patent/JP2007067555A/en
Publication of JP2007067555A publication Critical patent/JP2007067555A/en
Pending legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide an imaging apparatus and an imaging method in which camera control such as the setting of a focus, zooming, or the like, can be carried out certainly for an object to be photographed intended by a user. <P>SOLUTION: A control section 15 performs the frame indication of a moving object based on calculated frame information, performs highlighting for an object which is the current candidate of a target, waits an input from a user by bringing the highlighting of a frame into such a state (selectable state) as the target can be altered and determined at a user interface 17, notifies a camera control section for which object the user desires camera control by the input of determination from the user, and then the camera control section controls a camera control object 18 on a post stage. <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

本発明は、デジタルカメラ等の撮像装置および撮像方法に関するものである。   The present invention relates to an imaging apparatus such as a digital camera and an imaging method.

撮像装置において、従来、動いている被写体を撮影するにあたって、特許文献1(特開2003-241065号公報)に開示されているように、動き検出を用いてある特定の画像領域内の動いている物体をカメラが自動的に探し出して、その撮影対象に対してフォーカスを合わせていくオートフォーカス技術などが採用されている。   In an imaging apparatus, when a moving subject is photographed in the past, as disclosed in Patent Document 1 (Japanese Patent Laid-Open No. 2003-241065), movement within a specific image region is performed using motion detection. Autofocus technology that automatically finds an object and focuses on the subject is adopted.

ここで、移動物体検知を用いた一般的なカメラにおけるレンズ制御について説明する。
図1は、移動物体検知を用いた一般的なカメラにおけるレンズ制御を説明するためのフローチャートである。
Here, lens control in a general camera using moving object detection will be described.
FIG. 1 is a flowchart for explaining lens control in a general camera using moving object detection.

図1に示すように、撮影画像領域のある特定の領域(しばしば中央部分が用いられる)において移動物体検知を行い(ST1)、カメラが自動的に一番被写体らしいものを被写体であると決定する(ST2)。
そして、レンズ制御を行い(ST3)、設定された被写体が検知範囲内にあるのであればレンズ制御を続行し(ST4)、もし被写体が検知できなければ移動物体設定削除を行ってステップST1より再検索を行う(ST5)。
特開2003−241065号公報
As shown in FIG. 1, a moving object is detected in a specific area (often a central part is used) of the captured image area (ST1), and the camera automatically determines that the most likely object is the object. (ST2).
Then, the lens control is performed (ST3). If the set subject is within the detection range, the lens control is continued (ST4). If the subject cannot be detected, the moving object setting is deleted and the process is repeated from step ST1. A search is performed (ST5).
JP 2003-241065 A

しかし、上述した制御技術では、ステップST2の処理に見られるようにカメラが自動的に判定を行うため、ユーザーの意図したものではない物体が被写体と判定されてしまうおそれや、たとえばオートフォーカス時に、いわゆる横切り物体への誤認識などユーザーが意図した物体ではないものをフォーカス対象としてしまうおそれを排除することができなかった。
また、たとえばズーム操作においても、移動している物体を対象として適切にズーム動作をしていく作業はしばしば困難を伴っていた。
However, in the control technique described above, since the camera automatically determines as seen in the process of step ST2, there is a possibility that an object not intended by the user may be determined as a subject, for example, during autofocus, The possibility of focusing on an object that is not the object intended by the user, such as misrecognition of a so-called crossing object, could not be excluded.
Further, for example, even in a zoom operation, it is often difficult to perform an appropriate zoom operation on a moving object.

移動物体検知を用いたレンズ制御における誤認識の具体例を図2および図3に関連付けて説明する。
図2は例として挙げる被写体を示している。また、図3はフォーカスセット後の状態を示している。
図2においては、撮像画像1内部に移動物体2および3が含まれる。仮にユーザーが移動物体2にピントを合わせたいとしても、もしカメラが中央付近にある移動物体3に自動的にピントを合わせてしまうと、図3のフォーカスセット後のように、撮像画像1において本来ピントを合わせたい移動物体2はピントから外れて、移動物体3にピントが合うこととなる。
これではユーザーの意図とはかけ離れてしまう。
A specific example of erroneous recognition in lens control using moving object detection will be described with reference to FIGS.
FIG. 2 shows a subject given as an example. FIG. 3 shows a state after focus setting.
In FIG. 2, moving objects 2 and 3 are included in the captured image 1. Even if the user wants to focus on the moving object 2, if the camera automatically focuses on the moving object 3 near the center, the captured image 1 is essentially the same as after the focus set in FIG. 3. The moving object 2 to be focused is out of focus and the moving object 3 is in focus.
This is far from the user's intention.

本発明の目的は、ユーザーが意図した被写体に対して、確実にたとえばフォーカスのセットやズーミング処理などのカメラ制御を行うことが可能となる撮像装置および撮像方法を提供することにある。   An object of the present invention is to provide an imaging apparatus and an imaging method capable of reliably performing camera control such as focus setting and zooming processing on a subject intended by a user.

本発明の第1の観点の撮像装置は、光学系と、上記光学系による光学像を受けて撮像画像を得る撮像素子と、上記撮像素子による撮像画像内における一または複数の物体の動きを検出する検出部と、上記検出部で検出した動きの情報により移動物体を囲う枠情報を算出することが可能な制御部と、上記制御部の制御の下、少なくとも上記撮像素子によって撮像された撮像画像および上記枠情報に基づいた枠を表示可能な画像表示部とを有する。   An imaging apparatus according to a first aspect of the present invention includes an optical system, an imaging element that receives an optical image from the optical system and obtains a captured image, and detects movement of one or more objects in the captured image by the imaging element. And a control unit capable of calculating frame information surrounding a moving object based on movement information detected by the detection unit, and a captured image captured by at least the image sensor under the control of the control unit And an image display unit capable of displaying a frame based on the frame information.

好適には、上記制御部は、上記画像表示部に対して移動物体の強調を目的として枠表示を行うため、撮像画像に対して他の画像を重ね合わせて表示する。   Preferably, in order to perform frame display for the purpose of emphasizing the moving object on the image display unit, the control unit displays another image superimposed on the captured image.

好適には、任意の表示されている枠を選択することが可能なユーザーインターフェースを有する。   Preferably, it has a user interface capable of selecting any displayed frame.

好適には、上記ユーザーインターフェースは、強調表示のターゲット変更および決定が可能である。   Preferably, the user interface is capable of changing and determining the highlighted target.

好適には、上記制御部は、上記画像表示部に、上記枠情報に基づいて移動物体の枠表示を行い、現在ターゲット候補となっている被写体に対して強調表示を行い、上記ユーザーインターフェースからの決定入力によって、制御対象とすべき被写体を認識して、制御対象に当該被写体に対して制御を行うように指示する。   Preferably, the control unit displays a frame of a moving object on the image display unit based on the frame information, highlights a subject that is currently a target candidate, and displays the object from the user interface. The decision input recognizes the subject to be controlled, and instructs the control subject to control the subject.

好適には、上記制御部は、被写体の移動傾向の特徴抽出を行う。   Preferably, the control unit performs feature extraction of the movement tendency of the subject.

本発明の第2の観点の撮像装置は、フォーカスレンズを含む光学系と、上記光学系による光学像を受けて撮像画像を得る撮像素子と、上記撮像素子による撮像画像内における一または複数の物体の動きを検出する検出部と、上記検出部で検出した動きの情報により移動物体を囲う枠情報を算出することが可能な制御部と、上記制御部の制御の下、少なくとも上記撮像素子によって撮像された撮像画像および上記枠情報に基づいた枠を表示可能な画像表示部と、任意の表示されている枠を選択することが可能で、強調表示のターゲット変更および決定が可能なユーザーインターフェースと、上記制御部の指示に従って上記フォーカスレンズの駆動制御を行うフォーカスレンズ制御部と、を有し、上記制御部は、上記画像表示部に、上記枠情報に基づいて移動物体の枠表示を行い、現在ターゲット候補となっている被写体に対して強調表示を行い、上記ユーザーインターフェースからの決定入力によって、制御対象とすべき被写体を認識して、上記フォーカスレンズ制御部に当該被写体に対してフォーカスレンズの駆動制御を行うように指示する。   An imaging apparatus according to a second aspect of the present invention includes an optical system including a focus lens, an imaging element that receives an optical image by the optical system and obtains a captured image, and one or a plurality of objects in an image captured by the imaging element A detection unit that detects the movement of the camera, a control unit that can calculate frame information that surrounds the moving object based on the motion information detected by the detection unit, and imaging by at least the imaging device under the control of the control unit An image display unit capable of displaying a frame based on the captured image and the frame information, a user interface capable of selecting any displayed frame, and capable of changing and determining a target for highlighting; A focus lens control unit that performs drive control of the focus lens in accordance with an instruction from the control unit, and the control unit includes the frame information in the image display unit. Then, the frame of the moving object is displayed, the object that is currently the target candidate is highlighted, the object to be controlled is recognized by the decision input from the user interface, and the focus lens control is performed. To instruct the subject to perform drive control of the focus lens.

本発明の第3の観点の撮像装置は、ズームレンズを含む光学系と、上記光学系による光学像を受けて撮像画像を得る撮像素子と、上記撮像素子による撮像画像内における一または複数の物体の動きを検出する検出部と、上記検出部で検出した動きの情報により移動物体を囲う枠情報を算出することが可能な制御部と、上記制御部の制御の下、少なくとも上記撮像素子によって撮像された撮像画像および上記枠情報に基づいた枠を表示可能な画像表示部と、任意の表示されている枠を選択することが可能で、強調表示のターゲット変更および決定が可能なユーザーインターフェースと、上記制御部の指示に従って上記ズームレンズの駆動制御を行うズームレンズ制御部と、を有し、上記制御部は、上記画像表示部に、上記枠情報に基づいて移動物体の枠表示を行い、現在ターゲット候補となっている被写体に対して強調表示を行い、上記ユーザーインターフェースからの決定入力によって、制御対象とすべき被写体を認識して、上記ズームレンズ制御部に当該被写体に対してズームレンズの駆動制御を行うように指示する。   An image pickup apparatus according to a third aspect of the present invention includes an optical system including a zoom lens, an image pickup device that receives an optical image by the optical system and obtains a picked-up image, and one or a plurality of objects in the image picked up by the image pickup device A detection unit that detects the movement of the camera, a control unit that can calculate frame information that surrounds the moving object based on the motion information detected by the detection unit, and imaging by at least the imaging device under the control of the control unit An image display unit capable of displaying a frame based on the captured image and the frame information, a user interface capable of selecting any displayed frame, and capable of changing and determining a target for highlighting; A zoom lens control unit that controls driving of the zoom lens in accordance with an instruction from the control unit, and the control unit moves to the image display unit based on the frame information The body frame is displayed, the subject that is currently the target candidate is highlighted, the subject to be controlled is recognized by the decision input from the user interface, and the zoom lens control unit Instructs the subject to perform zoom lens drive control.

本発明の第4の観点の撮像方法は、光学系による光学像に基づいて撮像素子により撮像画像を得る第1ステップと、上記撮像画像内における一または複数の物体の動きを検出する第2ステップと、上記第2ステップで検出した動きの情報により移動物体を囲う枠情報を算出する第3ステップと、少なくとも上記撮像された撮像画像および上記枠情報に基づいた枠を画像表示部に表示する第4ステップと、を有する。   An imaging method according to a fourth aspect of the present invention is a first step of obtaining a captured image by an imaging device based on an optical image by an optical system, and a second step of detecting a motion of one or a plurality of objects in the captured image. And a third step of calculating frame information surrounding the moving object based on the motion information detected in the second step, and a first step of displaying on the image display unit at least the captured image and the frame based on the frame information. 4 steps.

好適には、上記第4ステップにおいて、上記画像表示部に、上記枠情報に基づいて移動物体の枠表示を行い、現在ターゲット候補となっている被写体に対して強調表示を行い、ユーザーインターフェースからの決定入力によって、制御対象とすべき被写体を認識して、制御対象に当該被写体に対して制御を行うように指示する第5ステップをさらに有する。   Preferably, in the fourth step, a frame of a moving object is displayed on the image display unit based on the frame information, a subject that is currently a target candidate is highlighted, and a user interface is displayed. It further has a fifth step of recognizing the subject to be controlled by the decision input and instructing the control subject to control the subject.

本発明によれば、ユーザーが意図した被写体に対して、確実にたとえばフォーカスのセットやズーミング処理などのカメラ制御を行うことが可能となる。   According to the present invention, it is possible to reliably perform camera control such as focus setting and zooming processing on a subject intended by a user.

以下、本発明の実施形態を図面に関連付けて説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.

図4は、本発明の実施形態に係る撮像装置の構成例を示すブロック図である。   FIG. 4 is a block diagram illustrating a configuration example of the imaging apparatus according to the embodiment of the present invention.

本撮像装置10は、図4に示すように、レンズ系(光学系)11、撮像素子12、メモリ13、動き情報検出部14、制御部15、画像表示部16、ユーザーインターフェース17、およびカメラ制御対象18を有する。   As shown in FIG. 4, the imaging apparatus 10 includes a lens system (optical system) 11, an imaging element 12, a memory 13, a motion information detection unit 14, a control unit 15, an image display unit 16, a user interface 17, and camera control. Has a subject 18.

レンズ系11は、たとえばフォーカスレンズやズームレンズを含み、撮像対象からの光(像)を撮像素子12に集光する。   The lens system 11 includes, for example, a focus lens and a zoom lens, and condenses light (image) from the imaging target on the imaging element 12.

撮像素子12は、CCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)センサ等を用いて構成され、たとえば図示しないシャッターを介して入射した被写体の光を結像(受光)する。
撮像素子12は、撮像面上の各受光素子に到達した受光量を光電変換により電気信号に変換する。撮像素子12は、たとえば、単板センサであり、出力する電気信号は、1画素につきR信号、G信号、B信号のうちのいずれか1個の色信号(データ)である。
撮像素子12において、電気信号に変換された画像信号は、図示しないサンプリング回路に入力される。
サンプリング回路は、撮像素子12から供給される画像信号(電気信号)のノイズ成分を、たとえば、相関2重サンプリングにより除去する。このサンプリング回路による画像信号は、アナログ/デジタル(A/D)変換回路において、サンプリングして量子化される。
The imaging device 12 is configured using a CCD (Charge Coupled Device), a CMOS (Complementary Metal Oxide Semiconductor) sensor, or the like, and forms (receives) light of a subject incident through, for example, a shutter (not shown).
The image sensor 12 converts the amount of received light reaching each light receiving element on the imaging surface into an electrical signal by photoelectric conversion. The image sensor 12 is, for example, a single-plate sensor, and an electrical signal to be output is any one color signal (data) of R signal, G signal, and B signal per pixel.
In the image sensor 12, the image signal converted into an electrical signal is input to a sampling circuit (not shown).
The sampling circuit removes the noise component of the image signal (electric signal) supplied from the image sensor 12 by, for example, correlated double sampling. The image signal by the sampling circuit is sampled and quantized by an analog / digital (A / D) conversion circuit.

メモリ13は、撮像素子12によるデジタル画像信号を格納する。
メモリ13に格納された画像信号は、動き情報検出部14、制御部15、および画像表示部16によりアクセスされる。
The memory 13 stores a digital image signal from the image sensor 12.
The image signal stored in the memory 13 is accessed by the motion information detection unit 14, the control unit 15, and the image display unit 16.

動き情報検出部14は、メモリ13に格納された撮像画像内の一つまたは複数の物体の動き情報を算出し、算出した情報を制御部15に供給する。
動き情報検出部14の動き検出処理としては、種々の方法を採用することが可能であるが、たとえば特許第3263794号に開示されているような動き検出処理により、撮影画像領域において動き情報の生成を行う。
The motion information detection unit 14 calculates the motion information of one or more objects in the captured image stored in the memory 13 and supplies the calculated information to the control unit 15.
Various methods can be employed as the motion detection processing of the motion information detection unit 14. For example, motion information is generated in the captured image area by motion detection processing as disclosed in Japanese Patent No. 3263794. I do.

制御部15は、動き情報検出部14において算出された移動物体の動き情報を基に移動物体に対して枠情報を算出する。
制御部15は、メモリ13に格納された撮像結果である画像データと算出した移動物体に対する枠情報に基づいた枠を、画像表示部16に単数または複数重ね合わせてユーザーに見やすく表示する。制御部15は、画像表示部16に対して移動物体の強調を目的として枠表示を行うため、撮像画像に対して他の画像を重ね合わせるような表示制御を行う。
なお、他の例として動き情報検出部14が無く、制御部15にて動き情報の算出も行い、合わせて枠情報の算出を行う構成も採用可能である。また逆に、動き情報検出部14にて枠情報の算出までも行うように構成することも可能である。
The control unit 15 calculates frame information for the moving object based on the movement information of the moving object calculated by the movement information detection unit 14.
The control unit 15 displays one or more frames based on the image data stored in the memory 13 and the calculated frame information for the moving object on the image display unit 16 so as to be easily seen by the user. The control unit 15 performs display control such that another image is superimposed on the captured image in order to display a frame on the image display unit 16 for the purpose of emphasizing the moving object.
As another example, a configuration in which the motion information detection unit 14 is not provided and motion information is calculated by the control unit 15 and frame information is also calculated can be employed. Conversely, the motion information detection unit 14 may be configured to perform calculation of the frame information.

画像表示部16は、たとえば液晶表示装置(LCD)や有機ELディスプレイ等により形成され、制御部15に制御の下、撮像画像や枠情報等を表示する。   The image display unit 16 is formed by, for example, a liquid crystal display (LCD), an organic EL display, or the like, and displays a captured image, frame information, and the like under control of the control unit 15.

ユーザーインターフェース17は、ユーザーが画像表示部16の任意の画面の一部または全体を選択することが可能に構成されている。
ユーザーは、画像表示部16の表示画像を見ながら、ユーザーインターフェース17を用いて所望のカメラ制御対象を選択する。
The user interface 17 is configured so that the user can select a part or the whole of an arbitrary screen of the image display unit 16.
The user selects a desired camera control target using the user interface 17 while viewing the display image on the image display unit 16.

本実施形態において、制御部15は、算出した枠情報に基づいて移動物体の枠表示を行い、現在ターゲット候補となっている被写体に対して強調表示を行い、前述の枠の強調表示をユーザーインターフェース17でターゲット変更および決定が可能な状態(選択が可能な状態)にしてユーザーからの入力を待ち、ユーザーからの決定入力によって、どの被写体に対してユーザーがカメラ制御を望んでいるかをカメラ制御部に渡し、カメラ制御部から後段のカメラ制御対象18に指示を行うことが可能である。
ここでカメラ制御とは、たとえばフォーカスのセットやズーミング処理などを指す。制御部15は、ユーザーの被写体選択情報を用いてその選択対象に対して、後段のカメラ制御対象18(たとえばフォーカスレンズやズームレンズなど)を制御する。
In the present embodiment, the control unit 15 displays a frame of a moving object based on the calculated frame information, highlights a subject that is currently a target candidate, and displays the above-described frame highlight display on the user interface. In step 17, the target can be changed and determined (selectable state), the input from the user is waited, and the camera control unit determines which subject the user desires to control the camera by the input from the user. It is possible to give an instruction to the subsequent camera control target 18 from the camera control unit.
Here, camera control refers to, for example, focus setting or zooming processing. The control unit 15 controls the subsequent camera control target 18 (for example, a focus lens or a zoom lens) with respect to the selection target using the subject selection information of the user.

また、制御部15は、ユーザーがユーザーインターフェース17を介して選択した移動物体が撮影範囲外に移動してしまう、または移動してしまいそうな場合や、他物体の後ろに移動した場合など、被写体の移動傾向の特徴抽出を行う。   In addition, the control unit 15 may change the subject when the moving object selected by the user via the user interface 17 moves or is likely to move outside the shooting range, or when the moving object moves behind another object. The feature extraction of the movement tendency is performed.

また、制御部15は、カメラ制御対象がフォーカスレンズ制御の場合、ロックされたフォーカス対象が現フレームでの移動情報に基づいて、次フレームでのフォーカスエリアを予測して設定を行う。
また、制御部15は、カメラ制御対象がズームレンズ制御の場合、ロックされたズーム対象が画面の中で適切なズーム倍率で表示されるように調整を行う。
Further, when the camera control target is focus lens control, the control unit 15 predicts and sets the focus area in the next frame based on movement information of the locked focus target in the current frame.
In addition, when the camera control target is zoom lens control, the control unit 15 performs adjustment so that the locked zoom target is displayed at an appropriate zoom magnification on the screen.

次に、図4の撮像装置の具体的な動作例について、図5〜図8に関連付けて説明する。
図5は、図4の撮像装置の主要動作を説明するためのフローチャートである。
図6は、枠の設定の一例を示す図である。
図7は、画像表示部における画面表示例を示す図である。
図8は、被写体の変更および選択の一例を示す図である。
Next, a specific operation example of the imaging apparatus of FIG. 4 will be described with reference to FIGS.
FIG. 5 is a flowchart for explaining the main operation of the imaging apparatus of FIG.
FIG. 6 is a diagram illustrating an example of frame setting.
FIG. 7 is a diagram illustrating a screen display example in the image display unit.
FIG. 8 is a diagram illustrating an example of subject change and selection.

撮像装置10においては、まず、レンズ系11によって像光が集光され、撮像素子12によって画像に変換され、メモリ13に格納される。
メモリ13に格納されたデータを用いて、動き情報検出部14において撮像画像データ内の動き情報が算出されて、その情報を基に制御部15において移動物体に対して枠情報が算出される。
そして、制御部15の制御の下、画像表示部16に撮像結果である画像データと算出された移動物体に対する枠情報に基づいた枠が単数または複数重ね合わせてユーザーに見やすく表示される。
ユーザーは、画像表示部16に表示された画像を見ながらユーザーインターフェース17を用いて所望のカメラ制御対象18を選択する。
ここでカメラ制御とは、前述したように、たとえばフォーカスのセットやズーミング処理などを指す。制御部15はユーザーの被写体選択情報を用いてその選択対象に対して、後段のカメラ制御対象18(たとえばフォーカスレンズやズームレンズなど)を制御する。
In the imaging apparatus 10, first, image light is collected by the lens system 11, converted into an image by the imaging device 12, and stored in the memory 13.
Using the data stored in the memory 13, motion information in the captured image data is calculated in the motion information detection unit 14, and frame information is calculated for the moving object in the control unit 15 based on the information.
Under the control of the control unit 15, a single or a plurality of frames based on the image data as the imaging result and the calculated frame information for the moving object are displayed on the image display unit 16 so as to be easily seen by the user.
The user selects a desired camera control target 18 using the user interface 17 while viewing the image displayed on the image display unit 16.
Here, the camera control refers to, for example, a focus setting or zooming process as described above. The control unit 15 controls the subsequent camera control target 18 (for example, a focus lens or a zoom lens) with respect to the selection target using the subject selection information of the user.

次に、図5のフローチャート等に関連付けて動き情報生成処理からの動作をさらに詳細に説明する。   Next, the operation from the motion information generation process will be described in more detail in association with the flowchart of FIG.

まず、動き情報生成部14において、所定の動き検出処理により、撮影画像領域において動き情報の生成を行う(ST11)。
次に、制御部15が、前述の動き情報を用いて単数または複数の移動物体への枠情報の算出を行う(ST12)。
枠を決める際は、動きの大きいブロック群や動く方向の似ているブロック群などをグループ化し、その領域を囲むように枠を設定する。
なお、枠情報とは枠の位置および大きさなどを指す。
First, the motion information generation unit 14 generates motion information in the captured image region by a predetermined motion detection process (ST11).
Next, the control unit 15 calculates frame information for one or more moving objects using the motion information described above (ST12).
When deciding a frame, a group of blocks having a large movement or a group of blocks having similar movement directions is grouped, and the frame is set so as to surround the area.
The frame information refers to the position and size of the frame.

図6にその枠の設定の例を示す。
図6において、20はブロック分割された撮像画像を示す。この撮像画像20には、前述のようなグループ化条件を満たしたブロック群21や22が含まれている。
そして、ブロック群21,22を囲むように枠23,24が設定されている。
なお、この例ではブロック分割を行っているが、必ずしもそのようにする必要はなく、他の手法においても移動物体の領域指定が行えればよい。また、この例では四角形枠、としているが、枠の形に制限が有るわけではない。
FIG. 6 shows an example of setting the frame.
In FIG. 6, reference numeral 20 denotes a captured image divided into blocks. The captured image 20 includes block groups 21 and 22 that satisfy the grouping conditions as described above.
Frames 23 and 24 are set so as to surround the block groups 21 and 22.
In this example, block division is performed. However, it is not always necessary to do so, and it is only necessary to specify the area of the moving object using another method. In this example, a rectangular frame is used, but the shape of the frame is not limited.

次に、枠23や24内部の被写体に特徴がある場合は、それをユーザー補助のための特徴抽出を行う(ST13)。
たとえば、撮影範囲ぎりぎりに位置し、かつ撮影範囲外方向に向かっている被写体に対しては、撮影範囲外に出てしまう可能性があるといった特徴の抽出などである。
その後、撮像画像とそれに重ね合わせる形でステップST12にて算出した枠を画像表示部16に表示する。
その際に、ステップST13でユーザー補助のための被写体特徴を必要に応じて適切な形で表示し、ユーザビリティの向上を図る場合もある(ST14)。
Next, if there is a feature in the subject inside the frame 23 or 24, the feature extraction for user assistance is performed (ST13).
For example, for a subject that is located at the very end of the shooting range and is moving in the direction outside the shooting range, it is possible to extract features such as the possibility of going out of the shooting range.
After that, the captured image and the frame calculated in step ST12 are displayed on the image display unit 16 so as to overlap with the captured image.
At that time, subject characteristics for user assistance may be displayed in an appropriate form as necessary in step ST13 to improve usability (ST14).

上記を適用した画面の例を図7に示す。
図7の例においては、移動物体に対する枠23,24の中で、枠24が現在のターゲット候補であるため強調表示されているもので、枠23は現状ではターゲット候補ではないものである。現状ではターゲット候補でないものは通常の枠表示となる。
また、符号25で示す情報は、枠23に囲まれている移動物体が、撮影範囲外に出てしまう旨を伝えるユーザー補助情報である。
なお、ここでいうターゲット候補とはユーザーがユーザーインターフェース17によって、その後のカメラ制御を行う上での情報として決定することが可能な被写体のことを指す。それ以外のものは、その時点ではカメラ制御を行う上での情報として決定することはできない。
An example of a screen to which the above is applied is shown in FIG.
In the example of FIG. 7, among the frames 23 and 24 for the moving object, the frame 24 is highlighted because it is the current target candidate, and the frame 23 is not a target candidate at present. At present, those that are not target candidates are displayed as normal frames.
Information indicated by reference numeral 25 is user assistance information that informs that the moving object surrounded by the frame 23 goes out of the shooting range.
Note that the target candidate here refers to a subject that can be determined by the user using the user interface 17 as information for subsequent camera control. Others cannot be determined as information for camera control at that time.

ユーザーが現在ターゲット候補であるため強調表示されている被写体から、他の被写体にターゲット候補を変更したい場合は、ユーザーはジョグダイヤルやタッチパネルなどのユーザーインターフェース17を用いて所望の被写体を選択することが可能である(ST15)。
新しく選択されたターゲット候補は強調表示され、前に強調表示されていたものはターゲット候補ではなくなり、通常の枠表示となる(ST16)。
If the user wants to change the target candidate from the highlighted subject to another subject because it is currently a target candidate, the user can select the desired subject using the user interface 17 such as a jog dial or touch panel. (ST15).
The newly selected target candidate is highlighted, and the previously highlighted target is no longer a target candidate, and a normal frame is displayed (ST16).

図8にユーザーインターフェース17としてジョグダイヤル170を用いた具体的な例を示す。   FIG. 8 shows a specific example using the jog dial 170 as the user interface 17.

ユーザーが、図8中、矢印171で示すように、ジョグダイヤル170を所定方向(たとえば半時計回り)に回転させることによって、ターゲット候補とされていた枠24内の被写体241から枠23の被写体231へターゲット候補が変更となる。これにより、枠23内の被写体231が新しくターゲット候補の被写体となり強調表示が行われ、枠24は通常の枠表示となる。
ここで、ユーザーからの被写体決定があった場合は(ST17)、現在のターゲット候補の被写体の画面内での位置情報などがカメラ制御を行う上での情報として制御部15へ通知され、そのターゲット候補に即した適切なカメラ制御が行われる(ST18)。
被写体決定が無い場合、システムはユーザーの入力を待つこととなる。たとえば図8の例では、ユーザーによりジョグダイヤル170を押す操作(172)がなされると、変更先の枠23内の被写体231が正式な制御ターゲットとなる。
これにより、たとえば追従フォーカスシステムの場合は、枠23の被写体231に対して追従フォーカス制御がカメラ制御対象18にて行われることになる。
As shown by an arrow 171 in FIG. 8, the user rotates the jog dial 170 in a predetermined direction (for example, counterclockwise) to change the subject 241 in the frame 24 that has been the target candidate to the subject 231 in the frame 23. The target candidate is changed. As a result, the subject 231 in the frame 23 becomes a new target candidate subject, and highlighting is performed, and the frame 24 becomes a normal frame display.
Here, when the subject is determined by the user (ST17), the position information of the current target candidate subject on the screen is notified to the control unit 15 as information for camera control, and the target Appropriate camera control according to the candidate is performed (ST18).
If no subject is determined, the system will wait for user input. For example, in the example of FIG. 8, when the user performs an operation (172) of pressing the jog dial 170, the subject 231 in the change destination frame 23 becomes the official control target.
Thus, for example, in the case of a follow-up focus system, follow-up focus control is performed by the camera control target 18 on the subject 231 in the frame 23.

以上のように、本実施形態においては、容易にユーザーが期待している移動物体をカメラに通知することが可能となり、カメラ側でもユーザーが期待している移動物体(被写体)に対してカメラ制御を行なうことが可能となる。   As described above, in this embodiment, it is possible to easily notify the camera of the moving object expected by the user, and the camera controls the moving object (subject) expected by the user even on the camera side. Can be performed.

本実施形態に係るユーザーインターフェースを提供することによって、たとえばユーザーは図1のフローのステップST2におけるカメラの自動被写体検知アルゴリズムに合うようにカメラをセットするのではなく、容易なユーザーインターフェースで示された移動物体の候補の中からユーザー自身がターゲットを選択することによって、ユーザーによって確実に撮影対象となる移動物体を選択することが可能となる。また、カメラ側でもユーザーが期待している被写体に対してカメラ制御を行うことが可能となる。
たとえば、これにより移動物体の誤認識を回避することが可能となり、適切な被写体に対してオートフォーカスを行うことなどが可能となる。
さらに、ターゲットとして選択された被写体に対して、動きの量および方向によって適切なズーム倍率を算出してカメラ側でズーム動作を行うことによって、困難な移動物体へのズーム動作を自動的に行うことなども可能となる。
By providing the user interface according to the present embodiment, for example, the user does not set the camera to match the camera's automatic subject detection algorithm in step ST2 of the flow of FIG. 1, but is shown with an easy user interface. When the user himself / herself selects a target from among moving object candidates, the user can reliably select a moving object to be photographed. Further, camera control can be performed on the subject that the user expects on the camera side.
For example, this makes it possible to avoid erroneous recognition of a moving object and to perform autofocus on an appropriate subject.
In addition, the camera can automatically perform zoom operations on difficult moving objects by calculating the appropriate zoom magnification based on the amount and direction of movement of the subject selected as the target and performing the zoom operation on the camera side. Etc. are also possible.

以上の説明においては、カメラ制御対象18として一般化して説明を行ったが、以下に、カメラ制御対象がオートフォーカス機構およびオートズーム機構である場合を説明する。   In the above description, the camera control target 18 has been generalized and described. However, a case where the camera control target is an autofocus mechanism and an auto zoom mechanism will be described below.

図9は、図4の撮像装置をオートフォーカスシステムに適用した場合の構成例を示す図である。
図9の撮像装置10Aと図4の撮像装置10が異なる点は、カメラ制御対象10がフォーカスレンズ制御部18Aであることにある。その他の構成は同様であることから、図9において図4と同一構成部分は同一符号をもって表している。
FIG. 9 is a diagram illustrating a configuration example when the imaging apparatus of FIG. 4 is applied to an autofocus system.
The imaging apparatus 10A in FIG. 9 is different from the imaging apparatus 10 in FIG. 4 in that the camera control target 10 is the focus lens control unit 18A. Since the other configurations are the same, the same components in FIG. 9 as those in FIG. 4 are denoted by the same reference numerals.

以下に、図9の撮像装置10Aの動作について図10のフローチャートに関連付けて説明する。なお、図10は、図9の撮像装置の主要動作を説明するための図である。   Hereinafter, the operation of the imaging apparatus 10A in FIG. 9 will be described with reference to the flowchart in FIG. FIG. 10 is a diagram for explaining the main operation of the imaging apparatus of FIG.

図9の撮像装置10Aにおいては、まず、レンズ系11によって像光が集光され、撮像素子12によって画像に変換され、メモリ13に格納される。
メモリ13に格納されたデータを用いて、動き情報検出部14において撮像画像データ内の動き情報(たとえば動きベクトル)が算出されて、その情報を基に制御部15において移動物体に対して枠情報が算出される。
そして、制御部15の制御の下、画像表示部16に撮像結果である画像データと算出された移動物体に対する枠情報に基づいた枠が単数または複数重ね合わせてユーザーに見やすく表示される。
ユーザーはその画像を見ながらユーザーインターフェース17を用いて所望のフォーカス対象を選択する。
制御部15はユーザーの被写体選択情報を用いてその選択対象に対して、フォーカス制御部18Aを制御する。
In the imaging apparatus 10 </ b> A of FIG. 9, first, image light is collected by the lens system 11, converted into an image by the imaging device 12, and stored in the memory 13.
Using the data stored in the memory 13, motion information (for example, motion vectors) in the captured image data is calculated by the motion information detection unit 14, and frame information for moving objects is calculated by the control unit 15 based on the information. Is calculated.
Under the control of the control unit 15, a single or a plurality of frames based on the image data as the imaging result and the calculated frame information for the moving object are displayed on the image display unit 16 so as to be easily seen by the user.
The user selects a desired focus target using the user interface 17 while viewing the image.
The control unit 15 controls the focus control unit 18A for the selection target using the user's subject selection information.

次に、図10のフローチャート等に関連付けて動き情報生成処理からの動作をさらに詳細に説明する。図10は、図5の処理の他の処理例を示している。   Next, the operation from the motion information generation process will be described in more detail in association with the flowchart of FIG. FIG. 10 shows another processing example of the processing of FIG.

撮影画像領域において移動物体検知を行い、移動物体がある場合は登録を、移動物体が無い場合は再度移動物体を探しに行く(ST21〜ST24)。
所望の移動物体が設定されている場合は(ST24)、ユーザーに移動物体の強調表示を行い(ST25)、設定されていない場合はステップST21の処理に戻って再検知を行う。
なお、ステップST25の処理の際に中央部分で大きな動きをしているものなどがあった際はさらなる強調表示を行うなどユーザーへの判断材料を提供する場合もある。
ユーザーはタッチパネルやジョグダイヤルなどのユーザーインターフェース17を用いて所望の被写体を選択する(ST26)。
撮像装置10Aにおいては、この選択された被写体を対象に(ST27)、フォーカスレンズ制御部18Aで適切なレンズ設定値を算出することによってフォーカスレンズの駆動を行う(ST28)。
そして、設定された被写体が検知範囲内にあるのであればレンズ制御を続行し(ST29)、もし被写体が検知できなければ、警告表示を行った上で(ST30)、移動体設定の削除を行ってステップST21より再検索を行う(ST31)。
Moving object detection is performed in the photographed image area. If there is a moving object, registration is performed, and if there is no moving object, the moving object is searched again (ST21 to ST24).
When a desired moving object is set (ST24), the moving object is highlighted (ST25), and when it is not set, the process returns to step ST21 and redetection is performed.
In addition, when there is a thing which is moving largely in the central part during the process of step ST25, a judgment material for the user may be provided such as further highlighting.
The user selects a desired subject using the user interface 17 such as a touch panel or a jog dial (ST26).
In the imaging apparatus 10A, the focus lens is driven by calculating an appropriate lens setting value with the focus lens control unit 18A for the selected subject (ST27) (ST28).
If the set subject is within the detection range, the lens control is continued (ST29). If the subject cannot be detected, a warning is displayed (ST30) and the moving body setting is deleted. Then, the search is performed again from step ST21 (ST31).

以上のようなフォーカスレンズ制御を行うことによって移動物体の誤認識を回避することが可能となる。
これにより、適切な被写体に対してオートフォーカスを行うことが可能となる。
By performing the focus lens control as described above, it is possible to avoid erroneous recognition of a moving object.
This makes it possible to perform autofocus on an appropriate subject.

次に、カメラ制御対象がオートズーム機構である場合を説明する。   Next, a case where the camera control target is an auto zoom mechanism will be described.

図11は、図4の撮像装置をオートズームシステムに適用した場合の構成例を示す図である。
図11の撮像装置10Bと図4の撮像装置10が異なる点は、カメラ制御対象10がズームレンズ制御部18Bであることにある。その他の構成は同様であることから、図11において図4と同一構成部分は同一符号をもって表している。
FIG. 11 is a diagram illustrating a configuration example when the imaging apparatus of FIG. 4 is applied to an auto zoom system.
The imaging apparatus 10B in FIG. 11 differs from the imaging apparatus 10 in FIG. 4 in that the camera control target 10 is the zoom lens control unit 18B. 11 are the same as those in FIG. 4 and are denoted by the same reference numerals.

以下に、図11の撮像装置10Bの動作について図12のフローチャートに関連付けて説明する。なお、図12は、図11の撮像装置の主要動作を説明するための図である。   Hereinafter, the operation of the imaging apparatus 10B of FIG. 11 will be described in association with the flowchart of FIG. FIG. 12 is a diagram for explaining the main operation of the imaging apparatus of FIG.

図11の撮像装置10Bにおいては、まず、レンズ系11によって像光が集光され、撮像素子12によって画像に変換され、メモリ13に格納される。
メモリ13に格納されたデータを用いて、動き情報検出部14において撮像画像データ内の動き情報(たとえば動きベクトル)が算出されて、その情報を基に制御部15において移動物体に対して枠情報が算出される。
そして、制御部15の制御の下、画像表示部16に撮像結果である画像データと算出された移動物体に対する枠情報に基づいた枠が単数または複数重ね合わせてユーザーに見やすく表示される。
ユーザーはその画像を見ながらユーザーインターフェース17を用いて所望のズーム対象を選択する。
制御部15はユーザーの被写体選択情報を用いてその選択対象に対して、ズームレンズ制御部18Bを制御する。
In the imaging apparatus 10 </ b> B of FIG. 11, first, image light is collected by the lens system 11, converted into an image by the imaging device 12, and stored in the memory 13.
Using the data stored in the memory 13, motion information (for example, motion vectors) in the captured image data is calculated by the motion information detection unit 14, and frame information for moving objects is calculated by the control unit 15 based on the information. Is calculated.
Under the control of the control unit 15, a single or a plurality of frames based on the image data as the imaging result and the calculated frame information for the moving object are displayed on the image display unit 16 so as to be easily seen by the user.
The user selects a desired zoom target using the user interface 17 while viewing the image.
The control unit 15 controls the zoom lens control unit 18B for the selection target using the user's subject selection information.

次に、図12のフローチャート等に関連付けて動き情報生成処理からの動作をさらに詳細に説明する。図12は、図5の処理の他の処理例を示している。   Next, the operation from the motion information generation process will be described in more detail in association with the flowchart of FIG. FIG. 12 shows another processing example of the processing of FIG.

撮影画像領域において移動物体検知を行い、移動物体がある場合は登録を、移動物体が無い場合は再度移動物体を探しに行く(ST41〜ST44)。
所望の移動物体が設定されている場合は(ST44)、ユーザーに移動物体の強調表示を行い(ST45)、設定されていない場合はステップST41の処理に戻って再検知を行う。
なお、ステップST45の処理の際に中央部分で大きな動きをしているものなどがあった際はさらなる強調表示を行うなどユーザーへの判断材料を提供する場合もある。
ユーザーはタッチパネルやジョグダイヤルなどのユーザーインターフェース17を用いて所望の被写体を選択する(ST46)。
撮像装置10Bにおいては、この選択された被写体を対象に(ST47)、ズームレンズ制御部18Bで適切なレンズ設定値を算出することによってズームレンズの駆動を行う(ST48)。この際に、ユーザーは表示画面に対してどの程度の割合になるようにオートズームを行うかを設定することもある。
また、設定された被写体が検知範囲内にあるのであればレンズ制御を続行し(ST49)、もし被写体が検知できなければ、警告表示を行った上で(ST50)、移動体設定の削除を行ってステップST41より再検索を行う(ST51)。
Moving object detection is performed in the photographed image area. If there is a moving object, registration is performed. If there is no moving object, the moving object is searched again (ST41 to ST44).
If a desired moving object is set (ST44), the moving object is highlighted (ST45), and if not set, the process returns to step ST41 and redetection is performed.
In addition, when there is a thing which is moving greatly in the central portion during the process of step ST45, a judgment material to the user may be provided such as further highlighting.
The user selects a desired subject using the user interface 17 such as a touch panel or a jog dial (ST46).
In the imaging apparatus 10B, the zoom lens is driven by calculating an appropriate lens setting value with the zoom lens control unit 18B for the selected subject (ST47) (ST48). At this time, the user may set how much the auto zooming is performed with respect to the display screen.
If the set subject is within the detection range, the lens control is continued (ST49). If the subject cannot be detected, a warning is displayed (ST50) and the moving body setting is deleted. The search is performed again from step ST41 (ST51).

以上のよう名ズームレンズ制御を行うことによって、移動物体の誤認識を回避することが可能となる。これにより、適切な被写体に対してオートズームを行うことが可能となる。   By performing the name zoom lens control as described above, erroneous recognition of a moving object can be avoided. This makes it possible to perform auto zoom on an appropriate subject.

移動物体検知を用いた一般的なカメラにおけるレンズ制御を説明するためのフローチャートである。It is a flowchart for demonstrating the lens control in the common camera using a moving object detection. 誤認識の具体例を説明するための図であって、被写体の一例を示す図である。It is a figure for demonstrating the specific example of misrecognition, Comprising: It is a figure which shows an example of a to-be-photographed object. 誤認識の具体例を説明するための図であって、フォーカスセット後の状態を示す図である。It is a figure for demonstrating the specific example of misrecognition, Comprising: It is a figure which shows the state after a focus set. 本発明の実施形態に係る撮像装置の構成例を示すブロック図である。It is a block diagram which shows the structural example of the imaging device which concerns on embodiment of this invention. 図4の撮像装置の主要動作を説明するためのフローチャートである。6 is a flowchart for explaining main operations of the imaging apparatus in FIG. 4. 枠の設定の一例を示す図である。It is a figure which shows an example of the setting of a frame. 画像表示部における画面表示例を示す図である。It is a figure which shows the example of a screen display in an image display part. 被写体の変更および選択の一例を示す図である。It is a figure which shows an example of a change and selection of a to-be-photographed object. 図4の撮像装置をオートフォーカスシステムに適用した場合の構成例を示す図である。It is a figure which shows the structural example at the time of applying the imaging device of FIG. 4 to an autofocus system. 図9の撮像装置の主要動作を説明するための図である。It is a figure for demonstrating the main operation | movement of the imaging device of FIG. 図4の撮像装置をオートズームシステムに適用した場合の構成例を示す図である。It is a figure which shows the structural example at the time of applying the imaging device of FIG. 4 to an auto zoom system. 図11の撮像装置の主要動作を説明するための図である。It is a figure for demonstrating the main operation | movement of the imaging device of FIG.

符号の説明Explanation of symbols

10,10A,10B・・・撮像装置、11・・・レンズ系、12・・・撮像素子、13・・・メモリ、14・・・動き情報検出部、15・・・制御部、16・・・画像表示部、17・・・ユーザーインターフェース、18・・・カメラ制御対象、18A・・・フォーカスレンズ制御部、18B・・・ズームレンズ制御部。
DESCRIPTION OF SYMBOLS 10, 10A, 10B ... Imaging device, 11 ... Lens system, 12 ... Imaging element, 13 ... Memory, 14 ... Motion information detection part, 15 ... Control part, 16 ... Image display unit, 17 ... user interface, 18 ... camera control target, 18A ... focus lens control unit, 18B ... zoom lens control unit.

Claims (10)

光学系と、
上記光学系による光学像を受けて撮像画像を得る撮像素子と、
上記撮像素子による撮像画像内における一または複数の物体の動きを検出する検出部と、
上記検出部で検出した動きの情報により移動物体を囲う枠情報を算出することが可能な制御部と、
上記制御部の制御の下、少なくとも上記撮像素子によって撮像された撮像画像および上記枠情報に基づいた枠を表示可能な画像表示部と
を有する撮像装置。
Optical system,
An image sensor that receives an optical image by the optical system and obtains a captured image;
A detection unit for detecting movement of one or more objects in an image captured by the image sensor;
A control unit capable of calculating frame information surrounding a moving object based on movement information detected by the detection unit;
An imaging apparatus comprising: an image display unit capable of displaying at least a captured image captured by the imaging element and a frame based on the frame information under the control of the control unit.
上記制御部は、上記画像表示部に対して移動物体の強調を目的として枠表示を行うため、撮像画像に対して他の画像を重ね合わせて表示する
請求項1記載の撮像装置。
The imaging apparatus according to claim 1, wherein the control unit displays a frame with another image superimposed on the captured image in order to display a frame for the purpose of emphasizing a moving object on the image display unit.
任意の表示されている枠を選択することが可能なユーザーインターフェースを有する
請求項2記載の撮像装置。
The imaging apparatus according to claim 2, further comprising a user interface capable of selecting an arbitrary displayed frame.
上記ユーザーインターフェースは、強調表示のターゲット変更および決定が可能である
請求項3記載の撮像装置。
The imaging apparatus according to claim 3, wherein the user interface is capable of changing and determining a highlighted target.
上記制御部は、上記画像表示部に、上記枠情報に基づいて移動物体の枠表示を行い、現在ターゲット候補となっている被写体に対して強調表示を行い、上記ユーザーインターフェースからの決定入力によって、制御対象とすべき被写体を認識して、制御対象に当該被写体に対して制御を行うように指示する
請求項4記載の撮像装置。
The control unit displays a frame of a moving object on the image display unit based on the frame information, highlights a subject that is currently a target candidate, and by a determination input from the user interface, The imaging apparatus according to claim 4, recognizing a subject to be controlled and instructing the control target to control the subject.
上記制御部は、被写体の移動傾向の特徴抽出を行う
請求項5記載の撮像装置。
The imaging apparatus according to claim 5, wherein the control unit performs feature extraction of a movement tendency of a subject.
フォーカスレンズを含む光学系と、
上記光学系による光学像を受けて撮像画像を得る撮像素子と、
上記撮像素子による撮像画像内における一または複数の物体の動きを検出する検出部と、
上記検出部で検出した動きの情報により移動物体を囲う枠情報を算出することが可能な制御部と、
上記制御部の制御の下、少なくとも上記撮像素子によって撮像された撮像画像および上記枠情報に基づいた枠を表示可能な画像表示部と、
任意の表示されている枠を選択することが可能で、強調表示のターゲット変更および決定が可能なユーザーインターフェースと、
上記制御部の指示に従って上記フォーカスレンズの駆動制御を行うフォーカスレンズ制御部と、を有し、
上記制御部は、上記画像表示部に、上記枠情報に基づいて移動物体の枠表示を行い、現在ターゲット候補となっている被写体に対して強調表示を行い、上記ユーザーインターフェースからの決定入力によって、制御対象とすべき被写体を認識して、上記フォーカスレンズ制御部に当該被写体に対してフォーカスレンズの駆動制御を行うように指示する
撮像装置。
An optical system including a focus lens;
An image sensor that receives an optical image by the optical system and obtains a captured image;
A detection unit for detecting movement of one or more objects in an image captured by the image sensor;
A control unit capable of calculating frame information surrounding a moving object based on movement information detected by the detection unit;
An image display unit capable of displaying a frame based on at least a captured image captured by the imaging element and the frame information under the control of the control unit;
A user interface that allows you to select any displayed border, change the highlighting target, and determine
A focus lens control unit that performs drive control of the focus lens in accordance with an instruction from the control unit,
The control unit displays a frame of a moving object on the image display unit based on the frame information, highlights a subject that is currently a target candidate, and by a determination input from the user interface, An imaging apparatus that recognizes a subject to be controlled and instructs the focus lens control unit to perform focus lens drive control on the subject.
ズームレンズを含む光学系と、
上記光学系による光学像を受けて撮像画像を得る撮像素子と、
上記撮像素子による撮像画像内における一または複数の物体の動きを検出する検出部と、
上記検出部で検出した動きの情報により移動物体を囲う枠情報を算出することが可能な制御部と、
上記制御部の制御の下、少なくとも上記撮像素子によって撮像された撮像画像および上記枠情報に基づいた枠を表示可能な画像表示部と、
任意の表示されている枠を選択することが可能で、強調表示のターゲット変更および決定が可能なユーザーインターフェースと、
上記制御部の指示に従って上記ズームレンズの駆動制御を行うズームレンズ制御部と、を有し、
上記制御部は、上記画像表示部に、上記枠情報に基づいて移動物体の枠表示を行い、現在ターゲット候補となっている被写体に対して強調表示を行い、上記ユーザーインターフェースからの決定入力によって、制御対象とすべき被写体を認識して、上記ズームレンズ制御部に当該被写体に対してズームレンズの駆動制御を行うように指示する
撮像装置。
An optical system including a zoom lens;
An image sensor that receives an optical image by the optical system and obtains a captured image;
A detection unit for detecting movement of one or more objects in an image captured by the image sensor;
A control unit capable of calculating frame information surrounding a moving object based on movement information detected by the detection unit;
An image display unit capable of displaying a frame based on at least a captured image captured by the imaging element and the frame information under the control of the control unit;
A user interface that allows you to select any displayed border, change the highlighting target, and determine
A zoom lens control unit that performs drive control of the zoom lens according to an instruction of the control unit,
The control unit displays a frame of a moving object on the image display unit based on the frame information, highlights a subject that is currently a target candidate, and by a determination input from the user interface, An imaging apparatus that recognizes a subject to be controlled and instructs the zoom lens control unit to perform zoom lens drive control on the subject.
光学系による光学像に基づいて撮像素子により撮像画像を得る第1ステップと、
上記撮像画像内における一または複数の物体の動きを検出する第2ステップと、
上記第2ステップで検出した動きの情報により移動物体を囲う枠情報を算出する第3ステップと、
少なくとも上記撮像された撮像画像および上記枠情報に基づいた枠を画像表示部に表示する第4ステップと、
を有する撮像方法。
A first step of obtaining a captured image by an image sensor based on an optical image by an optical system;
A second step of detecting movement of one or more objects in the captured image;
A third step of calculating frame information surrounding the moving object based on the movement information detected in the second step;
A fourth step of displaying on the image display unit at least a frame based on the captured image and the frame information;
An imaging method comprising:
上記第4ステップにおいて、上記画像表示部に、上記枠情報に基づいて移動物体の枠表示を行い、現在ターゲット候補となっている被写体に対して強調表示を行い、
ユーザーインターフェースからの決定入力によって、制御対象とすべき被写体を認識して、制御対象に当該被写体に対して制御を行うように指示する第5ステップをさらに有する
請求項9記載の撮像方法。

In the fourth step, a frame display of the moving object is performed on the image display unit based on the frame information, and a highlighted target object is highlighted.
The imaging method according to claim 9, further comprising a fifth step of recognizing a subject to be controlled by a determination input from a user interface and instructing the control target to perform control on the subject.

JP2005248103A 2005-08-29 2005-08-29 Imaging apparatus and method Pending JP2007067555A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005248103A JP2007067555A (en) 2005-08-29 2005-08-29 Imaging apparatus and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005248103A JP2007067555A (en) 2005-08-29 2005-08-29 Imaging apparatus and method

Publications (1)

Publication Number Publication Date
JP2007067555A true JP2007067555A (en) 2007-03-15

Family

ID=37929302

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005248103A Pending JP2007067555A (en) 2005-08-29 2005-08-29 Imaging apparatus and method

Country Status (1)

Country Link
JP (1) JP2007067555A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010010748A (en) * 2008-06-24 2010-01-14 Panasonic Corp Angle of view controller and angle of view control method
JP2011223174A (en) * 2010-04-06 2011-11-04 Canon Inc Imaging device and method for controlling the same
JP2012182823A (en) * 2012-05-01 2012-09-20 Canon Inc Imaging device and method for controlling the same
KR101804844B1 (en) * 2016-12-20 2017-12-05 재단법인대구경북과학기술원 Apparatus for generating cinemagraph and method thereof
JP2019161421A (en) * 2018-03-12 2019-09-19 株式会社リコー Communication system, information processing device, and program

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010010748A (en) * 2008-06-24 2010-01-14 Panasonic Corp Angle of view controller and angle of view control method
JP2011223174A (en) * 2010-04-06 2011-11-04 Canon Inc Imaging device and method for controlling the same
JP2012182823A (en) * 2012-05-01 2012-09-20 Canon Inc Imaging device and method for controlling the same
KR101804844B1 (en) * 2016-12-20 2017-12-05 재단법인대구경북과학기술원 Apparatus for generating cinemagraph and method thereof
JP2019161421A (en) * 2018-03-12 2019-09-19 株式会社リコー Communication system, information processing device, and program
JP7106898B2 (en) 2018-03-12 2022-07-27 株式会社リコー communication system, information processing device, program

Similar Documents

Publication Publication Date Title
JP4980982B2 (en) Imaging apparatus, imaging method, focus control method, and program
JP5251215B2 (en) Digital camera
KR101609018B1 (en) Image-processing apparatus and method, and recording medium
JP5623915B2 (en) Imaging device
JP2018207309A (en) Imaging apparatus, imaging method and program
JP4496463B2 (en) Imaging apparatus and method, recording medium, and program
EP2896980B1 (en) Imaging apparatus and method for controlling an imaging apparatus
JP2005215040A (en) Autofocus system
JP2010093422A (en) Imaging apparatus
JP4730478B2 (en) IMAGING DEVICE, IMAGING DEVICE CONTROL METHOD, AND PROGRAM
JP2008046354A (en) Object tracking device and camera
JP2007067555A (en) Imaging apparatus and method
JP2012053313A (en) Imaging apparatus, automatic zooming method, and program
JP2011044838A (en) Imaging device and method, and program
JP6300550B2 (en) Automatic focusing device and automatic focusing method
JP2009081530A (en) Imaging apparatus and imaging method
JP6025954B2 (en) Imaging apparatus and control method thereof
JP4983666B2 (en) Imaging device
JP6223170B2 (en) Imaging device, control method thereof, and control program
WO2020129620A1 (en) Imaging control device, imaging device, and imaging control method
JP2009246700A (en) Imaging apparatus
JP2010230871A (en) Auto focus system
JP2011097130A (en) Imaging device
JP2003185911A (en) Optical system control device
JP2010268029A (en) Digital camera