JPS6139011A - Camera - Google Patents

Camera

Info

Publication number
JPS6139011A
JPS6139011A JP16139684A JP16139684A JPS6139011A JP S6139011 A JPS6139011 A JP S6139011A JP 16139684 A JP16139684 A JP 16139684A JP 16139684 A JP16139684 A JP 16139684A JP S6139011 A JPS6139011 A JP S6139011A
Authority
JP
Japan
Prior art keywords
subject
tracking
circuit
view
signal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP16139684A
Other languages
Japanese (ja)
Other versions
JPH065910B2 (en
Inventor
Naoya Kaneda
直也 金田
Masamichi Toyama
当山 正道
Yoichi Iwasaki
陽一 岩崎
Takashi Amikura
網蔵 孝
Akihiro Fujiwara
昭広 藤原
Masahiro Takei
武井 正弘
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP59161396A priority Critical patent/JPH065910B2/en
Publication of JPS6139011A publication Critical patent/JPS6139011A/en
Publication of JPH065910B2 publication Critical patent/JPH065910B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B7/00Mountings, adjusting means, or light-tight connections, for optical elements
    • G02B7/28Systems for automatic generation of focusing signals
    • G02B7/282Autofocusing of zoom lenses

Abstract

PURPOSE:To expand effectively a tracking range and to process the complex picture constitution of animation with simple operation by automatically tracking a subject included in a photographing picture or a specific area in the picture, and when the subject is located on the border of the area, adjusting an optical system on a comparatively short focal distance. CONSTITUTION:When the subject is moved into a waiting position TFa, a range finding field is moved to a tracking field position TFb, i.e. the position of the subject, as shown on FFb in Fig. b and the focal distance of the zoom lens is adjusted. The focal distance is the longest at the position in Fig. b and then becomes shorter in accordance with the left movement of the subject. When the tracking field reaches the end part of a limit area by moving the subject as shown on TFf in Fig. f, the focal distance of a zoom lens is adjusted so as to be shorter, i.e. its picture angle is expanded up to a wide end, and the subject is regarded as if it is fixed on the position as shown in Fig. g, so that the tracking range is expanded effectively.

Description

【発明の詳細な説明】 (技術分野) この発明は、自動焦点検出装置を具えるカメラに関し、
とくに追尾中の被写体が撮影画面又はそのうちの特定領
域の境界に#1ぼ一致する位置に達したときに実効的に
追尾範囲を拡大する手段に関する。
[Detailed Description of the Invention] (Technical Field) The present invention relates to a camera equipped with an automatic focus detection device,
In particular, the present invention relates to means for effectively expanding the tracking range when the object being tracked reaches a position that coincides with the boundary of a photographic screen or a specific area thereof.

(背景技術) 従来の無視差の自動焦点調節装置を具えるカメラ、例え
ばビデオカメラでは、第14図囚に示すように測距視野
が撮影画面中央部に固定されているため、同図(B)に
示すようにピントを合わせたい被写体(以下目標被写体
という)(この例では人物)が移動してしまうと、この
目標被写体とは異る距離にある物体(この例では家屋)
にピントが合い、目標被写体である人物がぼけてしまう
ので、画面構成上目標被写体をつねに画面中心に置かね
ばならないという欠点があった。そのため、測距視野位
置を可変にする手段も提案されているが、これらの手段
は撮影者がつまみ等の操作によって測距視野位置を変更
するものでちゃ、撮影途中に被写体が移動する場合に、
これらのつまみによって測距位置をつねに焦点検出対象
被写体上に維持することは困難である。
(Background Art) In a conventional camera equipped with an automatic focusing device with negligible difference, such as a video camera, the distance measurement field of view is fixed at the center of the shooting screen as shown in Figure 14 (B). ), if the subject you want to focus on (hereinafter referred to as the target subject) (in this example, a person) moves, an object (in this example, a house) that is at a different distance from the target subject will move.
is in focus, and the person who is the target subject becomes blurred, so the disadvantage is that the target subject must always be placed at the center of the screen due to the screen configuration. For this reason, methods have been proposed to make the distance measurement field position variable, but these methods require the photographer to change the distance measurement field position by operating a knob or the like, which is difficult to do when the subject moves during shooting. ,
It is difficult to always maintain the distance measurement position above the focus detection target object using these knobs.

上記の欠点を解消するために、本出願人は、先に、移動
可能な追尾視野を設定し、被測距物体の特徴をこの追尾
視野に関して抽出し、この抽出された特徴を記憶させ、
この記憶された特徴と新たに抽出された被測距物体の特
徴とに基づいて物体の移動の有無を検出し、物体の相対
的な移動に応じて測距視野を物体の移動に追尾して移動
させるようにした自動追尾焦点検出装置について提案し
たが(昭和59年特許願第105897号、発明の名称
「自動追尾焦点検出装置」)、この提案を実施するに当
たっては、有限である撮影画面又は撮影画面内で追尾動
作を行う範囲として設定された特定領域について、可能
な限シ、追尾動作を行う範囲を実効的に広くすることが
望ましい。
In order to eliminate the above drawbacks, the applicant first sets a movable tracking field of view, extracts the features of the object to be ranged with respect to this tracking field of view, stores the extracted features,
The presence or absence of movement of the object is detected based on the memorized characteristics and the newly extracted characteristics of the object to be ranged, and the distance measurement field of view is tracked to the movement of the object according to the relative movement of the object. We have proposed a moving automatic tracking focus detection device (Patent Application No. 105897 of 1981, title of the invention "Automatic tracking focus detection device"). It is desirable to effectively widen the range in which the tracking operation is performed as much as possible with respect to the specific area set as the range in which the tracking operation is performed within the photographic screen.

(目的) したがって、この発明は、従来の自動焦点検出装置を具
えるカメラの前述の欠点を解消し、移動する被写体につ
いて自動的にその移動位置を検出し、測距視野を被写体
の移動に追尾して移動させて焦点検出ないし焦点調節を
行うに当たり、追尾中の被写体が撮、影画面又はそのう
ちの特定領域の境界にほぼ一致する位置に達したときに
実効的に追尾範囲を拡大し、これによシ動画の複雑な一
面構成を簡単な操作によって行うことができるカメラを
提供することを目的とする。
(Objective) Therefore, the present invention eliminates the above-mentioned drawbacks of cameras equipped with conventional automatic focus detection devices, automatically detects the moving position of a moving subject, and tracks the distance measurement field of view with the movement of the subject. When the subject being tracked reaches a position that almost coincides with the boundary of the shooting or shooting screen or a specific area thereof, the tracking range is effectively expanded and the focus is adjusted. An object of the present invention is to provide a camera capable of composing a complicated one-page moving image by a simple operation.

(実施例による説明) 以下第1E〜第13図等を参照して上記の目的を達成す
るためこの発明において講じた手段につ込て例示説明す
る。下記の説明は、被追尾被写体の葵徴を色情報によっ
て抽出する例についてこの発明に係るカメラの実施例全
体説明、湿びに同実     ゛施例における限界領域
設定手段、被写体移動検出手段、自動焦点検出手段及び
焦点距離調整手段、並びに同実施例の作用及び操作方法
の順序で行う。
(Description based on Examples) Hereinafter, with reference to FIGS. 1E to 13, etc., the means taken in this invention to achieve the above object will be explained by way of example. The following is an overall explanation of the embodiment of the camera according to the present invention, with respect to an example of extracting the color characteristics of a tracked subject using color information, and the limit area setting means, subject movement detection means, and automatic focus in the embodiment. The detection means, the focal length adjustment means, and the operation and operation method of the same embodiment will be described in this order.

(この発明に係るカメラの実施例の全体説明)(第1図
〕 第1図は、この発明に係るカメラの一実施例の要部を示
すものであり、図中1は撮影レンズ中の焦点調節のため
のレンズ群であって、通常不図示の鏡筒にヘリコイド嵌
合し、鏡筒の回転動作によって前後にその位置を変える
ものである。2は焦点距離を変化させるためのレンズ群
(例えばズームレンズ)であって、変倍系レンズと補正
系レンズとよりな夕、多くの場合不図示のカムに従って
その位置が変えられて焦点距離を変化させる。さらに3
は結像系レンズ群であって、焦点調節のためのレンズ群
lの位置によって定まる撮影距離にある物体の像を所定
の位置に正しく結像させるためのものである。4は撮像
手段の一例であるC C,D、等の固体撮像素子であっ
てレンズ群3の結像面に設けられ、撮像素子駆動回路5
によシ駆動されてその受光面に入射する被写体からの光
を光電変換する。撮像素子駆動回路5は、クロック発生
回路6が発生するクロックパルス又はこれを分周した信
号によシ制御される。Mlは焦点調節(AF)モータで
レンズ群1を抱く前記の鏡筒に連動し、Mlはズームモ
ータでレンズ群2を移動させるための不図示のカムに連
動している。上記の各部分の構成及び機能は周知である
のでそれらの詳細な説明を省略する。
(Overall description of an embodiment of the camera according to the present invention) (Fig. 1) Fig. 1 shows a main part of an embodiment of the camera according to the present invention, and in the figure, 1 indicates the focal point in the photographing lens. This is a lens group for adjustment, and is usually helicoidally fitted into a lens barrel (not shown), and its position is changed back and forth by the rotational movement of the lens barrel. 2 is a lens group for changing the focal length ( For example, a zoom lens), which includes a variable power lens and a correction lens, and in most cases, its position is changed according to a cam (not shown) to change the focal length.Furthermore, 3
is an imaging system lens group, which is used to accurately form an image of an object at a predetermined position at a shooting distance determined by the position of the lens group l for focus adjustment. Reference numeral 4 denotes a solid-state image sensor such as C, D, etc., which is an example of an imaging means, and is provided on the imaging plane of the lens group 3, and an image sensor driving circuit 5
It photoelectrically converts the light from the subject that is driven by the camera and enters its light-receiving surface. The image sensor driving circuit 5 is controlled by a clock pulse generated by a clock generation circuit 6 or a signal obtained by frequency-dividing the clock pulse. Ml is a focusing (AF) motor that is linked to the lens barrel holding the lens group 1, and Ml is a zoom motor that is linked to a cam (not shown) for moving the lens group 2. Since the configuration and function of each of the above parts are well known, detailed explanation thereof will be omitted.

7は信号処理回路であル、撮像素子4で光電変換された
時系列信号は、同回路7でブランキング補正、ガンマ補
正等の補正処□理をされるとともに同回路内のマトリク
ス回路で色差信号(R−Y)及び(B−Y)並びに輝度
信号Yが作成される。これらの色差信号及び輝度信号は
不図示のエンコーダにおいて同期信号発生回路10が発
生する同期信号と合成され、出力ビデオ信号である例え
ばNTSC信号が形成され、とのNTSC信号は利用装
置、例えばビデオデツキへ供給される。なお下記の説明
では、出力ビデオ信号がNTSC信号であるとする。
7 is a signal processing circuit. The time series signal photoelectrically converted by the image sensor 4 is subjected to correction processing such as blanking correction and gamma correction in the same circuit 7, and color difference correction is performed in a matrix circuit in the same circuit. Signals (RY) and (B-Y) and a luminance signal Y are created. These color difference signals and luminance signals are combined with a synchronization signal generated by the synchronization signal generation circuit 10 in an encoder (not shown) to form an output video signal, for example, an NTSC signal, and the NTSC signal is sent to a usage device, for example, a video deck. Supplied. Note that in the following description, it is assumed that the output video signal is an NTSC signal.

上記の色差信号(R−Y)及び(B−Y)、さ6に必要
があれば輝度信号Yは、追尾ダート回路8を介して被写
体移動検出回路9に入力され、同回路で被写体の移動方
向又は移動量が検出される。ここで、被写体とカメラと
の間の移動は相対的であるから、上記の被写体の移動と
は、カメラが固定されて被写体が移動する場合のほか、
被写体が停止してカメラが移動する場合あるいは両者が
ともに移動する場合をいい、この出願の発明は上記のど
の場合にも適用されるものである。10は同期信号発生
回路であってクロック発生回路6が発生するクロックツ
4ルス又はこれを分周した信号によシ制御される。1ノ
は)f −) ノJ?ルス発生回路であって同期信号発
生回路10が発生する水平同期信号及び垂直同期信号に
同期制御され、また後述のマイクロプロセッサ16に制
御されて追尾r−)回路8及び後述の測距ゲート回路1
2に対するダートパルスを発生する。
The above color difference signals (R-Y) and (B-Y), and if necessary, the luminance signal Y are input to the subject movement detection circuit 9 via the tracking dart circuit 8, and the same circuit detects the movement of the subject. A direction or amount of movement is detected. Here, since the movement between the subject and the camera is relative, the above-mentioned movement of the subject refers to cases where the camera is fixed and the subject moves, as well as cases where the subject moves.
This refers to a case where the subject stops and the camera moves, or a case where both move together, and the invention of this application is applicable to any of the above cases. Reference numeral 10 denotes a synchronizing signal generating circuit, which is controlled by the clock pulse generated by the clock generating circuit 6 or a signal obtained by dividing the clock pulse. 1 no is) f −) no J? The tracking r-) circuit 8 and the distance measurement gate circuit 1 are controlled in synchronization with the horizontal synchronization signal and vertical synchronization signal generated by the synchronization signal generation circuit 10, and are also controlled by the microprocessor 16 described later.
Generate a dart pulse for 2.

追尾ダート回路8では、ゲートパルス発生回路11が発
生するダートパルスによって前記の色差信号等に対する
ダート位置が設定される。これによフ、被写体の特徴、
さらには背景の特徴を、例えば後述の第5図〜第9図に
示す態様によシ抽出する追尾視野の位置が定められる。
In the tracking dart circuit 8, the dart position for the color difference signal and the like is set by the dart pulse generated by the gate pulse generating circuit 11. With this, the characteristics of the subject,
Furthermore, the position of the tracking field of view for extracting background features, for example, in the manner shown in FIGS. 5 to 9, which will be described later, is determined.

換言すれば、前記の色差信号等のうち移動検出回路9に
入力される範囲が定められ、この信号の変化によって被
写体の移動が検出される。この被写体移動検出信号はマ
イクロプロセッサ16に入力され、追尾ダート回路8の
?−)位置、すなわち追尾視野位置を被追尾被写体の移
動に応じて移動させるための信号(例えば移動方向を指
示する信号)が発生6される。この信号がff−)パル
ス発生回路11に供給され、被追尾被写体の移動に対応
する位置の色差信号を抽出するためのダートパルスが形
成される。
In other words, a range of the color difference signals and the like to be input to the movement detection circuit 9 is determined, and movement of the subject is detected based on a change in this signal. This subject movement detection signal is input to the microprocessor 16 and sent to the tracking dart circuit 8. -) A signal (for example, a signal instructing the moving direction) for moving the position, that is, the position of the tracking field of view in accordance with the movement of the tracked object, is generated 6. This signal is supplied to the ff-) pulse generation circuit 11 to form a dart pulse for extracting a color difference signal at a position corresponding to the movement of the tracked subject.

一方、輝度信号Yは測距ゲート回路12を介して自動焦
点検出回路13に入力され、同回路で焦点検出又は焦点
調節信号が発生される。測距ゲート回路12では、ダー
トパルス発生回路11が発生するダートパルスによって
輝度信号Yに対するf−)位置が、追尾動作中は、前記
の追尾f−)と同じ関係位置に設定され、これにより輝
度信号Yのうち被写体の焦点検出のために自動焦点検出
回路13に入力される範囲(以下測距視野という)が定
められる。なおこの出願の発明の実施例で岐、追尾視野
又は(及び)測距視野は、必要に応じ電子ビューファイ
ンダ等の表示装置に表示することができるが、これは必
須の手段ではない。
On the other hand, the luminance signal Y is input to the automatic focus detection circuit 13 via the distance measurement gate circuit 12, and a focus detection or focus adjustment signal is generated by the same circuit. In the ranging gate circuit 12, the dart pulse generated by the dart pulse generation circuit 11 sets the f-) position with respect to the luminance signal Y during the tracking operation to the same relative position as the tracking f-), and thereby the luminance A range (hereinafter referred to as distance measurement field of view) of the signal Y that is input to the automatic focus detection circuit 13 for detecting the focus of the subject is determined. Note that in the embodiments of the invention of this application, the field of view, tracking field of view, and/or distance measurement field of view can be displayed on a display device such as an electronic viewfinder if necessary, but this is not an essential means.

第1図では、追尾f−)回路8と測距ゲート回路12と
を別個に設けているが、両ダート回路を共通に設けても
よく、あるいは、前者の後段に後者を接続して前者によ
シ設定される追尾視野内のさらにφ範囲の部分に測距視
野を設定してもよい。
In FIG. 1, the tracking f-) circuit 8 and the ranging gate circuit 12 are provided separately, but both dirt circuits may be provided in common, or the latter may be connected after the former and the distance measuring gate circuit 12 may be provided separately. The distance measurement field of view may be further set in a portion of the φ range within the tracking field of view that is previously set.

ただし、いずれの場合も、追尾動作中は、両視野は同じ
関係位置に、とくに中心位置を同じにして設定されなけ
ればならない。なお第1図に示す例では、追尾視野と測
距視野とは、それぞれ任意の大きさに設定することがで
きる。さらに焦点調節のためのレンズ群1の絶対位置を
検出するポジションセンサP1及び焦点距離を変化させ
るためのレンズ群2の絶対位置を検出するポジションセ
ンサP2の出力に応じて追尾視野大きさ決定回路14に
よ9両視野の大きさを被写体の撮影距離及びレンズの焦
点距離の変化にかかわらず被写体に最適の大きさに調整
することができる。
However, in any case, during the tracking operation, both fields of view must be set at the same relative position, in particular with the same center position. In the example shown in FIG. 1, the tracking field of view and the distance measurement field of view can each be set to arbitrary sizes. Furthermore, the tracking field size determination circuit 14 is responsive to the outputs of a position sensor P1 that detects the absolute position of the lens group 1 for focus adjustment and a position sensor P2 that detects the absolute position of the lens group 2 for changing the focal length. Therefore, the size of both fields of view can be adjusted to the optimum size for the subject, regardless of changes in the shooting distance of the subject and the focal length of the lens.

測距ゲート回路12の後段には、自動焦点検出回路13
が接続され、公知の手段に従って自動焦点検出が行われ
、その出力信号がAFモータ駆動装置15を制御し、A
FモータM1によってレンズ群1を駆動する。そして合
焦点が検出されると上記の制御ループは1作を停止し、
レンズ群1もその位置で停止する。なお自動焦点検出手
段の具体例については、第10図を参照して後述する。
An automatic focus detection circuit 13 is provided after the distance measurement gate circuit 12.
is connected, automatic focus detection is performed according to known means, and its output signal controls the AF motor drive device 15,
Lens group 1 is driven by F motor M1. Then, when the in-focus point is detected, the above control loop stops one operation,
Lens group 1 also stops at that position. A specific example of the automatic focus detection means will be described later with reference to FIG. 10.

マイクロプロセッサ16は、クロック発生回路6からの
クロックパルス、被写体移動検出回路9からの被写体移
動検出信号及び追尾視野大きさ決定回路14からの追尾
視野、あるいはさらに測距視野の大きさを決定する信号
のほか、後述の限界領域設定回路17からの限界領域設
定信号及び時間設定回路18からの時間設定信号並びに
入力端子工1からの撮影距離に応じて撮影者が設定する
焦点距離情報、入力端子I2からの追尾視野位置設定情
報等が入力され、またその出力によシ追尾ダート回路8
、被写体移動検出回路9、ダートパルス発生回路1ノ、
測距ゲート回路12及びAFモータ駆動装置15並びに
後述のズームモータ駆動装置19及びキャラクタ・ジェ
ネレータ20等を制御する。
The microprocessor 16 receives a clock pulse from the clock generation circuit 6, a subject movement detection signal from the subject movement detection circuit 9, a tracking field of view from the tracking field of view size determination circuit 14, or a signal for determining the size of the ranging field of view. In addition, a limit area setting signal from a limit area setting circuit 17 and a time setting signal from a time setting circuit 18, which will be described later, as well as focal length information set by the photographer according to the shooting distance from the input terminal 1, and input terminal I2. Tracking field position setting information etc. from the tracking dart circuit 8 is inputted, and the tracking dart circuit 8
, object movement detection circuit 9, dirt pulse generation circuit 1,
It controls the distance measurement gate circuit 12, the AF motor drive device 15, a zoom motor drive device 19, a character generator 20, etc., which will be described later.

次に、第1図の実施例における追尾視野復帰手段につい
て説明する。限界領域設定回路17は、マイクロプロセ
ッサ16と協働して、被写体が撮影画面又はそのうちの
特定領域外へ出た場合に追尾視野を画面内の位置へ復帰
させるための主要構成部分の一例をなすものであって、
同期信号発生回路10が発生する水平同期信号及び垂直
同期信号に制御されて、撮影者の設定によシ入力端子工
3から入力される信号に従って特定領域である例えば第
13図のBAで示される限界領域を設定する。限界領域
BAは、その内部においてのみ追尾動作を行う等のため
に設けられるものであシ、マイクロプロセッサ16にお
いて限界領域設定回路17及び移動検出回路9の出力信
号に応じて追尾視野の現在位置があらかじめ手動設定さ
れた限界領域BA内に入っているかどうかが判定される
Next, the tracking field of view return means in the embodiment shown in FIG. 1 will be explained. The limit area setting circuit 17 is an example of a main component that cooperates with the microprocessor 16 to return the tracking field of view to a position within the screen when the subject moves out of the shooting screen or a specific area thereof. It is a thing,
Under the control of the horizontal synchronization signal and vertical synchronization signal generated by the synchronization signal generation circuit 10, a specific area, for example, indicated by BA in FIG. Set the limit area. The limit area BA is provided for the purpose of performing a tracking operation only within the limit area BA, and the current position of the tracking field of view is determined in the microprocessor 16 according to the output signals of the limit area setting circuit 17 and the movement detection circuit 9. It is determined whether it is within a limit area BA that is manually set in advance.

そして追尾視野の位置、したがって被追尾被写体の画面
上の位置が限界領域BAを出たとの判定がされたときに
追尾視野を待機位置へ戻すための手段について説明する
と、そのひとつはマイクロプロセッサ16が被写体移動
検出回路9に制御信号aを転送して同回路をリセットし
、かつダートパルス発生回路11に制御信号Cを、追尾
ダート回路8に制御信号dを転送して追尾f−)回路8
のダート位置を撮影画面内の設定可能な位置、例えば第
13図(h)のTFhで示す待機位置相当の位置へ移動
させることである。これにより追尾視野が、例えば上記
の待機位置へ移動し、次に撮影画面内に入って来ること
が予想される被写体に対する追尾モードへ移行する。
Next, we will explain the means for returning the tracking field of view to the standby position when it is determined that the position of the tracking field of view, and therefore the position of the tracked subject on the screen, has left the limit area BA. A control signal a is transferred to the subject movement detection circuit 9 to reset the circuit, and a control signal C is transferred to the dart pulse generation circuit 11 and a control signal d is transferred to the tracking dart circuit 8 to perform tracking f-) circuit 8.
The dart position is moved to a settable position within the photographing screen, for example, a position corresponding to the standby position indicated by TFh in FIG. 13(h). As a result, the tracking field of view moves to, for example, the above-mentioned standby position, and shifts to a tracking mode for the subject expected to enter the photographic screen next.

上記の追尾視野復帰手段性、被写体の動きが激しい場合
に安定に追尾動作を行わせる等のためには、被写体がい
ったん限界領域BAを出たら直ちに待機位置への復帰を
行うのではなく、調整可能な所定時間を経た後に行うよ
うにすることを可とする。時間設定回路17はそのため
に設けられるものであ多、撮影者の設定により入力され
るタイマ時間情報により、同回路が上記の所定時間を設
定する。被追尾被写体が限界領域BAを出たとの判定が
されると、マイクロプロセッサ16F!移動検出回路9
に制御信号a′を転送してその動作を停止し、また制御
信号すを後述のキャラクタ・ジェネレータ20及びAF
モータ駆動装置15に転送して前者では焦点検出マーク
の表示動作を中止させ、後者では駆動装置15を停止さ
せてその時漬におけるレンズ群1の位置によって定まる
焦点検出状態を保持するようにする。さらに、不図示の
警告回路に制御信号すを転送して撮影者に対し、被追尾
被写体が限界領域BA外へ出たこと、あるいは現在追尾
動作が停止中であることを警告するようにしてもよい。
In order to perform the tracking operation stably when the subject moves rapidly, etc., the method for returning the tracking field of view described above is not to return to the standby position immediately after the subject leaves the limit area BA, but rather to make adjustments. It is possible to perform this after a possible predetermined time has elapsed. The time setting circuit 17 is provided for this purpose and sets the above-mentioned predetermined time based on timer time information inputted by the photographer. When it is determined that the tracked subject has left the limit area BA, the microprocessor 16F! Movement detection circuit 9
The control signal a' is transferred to the character generator 20 and the AF to stop its operation, and the control signal a' is transferred to the character generator 20 and the AF
In the former case, the display operation of the focus detection mark is stopped, and in the latter case, the drive device 15 is stopped and the focus detection state determined by the position of the lens group 1 at that time is maintained. Furthermore, a control signal may be transmitted to a warning circuit (not shown) to warn the photographer that the tracked subject has moved out of the limit area BA or that the tracking operation is currently stopped. good.

そのための手段としては、後述の限界領域の境界線(枠
)のフラッシング、あるいは可聴音信号の発生等の手段
が考えられる。
Possible means for this purpose include flashing the boundary line (frame) of the limit area, which will be described later, or generating an audible sound signal.

上記において、キャラクタ・ジェネレータ20は、マイ
クロプロセッサ16から被追尾被写体の位置情報を受け
て焦点検出マーク信号を形成し、この信号と出力ビデオ
信号とを加算回路2ノで加算して電子ビューファインダ
(EVF) x st等表示装置に転送し、映像信号に
加えて焦点検出対象被写体を指示するマークを表示する
ためのものである。
In the above, the character generator 20 receives position information of the tracked subject from the microprocessor 16, forms a focus detection mark signal, adds this signal and the output video signal in the adder circuit 2, and adds the signal to the electronic viewfinder ( EVF) x st, etc., to display a mark indicating the focus detection target object in addition to the video signal.

なお焦点検出マーク信号の形成手段については、例えば
本出願人の出願に係る特願昭59−82709号、発明
の名称「測距視野選択装置」に開示された手段を利用す
ることができる。
As for the means for forming the focus detection mark signal, it is possible to use, for example, the means disclosed in Japanese Patent Application No. 59-82709 filed by the present applicant, entitled "Distance Measuring Field of View Selection Device."

時間設定回路18で設定した所定時間が経過すると、マ
イクロプロセッサ16からの制御信号C及びdによシそ
れぞれf−)パルス発生回路11及び追尾ダート回路8
を制御して追尾ダート回路8のダート位置を上記の待機
位置相当の位置へ戻し、これにより追尾視野は待機位置
へ移動し、移動検出回路9は改めて被写体移動検出動作
を開始し、また制御信号すの終了によってキャラクタ・
ジェネレータ20.AFモータ駆動装置16ゆその動作
を再開し、前記の警告回路線その動作を停止し、自動追
尾モードが再開される。
When the predetermined time set by the time setting circuit 18 has elapsed, control signals C and d are sent from the microprocessor 16 to f-) pulse generation circuit 11 and tracking dart circuit 8, respectively.
is controlled to return the dart position of the tracking dart circuit 8 to a position equivalent to the above-mentioned standby position, thereby moving the tracking field of view to the standby position, the movement detection circuit 9 starts the object movement detection operation again, and the control signal character by the end of the
Generator 20. The operation of the AF motor drive device 16 is restarted, the operation of the warning circuit line is stopped, and the automatic tracking mode is restarted.

上記の実施例において、限界領域は追尾動作を行う範囲
等を定める手段であって、必ずしもファインダ等に表示
することを要するものではない。
In the embodiments described above, the limit area is a means for determining the range in which a tracking operation is performed, and does not necessarily need to be displayed on a finder or the like.

また限界領域は、通常は、撮影画面の全面内にそれよシ
も狭い範囲として、あるいは撮影画面中の一部の領域内
にそれよりも狭い範囲として設定される。ただし撮影者
の操作によシ領域設定回路17が撮影画面全体を限界領
域として設定する場合、あるいは撮影画面全体が固定的
に限界領域として設定されている場合には、被追尾被写
体が撮影画面外へ出たことを判定して上記の追尾視野の
復帰及びこれに関連する動作が行われる。
Further, the limit area is usually set as a narrower range within the entire surface of the photographic screen, or as a narrower range within a part of the photographic screen. However, if the area setting circuit 17 sets the entire shooting screen as the limit area by the photographer's operation, or if the entire shooting screen is fixedly set as the limit area, the tracked subject will be outside the shooting screen. When it is determined that the tracking field has moved out, the above-mentioned tracking field of view is restored and related operations are performed.

第1図の実施例における測距視野復帰手段については、
追尾動作中は、前述のように測距ダート回路12のダー
ト位置は被写体の移動に追尾して追尾f−)回路8のゲ
ート位置と同じ関係位置に移動し、したがって測距視野
は追尾視野と同じ関係位置に移動するが、被写体が撮影
画面外又はそのうちの限界領域外へ出た場合には、追尾
視野を待機位置に復帰させるのに対応して、測距視野を
例えば撮影画面内の中央部又はその付近に復帰させる。
Regarding the distance measuring field of view recovery means in the embodiment shown in FIG.
During the tracking operation, as described above, the dart position of the ranging dart circuit 12 follows the movement of the subject and moves to the same relative position as the gate position of the tracking f-) circuit 8, so that the ranging field of view is the same as the tracking field of view. If the subject moves to the same related position, but goes outside the shooting screen or outside the limit area, the tracking field of view is returned to the standby position, and the distance measurement field of view is moved to the center of the shooting screen, for example. to return to the area or its vicinity.

そのためには、マイクロプロセッサ16がf−)/#ル
ス発生回路11に制御信号C′を、測距ダート回路12
に制御信号eを転送して測距ゲート回路J2のダート位
置を撮影画面の中央部又はその付近相当の位置へ移動さ
せればよい。
To do this, the microprocessor 16 sends a control signal C' to the f-)/# pulse generation circuit 11 and the distance measuring dart circuit 12.
The dart position of the distance measuring gate circuit J2 may be moved to a position corresponding to the center of the photographing screen or its vicinity by transmitting the control signal e to.

(この発明の実施例における限界領域設定手段)(第1
図〜第4図) 次に第2図〜第4図をも参照してこの発明の実施例にお
ける限界領域設定手段について詳細に説明する。第2図
において、30.31は限界領域BAのX方向の境界線
を、3!、33は同じくy方向の境界線を示すものであ
り、第3図囚のつまみ40の手動操作によt)X方向の
位置を定める境界#3θ、3ノが左右に移動し、かつμ
ツクブタン41の操作によシその位置が固定される。同
様に、同図(B)のつまみ42の手動操作によりy方向
の位置を定める境界932.38が上下に移動し、かつ
ロックがタン43の操作によりその位置が固定される。
(Limit area setting means in the embodiment of this invention) (First
(FIGS. 2 to 4) Next, the limit area setting means in the embodiment of the present invention will be described in detail with reference to FIGS. 2 to 4. In FIG. 2, 30.31 indicates the boundary line in the X direction of the limit area BA, and 3! , 33 similarly indicate the boundary line in the y direction, and by manual operation of the knob 40 shown in Figure 3, the boundary #3θ, 3 which determines the position in the X direction moves left and right, and μ
The position is fixed by operating the knob 41. Similarly, the boundary 932.38 that defines the position in the y direction moves up and down by manual operation of the knob 42 in FIG.

すなわち、つまみ40.42の操作によシ限界領域BA
の位置を可変に設定することができるが、X方向及びy
方向ともにつまみをさらに1個設け、境界線30と31
、同じく32と33とを独立に設定し、限界領域BAの
大きさをも可変に設定できるようにしてもよい。
That is, by operating the knobs 40 and 42, the limit area BA
The position of can be set variably, but the position of
Add one more knob in both directions, and set the border lines 30 and 31.
Similarly, 32 and 33 may be set independently, and the size of the limit area BA may also be set variably.

上記のつまみ及びロックボタンの操作に応じて境界線3
0〜33の位置を示す信号を発生するためには、これら
の境界線に対応する水平走査線の位置(32,33に対
応する)及びこれらの水平走査線を上下端とする各水平
走査線中の特定位置(30,31に対応する)を選択す
ればよい。そのためには、前者については1フイールド
中の水平走査線数をカウントし、つまみ42等により設
定される境界線32.83の位置に対応する番号の水平
走査線を選択し、また後者については水平同期信号周波
数を逓倍してパルス列を発生させ、各水平走査周期の始
端からカウントしてつまみ40等によシ設定される境界
@30.31の位置に対応する番号のパルスを選択すれ
ばよい。あるいは、水平同期信号及び垂直同期信号にそ
れぞれ同期する三角波を発生させ、これらの三角波をそ
れぞれつまみ40及び42等によシ設定される境界線(
JO,JJ)及び(32,33)の位置に対応する電圧
レベルでクリップして矩形波を発生させ、かつこれらの
矩形波の前端及び後端の位置に相当する1対のパルスを
発生させて、それぞれ一方の矩形波と他方の1対のパル
スとの論理和をとればよい(本出願人の出願に係る特開
昭59−4384号公報、発明の名称「ビデオカメラ」
参照)。
Boundary line 3 depending on the operation of the above knob and lock button.
In order to generate a signal indicating the positions 0 to 33, the positions of the horizontal scanning lines corresponding to these boundary lines (corresponding to 32 and 33) and the respective horizontal scanning lines whose upper and lower ends are these horizontal scanning lines are required. What is necessary is to select a specific position (corresponding to 30 and 31) inside. To do this, for the former, count the number of horizontal scanning lines in one field and select the horizontal scanning line with the number corresponding to the position of the boundary line 32.83 set by knob 42, etc., and for the latter, count the number of horizontal scanning lines in one field. A pulse train is generated by multiplying the synchronizing signal frequency, and the pulse number corresponding to the position of the boundary @30.31 set by the knob 40 or the like is selected by counting from the start of each horizontal scanning period. Alternatively, triangular waves synchronized with the horizontal and vertical synchronizing signals are generated, and these triangular waves are connected to the boundary lines (
JO, JJ) and (32, 33) to generate a square wave by clipping at the voltage level corresponding to the position, and generate a pair of pulses corresponding to the front and rear end positions of these square waves. , the logical sum of one rectangular wave and the other pair of pulses can be calculated (Japanese Patent Application Laid-Open No. 59-4384 filed by the present applicant, title of the invention is "Video Camera")
reference).

第4図は上記のようにして作成された信号のタ −イミ
ング関係を1水平走査期間について示すものであり、(
a)は映像信号を簡略化して示し、(b)は限界領域を
示すもので詳しくは第2図の境界線30゜31と水平走
査線とが交差する位置を示し、(C)は(a)信号と(
b)信号との合成信号を、(d)は第2図のX方向(境
界線so、siで定められる)の限界領域幅を、(e)
は第1図の追尾f−)回路によるダート位置を、(f)
は時間軸をそれぞれ示すものである。
Figure 4 shows the timing relationship of the signals created as described above for one horizontal scanning period.
(a) shows the video signal in a simplified manner, (b) shows the limit area, specifically the position where the boundary line 30°31 in Fig. 2 intersects with the horizontal scanning line, and (C) shows the limit area (a). ) signal and (
b) The composite signal with the signal, (d) the limit area width in the X direction (defined by the boundaries so and si) in Figure 2, (e)
is the dart position by the tracking f-) circuit in Figure 1, (f)
indicate the time axis.

この例では、(d)の限界領域幅を示す信号線限界領域
で低レベル、その他の部分で高レベルになっている。ま
たダート位置を示す信号(、)によって追尾視野の位置
が定められるものである。なお第4図には第2図のy方
向について限界領域を表わす信号を示していないが、こ
の限界領域も第4図に示すものと同様にして設定される
。上記の限界領域BAは必ずしも表示装置に表示するこ
とを要しないが、これを電子ビューファインダ22等の
表示装置に表示するために拡限界領域設定回路18の出
力信号をキャラクタ・ジェネレータ2oあるいは直接電
子ビューファインダ22に供給して表示すればよい。
In this example, the signal line limit area showing the limit area width in (d) is at a low level, and the other parts are at a high level. Further, the position of the tracking field of view is determined by the signal (,) indicating the dart position. Although FIG. 4 does not show a signal representing the limit area in the y direction of FIG. 2, this limit area is also set in the same manner as shown in FIG. The limit area BA described above does not necessarily need to be displayed on a display device, but in order to display it on a display device such as the electronic viewfinder 22, the output signal of the expansion limit area setting circuit 18 is sent to the character generator 2o or directly to the electronic display device. What is necessary is to supply it to the viewfinder 22 and display it.

マイクロプロセッサ16において、追尾ダート回路8に
よるダート位置、すなわち追尾視野が限界領域内に存在
するかどうかを判定するには、第4図の信号(e)の時
間軸上の位置又は信号(d)と信号(e)との時間的関
係を調べることによって行われる。
In the microprocessor 16, in order to determine whether the dart position by the tracking dart circuit 8, that is, the tracking field of view exists within the limit area, the position on the time axis of the signal (e) or the signal (d) in FIG. This is done by examining the temporal relationship between and signal (e).

すなわち、前者は、被追尾被写体、換言すれば前記のダ
ート位置を示す信号が第4図で右から左へ移動するとし
て’r2−’ri<’rK又は左から右へ移動するとし
てT4−T’s<’rK(ここにTKは設計止定められ
る正の定数)の関係がみたされるかどうかをマイクロプ
ロセッサ16で演算することによって行われる。なお一
般的に追尾視野の限界領域BA内の位置は、(Tz  
Tl)/(T4  Tl)を演算することによって知る
ことができる。また後者では、信号(d)と信号(e)
との論理和が、低レベルならば限界領域BA内、高レベ
ルならば限界領域BA外と判定される。追尾視野が限界
領域BA外にちるか、又は限界領域BAの中央部から領
域外へ向って移動し、境界線に対し一定範囲(例えば前
記のTK)内に近づいていることが判定されると、マイ
クロ7Or:Xセッサ16は移動検め回路9に例えば前
記の制御信号aを送り、これによシ前述の追尾視野復帰
動作が行われる。
That is, in the former case, if the tracked object, in other words, the signal indicating the dart position, moves from right to left in FIG. 4, 'r2-'ri<'rK, or if it moves from left to right, T4-T. The microprocessor 16 calculates whether the relationship 's<'rK (where TK is a positive constant determined by design) is satisfied. Generally, the position within the limit area BA of the tracking field of view is (Tz
This can be determined by calculating Tl)/(T4 Tl). In the latter case, signal (d) and signal (e)
If the logical sum is a low level, it is determined that it is within the limit area BA, and if it is a high level, it is determined that it is outside the limit area BA. When it is determined that the tracking field of view falls outside the limit area BA, or moves from the center of the limit area BA to the outside of the area, and approaches the boundary line within a certain range (for example, the above-mentioned TK). , the micro 7 Or:

なお、この明細書において被写体が撮影画面又は限界領
域(特定領域)の境界にほぼ一致する位置に達するとは
、被写体が完全にこれらの境界に一致する位置にある場
合、又は被写体が相対的に移動して前記の(Tl−TI
)<TKもしくは(T4 TI)〈TKの関係をみたす
ようになる場合をいう。
In this specification, the term "the subject reaches a position that almost coincides with the boundaries of the shooting screen or the limit area (specific area)" means that the subject is at a position that completely coincides with these boundaries, or when the subject is relatively Move to the above (Tl-TI
)<TK or (T4 TI)<TK.

(この発明の実施例における被写体移動検出手段)(第
1図、第5図〜第9図) 次に、被追尾被写体の移動を検出し、これに追尾して第
1図の追尾ダート回路8によるダート位置、すなわち追
尾視野を移動させるための移動検出回路9の具体例につ
いて第5図〜第9図を参照して説明する。下記の具体例
は、被追尾被写体の特徴を色信号情報として抽出する例
であるが、被写体の特徴抽出は、このほか輝度信号、さ
らに被写体の形状、温度又は被写体中の特徴あるコント
ラスト等の情報を利用して行うことができる。
(Subject movement detection means in an embodiment of the present invention) (Fig. 1, Fig. 5 to Fig. 9) Next, the movement of the object to be tracked is detected and tracked, and the tracking dart circuit 8 of Fig. 1 A specific example of the movement detection circuit 9 for moving the dart position, that is, the tracking field of view, will be described with reference to FIGS. 5 to 9. The specific example below is an example in which the features of the tracked object are extracted as color signal information, but the features of the object can also be extracted using information such as a luminance signal, the shape of the object, temperature, or characteristic contrast in the object. This can be done using .

下記の被写体移動検出及び自動追尾手段を要約すれば、
被写体の特徴を表わすなんらかのノJ?ラメータ、この
例では被写体及び背景の色を、前記の追尾手段により設
定された追尾視野に関して抽出し、この抽出された特徴
を記憶させ、この記憶された特徴と新たに抽出された被
写体の特徴とに基づいて被写体の移動の有無、及び被写
体が移動した場合にその移動方向又は移動位置を検出し
て、前記の追尾視野を被写体の移動に追尾して移動させ
、また追尾視野の移動に伴って測距視野をこれと同じ位
置関係で移動させるものである。
The following object movement detection and automatic tracking means can be summarized as follows:
Some kind of no J that expresses the characteristics of the subject? The color of the object and the background in this example are extracted with respect to the tracking field of view set by the tracking means, the extracted features are stored, and the stored features are combined with the newly extracted features of the object. Detects whether or not the subject is moving, and if the subject moves, the moving direction or moving position, and moves the tracking field of view to follow the movement of the subject, and also The distance measuring field of view is moved in the same positional relationship.

追尾視野は、原則として2次元の拡がフをもつものであ
るが、説明を簡単にするために、ここでは第5図囚に示
すように追尾視野が水平方向に延びる1次元の拡が9を
もつものであるとする。また追尾視野は、A、B、Cの
3部分(以下各部分を画素という)に分れているとする
。なお2次元の追尾視野を構成するには、例えば同図の
画素B又はA、B及びCを中心にしてその上下に垂直方
向に延びる画素を設ければよい。上記の各画素から時系
列信号として得られる色差信号(R−、Y)及び(B−
Y)に、第6図に示すように、それぞれ、積分回路50
h、50b、サンプルホールドCf37H)回路51g
、51b及びん勺変換回路52a、52bによって積分
、サンプルホールド及び〜Φ変換の各処理を行って、そ
れぞれメモリ53a、53bに記憶させる。この記憶さ
れた値を、各画素A、B及びCについて(R−Y) 友
び(B−Y)の直交座標上にプロットすると、例えば第
7図に示すように表示される。図でAO+BO及びco
の各点は、それぞれ、第5図囚のA、B及びCの各画素
から得られた信号を表わしている。
In principle, the tracking field of view has a two-dimensional extension, but to simplify the explanation, here, as shown in Figure 5, the one-dimensional extension of the tracking field of view extending in the horizontal direction is 9. Suppose that it has . It is also assumed that the tracking visual field is divided into three parts A, B, and C (each part is hereinafter referred to as a pixel). Note that in order to configure a two-dimensional tracking field of view, for example, pixels may be provided that extend vertically above and below pixel B or A, B, and C in the same figure as the center. Color difference signals (R-, Y) and (B-) obtained as time-series signals from each pixel above.
Y), as shown in FIG.
h, 50b, sample hold Cf37H) circuit 51g
, 51b and the conversion circuits 52a, 52b perform integration, sample hold, and ~Φ conversion processing, and store them in the memories 53a, 53b, respectively. When these stored values are plotted on the orthogonal coordinates of (RY) and (B-Y) for each pixel A, B, and C, they are displayed as shown in FIG. 7, for example. In the figure, AO+BO and co
Each point represents a signal obtained from each pixel A, B, and C in FIG. 5, respectively.

ここで、画素Bからは被写体である人物の例えば服装の
みを表わす信号が、画素人及びCからは、それぞれ被写
体の服装と背景とを表わす信号が加算された信号が得ら
れるとする。さらに、同図で被写体の左側と右側とで背
景の色が異っているものとする。したがって、点Aoと
Coとは、色差信号座標上の位置が異っている。
Here, it is assumed that from pixel B, a signal representing only the clothes of the person who is the subject is obtained, and from pixels Person and C, a signal is obtained in which signals representing the clothes of the subject and the background are added. Furthermore, assume that the background colors on the left and right sides of the subject in the figure are different. Therefore, points Ao and Co have different positions on the color difference signal coordinates.

次に、第5図囚に示す被写体が、同図(BJに示すよう
に画面内で右方向へ移動すると、画素人及びC内に占め
る被写体と背景の割合が変化する結果、画素人及びCか
ら得られる信号は、第7図A、及びC,に示すようにそ
れぞれ変化する。一方、画素Bは第5図(B)に示すよ
うに被写体内にとどまっているので、その服装かはぼ単
色であるとすれば、画素Bから得られる信号はほとんど
変化しない。
Next, when the subject shown in Fig. 5 moves to the right in the screen as shown in Fig. The signals obtained from the image change as shown in Figures 7A and C. On the other hand, since pixel B remains within the subject as shown in Figure 5(B), it is unclear whether the person is wearing the same clothes. If it is monochromatic, the signal obtained from pixel B will hardly change.

したがって、ここでは、簡単のためにEl =B。Therefore, here, El = B for simplicity.

とする。この場合、第7図に示すように、点C1は点B
o (=Bt  )に近づき、点A1は点B。
shall be. In this case, as shown in FIG. 7, point C1 is point B
o (=Bt), and point A1 becomes point B.

(=Bt  )から遠ざかるので、線分B、C,は線分
BoCoよシ小さくなシ、線分A、B1は線分AoBo
よジ大きくなる。逆に、線分BI C1が線分BoCo
より大きくな多、線分AI B、が線分A、Boより小
さく々る場合は、被写体が第5図(B)で左方向へ移動
していることになる。なお被写体の左右両側で背景の色
が同じであるとすれば、被写体が画面内で第5図(B)
の右方向へ移動するとき上記の点A1は線分A、Boの
延長線上に位置をδめ、点C1は線分BoCo上に位置
を占めることになる。この発明は、上記どちらの場合に
も適用することができる。
(=Bt), so line segments B, C, are smaller than line segment BoCo, and line segments A, B1 are smaller than line segment AoBo.
It gets bigger. Conversely, line segment BI C1 is line segment BoCo
If the larger line segment AI B is smaller than the line segments A and Bo, it means that the subject is moving to the left in FIG. 5(B). If the background color is the same on both sides of the subject, the subject will appear in the screen as shown in Figure 5 (B).
When moving to the right, the above point A1 will be located on the extension line of the line segments A and Bo, and the point C1 will be located on the line segment BoCo. This invention can be applied to either of the above cases.

前述の現象を利用して被追尾被写体の・移動を検出する
には、例えば前記の1線分A B、及びB Cの≧長さ
の変化を検出すればよい。そのためには、移動検tPi
回路5内O色検出回路で前記の画素A、B。
In order to detect the movement of the tracked object using the above-mentioned phenomenon, it is sufficient to detect, for example, a change in length of one line segment AB and BC. For that purpose, mobile inspection tPi
The pixels A and B are connected to the O color detection circuit in the circuit 5.

Cに関して被写体の色を検出してこれを移動検出回路5
内のメモリに、例えば手動による機械的入力手段を介し
て記憶させ(被写体の特徴の登録)次の時点で新たに抽
出された被写体の色を表わす信号とメモリに記憶されて
いる信号とを比較して被写体の移動の有無、及び被写体
が移動した場合の例えば移動方向を検出する。上記の処
理は、テレビジョン信号の1フイールドの期間である1
760秒の間に又はその数フィールド分の期間の間にそ
の平均値に従って行われる。以下両者を一括して1フイ
ールドの期間に処理されるとして説明する。
The movement detection circuit 5 detects the color of the subject with respect to C.
The signal representing the newly extracted color of the object is compared with the signal stored in the memory at the next point in time. Then, the presence or absence of movement of the subject and, if the subject moves, the direction of movement, for example, is detected. The above processing is performed for 1 field period of the television signal.
This is done according to its average value during a period of 760 seconds or several fields thereof. In the following, both will be explained as being processed in one field period.

第8図は、上記の処理を実行するための具体的な回路の
一例を示し、この回路は、また第1図の移動検出回路9
の詳細を示すものである。同図において、60は被写体
が画面内で移動した場合の画素人及びBから得られる信
号AnおよびBn (第7図はn = 1の場合を示す
)の間の距離、すなわち線分AnBnの長さDAn、B
nの変化、具体的には前記の線分AoBoの長さD A
Q −BQとの比DAn、Bn/DA0.B。
FIG. 8 shows an example of a specific circuit for carrying out the above processing, and this circuit is also similar to the movement detection circuit 9 of FIG.
This shows the details. In the figure, 60 is the distance between the signals An and Bn obtained from the pixels An and B (Figure 7 shows the case where n = 1) when the subject moves within the screen, that is, the length of the line segment AnBn. SADAn,B
The change in n, specifically the length D A of the line segment AoBo
Ratio with Q-BQ DAn, Bn/DA0. B.

としきい値に人とを比較する装置を示し、6ノは同様に
線分CnBnの長さDCfi−Biと線分CoBoの長
さDcO−BQとの比Dc1.nH/Dcg0m□とし
きい値に、とを比較する装置を示している。
Similarly, No. 6 shows the ratio Dc1. of the length DCfi-Bi of the line segment CnBn and the length DcO-BQ of the line segment CoBo. A device for comparing nH/Dcg0m□ with a threshold value is shown.

(R−Y)、(B−Y)直交座標上で画素人及びBの色
特徴をそれぞれ表わす点A及びBの座標上の値は、初期
設定によりスイッチ62がオンになシ、メモリ63に記
憶される。すなわち、メモリ63に記憶される値は画素
人についてはAo%画素BについてはBoである。なお
上記の初期設定、すなわち追尾のための基準値の登録は
、被写体からの光を光電変換した映像信号による代わり
に、第9図を参照して後述するように特別に設けた色指
定回路によって行ってもよく、あるいは、初期設定時に
、撮影光学系の前方に被写体の色に相当する色の基準色
彩板を配置し、その色をメモリ63に記憶させてもよい
(RY), (B-Y) The values on the coordinates of points A and B, which represent the color characteristics of pixels and B, respectively, on the orthogonal coordinates are stored in the memory 63 when the switch 62 is not turned on by default. be remembered. That is, the values stored in the memory 63 are Ao for the pixel and Bo for the pixel B. Note that the above initial settings, that is, the registration of reference values for tracking, are performed using a specially provided color designation circuit, as will be described later with reference to Figure 9, instead of using a video signal obtained by photoelectrically converting the light from the subject. Alternatively, at the time of initial setting, a reference color plate of a color corresponding to the color of the subject may be placed in front of the photographing optical system, and the color may be stored in the memory 63.

一方、このn = Oの場合の走査線走査後はぼn/6
0秒ごとに得られるAn及びBnの(R−Y)。
On the other hand, after the scanning line scan in this case n = O, approximately n/6
(RY) of An and Bn obtained every 0 seconds.

(B−Y)直交座標上の値が直接距離演算回路64に転
送される。したがって距離演算回路64には、^IBo
及びAn * B nの各点の情報がと9こまれ、DA
o、Bo及びDAn−Bnの値が、これら各点の(R−
Y) 。
(B-Y) The value on the orthogonal coordinates is directly transferred to the distance calculation circuit 64. Therefore, the distance calculation circuit 64 has ^IBo
The information of each point of and An * B n is combined and DA
The values of o, Bo and DAn-Bn are (R-
Y).

(B−Y)座標それぞれに関する位置の差から算出され
る。これらの値に基づいて割算器65でDAn 、Bn
/Da 。、 noが算出され、しきい値設定器66で
設定されるしきい値KAと比較回路67で比較される。
It is calculated from the difference in position regarding each (B-Y) coordinate. Based on these values, the divider 65 calculates DAn, Bn
/Da. , no are calculated and compared with a threshold value KA set by a threshold value setter 66 in a comparator circuit 67.

そしてしきい値KAを超える変化があると、移動判定回
路68に1″が出力される。同様にして、比較装置61
でpcn、Bn/DCQ 、B□が算出され、しきい値
Kcを超える変化があると移動判定回路68に1′が出
力される。なお多くの場合、比較装置60と61とでス
イッチ62をオンにするタイミングは、実質的に同時刻
であシ、またKA=KCである。
If there is a change exceeding the threshold value KA, 1'' is output to the movement determination circuit 68.Similarly, the comparator 61
pcn, Bn/DCQ, and B□ are calculated, and if there is a change exceeding the threshold value Kc, 1' is output to the movement determination circuit 68. In many cases, the switches 62 of the comparators 60 and 61 are turned on at substantially the same time, and KA=KC.

いま画素A、B、Cの色特徴を表わす点の(R−Y)、
(B−Y)直交座標上における移動状況が第7図に示す
状況であるとして DAn+BnZDAO崇BO及びDCn、Bn/Dc。
(R-Y) of the point representing the color characteristics of pixels A, B, and C,
(B-Y) Assuming that the movement situation on the orthogonal coordinates is the situation shown in FIG. 7, DAn+BnZDAO TakashiBO, DCn, and Bn/Dc.

、Boの具体的な数値を求めると、この場合はn=1゜
Bo=B1であ夛、かつKA二Ko=2としてDAl 
・B1/DA0.110 = 2.2Dc1 、n1/
Dc6.n6 = 0.36となシ、比較装置60内の
比較回路67のみが移動判定回路68に1”を出力する
。この場合移動判定回路68が追尾?−)設定タイミン
グを所定時間(例えばNTSC方式の場合1水平走査周
期のV125程度)だけ遅らせる信号をマイクロプロセ
ッサ16に出力し、これによりマイクロプロセッサ16
はe−)パルス発生回路1ノ及び追尾ダート回路8を制
御し、追尾視野を被写体の移動の方向、すなわち第5図
(B)の画面内で右方向へ移動させる。これに対して比
較装置6ノ内の対応する比較回路のみが移動判定回路に
′INを出力する場合は、移動判定回路68が追尾ダー
ト設定タイミングを上記の所定時間だけ早める信号を出
力し、追尾視野を第5図(B)の画面内で左方向へ移動
させる。
, Bo=B1, and KA2Ko=2, DAl
・B1/DA0.110 = 2.2Dc1, n1/
Dc6. When n6 = 0.36, only the comparator circuit 67 in the comparator 60 outputs 1'' to the movement determination circuit 68. In this case, the movement determination circuit 68 sets the tracking? In the case of
(e-) Controls the pulse generation circuit 1 and the tracking dart circuit 8 to move the tracking field of view in the direction of movement of the subject, that is, to the right in the screen of FIG. 5(B). On the other hand, if only the corresponding comparison circuit in the comparator 6 outputs 'IN' to the movement determination circuit, the movement determination circuit 68 outputs a signal that advances the tracking dart setting timing by the predetermined time described above, and The visual field is moved to the left within the screen of FIG. 5(B).

このようにして、DAn、Bn/DAO’BOがしきい
値KAを超えたか、又はDcn−BJDc6−m6がし
きい値Kcを超えたかに応じて移動判定回路68が追尾
ダート設定タイミングを例えば上記の所定時間だけ遅ら
せ又は早める信号を出力し、この信号に応じてマイクロ
プロセッサ16がf−)パルス発生回路1ノ及び追尾ダ
ート回路8、さらに測距ダート回路12を制御すること
により、追尾視野及び測距視野を被写体の移動に追尾し
て移動させ、その位置で焦点検出を行うことができる。
In this way, the movement determination circuit 68 adjusts the tracking dart setting timing according to whether DAn, Bn/DAO'BO exceeds the threshold value KA or whether Dcn-BJDc6-m6 exceeds the threshold value Kc. In response to this signal, the microprocessor 16 controls the pulse generating circuit 1, the tracking dart circuit 8, and the distance measuring dart circuit 12 to adjust the tracking field of view and the tracking dart circuit 12. The distance measurement field of view can be moved to track the movement of the subject, and focus detection can be performed at that position.

なお前述の被写体移動検出手段の変形として、画素Bに
ついてはその移動に基づく刻々の位置による情報Bnの
代わシに被写体の特徴を初期設定(登録)する段階にお
ける情報であるBOを用い、DAn−111及びDcn
、Bnの代わフにそれぞれDAワ、n。
As a modification of the above-described subject movement detection means, for pixel B, BO, which is information at the stage of initializing (registering) the characteristics of the subject, is used instead of information Bn based on the momentary position based on the movement of the pixel B, and DAn- 111 and Dcn
, DAwa, n in place of Bn, respectively.

及びDcn、 B。によって移動検出をするようにすれ
ば、被写体が高速移動する場合にも誤動作なく追尾を行
うことができる。
and Dcn, B. By detecting movement using the above method, tracking can be performed without malfunction even when the subject moves at high speed.

上記の被写体移動検出における被写体の特徴(色)の初
期設定(登録)をする手段として、被写体の色をあらか
じめ検知できる場合、又はこれを予想できる場合等には
、被写体の特徴の初期設定(登録)を色指定回路によっ
て行うことを可とする。第9図は、そのための構成の一
例を示し、前記のビデオ信号中の色差信号は、追尾?−
)回路8を通って色検知回路9aに入力され、検知され
た色特徴が移動判定回路9bにおいて色指定回路23で
指定した初期設定値と比較され、その判定結果を表わす
信号がマイクロプロセッサ16に転送される。なお第8
図のスイッチ62を第1図の信号処理回路7の出力信号
と色指定回路23の出力信号とを切シ換えてメモリ63
に入力するように構成すれば、必要に応じてこれらの信
号のどちらによっても初期設定を行うことができる。さ
らに第8図において、しきい値設定器66等が設定する
しきい値を超える変化があったときだけ移動判定回路6
8に′1″を出力するようにしたのは、ハンチングやオ
ーバーシュートを生ずることのない追尾動作を行うよう
にするためである。
As a means of initializing (registering) the characteristics (color) of the object in the above-mentioned object movement detection, if the color of the object can be detected in advance or can be predicted, ) can be performed using a color designation circuit. FIG. 9 shows an example of a configuration for this purpose, in which the color difference signal in the video signal is used for tracking? −
) The detected color characteristics are input to the color detection circuit 9a through the circuit 8, and the detected color characteristics are compared with the initial setting value designated by the color designation circuit 23 in the movement determination circuit 9b, and a signal representing the determination result is sent to the microprocessor 16. be transferred. Furthermore, the 8th
The switch 62 shown in the figure is switched between the output signal of the signal processing circuit 7 and the output signal of the color specifying circuit 23 of FIG.
If the configuration is configured such that the signals are input to each other, initial settings can be performed using either of these signals as necessary. Furthermore, in FIG. 8, the movement determination circuit 6
The reason why ``1'' is outputted to 8 is to perform a tracking operation that does not cause hunting or overshoot.

(この発明の実施例における自動焦点検出手段)(第1
図、第10図) 第1図の自動焦点検出装置13は公知の手段を利用する
ことができるものであるが、その−例として輝度信号中
の高周波成分によって焦点検出を行う方式(例えば「M
■技術研究」第17巻第1号(通巻第86号)(昭和4
0年発行)21頁「山登クサーデ方式によるテレビカメ
ラの自動焦点調整」参照)について説明する。第10図
において、70は帯域フィルタ、71はレベル検出回路
、22は合焦方向検出回路であシ、第1図の測距ゲート
回路12の出力輝度信号からその輪郭成分、すなわち高
域成分を帯域フィルタ70で取シ出し、この高域成分の
レベルをレベル検出回路7ノで検出し、この検出レベル
が最大になるように合焦方向検出回路72で制御し、合
焦方向検出回路72から焦点検出のための移動方向を表
わす信号が前記のAFモータ駆動装置15へ出力される
(Automatic focus detection means in the embodiment of this invention) (First
10) The automatic focus detection device 13 shown in FIG.
■Technical Research” Volume 17, No. 1 (Total Volume No. 86) (Showa 4
(Refer to page 21 "Automatic focus adjustment of a television camera using the mountain climbing Kusade method"). In FIG. 10, 70 is a bandpass filter, 71 is a level detection circuit, and 22 is a focusing direction detection circuit, which extracts the contour component, that is, the high frequency component, from the output luminance signal of the ranging gate circuit 12 in FIG. The high-frequency component is extracted by a bandpass filter 70, the level of this high-frequency component is detected by a level detection circuit 7, and the detection level is controlled by a focusing direction detection circuit 72 so that the detection level becomes maximum. A signal representing the moving direction for focus detection is output to the AF motor drive device 15 described above.

この発明を実施するに当たフ、焦点検出のための手段は
、上記のもののほか適宜公知の手段、例えば赤外線TT
L焦点検出手段等を利用することができる。
In carrying out the present invention, in addition to the above-mentioned means, suitable known means such as infrared TT
L focus detection means or the like can be used.

(この発明の実施例における焦点距離調整手段)(第1
図、第11図) 第1図に示すこの発明の実施例は、限界領域BA内又は
撮影画面内において被写体の位置に応じてレンズ群2の
焦点距離を変化させるように構成されている。第11図
は上記の焦点距離の変化の態様を説明するものであって
図中x1xxFi第2図のX軸方向の限界領域BAの一
辺の長さを示している。いま被追尾被写体が、第11図
において右方から限界領域BA内へ入シ、左方で同領域
外へ出るとして、同領域内における被写体の位置は、第
4図の(Tt  Tl )/(T4  Tt )を演算
することによって知ることができ、この値に応じてマイ
クロプロセッサ16がズームモータN動装置19に制御
信号を転送してズームモータM3を駆動し、レンズ群2
を移動させ、例えば第11図に示すノ4ターンに従って
その焦点距離を変化させる。この例では、被写体が限界
領域BAのtt ty中央にあるとき、最も長焦点距離
になっている。
(Focal length adjustment means in the embodiment of this invention) (First
(FIG. 11) The embodiment of the present invention shown in FIG. 1 is configured to change the focal length of the lens group 2 according to the position of the subject within the limit area BA or within the photographic field. FIG. 11 is for explaining the above-mentioned change in focal length, and x1xxFi in the figure shows the length of one side of the limit area BA in the X-axis direction in FIG. Assuming that the tracked subject enters the limit area BA from the right in FIG. 11 and exits from the limit area BA from the left, the position of the subject within the area is (Tt Tl )/( in FIG. 4). According to this value, the microprocessor 16 transfers a control signal to the zoom motor N driving device 19 to drive the zoom motor M3, and the lens group 2
, and its focal length is changed according to the four turns shown in FIG. 11, for example. In this example, when the subject is at the center of the limit area BA, the focal length is the longest.

この発明の主要な特徴を具体化する手段の一例として、
追尾視野が限界領域BAの左端X:とほぼ一致したとき
、すなわち例えば第4図に関連して説明した前記の(T
t  Ti ) <Txの関係をみたすようになったと
き、レンズ群2の焦点距離をさらに短焦点距離へ、すな
わち画角をワイド端まで広げる方向に調整する。これに
より被写体が限界領域の端部において恰も固足された如
くなり、実効的に追尾動作範囲を広くすることができる
。第11図に示すように限界領域BAの右端においても
短焦点距離に調整されているが、この発明の特徴は、被
写体が撮影画面又は限界領域BAの内外にわたっていず
れかの方向へ移動可能であることを考慮して、被写体が
撮影画面又は限界領域BAの境界の少なくとも一部(例
えば第13図の画面枠FR又は限界領域BAの少なくと
も一辺)にほぼ一致する位置において比較的に短焦点距
離に調整する点にある。なお第11図では限界領域BA
の内部で被写体の位置に応じて焦点距離を変化させてい
るが、上記の境界の少なくとも一部以外の位置では焦点
距離が一定であってもよい。
As an example of means embodying the main features of this invention,
When the tracking field of view almost coincides with the left end X of the limit area BA, that is, for example, when the tracking field of view coincides with the left end
When the relationship t Ti ) <Tx is satisfied, the focal length of lens group 2 is further adjusted to a shorter focal length, that is, in the direction of widening the angle of view to the wide end. As a result, the subject appears to be stuck at the end of the limit area, and the tracking operation range can be effectively widened. As shown in FIG. 11, the right end of the limit area BA is also adjusted to a short focal length, but the feature of this invention is that the subject can move in any direction within or outside the shooting screen or the limit area BA. Taking this into consideration, the object is set at a relatively short focal length at a position where the subject almost coincides with at least a part of the boundary of the shooting screen or the limit area BA (for example, at least one side of the screen frame FR or the limit area BA in FIG. 13). It's a matter of adjustment. In addition, in Fig. 11, the limit area BA
Although the focal length is changed according to the position of the subject within the boundary, the focal length may be constant at positions other than at least part of the boundary.

(この出願の発明の実施例の作用及び操作方法)(第1
図、第12図、第13図) 次に、第1図に示すこの発明の5j!施例の作用につい
て説明する。下記の説明は、主として同実施例の操作方
法の一例について第12図及び第13図を参照して行う
。この例では、被写体がフレームアウトし、追尾視野が
待機位置にある状態で撮影が開始されるとする。追尾視
野位置の設定は、撮影者の手動設定によシ第1図の入力
端子工2からマイクロプロセッサ16に入力される情報
に基づいて行われる。そのための具体的手段は、第2図
〜第4図で説明した限界領域設定手段に準する手段によ
ればよい。なおこの例では、追尾視野は、第1図の追尾
視野大きさ決定回路14によりその大きさを可変に設定
される。第13図(a)では、待機中の追尾視野位置は
TFaで示される。一方、待機状態において測距視野F
Faは、例えば電子ビューファインダ22の画面枠FR
の中央部にあり、この例ではその大きさは全ステップを
通じ一定であるとする。また限界領域BAの設定は、撮
影者の手動設定により第1図の入力端子工3から限界領
域設定回路17に入力される情報に基づき、第2図〜第
4図で説明した手段により行われる。
(Function and operating method of the embodiment of the invention of this application) (Part 1
(Fig. 12, Fig. 13) Next, 5j! of this invention shown in Fig. 1! The effect of the example will be explained. The following explanation will mainly be made with reference to FIGS. 12 and 13 regarding an example of the operating method of the embodiment. In this example, it is assumed that photographing is started with the subject out of the frame and the tracking field of view in the standby position. The tracking field of view position is set manually by the photographer based on information input to the microprocessor 16 from the input terminal 2 shown in FIG. A specific means for this purpose may be a means similar to the limit area setting means explained in FIGS. 2 to 4. In this example, the size of the tracking field of view is variably set by the tracking field of view size determination circuit 14 shown in FIG. In FIG. 13(a), the position of the tracking field of view during standby is indicated by TFa. On the other hand, in the standby state, the distance measurement field of view F
Fa is, for example, the screen frame FR of the electronic viewfinder 22.
In this example, the size is assumed to be constant throughout all steps. Further, the setting of the limit area BA is performed by the means explained in FIGS. 2 to 4 based on information inputted from the input terminal 3 in FIG. 1 to the limit area setting circuit 17 by manual setting by the photographer. .

第12図の流れ図に示す追尾動作は、原則として第5図
〜第9図に関連して説明したところに従って行われ、追
尾のための被写体の基準色の初期設定は、撮影者の操作
によシ第9図の色指定回路23を通じて行われる。また
通常の追尾動作では、第5図の画素Bは被写体に含まれ
るとする。
The tracking operation shown in the flowchart in Figure 12 is, in principle, carried out in accordance with what has been explained in connection with Figures 5 to 9, and the initial setting of the reference color of the subject for tracking is done by the photographer's operation. This is done through the color designation circuit 23 shown in FIG. Further, in a normal tracking operation, it is assumed that pixel B in FIG. 5 is included in the object.

第12図のステップ81で、先ず撮影者の操作によル被
写体の特徴を代表する基準色としてB。
At step 81 in FIG. 12, the photographer first selects B as a reference color representative of the characteristics of the subject.

を指定し、この値を取シこむ。この段階では、画素A及
びCに関する初期値(Ao及びCo )は取シこまない
。その理由は、この後に画角を設定して撮影を始めると
きの背景色と前記のB、を取シこむときの背景色とが異
ると、追尾開始時に誤動作を起こすおそれがあるからで
ある。次に撮影者の操作によシ、追尾視野の初期位置(
待機位置TFa)を設定しくステップ82)、以後追尾
視野に被写体が入って来るまでは追尾視野はその位置で
待機する。そしてこの待機位置TFaにおいて画素Bか
ら取りこまれる値B(被写体が入って来るまではこの待
機位置における背景色に相当する)と前記のB6 との
差の絶対値IBBolを算出しくステップ83)、その
結果を所定の不感帯幅ΔBと比較しくステップ84)、
この操作がIB−BOI〈ΔBの関係が成立するまでく
り返される。すなわち、追尾視野が、その待機位置TF
aにおいて、被写体が同位置へ入って来るのを連続的に
チェックしていることになる。
Specify and import this value. At this stage, the initial values (Ao and Co) for pixels A and C are not taken. The reason for this is that if the background color when setting the angle of view and starting shooting is different from the background color when capturing B above, there is a risk of malfunction when starting tracking. . Next, the initial position of the tracking field of view (
A standby position TFa) is set (step 82), and the tracking field of view waits at that position until the subject comes into the tracking field of view. Then, calculate the absolute value IBBol of the difference between the value B taken in from pixel B at this standby position TFa (which corresponds to the background color at this standby position until the subject enters) and the above-mentioned B6 (step 83). Compare the result with a predetermined dead band width ΔB (step 84);
This operation is repeated until the relationship IB-BOI<ΔB is established. In other words, the tracking field of view is at its standby position TF.
At point a, it is continuously checked to see if the subject enters the same position.

IB−Bo%<ΔBの関係がみたされると、被写体が待
機位置TFaに入って来たと判定され、測距視野が第1
3図(b)のFF≦に示すように追尾視野位置TFb、
すなわち被写体位置へ移動する(ステップ85)。さら
に追尾動作開始のために、背景(一部に被写体を含む)
の特徴を代表する色A、及びcoが指定され(ステツf
 86 ) 、(R−Y) 、 (B−Y)座標上の線
分AoB、の長さDAo、Boと線分C0B0の長さD
CQ−BQとが算出される(ステップ87)。ここで、
IB−BOI<ΔBの判定されたとき、例えばl/60
秒後、次のフィールドでAO及びCO9指定がされ、さ
らに次のフィールドから追尾動作が開始されるように構
成されているとすると、ステップ88から実質的な追尾
モードが始まることになる。すなわちステップ84でイ
エスの判定がされてから、1フレーム後の各画素A、B
、Cの色情報がステップ88で取りこまれる。なお、い
ったん追尾視野内に入った被写体が再び画面外へ出る等
の場合のために、さらに1BBolとΔBとが比較され
(ステップ89)、上記の場合には追尾視野が再び待機
位置へ、測距視野が再び初期位置へ復帰する(ステップ
97.9a、第13図(h))。
When the relationship IB-Bo%<ΔB is satisfied, it is determined that the subject has entered the standby position TFa, and the distance measurement field of view is set to the first position.
As shown in FF≦ in Fig. 3(b), the tracking field of view position TFb,
That is, it moves to the subject position (step 85). Furthermore, in order to start the tracking operation, the background (including a part of the subject)
The colors A and co that represent the characteristics of
86), (RY), (B-Y) The lengths of the line segment AoB on the coordinates DAo, Bo and the length D of the line segment C0B0
CQ−BQ is calculated (step 87). here,
When it is determined that IB-BOI<ΔB, for example, l/60
If the configuration is such that AO and CO9 are designated in the next field after a second and the tracking operation is started from the next field, then the actual tracking mode starts from step 88. In other words, each pixel A, B after one frame after a yes determination is made in step 84.
, C is captured in step 88. In addition, in case the subject that once entered the tracking field of view goes out of the screen again, 1BBol and ΔB are further compared (step 89), and in the above case, the tracking field of view returns to the standby position and the measurement is performed. The distance field returns to its initial position again (step 97.9a, FIG. 13(h)).

IB−Bol<ΔBである限り追尾動作が進行しくステ
ップ90〜92)、被写体が限界領域BA内にあれば、
第11図に示すパターンに従って第1図のレンズ群2の
焦点距離が調整される(ステップ93.94)、第13
図(e) 〜(e)はこの状況を示し、(d)の位置で
最も長焦点距離になり、その後第11図及び第13図で
被写体が左へ移動するに従って再び短焦点距離へ向って
いる(第13図(e))。そして同図(f)のTFfに
示すように被写体の移動により追尾視野が限界領域BA
の端部に達すると、レンズ群2の焦点距離をさらに短焦
点距離へ、すなわち画角をワイド端まで広げる方向に調
整する(ステップ95)。画角をさらに広げることによ
り同図(g)に示すように被写体は恰もその位置に固足
されたようになり、実効的に追尾範囲が拡大される。そ
してレンズ群2の焦点距離がワイド端(レンズ群2にお
ける最短焦点距離)に達し、被写体が限界領域BAを出
たときに、追尾視野は第13図(h)の待機位置TFh
へ、測距視野は同じく初期位置FFhへ復帰し、装置は
待機状態になる。なおこの状態で新たな被写体について
前記のBoの指定から操作をやシ直すこともある。
As long as IB-Bol<ΔB, the tracking operation progresses (steps 90 to 92), and if the subject is within the limit area BA,
The focal length of lens group 2 in FIG. 1 is adjusted according to the pattern shown in FIG. 11 (steps 93 and 94).
Figures (e) to (e) show this situation, with the longest focal length at position (d), and then towards the shortest focal length again as the subject moves to the left in Figures 11 and 13. (Figure 13(e)). Then, as shown in TFf in the same figure (f), the tracking field of view reaches the limit area BA due to the movement of the subject.
When the end of the lens group 2 is reached, the focal length of the lens group 2 is further adjusted to a shorter focal length, that is, in a direction that widens the angle of view to the wide end (step 95). By further widening the angle of view, the subject appears to be fixed at that position, as shown in FIG. 5(g), and the tracking range is effectively expanded. When the focal length of lens group 2 reaches the wide end (the shortest focal length in lens group 2) and the subject leaves the limit area BA, the tracking field of view is at the standby position TFh in FIG. 13(h).
Then, the distance measurement field of view also returns to the initial position FFh, and the device enters the standby state. Note that in this state, the operation may be slightly changed from the above-mentioned Bo specification for a new subject.

上記の説明において、被写体が限界領域BAを出るとは
、第4図に関連して説明したのと同じ意味であり、また
撮影画面全体を限界領域とみなして上記と同じ操作を適
用することができる。
In the above explanation, when the subject leaves the limit area BA, it has the same meaning as explained in relation to FIG. can.

上記の操作方法は、この出願の発明のカメラの操作方法
の一例を示すものであシ、その操作方法は上記のものに
限定されない。また上記において被写体の位置検知は、
色情報のほか先に述べた被写体の特徴を表わす他の情報
によって行うこともできる。なお追尾視野の待機位置は
第13図に示す位置のほか撮影者の作画意図に応じ、画
面内の任意の位置に設定することができる。
The above operating method is an example of the operating method of the camera of the invention of this application, and the operating method is not limited to the above method. In addition, in the above, the position detection of the subject is
In addition to the color information, it is also possible to use other information representing the characteristics of the subject described above. In addition to the position shown in FIG. 13, the standby position of the tracking field of view can be set at any position within the screen according to the photographer's drawing intention.

(効果) 前述のように、この発明によれば、撮影画面内又はその
うちの特定領域内にある被写体を自動追尾する手段と、
前記被写体が相対的に撮影画面又は限界領域の境界の少
なくとも一部にほぼ一致する位置に達したとき光学系を
比較的に短焦点距離に調整する手段とを具えているので
、被写体が上記の位置に達したときに実効的に追尾範囲
を拡大し、これによシ動画の複雑な画面構成を簡単な操
作によって行うことができる。
(Effects) As described above, according to the present invention, means for automatically tracking a subject within the photographic screen or a specific area thereof;
means for adjusting the optical system to a relatively short focal length when the subject reaches a position that relatively coincides with at least a part of the boundary of the photographing screen or the limit area, so that the subject is When the position is reached, the tracking range is effectively expanded, and this allows complex screen configurations of moving images to be created with simple operations.

【図面の簡単な説明】[Brief explanation of drawings]

第1図はこの出願の発明のカメラの一実施例の要部のブ
ロック図、第2図ないし第4図は、第1図の実施例にお
ける限界領域設定手段を説明するものであって、第2図
は限界領域の説明図、第3図(N及び(B)はそれぞれ
第2図のX方向及びy方向の限界領域の境界線を設定す
るためのつまみ及びロックブタンの説明図、第4図(a
)ないしくf)は限界領域を設定する信号のタイミング
を説明する説明図、第5図ないし第8図は、第1図の実
施例における被写体移動検出手段を説明するものであっ
て第5図(4)及び(B)は分割された追尾視野と被写
体像との関係を示す説明図、第6図は第5図の分割され
た追尾視野から得られる信号を処理する装置のブロック
図、第7図は第6図の装置から得られる信号を2次元平
面上にプロットした状況を示す説明図、第8図は第1図
中移動検出回路5の詳細を示すブロック図、第9図は第
1図中移動検出回路5の変形例を示すブロック図、第1
0図は第1図中自動焦点検出回路13の詳細を示すブロ
ック図、第11図は第1図の実施例において被写体の画
面内の位置に応じて焦点距離を調整する態様を示す説明
図、第12図は第1図の装置の操作方法及び作用を説明
する流れ図、第13図(a)ないしくh)は第1図の装
置において被写体の移動に伴って追尾視野及び測距視野
の位置が時間的に(a)から(h)への順序で変化する
状況を示す説明図、第14図(4)及び(B)は従来の
カメラにおける測距視野と被写体像との関係を示す説明
図である。 符号の説明 1:焦点調節のためのレンズ群、2:焦点距離を変化さ
せるためのレンズ群、3:結像系レンズ群、4:撮像手
段の一例である固体撮像素子、7:信号処理回路、8:
追尾ダート回路、9:被写体移動検出回路、11:ダー
トノヤルス発生回路、12:測距f−)回路、13:自
動焦点検出回路、14:追尾視野大きさ決定回路、15
:AFモータ駆動装置、16:マイクロプロセッサ、1
7二限界領域設定回路、19:ズームモータ駆動装置、
23:色指定回路、BA:限界領域、TF:追尾視野、
FF:測距視野。 ¥2図 第3図 (A)     (B) 第5図 第6図 第7図
FIG. 1 is a block diagram of the main parts of an embodiment of the camera of the invention of this application, and FIGS. 2 to 4 illustrate the limit area setting means in the embodiment of FIG. Figure 2 is an explanatory diagram of the limit area, Figure 3 (N and (B) is an explanatory diagram of the knob and lock button for setting the boundary line of the limit area in the X direction and y direction, respectively, in Figure 2, Figure (a
) or f) is an explanatory diagram for explaining the timing of the signal for setting the limit area, and FIGS. 5 to 8 are explanatory diagrams for explaining the subject movement detection means in the embodiment of FIG. (4) and (B) are explanatory diagrams showing the relationship between the divided tracking fields of view and the subject image; FIG. 6 is a block diagram of a device that processes signals obtained from the divided tracking fields of view in FIG. 5; 7 is an explanatory diagram showing a situation in which signals obtained from the device of FIG. 6 are plotted on a two-dimensional plane, FIG. 8 is a block diagram showing details of the movement detection circuit 5 in FIG. 1, and FIG. 1 is a block diagram showing a modification of the movement detection circuit 5 in FIG.
0 is a block diagram showing details of the automatic focus detection circuit 13 in FIG. 1, and FIG. 11 is an explanatory diagram showing a manner in which the focal length is adjusted according to the position of the subject in the screen in the embodiment of FIG. Fig. 12 is a flowchart explaining the operation method and function of the device shown in Fig. 1, and Fig. 13 (a) to h) shows the positions of the tracking field of view and distance measurement field of view as the subject moves in the device of Fig. 1. Fig. 14 (4) and (B) are explanatory diagrams showing the relationship between the distance measurement field of view and the subject image in a conventional camera. It is a diagram. Explanation of symbols 1: Lens group for focus adjustment, 2: Lens group for changing focal length, 3: Imaging system lens group, 4: Solid-state image sensor, which is an example of imaging means, 7: Signal processing circuit , 8:
Tracking dart circuit, 9: Subject movement detection circuit, 11: Dart noise generation circuit, 12: Ranging f-) circuit, 13: Automatic focus detection circuit, 14: Tracking field of view size determination circuit, 15
: AF motor drive device, 16: Microprocessor, 1
7. Two limit area setting circuits, 19: Zoom motor drive device,
23: Color specification circuit, BA: Limit area, TF: Tracking field of view,
FF: Distance field of view. ¥2 Figure Figure 3 (A) (B) Figure 5 Figure 6 Figure 7

Claims (2)

【特許請求の範囲】[Claims] (1)撮影画面内又はそのうちの特定領域内にある被写
体を自動追尾する手段と、 前記被写体が相対的に撮影画面又は前記特定領域の境界
の少なくとも一部にほぼ一致する位置に達したとき光学
系を比較的に短焦点距離に調整する手段と、 を具えるカメラ。
(1) means for automatically tracking a subject within the photographing screen or a specific area thereof; A camera comprising means for adjusting the system to a relatively short focal length;
(2)前記特定領域が設定可能である特許請求の範囲(
1)記載のカメラ。
(2) Claims in which the specific area can be set (
1) The camera described.
JP59161396A 1984-07-31 1984-07-31 camera Expired - Lifetime JPH065910B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP59161396A JPH065910B2 (en) 1984-07-31 1984-07-31 camera

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP59161396A JPH065910B2 (en) 1984-07-31 1984-07-31 camera

Publications (2)

Publication Number Publication Date
JPS6139011A true JPS6139011A (en) 1986-02-25
JPH065910B2 JPH065910B2 (en) 1994-01-19

Family

ID=15734293

Family Applications (1)

Application Number Title Priority Date Filing Date
JP59161396A Expired - Lifetime JPH065910B2 (en) 1984-07-31 1984-07-31 camera

Country Status (1)

Country Link
JP (1) JPH065910B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1560425A1 (en) * 2004-01-27 2005-08-03 Fujinon Corporation Autofocus system

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4492697B2 (en) 2007-12-28 2010-06-30 カシオ計算機株式会社 Imaging apparatus and program

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS53132213A (en) * 1977-04-25 1978-11-17 Hitachi Ltd Tracking control unit

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS53132213A (en) * 1977-04-25 1978-11-17 Hitachi Ltd Tracking control unit

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1560425A1 (en) * 2004-01-27 2005-08-03 Fujinon Corporation Autofocus system
US7548269B2 (en) 2004-01-27 2009-06-16 Fujinon Corporation System for autofocusing a moving object

Also Published As

Publication number Publication date
JPH065910B2 (en) 1994-01-19

Similar Documents

Publication Publication Date Title
US8224172B2 (en) Autofocus system
US8254773B2 (en) Image tracking apparatus and tracking evaluation method
JP3823921B2 (en) Imaging device
US20090153702A1 (en) Camera performing photographing in accordance with photographing mode depending on object scene
JP2003224761A (en) Imaging apparatus
JP2000188713A (en) Automatic focus controller and method for determining its focusing
JPS6128914A (en) Automatic tracking device of camera
JPS6139011A (en) Camera
JP2622237B2 (en) Camera with automatic tracking device
JPS6139009A (en) Camera
JPS61123368A (en) Camera
JPS6134515A (en) Camera
JPS6138918A (en) Camera
JPS6146920A (en) Camera
JP2607536Y2 (en) Camera viewfinder display
JP2537170B2 (en) camera
JPS6134516A (en) Camera
JPS6139010A (en) Camera
JPS6146921A (en) Camera
JPH0560714B2 (en)
JPS6128915A (en) Camera
CN116887044A (en) Automatic focusing control system and control method
JPH07131700A (en) Image pickup display device
JPH04180477A (en) Automatic focusing device
JPH0588592B2 (en)