JPH06509449A - smart tracking system - Google Patents

smart tracking system

Info

Publication number
JPH06509449A
JPH06509449A JP3517834A JP51783491A JPH06509449A JP H06509449 A JPH06509449 A JP H06509449A JP 3517834 A JP3517834 A JP 3517834A JP 51783491 A JP51783491 A JP 51783491A JP H06509449 A JPH06509449 A JP H06509449A
Authority
JP
Japan
Prior art keywords
camera
subject
error
angular
value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP3517834A
Other languages
Japanese (ja)
Inventor
シーバー,ジョナサン・ディー
シーバー,ジョセフ・エス
スチュアート,ウィリアム・ケイ
Original Assignee
ヴィジョナリー・プロダクツ・インコーポレーテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ヴィジョナリー・プロダクツ・インコーポレーテッド filed Critical ヴィジョナリー・プロダクツ・インコーポレーテッド
Publication of JPH06509449A publication Critical patent/JPH06509449A/en
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S3/00Direction-finders for determining the direction from which infrasonic, sonic, ultrasonic, or electromagnetic waves, or particle emission, not having a directional significance, are being received
    • G01S3/80Direction-finders for determining the direction from which infrasonic, sonic, ultrasonic, or electromagnetic waves, or particle emission, not having a directional significance, are being received using ultrasonic, sonic or infrasonic waves
    • G01S3/802Systems for determining direction or deviation from predetermined direction
    • G01S3/805Systems for determining direction or deviation from predetermined direction using adjustment of real or effective orientation of directivity characteristics of a transducer or transducer system to give a desired condition of signal derived from that transducer or transducer system, e.g. to give a maximum or minimum signal
    • G01S3/807Systems for determining direction or deviation from predetermined direction using adjustment of real or effective orientation of directivity characteristics of a transducer or transducer system to give a desired condition of signal derived from that transducer or transducer system, e.g. to give a maximum or minimum signal the desired condition being maintained automatically

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Studio Devices (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

(57)【要約】本公報は電子出願前の出願データであるため要約のデータは記録されません。 (57) [Summary] This bulletin contains application data before electronic filing, so abstract data is not recorded.

Description

【発明の詳細な説明】 スマート・トラッキング・システム (関連出願) 本願は、1989年8月220出願の係属中の米国特許出願第07/396゜9 87号であり、その主題が参考のため本文に援用される現米国特許第4,980 .871号rUILrasonic Tracking SystemJである 。[Detailed description of the invention] smart tracking system (Related application) This application is filed in pending U.S. patent application Ser. No. 87, current U.S. Pat. No. 4,980, the subject matter of which is incorporated herein by reference. .. No. 871 rUILrasonic Tracking SystemJ .

(技術分野) 測定およびトラッキング・システムに関し、特にカメラが運動する主体を追跡す る方法が主体の運動の状況および履歴に依存するシステムに関する。(Technical field) Regarding measurement and tracking systems, especially when cameras track moving objects. It concerns a system in which the method of movement depends on the context and history of the subject's movement.

(背景技術) 米国特許第4,980,871号に開示される如き自動トラッキング・システム が人間の鑑賞者のためビデオ・カメラを向ける時、考慮すべき多数の美的要因が ある。特に、主体をカメラ・フレーム内の中心に置くこと、安定した背景に対す るカメラの運動の平滑性、置くカメラの運動方向の連続性の如き諸要因は、人間 のに1’を者にビデオ画像の審美的な快感をもたらす全要素である。反対に、急 激なあるいは連続的なカメラの運動および一貫しないカメラのトラッキング速度 により特徴付けられるビデオ画像は、ICC若者視覚的満足の基準を損なう傾向 を有する。(Background technology) Automatic tracking system as disclosed in U.S. Pat. No. 4,980,871 There are many aesthetic factors to consider when directing a video camera for a human viewer. be. In particular, centering the subject within the camera frame and against a stable background. Factors such as the smoothness of the movement of the camera and the continuity of the direction of movement of the camera These are all the elements that bring the aesthetic pleasure of video images to the viewer. On the contrary, suddenly Harsh or continuous camera movements and inconsistent camera tracking speeds Video images characterized by a tendency to undermine ICC youth visual satisfaction standards has.

11 g2的な自動化されたトラッキング・システムは、追跡される主体とカメ ラの方向間の誤差を取除くため2段階のプロセスを使用する。第1に、このトラ ッキング・システムは、追跡される主体とトラッキング装置/カメラの方向間の 角度的誤差を測定する。次に、誤差情報を用いてトラッキング装置/カメラの運 動を制御する補正信号を生じる。次いで、新しいカメラ位置が将来の角度誤差の 計算時に使用される。結果として生じるトラッキングは、トラッキングがあたか も非常に不正確であるかのように2賞者にとって非常に不快なものになる傾向を 有する機械的なものである。例えば、主体の各運動に対するカメラ位置の間断な い再調整は、鑑賞者の急激な目の疲労を生じ得る。11 Automated tracking systems such as g2 A two-step process is used to remove errors between the la directions. First, this tiger A tracking system provides a link between the tracked subject and the direction of the tracking device/camera. Measure the angular error. Next, the error information is used to operate the tracking device/camera. produces a correction signal that controls the motion. The new camera position is then adjusted for future angular errors. Used during calculations. The resulting tracking is 2 tends to be very unpleasant for the winners as it is also very inaccurate. It is mechanical. For example, the camera position for each movement of the subject A quick readjustment can cause rapid eye fatigue for the viewer.

更に、典型的な自動化トークン・シーケンスは、主体が講演を行うとか素早いペ ースの審美的演目に参加しているとかに拘わらず、全ての主体および状況に対し て同じ追跡法およびスタイルを用いる。このようなトラッキング・システムが異 なるスタイルに設定するかあるいはこのようなスタイル間で変更することができ ないということが、かかるシステムの用途を著しく制限する。Furthermore, typical automated token sequences are for all subjects and situations, regardless of whether they are participating in the aesthetic performance of use the same tracking method and style. Such tracking systems or change between such styles. The lack of such systems significantly limits the use of such systems.

自動化トラッキング・システムとは異なり、人間のカメラマンは、完璧ではない 正確さでカメラを主体に向ける。カメラマンは更に、主体が運動する状況に従っ てトラッキング・スタイルと、主体の運動の直後の履歴とを調整する。結果とし て得られるビデオは、鑑賞者にとって自動化システムの厳密で機械的なトラッキ ングよりも更に視覚的に楽しい最小のトラッキングの誤りを含む。Unlike automated tracking systems, human photographers are not perfect. Point the camera at the subject with precision. The cameraman also follows the conditions in which the subject moves. to adjust the tracking style and the immediate history of the subject's movement. As a result The resulting video provides the viewer with a clear and precise mechanical tracking of the automated system. Contains minimal tracking error and is more visually pleasing than the standard version.

従って、本発明の目的は、主体の位置とトラッキング装置/カメラが向けられる 方向間の角度誤差を選択的に許容することにより、人間の鑑賞者にとって視覚的 および審美的に楽しい方法で運動主体を追跡することをカメラに許すシステムの 提供にある。It is therefore an object of the present invention to determine the location of the subject and the position at which the tracking device/camera is directed. By selectively tolerating angular errors between directions, visual and systems that allow cameras to track moving subjects in an aesthetically pleasing way. On offer.

本発明の別の目的は、主体が運動する状況に適当な特定のスタイルで運動主体を 追跡することをカメラに許すシステムの提供にある。Another object of the invention is to move the moving subject in a particular style appropriate to the situation in which the subject is moving. The aim is to provide a system that allows cameras to track people.

本発明の他の目的は、主体の運動の過去の履歴に基いて、システムにより決定さ れるスタイルで運動主体を追跡することをカメラに許すシステムの提供にある。Another object of the present invention is to determine the motion of the subject based on the past history of the subject's motion. The purpose of the present invention is to provide a system that allows a camera to track a moving subject in a style that allows the camera to track a moving subject.

(発明の概要) 主体の運動に向けてこれを追跡することを装置に許すためのシステムは、信号ソ ースと、このソースから信号を受取りこれから制御信号を生成する制御装置とを 含む。記憶装置が、複数組のデータ値を記憶し、この組の各々が特定の動作モー ドにおける前記システムの動作パラメータを表わす。前記複数組のデータ値の1 つを選択する装置が設けられる。プロセッサが、選択されたデータ値に従って制 御信号を処理して、処理された制御信号をl−しる。駆動装置が、処理された制 御信号に応答して本装置を軸心の周囲に運動させて主体に向けられた状態に維持 する。(Summary of the invention) The system for allowing the device to track the movement of the subject is based on a signal software. a control device that receives signals from the source and generates control signals from the source. include. A storage device stores a plurality of sets of data values, each set being associated with a particular mode of operation. represents the operating parameters of the system in the mode. one of the plurality of sets of data values A device is provided for selecting one. The processor controls according to the selected data value. The control signal is processed and the processed control signal is outputted. The drive unit receives the processed control In response to control signals, the device moves around its axis and remains directed toward the subject. do.

一実施態様において、複数の組のデータ値の1つを選択するための装置は、所定 のデータ値およびその対応する動作パラメータを示すユーザが定義する信号を含 む。第2の実施態様では、データ値の組を選択する装置は、制御信号を処理する 時、選択されたデータ値の組が運動主体に対して適当であるかどうかを判定する プロセッサの機能である。もしそうでなければ、プロセッサは、新しいデータ値 を選定し、これによりシステムの動作モードを変更する。In one embodiment, the apparatus for selecting one of the plurality of sets of data values is configured to select one of the plurality of sets of data values. Contains user-defined signals that indicate data values and their corresponding operating parameters. nothing. In a second embodiment, the device for selecting the set of data values processes a control signal. , determine whether the selected set of data values is appropriate for the moving subject. It is a function of the processor. If not, the processor returns the new data value , and thereby change the operating mode of the system.

本発明の上記および他の特徴、目的および利点については、図面に関して以下の 詳細な記述を読むことにより更によく理解されよう。These and other features, objects and advantages of the invention will be explained below with reference to the drawings. It will be better understood by reading the detailed description.

(図面の簡単な説明) 図1は、本発明による使用に適するトラッキング・システムの駆動装置の概略図 、 図2は、本発明による使用に適するトラッキング・システムの送信機を身につけ た運動選手の如き主体の概略図、 図3は、本発明による駆動装置の機能ブロック図、図4は、従来技術の自動トラ ッキング・システムの誤差補正プロセスのフローチャート、 図5は、本発明の第1の実施例による図3の駆動装置により実行される誤差補正 プロセスのフローチャート、 図6Aは図5のプロセスの不動帯を計算するアルゴリズム・ステップのフローチ ャート、 図6Bは、図5のプロセスの不動帯を偏移させるアルゴリズム・ステップのフロ ーチャート、 図60は、図5のプロセスの連続性制御のためのアルゴリズム・ステップのフロ ーチャート、 図6Dは、図5のプロセスの運動側御のためのアルゴリズム・ステップのフロー チャート、 図7は、本発明の第2の実施例による図3の駆動装置により実行される誤差補正 プロセスのフローチャート、および 図8は、図7のプロセスの自動的な状況決定のためのアルゴリズム・ステップの フローチャートである。(Brief explanation of the drawing) FIG. 1 is a schematic diagram of a drive arrangement of a tracking system suitable for use according to the invention. , Figure 2 shows a transmitter of a tracking system suitable for use according to the present invention. A schematic diagram of a subject such as an athlete, FIG. 3 is a functional block diagram of the drive device according to the present invention, and FIG. 4 is a conventional automatic truck diagram. Flowchart of the error correction process of the locking system; FIG. 5 shows the error correction performed by the drive device of FIG. 3 according to a first embodiment of the invention. process flowchart, FIG. 6A is a flowchart of the algorithm steps for calculating the immobile band for the process of FIG. Chart, FIG. 6B is a flowchart of the algorithm steps for shifting the stationary band of the process of FIG. -chart, Figure 60 shows a flowchart of algorithm steps for continuity control of the process of Figure 5. -chart, FIG. 6D is a flow of algorithm steps for motion side control of the process of FIG. chart, FIG. 7 shows the error correction performed by the drive device of FIG. 3 according to a second embodiment of the invention. process flowchart, and Figure 8 shows the algorithm steps for automatic situation determination of the process of Figure 7. It is a flowchart.

(実施例) 本発明は、1つの実施例においては2つのユニットを含む能動トラッキング・シ ステムであるスマート・トラッキング・システムを提供する。第1のユニットは 、追跡される主体により携帯される小型のバッテリ駆動される全方向性超音波送 信機である。この送信機は、人間の聴取範囲を越える周波数の音の短いバースト を生じる。第2のユニットは、取付けられたカメラを傾斜させパンさせることが 可能なモータ駆動のカメラ駆動装置を含む。本発明はまた、主体により身につけ られた送信機を必要とすることなく受動トラッキング・システムにより実現され ることを理解すべきである。(Example) The present invention provides an active tracking system that includes, in one embodiment, two units. The company provides a smart tracking system that is based on the system. The first unit is , a small battery-powered omnidirectional ultrasound transmitter carried by the tracked subject. It is a trustworthy machine. This transmitter sends short bursts of sound at frequencies beyond the range of human hearing. occurs. The second unit can tilt and pan the attached camera. Includes a possible motor-driven camera drive. The present invention also provides for Achieved by a passive tracking system without the need for an integrated transmitter. You should understand that.

1つの実施例においては、バッテリ駆動の超音波受信機がカメラ駆動装置に取付 けられる。受信機は、主体が身につけた送信機と同じ周波数に同調されている。In one embodiment, a battery-powered ultrasound receiver is attached to the camera drive. I get kicked. The receiver is tuned to the same frequency as the transmitter worn by the subject.

受信機は、送信機により生成されマイクロフォンにより受取られる超音波信号を 検出して増幅する電子回路と共に3個の超音波マイクロフォンを使用する。マイ クロフォンは、カメラのレンズの軸を中心としてこれに直角の仮想的な四角の四 隅の内の3つに配置される。主体から出た信号は、カメラが主体に真っすぐに向 けられるだけで、3個全てのマイクロフォンに同時に到達する。受信機は、マイ クロフォンにより受取られた信号の相対的な到達時間を測定し、カメラが主体に 真っすぐに向かない方向および程度を決定し、モータを駆動するサーボ・システ ムをしてカメラ(および受信機)を主体に向けるように向きを変えさせる。この 方向変更即ちトラッキングは、人間の観察者にとって視覚的に快適な方法で行わ れ、様々な状況に適合し得る。The receiver receives the ultrasound signals generated by the transmitter and received by the microphone. Three ultrasonic microphones are used with detection and amplification electronics. My Crophon is an imaginary rectangular quadrangle centered on the axis of the camera lens and perpendicular to it. Placed in three of the corners. The signal emitted by the subject causes the camera to point straight at the subject. It will reach all three microphones at the same time. The receiver is my Measures the relative arrival time of the signal received by the Crophon, and determines whether the camera is the main A servo system that determines the direction and degree of straightness and drives the motor. the camera (and receiver) to face the subject. this The reorientation, or tracking, is done in a manner that is visually pleasing to a human observer. and can be adapted to various situations.

図1において、テレビジ三1ンあるいは映画のカメラあるいは他の装置10(以 下本文では一般性を失うことなく、カメラと呼ぶ)が、全体的に12で示される モータ駆動装置の一部であるプラットフォーム即ち支持部に取付けられ、この駆 動装置は更に三脚14または他の支持部に取付けられる。駆動装置12は、カメ ラ10を水平軸16の周囲に水平より下方的30°から水平より約30°上方ま で上下に傾斜させることができる。この駆動装置はまた、カメラを垂直軸18の 周囲で繰返して360°の円になるよう左右にパンすることができる。駆動装置 は、マイクロフォン2OA、20Bおよび20Cを介して受取った超音波信号に 応答して、カメラ支持部を移動させるように直流モータ(図示せず)を制御する 。In FIG. 1, a television or movie camera or other device 10 (hereinafter referred to as In the following text, without loss of generality, we will refer to it as a camera), which is designated overall by 12. It is attached to a platform or support that is part of the motor drive and The moving device is further mounted on a tripod 14 or other support. The drive device 12 is a camera around the horizontal axis 16 from 30° below the horizontal to about 30° above the horizontal. It can be tilted up and down. This drive also moves the camera along the vertical axis 18. You can pan left and right repeatedly around you in a 360° circle. drive device to the ultrasound signals received via microphones 2OA, 20B and 20C. In response, controlling a DC motor (not shown) to move the camera support. .

記録されるべき図2に示される如き主体22に、自ら身につけあるいは携帯され る超音波送信機24が提供される。送信ユニットは、例えば、主体の腰の周囲に 付けるためのバックルを持つ弾性ベルト26を含む。このベルトには、ベルト2 6に埋込まれた可撓性に富むケーブルにより接続された3個以上のトランスジュ ーサ装置i!2(図には唯1つのトランスジューサ装置28が示される)が取付 けられている。The subject 22 as shown in FIG. An ultrasonic transmitter 24 is provided. For example, the transmitting unit is placed around the subject's waist. It includes an elastic belt 26 with a buckle for attachment. This belt has belt 2 6 or more transducers connected by flexible cables embedded in the -sa device i! 2 (only one transducer device 28 is shown in the figure) is installed. I'm being kicked.

駆動装置12は、それぞれ2個の直流モータ42.44を含んでいる。周知の機 構によれば、モータ42がカメラ支持部を上下に傾斜させ、モータ44がカメラ 支持部を左右にパンさせる。カメラは支持部に対して固定されるため、同じ運動 を受ける。モータは、駆動装置ハウジング内部の回路板(図示せず)上に省かれ た電r・回路により駆動される。、この回路は、バッテリ(これも図示せず)に より給電される。The drives 12 each include two DC motors 42,44. well-known machine According to the structure, the motor 42 tilts the camera support part up and down, and the motor 44 tilts the camera support part up and down. Pan the support from side to side. The camera is fixed relative to the support, so the same movement receive. The motor is mounted on a circuit board (not shown) inside the drive housing. It is driven by an electric circuit. , this circuit connects the battery (also not shown) to Powered by

3個の超音波トランスジューサ20A、20Bおよび20Cの各々用の3個の検 出回路30A、30B、30Cが図3のブロック図に示されている。また、2個 のDCモータ42.44の各々に1個ずつ、2個のモータ駆動回路32.34も 示される。制御回路36およびディジタル・プロセッサ46が、検出器をモータ 駆動回路に接続している。トランスジューサ20A120Bおよび20Cはそれ ぞれ、送信機により放出された超音波バーストを受取り、対応する電気信号をそ の関連する検出回路へ与える。検出回路は、超音波バーストの存在を検出して方 形パルスを生じ、その前エツジが検出されたバーストの初めと一致する。これら のパルス50A、50rl、50Cがコン1−ローラ36へ送られ、これが3個 の検出器からのパルス間の遅れを測定してディジタル誤差レジスタ(図示せず) に2送信号VERRおよびHERRをロードする。これらの4ビット信号は、そ れぞれ、カメラの方向と主体との間の垂直および水平軸に沿った角度誤差を表わ す。Three probes for each of the three ultrasonic transducers 20A, 20B and 20C. Output circuits 30A, 30B, 30C are shown in the block diagram of FIG. Also, 2 pieces There are also two motor drive circuits 32.34, one for each of the DC motors 42.44. shown. A control circuit 36 and a digital processor 46 motorize the detector. Connected to the drive circuit. Transducers 20A120B and 20C are each receives an ultrasound burst emitted by a transmitter and sends a corresponding electrical signal to it. to the associated detection circuit. The detection circuit detects the presence of an ultrasound burst and produces a shaped pulse whose leading edge coincides with the beginning of the detected burst. these Pulses 50A, 50rl, 50C are sent to the controller 1-roller 36, and these three pulses are sent to the controller 1-roller 36. A digital error register (not shown) is measured by measuring the delay between pulses from the detector. 2 transmission signals VERR and HERR are loaded into . These 4-bit signals represent the angular error along the vertical and horizontal axes between the camera direction and the subject, respectively. vinegar.

VERRおよびHERRは、超音波バーストが受取られる毎に更新される。VERR and HERR are updated each time an ultrasound burst is received.

直流モータ42.44を含む送信機24の構造および機能、およびカメラを主体 に向は続けるため駆動装置12が送信機24の場所を追跡する方法については、 参考のため本文に援用される米国特許第4.980.871号に詳細に論述され ており、簡潔化のため繰返さない。The structure and function of the transmitter 24 including the DC motor 42 and 44, and the camera are the main components. To continue, the method by which drive unit 12 tracks the location of transmitter 24 is as follows: Discussed in detail in U.S. Pat. No. 4,980,871, incorporated herein by reference. and will not be repeated for brevity.

ディジタル・プロセッサ46は、それぞれバス52.54上でVERRおよびH ERR信号を受取る。プロセッサ46は、マイクロプロセッサでよい。本発明に おける使用に適する1つのこのようなマイクロプロセッサは、米国アリシナ州P hoenixのMoLorola社から入手可能なモデルMC68705C8で ある。プロセッサ46は、要求される特定のトラッキング・スタイルによりVE RRおよびHERRの値を以下に更に詳細に述べる方法で操作する。これら処理 された誤差信号PVERRおよびPHERRは、それぞれカメラを主体に向は続 けるため傾斜およびパン用モータを適正な方向および適正な速度で駆動する同じ 水平(即ち、パン)および垂直(即ち、傾斜)モータ駆動回路32.34により 直流モータ駆動電圧に変換される。Digital processor 46 provides VERR and H on buses 52.54, respectively. Receive ERR signal. Processor 46 may be a microprocessor. To the present invention One such microprocessor suitable for use in Model MC68705C8 available from MoLolola by hoenix. be. Processor 46 determines the VE according to the particular tracking style required. The values of RR and HERR are manipulated in a manner described in more detail below. These processes The detected error signals PVERR and PHERR are respectively The same drive that drives the tilt and pan motors in the correct direction and at the correct speed to by horizontal (i.e., pan) and vertical (i.e., tilt) motor drive circuits 32.34. Converts to DC motor drive voltage.

(スマート・トラッキング・プロセス・Smart Tracking Pr。(Smart Tracking Process/Smart Tracking Pr.

cesses) 典型的な自動化トラッキング・システムは、図4に示される基本的な2ステツプ のプロセスを用いて追跡された主体の位置とカメラの方向間の誤差を取除(。cesses) A typical automated tracking system follows the basic two-step process shown in Figure 4. Remove the error between the tracked subject's position and camera orientation using the process of (.

第1に、トラッキング・システムは、図4におけるブロック7oで示される如く 追跡された主体とトラッキング装置/カメラ間の角度誤差を測定する。次に、ブ ロック72により示されるように、この誤差情報を用いて補正信号を生成してモ ータ速度およびトラッキング装置/カメラの運動を制御する。次に、このトラッ キング装置/カメラの新しい位置は将来の角度誤差の計算時に使用される。First, the tracking system, as shown in block 7o in FIG. Measure the angular error between the tracked subject and the tracking device/camera. Next, block As indicated by lock 72, this error information is used to generate a correction signal to control the data speed and movement of the tracking device/camera. Then this truck The new position of the king device/camera is used when calculating future angular errors.

本発明においては、トラッキング・システムの応答特性を調整するための多くの 信号処理技術が、人間の鑑賞者に対して快いビデオを結果として生じる属性を与 える。第1の実施例では、誤差信号VERRおよびHERRが、所定のトラッキ ング・スタイルを示すバス60を介して与えられる2ビツトのユーザが与える5 TYLE信号に従って、ディジタル・プロセッサ46により処理される。In the present invention, a number of methods are used to adjust the response characteristics of the tracking system. Signal processing technology attributes the resulting video to human viewers. I can do it. In a first embodiment, the error signals VERR and HERR are 2 bits provided via bus 60 indicating the user-supplied 5 Processed by digital processor 46 according to the TYLE signal.

この5TYLE信号は、ディジタル・プロセッサ46あるいは別個の半導体メモ リーに記憶された1組のパラメータを選択する。これらのパラメータは、選択さ れたトラッキングのスタイル即ちモードに対する受入れ得るシステムの制約を表 わす多くのデータ変数ならびに追跡された主体の位置についての実時間データを 表わす変数を含む。このシステムのパラメータ・セットは、プロセッサ46によ り使用されて誤差信号VERRおよびHERRの値を調整する一連の計算を行う 。処理された信号PVERRおよびPHERRは、それぞれバス62.64に1 =+えられてそれぞれモータ駆動回路32.34を制御し、これが更に鑑賞者の 目に結果として得る運動ができるだけ快い制約条件に近似するようにカメラ10 を主体に向けさせる。This 5TYLE signal is sent to the digital processor 46 or to a separate semiconductor memory. select a set of parameters stored in the memory. These parameters are selected Express the acceptable system constraints on the style or mode of tracking real-time data about the location of tracked subjects as well as many data variables. Contains the variables that represent it. The system parameters are set by processor 46. is used to perform a series of calculations to adjust the values of the error signals VERR and HERR. . Processed signals PVERR and PHERR are routed to buses 62.64 and 1, respectively. = + controls the motor drive circuits 32 and 34, respectively, which further controls the viewer's The camera 10 is configured such that the resulting motion of the eye approximates as much as possible the comfortable constraints. direct the person towards the subject.

第2の実施例では、所定のトラッキング−スタイルを記述するユーザが与える5 TYI、E信号が、幾つかの変数の最も新しい値により記述された如き追跡され た(tracked)主体の運動の過去の履歴に基いて、ディジタル・プロセッ サ46により生じる信号と置換される。In a second embodiment, the user provides 5 The TYI, E signals are tracked as described by the most recent values of some variables. Based on the past history of the subject's movement, the digital processor The signal generated by the sensor 46 is replaced.

図5および図7は、それぞれ第1および第2の実施例に従ってディジタル・プロ セッサ46により信号VERRおよびHERRを処理するため実行されるプロセ スを示している。このプロセスは、トラッキング・システムの応答特性を調整し てこれに人間の鑑賞とにとって快いビデオを結果として生じる属性を与える。FIGS. 5 and 7 illustrate digital processing according to the first and second embodiments, respectively. Process executed by processor 46 to process signals VERR and HERR. It shows the This process adjusts the response characteristics of the tracking system. This gives it attributes that result in a video that is pleasing to human viewing.

ブロック78.80.82.84.86.88.90.92により表わされるこ れらのアルゴリズJトプロセスの各々については、以下に詳細に述べる。What is represented by block 78.80.82.84.86.88.90.92 Each of these algorithmic processes is discussed in detail below.

本発明の教示においては、垂直方向の誤差信号VERRの処理は、水平方向の誤 差信号HERRの処理と実質的に同じである。従って、本発明の概念は、誤差信 号HE RRの処理に関してのみ説明される。In the teachings of the present invention, the processing of the vertical error signal VERR includes the processing of the horizontal error signal VERR. The processing is substantially the same as the processing of the difference signal HERR. Therefore, the concept of the present invention Only the processing of No. HE RR will be explained.

本発明の第1の実施例によれば、トラッキング・システムのユーザ/オペレータ が主体を追跡する所定のスタイル即ちモードを選択する。この選択は、図5のブ ロック78に示されるように、システムの電力供給と同時に行われる。ユーザは 、選択されたモードを線60に与えられる2ビツトの5TYLE信号でディジタ ル・プロセッサ46と通信する。プロセッサ46は、パワーアップと同時に初期 のトラッキング・モード即ちスタイルを表わす既定セットのパラメータを選択す るように任意にプログラムされる。所定のモードの選択と同時に、プロセッサ4 6は全ての関連変数を選択された特定のトラッキング・スタイルと関連する適当 な値にセットする。According to a first embodiment of the invention, the user/operator of the tracking system selects a predetermined style or mode in which the subject will be tracked. This selection is As indicated by lock 78, this occurs simultaneously with powering up the system. The user , the selected mode is digitally indicated by the 2-bit 5TYLE signal applied to line 60. 46. The processor 46 is initialized upon power-up. Select a predefined set of parameters representing the tracking mode or style of can be arbitrarily programmed to Simultaneously with the selection of a predetermined mode, the processor 4 6 all relevant variables as appropriate in relation to the particular tracking style selected. set to a value.

図5のブロック80により示される如き追跡される主体の位置とトラッキング装 @/カメラが向けられる方向間の水平および垂直方向の角度誤差を測定するプロ セスは、先に述べてあり、これらの機能を誤差信号VERRおよびHERRがデ ィジタル・プロセッサ46へ与えられる点を伴う。同様に、図5のブロック90 により示される如きモータ42.44をそれぞれ制御するための4ビツトのオフ セット2進信号のDC電圧への変換については、現在許与された米国特許出願箱 07/396,987号に詳細に記載されており、これ以上記述しない。ブロッ ク82.84.86.88により示されるアルゴリズム・ステップは、5TYL E信号と関連してディジタル・プロセッサ46により実施され、以下に詳細に記 述される。The location of the tracked subject and the tracking device as shown by block 80 of FIG. @/A professional that measures the horizontal and vertical angular error between the directions the camera is pointed at. The process was previously described and the error signals VERR and HERR perform these functions. with points provided to digital processor 46. Similarly, block 90 of FIG. 4-bit off to control motors 42 and 44 respectively as shown by Currently granted U.S. patent applications for the conversion of set binary signals to DC voltages 07/396,987 and will not be described further. Block The algorithm steps indicated by 82.84.86.88 are 5TYL E signals are implemented by digital processor 46 and are described in detail below. described.

(不動帯コントローラ:Dcadzonc Ctontroller)人間の鑑 賞者にとって更に快い追跡スタイルを生じるためディジタル・プロセッサ46に より実行される第1のプロセスは、図5の処理ブロック82により示され図6A に示されるアルゴリズム・ステップで実現される不動帯コントローラを含む。常 にカメラのフレーム内で主体を中心に保持する要望が他の美的な目標に優先する 現在あるトラッキング・システムとは異なり、本発明は、カメラ位置を調整する ことなく、主体を「不動帯」と呼ばれるカメラ・フレームの中心部分内のどこへ も移動させる。(Fixed belt controller: Dcadzonc Ctontroller) Human model digital processor 46 to produce a tracking style that is more pleasing to the winner. The first process executed by is illustrated by processing block 82 in FIG. It includes a dead band controller implemented with the algorithm steps shown in . always The desire to keep the subject centered within the camera frame takes precedence over other aesthetic goals. Unlike currently existing tracking systems, the present invention adjusts the camera position. Where in the central part of the camera frame, called the "fixed zone," do you move the subject? Also move it.

不動帯コントローラは、ディジタル・プロセッサ46に記憶された、種々のシス テムのパラメータを表わす多数の変数により実現される。これらのパラメータの 値は、ユーザにより規定される所定のトラッキング・スタイルに従って変化する 。プロセッサ46は、これら変数を処理して所定のコントローラ機能を達成する 。The stationary band controller has various system functions stored in the digital processor 46. It is realized by a number of variables representing the parameters of the system. of these parameters The value changes according to a predetermined tracking style defined by the user. . Processor 46 processes these variables to accomplish predetermined controller functions. .

不動帯については、カメラ位置が再調整される前に各方向に許される角度誤差の 範囲と対応する1対の角度値(LEAD LEFTおよびDEAD RIGHT )により記述される。最初に、不動帯は主体の中心に対して対称的であり、(− THETAおよび+THETA)にセットされ、ここで変数THETAは角度値 でありトラッキング状況のパラメータである。不動帯の前角度範囲は、THET A値の2倍に等しい。For fixed bands, the amount of angular error allowed in each direction before the camera position is readjusted. A pair of angle values (LEAD LEFT and DEAD RIGHT) corresponding to a range ) is described by Initially, the immobile zone is symmetric about the center of the subject and (− THETA and +THETA), where the variable THETA is the angle value is a parameter of the tracking situation. The anterior angle range of the immobile band is THET Equal to twice the A value.

追跡される主体とトラッキング装置/カメラの方向間で1つの軸に沿った角度誤 差の値を表わす。不動帯コントローラは、誤差変数値を取り、この変数を不動帯 に当たる新しい誤差変数に再マツプする。事例の目的のため、誤差変数は水平軸 HERR上の角度誤差を表わすが、これは垂直軸VERRに沿った角度誤差も等 しく表わし得る。Angular misalignment along one axis between the tracked subject and the direction of the tracking device/camera Represents the difference value. The fixed band controller takes the error variable value and converts this variable into a fixed band. Remap to a new error variable corresponding to . For the purpose of the example, the error variable is on the horizontal axis represents the angular error along the HERR, which is also equivalent to the angular error along the vertical axis VERR. It can be expressed as follows.

図6Aにおいて、不動帯(dcadzonc)は、値(DEAD LEFT。In FIG. 6A, the dead zone (dcadzonc) has the value (DEAD LEFT.

DEAD RIGHT)により表わされる。従って、ディジタル・プロセッサ4 6は、判断ステップ96により示される如(、ERROR値が依然不動帯内にあ るかどうかを判定する。誤差変数の値が不動帯内にあれば、処理ステップ94に より示されるように誤差変数はゼロにセットされる。誤差変数値が不動帯内にな い時は、主体は不動帯のいずれかの側から出た状態にある。DEAD RIGHT). Therefore, digital processor 4 6, if the ERROR value is still within the dead band, as indicated by decision step 96. Determine whether the If the value of the error variable is within the fixed band, proceed to processing step 94. The error variable is set to zero as shown below. The error variable value is within the fixed band. When the object is in motion, it is in a state where it comes out from either side of the immobile band.

ステップ96により示されるように誤差の値が不動帯内にないと一旦判定される と、誤差の方向は判断ステップ98で示されるように判定される。もし誤差の値 が不動帯の左にあれば、DEAD LEFT値は、処理ステップ100により示 されるように誤差値(Value or ERROR)から差引かれる。反対に 、誤差の値が不動帯の右にあれば、処理ステップ102により示されるようにD EAD LEFT値が誤差値(ERROR値)から差引かれる。このように、1 ミ体が不動帯のいずれかの側から出る時、角度誤差は、主体がカメラ・フレーム の中心からどれだけ離れているかではなく、どれだけ不動帯のエツジから離れて いるかを記述するように、不動帯のエツジを差引くことにより変換される。Once it is determined that the error value is not within the fixed band as indicated by step 96 , the direction of the error is determined as indicated at decision step 98 . If the error value is to the left of the immobile band, then the DEADLEFT value is determined by process step 100. It is subtracted from the error value (Value or ERROR) so that Conversely , if the error value is to the right of the fixed band, D The EAD LEFT value is subtracted from the error value (ERROR value). In this way, 1 When the body exits from either side of the immobile zone, the angular error is caused by the body being in the camera frame. It is not how far from the center of It is converted by subtracting the edges of the immobile zone to describe the

最後に、不動帯は減少された応答帯として構成される。この構成においては、減 少した応答帯におけるシステムに対する応答、即ち誤差とモータ速度間の関係は 、ゼロの利得ではな(非常に低い利得にセットすることができる。このような構 成は、不動帯構成の場合におけるように全(移動しないのではなく、システムが 追跡された主体に対してカメラを緩やかに再び中心に置く。しかし、このような 構成は、低い速度におけるモータ42.44に対する非常に厳しい制御を必要と し、典型的なアナログ・モータ・コントローラではなく精密ステッピング・モー タによってのみ実現を可能にする。更に、このような構成は、以下に述べるよう に、方向的な連続性コントローラおよび運動コントローラにより行われる処理を 複雑にする。Finally, the stationary zone is configured as a reduced response zone. In this configuration, The response for the system in a small response band, that is, the relationship between error and motor speed is , not zero gain (can be set to a very low gain. Such a configuration configuration is the case when the system is completely (rather than not moving) as in the case of a fixed band configuration. Gently re-center the camera relative to the tracked subject. But something like this The configuration requires very tight control over the motor 42.44 at low speeds. and a precision stepper motor rather than a typical analog motor controller. This can only be achieved through data. Furthermore, such a configuration The processing performed by the directional continuity controller and the motion controller is Make it complicated.

(不動帯偏移コントローラ:Deadzone 5hirt Controll er) ディジタル・プロセッサ46により実行される第2のプロセスは、図5における ブロック84により示され図6Bに示されるアルゴリズム・ステップにより実現 される不動帯偏移コントローラを含む。主体が不動帯から出てカメラが主体を追 跡し始めると、不動帯は偏移する。不動帯偏移の目的は、カメラがTHETAだ け常に遅れるのではな(、運動する主体に追いつかせることである。不動帯が偏 移され得る前に、多くの制限が初期設定される。変数MAXDEADは、THE TAに不動帯の1つのエツジがカメラ・フレームの中心方向に偏移する最大角度 数を加えた値を表わす。MAXDEAD値は、モータ速度の関数である。MAX DEADが最小値であるTHETAより大きくなるモータ速度は、不動帯が偏移 を許される点である。MAXDEADが(2・THETA)に等しいモータ速度 は、トラッキング・システムが主体をリードし始めるのに充分なだけ不動帯が偏 移した点である。(Deadzone 5hirt Control er) The second process executed by digital processor 46 is shown in FIG. Implemented by the algorithm steps indicated by block 84 and shown in FIG. 6B. includes a fixed band shift controller. The subject leaves the fixed zone and the camera follows the subject. When it begins to track, the immobile zone shifts. The purpose of the fixed band shift is that the camera is THETA. The goal is to let the moving subject catch up. Many restrictions are initialized before they can be transferred. The variable MAXDEAD is THE Maximum angle at which one edge of the fixed band shifts toward the center of the camera frame in TA Represents the value obtained by adding a number. The MAXDEAD value is a function of motor speed. MAX The motor speed at which DEAD becomes greater than the minimum value THETA causes the dead band to deviate. This is the point where it is allowed. Motor speed where MAXDEAD is equal to (2・THETA) The band is biased enough for the tracking system to start leading the subject. This is the point that was moved.

変数DEADSHI FTは、不動帯が偏移される度/秒単位の最大速度を表わ し、同様にモータ速度の関数である。値DEADSHI FTは、典型的にはモ ータ速度のある小部(some small fraction)である〇不動 帯を偏移する前に、MAXDEADおよびDEADSHI FTの変数値がMO TOR5PEED値の関数にセットされ、この値は処理ステップ104で示され る如(モータ44の速度のその時の値を表わす。The variable DEADSHI FT represents the maximum speed in degrees/second at which the dead band is deflected. and is likewise a function of motor speed. The value DEADSHI FT is typically Some small fraction of data speed is immobile. Before shifting the band, the variable values of MAXDEAD and DEADSHI FT are set to MO set to a function of the TOR5PEED value, which value is indicated in process step 104. (Represents the current value of the speed of the motor 44.

不動帯の偏移は次のように生じる。判断ステップ106により示されるように、 E RROR値は、不動帯の右エツジDEΔD RIGHTに比較される。ER ROR値が不動帯の右エツジを越えるならば、処理ステップ108により示され るように不動帯は左方へ偏移される。この左方の偏移は、DEADSHI FT 値をDEAD LEFT値およびDEAD RIGHT値の双方から差引(こと により行われる。ERROR値が不動帯の右エツジを越えなければ、判断ステッ プ11Oにより示されるように、ERROR値が不動帯の左エツジを越えるかど うか判定するため比較が行われる。E RROR値が不動帯の左エツジを越える ならば、処理ステップ112により示されるように、不動帯は右方へ偏移される 。不動帯のこの右方の偏移は、DEAD RIGHT値およびDEAD LEF T値の双方にDEADSHI FT値を加算することにより行われる。The shift of the fixed zone occurs as follows. As indicated by decision step 106, The E RROR value is compared to the right edge of the dead band DEΔD RIGHT. E.R. If the ROR value exceeds the right edge of the fixed band, then indicated by process step 108. The immobile zone is shifted to the left so that the This leftward shift is DEADSHI FT Subtract the value from both the DEAD LEFT value and the DEAD RIGHT value. This is done by If the ERROR value does not exceed the right edge of the fixed band, the decision step Whether the ERROR value exceeds the left edge of the dead band, as indicated by step 11O. A comparison is made to determine whether E RROR value exceeds the left edge of the fixed band If so, the fixed zone is shifted to the right, as indicated by process step 112. . This rightward shift of the fixed zone is the DEAD RIGHT value and the DEAD LEF This is done by adding the DEADSHI FT value to both T values.

DEAD LEFTおよびDEAD RIGHTの新しい値は偏移された不動帯 を表わし、これは次に、不動帯がMAXDEADの許容制限を越えて偏移された かどうかを判定するためMAXDEAD値と比較される。これを行うために、判 断ステップ114により示されるように、DEAD LEFT値は−MAXDE AD値と比較される。不動帯の左エツジが許容制限を越えるならば、即ち、DE AD LEFT<−MAXDEADならば、不動帯は左限界まで偏移される。The new values of DEAD LEFT and DEAD RIGHT are the shifted fixed bands. , which then indicates that the dead band has been shifted beyond the allowed limit of MAXDEAD. is compared with the MAXDEAD value to determine whether the To do this, judge As shown by step 114, the DEAD LEFT value is -MAXDE It is compared with the AD value. If the left edge of the immobile band exceeds the permissible limit, i.e. DE If AD LEFT<-MAXDEAD, the dead band is shifted to the left limit.

これは、処理ステップ116により示されるように、DEAD LEFTを−M AXDEADにセットし、DEAD RIGHTを(2・T)IETA−MAX DEAD)に等しくセットすることにより行われる。This sets DEADLEFT to -M, as indicated by processing step 116. Set AXDEAD and DEAD RIGHT to (2・T)IETA-MAX DEAD).

不動帯の左エツジが許容限界内にあるならば、判断ステップ118により示され るように、不動帯の右エツジであるDEAD RIG)(TがMAXDEAD値 と比較される。もし不動帯の右エツジが許容限界を越えるならば、処理ステップ 120により示されるように、不動帯は、DEAD RIGHTをMAXDEA Dに等しくセットし、DEAD LEFTを(MAXDEAD−2・THETA )に等しくセットすることにより右限界まで偏移される。If the left edge of the dead band is within acceptable limits, as indicated by decision step 118. DEAD RIG) which is the right edge of the fixed band (T is the MAXDEAD value) compared to If the right edge of the fixed band exceeds the tolerance limit, the processing step As shown by 120, the immobile band has DEAD RIGHT to MAXDEA Set DEAD LEFT equal to (MAXDEAD-2・THETA ) is shifted to the right limit.

」1記のプロセスを例証するため、主体が不動帯の右側から出てカメラが主体を 追跡し始めるものと仮定する。カメラは運動中であるため、MAXDEAD値が その最小の中心値であり不動帯をカメラの運動方向とは反対方向に偏移させる前 記THETAより大きい。もしTHETAに5°の値が与えられるならば、初期 の不動帯は(−5、+5)0となる。その時のモータ速度が25°/秒であれば 、典型的な値は最大許容不動帯値MAXDEADに対して9°、また不動帯偏移 の最大レート(rate)DEADSHIFTに対しては1°/秒となり得る。” To illustrate the process in point 1, the subject exits from the right side of the fixed band and the camera looks at the subject. Assume that you start tracking. Since the camera is in motion, the MAXDEAD value is Its minimum central value, before shifting the fixed zone in the opposite direction to the direction of camera motion. It is larger than the description THETA. If THETA is given a value of 5°, then the initial The immobile zone is (-5, +5)0. If the motor speed at that time is 25°/sec. , a typical value is 9° for the maximum allowed dead band value MAXDEAD, and the dead band deviation The maximum rate of DEAD SHIFT can be 1°/sec.

4秒の期間にわたり、不動帯は(−5、+5)から(−9、+1)へ偏移する。Over a period of 4 seconds, the immobile band shifts from (-5, +5) to (-9, +1).

この時、カメラは、不動帯が偏移されなかった場合に結果としてなる5°ではな く、1°だけ主体より遅れることになる。At this time, the camera is not at the 5° that would have been the result if the fixed band had not been shifted. Therefore, it will lag behind the main body by 1°.

カメラが更に早い速度で移動する時、不動帯の限界MAXDEADは最終的には 10°より太き(偏移し、不動帯が(<−10、〈0)へ偏移し始め、追跡され る主体より前になる効果を生じる。主体が遅(なると、最大不動帯であるMAX DEADは再び5°まで減少し、不動帯は再びその中心位置と対応するその通常 の休息値(−5、+5)へ偏移し始め、主体をカメラ・フレームにおける対称的 な不動帯内に移動させる。When the camera moves at a faster speed, the limit of the immobile band MAXDEAD will eventually become thicker than 10° (shifts, the fixed zone begins to shift to (<-10, <0), and is not tracked. It produces the effect of being in front of the subject. If the main body is slow (the maximum immobile band is MAX) DEAD is again reduced to 5° and the fixed zone is again at its normal position corresponding to its center position. begins to shift to rest values (-5, +5), making the subject symmetrical in the camera frame. Move it to a fixed area.

不動帯の大きさく2・THETA) 、不動帯が偏移される速度を制御する関数 DEADSHT FT、および運動する主体がカメラにより先行される量を制御 する関数MAXDEADは全て、ユーザにより規定される如き追跡法に依存して 調整されるパラメータである。DEADSHI FT関数の選択がシステムの制 御サーボ・ループの全体的な安定性に影響を及ぼし、当業者には明らかなように 、不安定性を回避するように選定されねばならないことに注目されたい。The size of the immobile band is 2・THETA), a function that controls the speed at which the immobile band is shifted. DEADSHT FT and controls the amount by which the moving subject is preceded by the camera The function MAXDEAD all depends on the tracking method as defined by the user. It is a parameter that is adjusted. DEADSHI FT function selection is system control will affect the overall stability of your servo loop and will be obvious to those skilled in the art. Note that , must be chosen to avoid instability.

(連続性の制御:Continuity Control)人間の鑑賞者にとっ て更に快いトラッキング・スタイルを生じるためディジタル・プロセッサ46に より実行される第3のプロセスは、図5における処理ブロック86により表わさ れる、図60に示したアルゴリズム・ステップにより実現される方向の連続性コ ントローラを含む。人間の鑑賞者は、画像の運動方向の変化に非常に敏感である 。従って、カメラの運動方向が変化する回数を最小化することが重要である。! c賞者は、低速で生じるか、あるいはトラッキング装ffi/カメラが高速運動 から停車へ、また逆方向に移動する時に生じる方向の変化に特に敏感である。方 向の連続性コントローラは、鑑賞者にとって不快である一連の方向の変化が生じ ないことを保証する。不動帯および不動帯偏移コントローラと同様に、方向の連 続性コントローラはディジタル・プロセッサ46に記憶され種々のシステt・・ パラメータを表わす多数の変数で実現される。これらパラメータ値は、ユーザに より規定される所定のトラッキング・モードに従って変化する。プロセッサ46 は、この変数を処理して所定のコントローラ機能を得る。(Continuity Control) For human viewers, digital processor 46 to produce a more pleasing tracking style. A third process executed by is represented by processing block 86 in FIG. The directional continuity code achieved by the algorithm steps shown in Figure 60 controller included. Human viewers are very sensitive to changes in the direction of motion in images . Therefore, it is important to minimize the number of times the camera motion direction changes. ! C-wins occur at low speeds or when the tracking device ffi/camera is moving at high speeds. It is particularly sensitive to changes in direction that occur when moving from a stop to a stop and vice versa. direction Orientation Continuity The controller is used to create a series of directional changes that are unpleasant to the viewer. I guarantee that there will be no. Similar to the fixed band and fixed band deviation controllers, the direction coupling The continuity controller is stored in digital processor 46 and is used in various systems... It is implemented with a large number of variables representing parameters. These parameter values can be set by the user The tracking mode varies according to a predetermined tracking mode. processor 46 processes this variable to obtain the desired controller functionality.

方向の連続性コントローラに関する変数は下記の如くである。LAST DIR ECT変数は、カメラが最後に運動しつつあった方向の符号を表わす。ERRO RDIRECTは、カメラの方向と主体の位置間の角度誤差の符号、即ちカメラ が主体に対して接近するため運動しなければならない方向を表わす。5TABL E TIME変数は、カメラの最後の運動以後経過した時間を秒単位で表わす。The variables for the directional continuity controller are as follows. LAST DIR The ECT variable represents the sign of the direction in which the camera was last moving. ERRO RDIRECT is the sign of the angular error between the camera direction and the subject position, i.e. the camera represents the direction in which the object must move in order to approach the subject. 5TABL The E TIME variable represents the time in seconds that has elapsed since the last movement of the camera.

REVER8E DELAY変数は、カメラが運動を開始する前に主体が新しい 方向に運動することが要求される最小時間を表わす。REVER3E DEL  A Y変数により指定される時間が満たされるまで、カメラは方向を変えること が許されない。REVER5E DELAY時間の一部が、主体がカメラ・フレ ームの不動帯と交差する時に費やされることに注目されたい。REVER8E DELAY variable allows the subject to change before the camera starts moving. Represents the minimum time required to move in a direction. REVER3E DEL The camera should change direction until the time specified by the AY variable is met. is not allowed. REVER5E Part of the DELAY time is mainly due to the camera frame. Note that it is spent when intersecting the immobile zone of the system.

方向の連続性コントローラにより実行されるアルゴリズtトステップは、図6C に示される。どの時点においても、LAST DIRECTおよび5TABLE  TIME変数は、カメラの最後の運動方向およびこのような運動後に経過した 時間をそれぞれ表わす。他の制御プロセスがカメラを同じ方向に運動させようと すれば、このような運動は許容され、経過時間がリセットされる。これを行うに は、判断ステップ122に示されるように、プロセッサ46はLAST DIR ECT変数の値をゼロと比較する。処理ステップ126に示されるように、LA ST DTRECTの値がカメラが最近運動しなかったことを示すゼロに等しけ れば、カメラは誤り方向に運動が許される。ステップ126において、5TAB LE TIME変数の値はゼロにセットされ、LAST DIRECT変数の値 はERRORDIRECT変数の値にセットされる。The algorithmic steps performed by the directional continuity controller are shown in Figure 6C. is shown. LAST DIRECT and 5TABLE at any time The TIME variable specifies the direction of the last movement of the camera and the elapsed time since such movement. Each represents time. If another control process tries to move the camera in the same direction Then such movement is allowed and the elapsed time is reset. to do this As shown in decision step 122, processor 46 determines LAST DIR Compare the value of the ECT variable to zero. As shown in process step 126, LA The value of ST DTRECT is equal to zero indicating that the camera has not moved recently. , the camera is allowed to move in the wrong direction. In step 126, 5TAB The value of the LE TIME variable is set to zero and the value of the LAST DIRECT variable is set to the value of the ERRORDIRECT variable.

判断ステップ122においてLAST DIRECT変数がカメラが最近運動し なかったことを示すゼロに等しくなければ、判断ステップ126に示されるよう に、ERRORDIRECT変数の値はLAST DIRECT変数に比較され る。先に述べたように、ERRORDIRECT変数が誤り方向および最後のカ メラの方向が同じであることを示すLAST DIRECT変数と等しければ、 処理ステップ126が実行される。In decision step 122, the LAST DIRECT variable indicates that the camera has recently moved. If not equal to zero, indicating that the Then, the value of the ERRORDIRECT variable is compared to the LAST DIRECT variable. Ru. As mentioned earlier, the ERRORDIRECT variable If it is equal to the LAST DIRECT variable indicating that the direction of the camera is the same, Process step 126 is executed.

処理ステップ128に示されるように、誤りの方向および最後のカメラの方向が 等しくなければ、最後の運動後の経過時間5TABLE TIMEがREVER 3E DELAY定数と比較される。5TABLE TIME変数値がREVE R8E DELAY値より大きいかあるいはこれと等しければ、先に述べたよう に、処理ステップ126が実行される。しかし、処理ステップ130に示される ように、最後の運動後の経過時間がREVER3E DELAY変数に指定され た時間より小さければ、カメラは方向を反転することは許されない。処理ステラ 、 プ130において、5TABLE TIMEの値が増分され、ERROR値 はゼロにセットされる。LAST DIRECT変数の値は変化しないままであ る。As shown in process step 128, the error direction and the last camera direction are If not equal, the elapsed time since the last exercise 5TABLE TIME is REVER 3E Compare with DELAY constant. 5TABLE TIME variable value is REVE R8E If it is greater than or equal to the DELAY value, as mentioned earlier Then, process step 126 is performed. However, as shown in process step 130 , the elapsed time since the last exercise is specified in the REVER3E DELAY variable. If the time is less than the specified time, the camera is not allowed to reverse direction. processing stella , the value of 5TABLE TIME is incremented and the ERROR value is is set to zero. The value of the LAST DIRECT variable remains unchanged. Ru.

このように、方向連続性コントローラは、カメラがその最近の運動方向に運動す ることを許容する。しかし、カメラが方向を反転することが許される前に、時間 の最小閾値が要求される。REVER3E DELAY変数に、指定された時間 遅延値は、ユーザが規定する5TYLE信号により示される如きトラッキング状 況の1つのパラメータである。REVER5E DELAY変数値の典型的な範 囲は、トラッキング・システムのサーボ・ループにおける不安定性を生じること なく、1秒の1/6から5秒より長いことがある。In this way, the directional continuity controller determines whether the camera moves in the direction of its recent movement. allow. However, there is a time delay before the camera is allowed to reverse direction. A minimum threshold of is required. REVER3E The time specified in the DELAY variable The delay value is determined by the tracking pattern as indicated by the user-defined 5TYLE signal. This is one parameter of the situation. REVER5E Typical range of DELAY variable values can cause instability in the servo loop of the tracking system. It can be from 1/6 of a second to longer than 5 seconds.

(運動コントローラ Cotton Controller)ディジタル・プロ セッサ46により実行される第4のプロセスは、図5の処理ブロック88により 示される、図6Dに示すアルゴリズム・ステップにより実現される運動コントロ ーラを含む。(Movement controller Cotton Controller) Digital Pro A fourth process executed by processor 46 is performed by processing block 88 of FIG. The motion control achieved by the algorithm steps shown in FIG. 6D is shown. Including ra.

大半のビデオ画像において、背景は典型的には主体よりも大きな画像部分を示す 。背景に対する情景の運動が急激であると、例えこれが主体の不統一な運動の追 跡の結果生じるものでも、画像は鑑賞者を不快にさせることになる。運動コント ローラは、カメラを駆動するモータに対する減速度時定数とは異なる加速度時定 数を選択することにより、システムの応答において疑似フィルタ機能を行う。In most video images, the background typically represents a larger portion of the image than the subject . If the movement of the scene relative to the background is rapid, even if this is due to the inconsistent movement of the subject. Even those resulting from traces can cause discomfort to the viewer. exercise control The roller has an acceleration time constant that is different from the deceleration time constant for the motor that drives the camera. The selection of numbers performs a pseudo-filter function on the system's response.

その結果、カメラが停止される時主体をオーパージ、−卜する傾向を避けながら 、カメラの運動は平滑に開始する。フィルタ機能に加えて、運動コントローラは 、主体の運動コントローラの状況に応じてカメラの最大速度および加速度に制限 を課す。他の処理コントローラにおけるように、運動コントローラは、ディジタ ル・プロセッサ46に記憶され種々のシステム・パラメータを表わす多数の変数 で実現あれる。これらのパラメータ値は、ユーザにより選択される所望のトラッ キング・モードに従って変化する。As a result, while avoiding the tendency to pore over the subject when the camera is stopped, , the camera movement starts smoothly. In addition to the filter function, the motion controller , limited to the maximum speed and acceleration of the camera depending on the situation of the subject's motion controller impose. As in other processing controllers, the motion controller uses digital A number of variables are stored in the file processor 46 and represent various system parameters. It can be realized. These parameter values correspond to the desired tracker selected by the user. Changes according to King Mode.

運動コントローラと関連する変数は下記の如くである。変数ERRORは、不動 帯コントローラにより使用される変数と同様なものと定義される。変数LAST ERRORは先のERROR値を表わす。変数MAXACCは、選択されたトラ ッキング・モードに対して角度/平方秒で測定された最大許容加速度を表わす。The variables associated with the motion controller are as follows. The variable ERROR is immutable Defined to be similar to variables used by the band controller. variable LAST ERROR represents the previous ERROR value. The variable MAXACC is the selected truck. represents the maximum permissible acceleration measured in degrees per square second for the locking mode.

変数MΔXVELは、選択されたトラッキング・モードに対して角度/平方秒で 測定された最大許容速度を表わす。変数K ACCは、モータ44が加速される 率を制御する指数平滑性時定数(exponentially smoothi ngtime constant)を表わす。値(1−K ACC)は、ワンタ イム(one time)ステップ後に残る信号の指数平均履歴(cxponc nt ia I ly averalzed bisLory)の分数である。The variable MΔXVEL is in degrees/square second for the selected tracking mode. Represents the maximum permissible speed measured. The variable K ACC indicates that the motor 44 is accelerated. An exponentially smooth time constant that controls the rate ngtime constant). The value (1-K ACC) is Exponential average history (cxponc) of the signal remaining after one time step ntia Ily averagezed bisLory).

変数K DEACCは、モータ44が減速される速度を制御する指数平滑性時定 数を表わす。値(1−KDEACC)は、ワンタイム・ステップ後に残る信号の 指数平均履歴の分数である。典型的に、速度K DEACCは、カメラの運動が 停止する時主体のオーバーシュートを回避しながら、加速をできるだけ平滑にす る変数K ACCより大きいかあるいはこれと等しい。K ACCおよびK D EACCの両方の値は、ゼロと1の間の範囲内にある。The variable K DEACC is an exponential smoothness time constant that controls the speed at which the motor 44 is decelerated. represents a number. The value (1-KDEACC) is the value of the signal remaining after the one-time step. It is a fraction of the exponential average history. Typically, the velocity K DEACC is determined by the movement of the camera. Make acceleration as smooth as possible while avoiding overshoot mainly when stopping. The variable K is greater than or equal to ACC. K ACC and K D Both values of EACC are in the range between zero and one.

運動コントローラは下記の如くに動作する。ERROR値がトラッキング・モー ドにより予め定められる最大許容速度より大きいカメラ速度をもたらすならば、 速度は制限される。これは、判断ステップ132に示されるように、ERROR 値をMAXVEL値と比較することにより行われる。手順ステップ134に示さ れるように、ERROR値がMAXVEL値より大きければ、速度はERROR 値をMAXVEL値に等しくセットすることにより制限される。ステップ132 においてERROR値がMAXVELより大きくなければ、判断ステップ136 に示されるように、これは−MAXVEL値と比較される。ERROR値が−M AXVEL値より小さければ、処理ステップ138に示されるように、速度は再 びERROR値を−MAXVELに等しくセットすることにより制限される。The motion controller operates as follows. The ERROR value is in tracking mode. If the camera speed is greater than the maximum allowable speed predetermined by the Speed is limited. This results in ERROR, as shown in decision step 132. This is done by comparing the value to the MAXVEL value. As shown in procedure step 134 If the ERROR value is greater than the MAXVEL value, the speed will be ERROR Limited by setting the value equal to the MAXVEL value. Step 132 If the ERROR value is not greater than MAXVEL, decision step 136 This is compared to the -MAXVEL value, as shown in . ERROR value is -M If it is less than the AXVEL value, the velocity is re-set as indicated in process step 138. and ERROR values equal to -MAXVEL.

E RRORのその時の値とE RRORの前の値開の差であるLAST ER ROR(加速度である)がトラッキング状況により予め定められる最大加速度よ り大きければ、カメラの速度はその時のカメラ速度に最大加速度を加えたものに 制限される。このためには、判断ステップ140に示されるように、ERROR 値はLAST ERRORおよびMAXACCの和と比較される。ERROR値 がステップ140において大きければ、処理ステップ142に示されるように、 ERROR値をLAST ERRORとMAXACCの和にセットすることによ り制限される。さもなければ、E RROR値は、判断ステップ144に示され るよ、うに、その時の速度から最大許容加速度を差引いたものと比較される。E RROR値がL A S T E RRORからMAXACCを差引いた値より 小さければ、処理ステップ146に示されるように、加速度はERROR値をL ASTE RRORからMAXACCを差引いたものをセットすることにより再 び制限される。LAST ER is the difference between the current value of E RROR and the previous value of E RROR ROR (acceleration) is the maximum acceleration determined in advance by the tracking situation. If the value is larger, the camera speed is the camera speed at that time plus the maximum acceleration. limited. To this end, as shown in decision step 140, the ERROR The value is compared to the sum of LAST ERROR and MAXACC. ERROR value is large in step 140, as shown in process step 142, By setting the ERROR value to the sum of LAST ERROR and MAXACC. limited. Otherwise, the ERROR value is indicated in decision step 144. It is compared to the current velocity minus the maximum allowable acceleration. E The RROR value is L A S T E RROR minus MAXACC. If so, the acceleration reduces the ERROR value to L, as shown in process step 146. By setting ASTE RROR minus MAXACC and limited.

加速度または速度の制限の後、判断ステップ148に示されるように、ディジタ ル・プロセッサ46は、カメラが加速中であるかどうかを判定する。カメラが加 速中ならば、処理ステップ150に示されるように、より平滑な加速が得られる 。平滑な加速は、ERROR値および下式(1)により最後の平滑化された誤差 LSERRORの値を用いて、平滑な誤差値N5ERRORを計算することによ り達成される。After limiting the acceleration or velocity, the digital Le processor 46 determines whether the camera is accelerating. camera added If the vehicle is running at high speed, smoother acceleration will be obtained, as shown in process step 150. . Smooth acceleration is determined by the ERROR value and the final smoothed error by equation (1) below. By calculating the smooth error value N5ERROR using the value of LSERROR. will be achieved.

NSE■0R=(+−K ACC)・1ERROR+にACC・ER1?ORC 式1)処理ステップ150は、低域フィルタ処理と等価である。次に、式(1) の新しい平滑誤差N5ERRORを用いてモータ44の速度を制御する。NSE■0R=(+-K ACC)・1ERROR+to ACC・ER1? ORC Equation 1) Processing step 150 is equivalent to low-pass filtering. Next, equation (1) The new smoothed error N5ERROR is used to control the speed of the motor 44.

カメラが加速中でなければ、判断ステップ152に示されるように、プロセッサ 46は、カメラが減速中であるかどうかを判定する。カメラが減速中であれば、 処理ステップ154に示されるように、平滑な減速が行われる。平滑な減速は、 E RROR値および下式(2)により最後に平滑化された誤差LSERR(’ )Hの値を用いて平滑誤差値を泪算することにより達成される。If the camera is not accelerating, the processor 46 determines whether the camera is decelerating. If the camera is slowing down, As shown in process step 154, a smooth deceleration occurs. Smooth deceleration is E Error LSERR(' ) is achieved by calculating the smoothed error value using the value of H.

N5El?ROM−(+−にDEACC)・I−(iERROR+K rlEA cc+ERROR(式2)上記の疑似低域フィルタ処理法は、加速中および減速 中は異なる時定数を使用する。加速の平滑性にχ・tす4鑑賞者の感度は、減速 の平滑性に対する感度よりも大きい1、望ましい実施態様において、K ACC とK DEACC間の比は典型的には12である。N5El? ROM-(DEACC to +-)・I-(iERROR+K rlEA cc+ERROR (Equation 2) The above pseudo low-pass filtering method is used during acceleration and deceleration. Use different time constants during 4 Viewers' sensitivity to the smoothness of acceleration is 1, in a preferred embodiment, K ACC The ratio between KDEACC and K DEACC is typically 12.

本発明の第1の実施例において、トラッキング・システムのユーザは、システト 性能が主体の運動の状況に対して特に同調されるようにトラッキング状況を指定 する。モードまたはトラッキング・スタイルの典型的な選択は、低速、一般およ び高速の諸動作モートを含み得る。講演、緩速スポーツ、子供達の遊戯、あるい は走ることのない運動に適する低速動作モードは、主体が敏速な運動状態にある ならば主体より遅れる傾向を有する低速の平滑な運動を特徴とする。一般的な動 きに適する一般動作モードは、主体が全速度で走る状態にある時にのみ主体に遅 れる傾向を佇する平滑な動きに適する。テニス、バスケット・ポール、サッカー あるいは全速走行および動きの急激な変化を伴う動きに適する高速動作モードは 、最も速く運動する主体でさえ素−「?<追跡するのに適しており、もし動きが これを覆うのに充分な速さでなければ、視覚的に快い以上に素早く応答する傾向 を有する。In a first embodiment of the invention, the user of the tracking system Specify the tracking situation so that performance is specifically tuned to the dominant movement situation do. Typical selections of modes or tracking styles are Slow, General and and high speed operating motes. Lectures, slow sports, children's games, or The low-speed operation mode, which is suitable for movements that do not involve running, is when the subject is in a state of rapid movement. If so, it is characterized by slow, smooth motion that tends to lag behind the main body. general movement A general mode of operation suitable for Suitable for smooth movements with a tendency to move. Tennis, basketball/pole, soccer Alternatively, the high-speed operation mode is suitable for running at full speed and movements with sudden changes in movement. , even the fastest moving objects are suitable for tracking; Tendency to respond more quickly than is visually pleasing if not fast enough to cover this has.

(自動状況判定コントローラ Automatic Context Dete rmination Controller)本発明の第2の実施例によれば、 所定のトラッキング・スタイルを記述するユーザが供給する5TYLE信号は、 以下に述べるように、システム変数の一部に対する最近の値により記述される如 き追跡される主体の運動の過去の履歴に基いて、ディジタル・プロセッサ46に より生成される信号で置換される。(Automatic Context Dete According to the second embodiment of the present invention, A user-supplied 5TYLE signal describing a given tracking style is as described by recent values for some of the system variables, as described below. Based on the past history of the motion of the subject being tracked, the digital processor 46 is replaced by a signal generated by

図7は、信号VERRおよびHERRを処理するためディジタル・プロセッサ4 6により実行されるプロセスを示す。本例においては、トラッキング・システム の応答特性が人間の鑑賞者にとって下位的なビデオを結果として生じる属性を与 えるように、プロセッサ46が先に述べたプロセスを自動的に調整する。図7に おいて、ブロック78.80.82.84.86.88.90により示されるア ルゴリズト処理は、図5に関して述べたものおよび本発明の第1の実施例と類似 している。FIG. 7 shows a digital processor 4 for processing signals VERR and HERR. 6 shows the process executed by 6. In this example, the tracking system The response characteristics of the video give the resulting attributes that are subordinate to the human viewer. Processor 46 automatically adjusts the process described above so that the process is performed. In Figure 7 , the access point indicated by block 78.80.82.84.86.88.90 The algorithmic process is similar to that described with respect to FIG. 5 and the first embodiment of the invention. are doing.

ディジタル・プロセッサ46により実行される第5のプロセスは、図7で処理ブ ロック92により表わされ図8に示されるアルゴリズム・ステップにより実現さ れる自動状況コントローラを含む。The fifth process executed by digital processor 46 is shown in FIG. Implemented by the algorithm steps represented by lock 92 and shown in FIG. Contains automatic situation controllers.

トラッキング・システt、の機能の一部が追跡される主体の位置を決定すること であるため、将来の運動スタイルをよきするため使用することが可能な大量の情 報が得られる。典型的には、主体が行う実際の動きはその運動範囲内では非常に 安定している。本発明の第2の実施例において、主体の運動のパラメータは記憶 され、次いでトラッキング状況などと関連することが予期されるパラメータと比 較される。抽出されたパラメータは、運動の特殊な特性、その時の状況が適正に 追跡する時間の百分率、主体の最大角加速度、および主体の最小角速度を含む。Part of the functionality of a tracking system is to determine the location of the tracked subject. This provides a wealth of information that can be used to improve your future exercise style. You can get information. Typically, the actual movements performed by the subject are very small within their range of motion. stable. In a second embodiment of the invention, the parameters of the subject's motion are stored. and then compared with parameters expected to be related to tracking conditions etc. compared. The extracted parameters are based on the special characteristics of the movement and the appropriate situation at that time. Includes the percentage of time to track, the maximum angular acceleration of the subject, and the minimum angular velocity of the subject.

これらのパラメータは、最良のパラメータとしてよりも計算の容易さのため選択 される。These parameters were chosen for ease of calculation rather than as best parameters. be done.

自動状況判定コントローラ(automatic context deter mination controller)と関連する変数は下記の如くである 。CON T E X T変数は、5TYLE信号と等価であり、その時選択さ れたトラッキングの状況即ちモードを示す。MISSTRACKING変数は、 主体が不動帯の外側にある時間長さを表わす。MAXMISSTRACK変数は 、CONTEXT変数により選択された特定のトラッキング・スタイルに対して 主体が不動帯の外側にあることを許される時間の最大許容百分率を表わす。AV G MOVE変数は、主体が1つの方向に運動した平均時間を表わす。MOTO R5PEED変数は、第1の実施例に関して前に定義されたものと同じである。Automatic context determination controller The variables related to the minination controller are as follows. . The CON T E X T variable is equivalent to the 5TYLE signal, and the indicates the status or mode of tracking. The MISSTRACKING variable is It represents the length of time that the subject is outside the immobile zone. The MAXMISSTRACK variable is , for a particular tracking style selected by the CONTEXT variable. Represents the maximum permissible percentage of time that a subject is allowed to be outside the immobile zone. A.V. The GMOVE variable represents the average time the subject moved in one direction. MOTO The R5PEED variable is the same as defined previously for the first example.

DELTA ERROR変数は、主体の角度誤差が最後に測定されて以後の度単 位の角度誤差における変化を表わす。DELTA ERRORはMOTOR5P EEDに加算されて、主体の速度CURRENT 5PEEDを生じる。DEL TA 5PEED変数は、主体の角度誤差が最後に測定されて以後の0/秒単位 のCURRENT 5PEEDにおける変化を表わす。MAX 5PEED変数 は、主体の最大角速度を表わず。MAX ACC変数は、主体の最大角加速度を 表わす。The DELTA ERROR variable indicates the degree unit since the subject's angular error was last measured. represents the change in the angular error of the position. DELTA ERROR is MOTOR5P EED is added to yield the subject's velocity CURRENT 5PEED. DEL The TA5PEED variable is the unit of 0/second since the subject's angular error was last measured. CURRENT represents the change in 5PEED. MAX 5PEED variable does not represent the maximum angular velocity of the subject. The MAX ACC variable is the maximum angular acceleration of the subject. represent.

運動コントローラ88による処理に続いて、自動状況判定コントローラ92がそ の時のトラッキング状況が主体の運動に対して適当であるかどうかを判定する。Following processing by motion controller 88, automatic situation determination controller 92 It is determined whether the tracking situation at the time is appropriate for the movement of the subject.

図8において、E RRORの新しい各部により、その時のシステム・モードが 主体の追跡に失敗した時間数が処理ステップ160において示されるように計算 される。E RROR変数の絶対値を用いて、主体がその時追跡失敗状態にある かどうかを判定する。F、 RROR値の絶対値が最大許容誤差より小さいかあ るいはこれと等しければ、MI 5STRACKING値は増分されず、主体が 依然として受入れ得る範囲内で運動しつつあることを示す。しかし、ERROR 値の絶対値が最大許容角度誤差より大きければ、MISSTRACKING値が 増分されて主体が受入れ得る範囲からデータことを示す。In Figure 8, each new part of ERROR changes the current system mode. The number of hours the subject was unsuccessfully tracked is calculated as indicated in process step 160. be done. E. Use the absolute value of the RROR variable to determine whether the subject is currently in a tracking failure state. Determine whether or not. F, Is the absolute value of the RROR value smaller than the maximum allowable error? is equal to this, the MI5STRACKING value is not incremented and the entity Indicates that the patient is still moving within an acceptable range. However, ERROR If the absolute value of the value is greater than the maximum allowable angular error, then the MISSTRACKING value is Indicates that data is incremented from a range acceptable to the subject.

システ15が追跡失敗状態にある時間の百分率は、判断ブロック162に示され るように、合計時間によりMT 5STRACKING値を除すことにより計算 され、その時のモードMAXMI 5STRACKに対する最大許容百分率と比 較される。処理ステップ164に示されるように、システムが追跡失敗状態にあ る時間の百分率であれば、MISSTRACK値はMAXMT 5STRACK 値より大きく、得られるC0NTEXT変数の値が次に速い状況即ちトラッキン グ・モードにセットされる。次に、主体の最大角速度が処理ステップ166に示 されるように計算される。これは、MAX 5PEED値を、下式(3)などに おいて計算される、MAX 5PEEDの最終値および主体のその時の速度CU RRENT 5PEEDの絶対値の最も大きなもの値にセットすることにより行 われる。The percentage of time system 15 is in a failed tracking state is indicated at decision block 162. Calculated by dividing the MT5STRACKING value by the total time, so that and the maximum allowable percentage and ratio to the mode MAXMI 5STRACK at that time. compared. If the system is in a tracking failure state, as shown in process step 164, If the percentage of time is 5STRACK, then the MISSTRACK value is MAXMT 5STRACK The situation where the value of the resulting C0NTEXT variable is the next fastest, i.e. tracking mode. The maximum angular velocity of the subject is then indicated in process step 166. calculated as follows. This is done by calculating the MAX 5PEED value using the following formula (3) etc. The final value of MAX 5PEED and the subject's current speed CU, calculated at RRENT By setting it to the value with the largest absolute value of 5PEED. be exposed.

CIIRRENT Sr’EED=(MOTORSl’EED+DELTA E RROR) 式(3)主体の速度の絶対値は、MAX 5PEED値が方向に依 存するように使用される。CIIRRENT Sr’EED=(MOTORSl’EED+DELTA E RROR) Formula (3) The absolute value of the speed of the main body is MAX 5 PEED value depends on the direction. used as it exists.

次に、主体の最大角加速度MAX ACCが処理ブロック168により示される 如(計算される。これは、下式(4)などにおいて計算されるMAX ACCの 最終値と主体のその時の加速度の絶対値CURRENT ACCの最も大きなも のにMAX ACC値をセットすることにより行われる。Next, the maximum angular acceleration MAX ACC of the subject is indicated by processing block 168. (Calculated. This is the MAX ACC calculated in the following formula (4) etc. The final value and the absolute value of the subject's acceleration at that time CURRENT The largest value of ACC This is done by setting the MAX ACC value.

CURRENT ACC=DELTA Sl’EED (式4)主体の速度差の 絶対値は、MAX ACCの値が方向に依存するように使用される。CURRENT ACC=DELTA Sl’EED (Formula 4) Main speed difference The absolute value is used so that the value of MAXACC is direction dependent.

最後に、主体の運動の平均値は、処理ステップ170に示されるように計算され る。平均時間は、方向の変化間の平均時間を計算してこの平均値にAVG MO VE変数をセットするのみで計算される。Finally, the average value of the subject's motion is calculated as shown in process step 170. Ru. The average time is calculated by calculating the average time between changes in direction and adding the AVG MO to this average value. It is calculated by simply setting the VE variable.

得られる各状況即ちモードとは、主体の適当な運動範囲と対応する値の範囲が関 連している。判断ブロック172に示されるように、主体の運動を特徴付けるそ の時の値が比較的遅い状況の値に更に密に一致するかどうかの判定が行われる。Each resulting situation, or mode, is defined by the range of appropriate motion of the subject and the corresponding range of values. It's connected. As indicated at decision block 172, A determination is made whether the value at time more closely matches the value for the slower situation.

主体の運動の特性が比較的遅いモード即ち状況と密に一致するならば、処理ステ ップ174に示されるように、CON T E X T値は次の遅い状況にセッ トされる。If the characteristics of the subject's motion closely match the relatively slow mode or situation, the processing step As shown in step 174, the CONTEXT value is set to the next slow situation. will be played.

さもなければ、追跡状況は同じままである。Otherwise, the tracking status remains the same.

(変数の範囲:Variablc Ranges)トラッキング・システムの実 際の物理的構成に従って、他の色々な変数が関連し得る。例えば、GAIN変数 はトラッキング・システムにおけるサーボ・ループの全体的利得の制御のため必 要となる。MOTOR0FFSET値は、アナログ・モータを使用する時、シス テムが要求される最小始動電圧を勘定に入れることを可能にする。モータ制御プ ロセスの間MOTOR0FFSET値をERROR値に加算することにより、こ のようなモータのゼロ交差応答は平衡し得る。(Variable Ranges) Tracking system implementation Various other variables may be relevant, depending on the actual physical configuration. For example, the GAIN variable is required to control the overall gain of the servo loop in a tracking system. The key point. The MOTOR0FFSET value is set by the system when using analog motors. Allows the system to take into account the required minimum starting voltage. motor control This is done by adding the MOTOR0FFSET value to the ERROR value during the process. The zero-crossing response of a motor such as can be balanced.

MOTOR0FFSET変数をゼロにセットすることは、システムにおける他の 変数で補償することが難しい方法で不動帯に加算する効果を生じる。Setting the MOTOR0FFSET variable to zero is a This produces an effect that adds to the immobile band in a way that is difficult to compensate for with variables.

本発明のいずれかの実施態様に開示される全トラッキング・システムが単一のサ ーボ・システムを形成するため、異なる各モードのパラメータ・セットに含まれ る変数に対して実際の値を与えることは困難である。このようなパラメータ値は 、電気機械システム全体の特定の考慮に非常に依存する。しかし、以下に列挙す るのは、遅い動作のトラッキング・モードと速い動作のトラッキング・モード間 の選択変数に対する妥当な範囲を提示する多くの比である。トラッキング・シス テムの全体的利得、即ちERRORに対するMOTOR5PEEDの応答は、4 1の定数範囲にわたる。K DEACCに対するK ACCの比は、1:3の定 数範囲にわたる。K ACCおよびK DEACCの値は、それぞれ3:lの定 数範囲にわたる。REVER3E DELAY時間は、1/6乃至6秒にわたる 。最後に、THETAの値は5・1の定数範囲にわたる。The entire tracking system disclosed in any embodiment of the invention can be integrated into a single system. are included in the parameter set for each different mode to form a turbo system. It is difficult to give actual values for the variables. Such parameter values are , highly dependent on the specific considerations of the entire electromechanical system. However, the following between slow-acting tracking mode and fast-acting tracking mode. There are many ratios that present reasonable ranges for the selected variables. tracking system The overall gain of the system, i.e. the response of MOTOR5PEED to ERROR, is 4 over a constant range of 1. The ratio of K ACC to K DEACC is constant at 1:3. over a range of numbers. The values of K ACC and K DEACC are respectively 3:l constant. over a range of numbers. REVER3E DELAY time ranges from 1/6 to 6 seconds . Finally, the value of THETA spans a constant range of 5·1.

(別の実施態様) 本発明についてはDCモータを使用する例示の超音波トラッキング・システムに 関して記述したが、当業者には、本発明がどんなトラッキング・システムに対し ても等しく適用し得ることが明らかであろう。(Another embodiment) The present invention is described in an exemplary ultrasonic tracking system using a DC motor. However, those skilled in the art will understand how the present invention applies to any tracking system. It will be clear that it is equally applicable.

このようなシステムは、実施例におけるように能動的にも、あるいは主体の追跡 のため送信機を必要としない赤外線トラッキング・システムの如き受動的なトラ ッキング・システt1にもなり得る。他のこのようなトラッキング・システムは 、フレームIIi位の運動比較およびパターン認識技術を用いてカメラ・フレー ム内に維持されるべき画像の各部を識別するシステムを含む。更に他のシステム は、実施例における如(サンプル化され、あるいは連続的であり、また赤外線、 無線周波あるいは音波の伝送を用いて送信機/受信機間で通信することもできる 。他のシステl、は、アナログ・モータ・コントローラの代わりにカメラまたは トラッキング装置を制御する精密ステッピング・モータを使用することもある。Such a system may be active, as in the embodiment, or passive tracking systems such as infrared tracking systems that do not require a transmitter. It can also be a locking system t1. Other such tracking systems are , camera frames using frame IIi motion comparison and pattern recognition techniques. includes a system for identifying portions of the image to be maintained within the system. Still other systems may be sampled or continuous, and infrared, Communication between transmitter/receiver can also be done using radio frequency or sound wave transmission. . Other systems use cameras or motors instead of analog motor controllers. A precision stepper motor may be used to control the tracking device.

」1記の実施例においては、ブロック78.80.82.84.86.88.9 0.92により表わされるアルゴリズム処理が、複数のシステム変数およびプロ グラムされたディジタル・プロセッサにより実現される。当業者には、小型、中 型あるいは大型の論理構成要素ならびにアナログ回路要素を用いる構成により、 機能的に等価のプロセスが達成できることが明らかであろう。このようなハード ウェア構成は、充分に当業者の範す内にあり、本発明の範囲および趣旨の範囲内 にある。” In the embodiment of item 1, blocks 78.80.82.84.86.88.9 The algorithm processing described by 0.92 takes into account multiple system variables and It is realized by a programmed digital processor. For those skilled in the art, small, medium By using conventional or large logic components as well as analog circuitry, It will be clear that a functionally equivalent process can be achieved. hard like this ware configurations are well within the purview of those skilled in the art and within the scope and spirit of the invention. It is in.

本発明については、多軸系統の1つの軸を表わす水平方向の角度誤差信号HER Rと関連して記述した。当業者には、設計者が垂直方向軸の運動に対する人間の 目の異なる感度を勘案するならば、本文に開示した制御機能が垂直方向の誤差信 号VERHに対しても等しく適用し得ることが明らかであろう。当業者には、デ ィジタル・プロセッサ46が図3に示される如き水平および垂直方向の角度誤差 信号の両方に対する制御機能を実施できること、あるいは2個のこのようなディ ジタル・プロセッサが各運動軸に1つずつ使用可能であることが更に明らかであ ろう。For the present invention, the horizontal angular error signal HER representing one axis of a multi-axis system is Described in relation to R. Those skilled in the art will appreciate that the designer understands the human response to vertical axis motion. Taking into account the different sensitivities of the eyes, the control function disclosed in the main text will reduce the vertical error signal. It will be clear that it is equally applicable to No. VERH. For those skilled in the art, Digital processor 46 detects horizontal and vertical angular errors as shown in FIG. be able to perform control functions for both signals, or for two such signals. It is further clear that digital processors can be used, one for each axis of motion. Dew.

更に、多くの動きが各軸における異なる運動を有するため、本トラッキング・シ ステムは、異なるトラッキング・モードを各軸に対して割当てることが可能であ る。反対に、本トラッキング・システムは、水平および垂直方向軸のトラッキン グ・システムを相互に固定し、これらモードのパラメータが特定の2軸運動を生 じるように定義される自動的あるいはユーザが選定するトラッキング・モードを 提供し得る。Furthermore, since many motions have different motions in each axis, our tracking system The stem can be assigned different tracking modes for each axis. Ru. Conversely, the present tracking system supports horizontal and vertical axis tracking. The parameters of these modes produce a specific two-axis motion. automatic or user-selected tracking modes defined to can be provided.

更に、本発明の概念が、1組の基準が与えられられて、トラッキング・システム の特定のパラメータを用いてこの基準を満たすようにシステム性能を最適化する 如何なるトラッキング・システムにも適用することを理解すべきである。実施例 は多くの視覚的基準を列記した。当業者には、適正なシステム・パラメータが与 えられれば、本文には開示しないが主体のスマート・トラッキングと関連する他 の基準が本発明に開示された装置および方法により同様に達成されることが明ら かであろう。前記基準を満たすようにトラッキング・システムの性能を最適化す るためのこのような基準および手段は本発明の範囲内に含まれる。Furthermore, the inventive concept can be applied to a tracking system given a set of criteria. Optimize system performance to meet this criterion using specific parameters of It should be understood that it applies to any tracking system. Example listed a number of visual criteria. Those skilled in the art will appreciate that given the appropriate system parameters. If possible, other information not disclosed in the main text but related to the subject's smart tracking. It is clear that the criteria of are similarly achieved by the apparatus and method disclosed in the present invention. Or maybe. Optimize the tracking system performance to meet the above criteria. Such criteria and means for determining are within the scope of this invention.

従って、限定の意図ではなく例示としてのみ詳細な開示がなされたことが明らか であろう。当業者には、種々の変更、修正および改善が容易に着想され、本発明 の趣旨および範囲から逸脱することな〈実施が可能であろう。本発明は、頭書の 特許請求の範囲およびその相等技術によってのみ限定されるものである。Therefore, it is clear that the detailed disclosure has been made by way of example only and not with the intention of limitation. Will. Various changes, modifications, and improvements will readily occur to those skilled in the art, and the present invention It may be practiced without departing from the spirit and scope of the Act. The present invention It is intended to be limited only by the claims and their equivalents.

し− FIG、 5 FIG、6C 補正書の翻訳文提出書 (特許法第184条の8) 平成 5年 3Jl 5日[司Shi- FIG. 5 FIG, 6C Submission of translation of written amendment (Article 184-8 of the Patent Act) 1993 3Jl 5th [Tsukasa

Claims (22)

【特許請求の範囲】[Claims] 1.運動する主体に向けてその運動を追跡することを装置に許容するシステムに おいて、 a.追跡することができる信号を空成する信号ソースと、b.前記ソースから信 号を受取り、該信号から相対的な方位における変化に伴う連続的なアナログ機能 として変化する制御信号の形態の関連方位データを生成する制御手段と、 c.各々が主体の予期される運動に従って前記制御信号を処理する選択された値 を表わす複数組のデータ値を記憶する手段と、d.前記組のデータ値の1つを選 択する手段と、c.前記選択手段により選択された前記組のデータ値の1つに従 って前記制御信号を処理して処理された制御信号を生じる手段と、f.前記処理 された制御信号に応答して少なくとも1つの軸の周囲に前記装置を運動させて該 装置を主体に向け続ける駆動装置と、を設けてなるシステム。1. A system that allows a device to track the movement of a moving subject Leave it behind. a. a signal source that generates a signal that can be tracked; b. Trusted from the above source Continuous analog function with changes in bearing relative to the signal control means for generating associated orientation data in the form of a control signal that varies as; c. selected values each processing said control signal according to the expected movement of the subject; means for storing a plurality of sets of data values representing; d. Select one of the data values in the set c. according to one of said set of data values selected by said selection means. means for processing said control signal to produce a processed control signal; f. Said processing moving said device about at least one axis in response to a control signal generated by said device; A system equipped with a drive device that keeps the device facing the subject. 2.前記データ値の組の各々が、特定範囲の予期される主体による運動に対して 、前記装置の選択された加速度と該装置の選択された減速度とを表わすデータ値 を含む請求項1記載のシステム。2. each of said data value sets for a specified range of expected movements by the subject; , a data value representing a selected acceleration of said device and a selected deceleration of said device. 2. The system of claim 1, comprising: 3.前記データ値の組の芥々が、前記主体による予期される運動の特定範囲に対 して、前記装置の選択された角速度と、該装置の軸および主体間の最大許容角度 誤差とを表わすデータ値を含む請求項1記載のシステム。3. the set of data values corresponds to a particular range of expected movement by the subject; the selected angular velocity of said device and the maximum permissible angle between the axis and main body of said device; 2. The system of claim 1, further comprising a data value representing an error. 4.前記選択手段が、前記複数の組のデータ値のどれが選択されるべきかを示す ユーザが定義する信号を含む請求項1、2または3に記載のシステム。4. The selection means indicates which of the plurality of sets of data values is to be selected. 4. A system as claimed in claim 1, 2 or 3, including user defined signals. 5.前記選択手段が、前記主体の過去の運動に基いて主体の将来の相対的運動を 予期して前記複数の組のデータ価の1つを自動的に選択する手段を含む請求項1 、2または3に記載のシステム。5. The selection means selects a future relative movement of the subject based on the past movement of the subject. 2. The method of claim 1, further comprising means for automatically selecting one of said plurality of sets of data values in anticipation. , 2 or 3. 6.カメラにより運動する主体のインテリジェントな自動的追跡を行う方法にお いて、 a.カメラが軸の周囲に運動した最後の包囲を検出し、b.カメラが最後に運動 した後に経過した時間間隔を表わす経過時間値を計算し、 c.前記カメラに対する主体のその時の方位を表わす誤差方向を決定し、d.前 記誤差方向と前記最後の方向を比較し、e.前記最後の方向および前記誤差方向 が等しければ、前記カメラを誤差方向に軸周囲に運動させ、 f.前記最後の方向および前記誤差方向が等しくなければ、前記経過時間値を予 め定めた値と比較し、 g.前記経過時間値が少なくとも予め定めた値と等しければ、前記カメラをエラ ー方向に軸周囲に運動させる ステップを含む方法。6. A method for intelligent automatic tracking of moving subjects with cameras There, a. detecting the last encirclement that the camera moved around the axis; b. camera finally moves calculate an elapsed time value that represents the time interval that has elapsed since c. determining an error direction representative of the subject's current orientation with respect to the camera; d. Before comparing the recorded error direction with the last direction; e. the last direction and the error direction If they are equal, move the camera around the axis in the error direction, f. If the last direction and the error direction are not equal, predict the elapsed time value. Compare with the determined value, g. If the elapsed time value is at least equal to a predetermined value, then the camera is – direction around the axis A method that includes steps. 7.h.前記経過時間値が前記予め定めた値より小さければ、前記カメラのその 時の方位角度を維持するステップを更に含む請求項6記載の方法。7. h. If the elapsed time value is less than the predetermined value, the camera 7. The method of claim 6, further comprising the step of maintaining an azimuthal angle. 8.前記予め定めた値が、予め定めた運動の種類に対して主体による方向変化間 の平均時間を表わすように選択される請求項6記載の方法。8. The predetermined value corresponds to the period of direction change by the subject for the predetermined type of movement. 7. The method of claim 6, wherein the method is selected to represent an average time of . 9.カメラにより運動する主体をインテリジェントに自動的な追跡を行う装置に おいて、 a.前記カメラに対する前記主体のその時の方位を表わす誤差方向を決定する手 段と、 b.前記カメラが軸周囲に運動した最後の方向を検出する手段と、c.カメラが 最後に運動した後に経過した時間間隔を表わすを経過時間値を計算する手段と、 d.前記誤差方向および最後の方向が等しくなければ、最後の方向を誤差方向と 比較し、経過時間値を予め定めた値と比較する手段と、e.前記経過時間値が少 なくとも予め定めた値と等しいか、あるいは前記最後の方向が誤差方向と等しけ れば、前記決定装置および前記比較手段に応答して、前記カメラを誤差方向に前 記1つの軸の周囲に運動させる駆動装置と、を設けてなる装置。9. A device that intelligently and automatically tracks a moving subject using a camera. Leave it behind. a. a method for determining an error direction representing the current orientation of the subject with respect to the camera; step by step, b. means for detecting the last direction in which said camera moved about an axis; c. camera is means for calculating an elapsed time value representing an elapsed time interval since the last exercise; d. If the error direction and the last direction are not equal, the last direction is the error direction. means for comparing and comparing the elapsed time value with a predetermined value; e. The elapsed time value is small. at least equal to a predetermined value, or said last direction is equal to the error direction. If so, the camera is moved forward in the error direction in response to the determining device and the comparing means. A drive device for causing movement around one axis. 10.前記決定手段が、前記主体からソース信号を受取り、少なくとも1つの面 に沿った該信号から主体の位置とカメラ間の角度誤差を表わす制御信号を連続的 に生成する制御手段を含む請求項9記載の装置。10. The determining means receives a source signal from the subject and determines at least one aspect of the source signal. From the signal along 10. The apparatus according to claim 9, further comprising control means for generating. 11.運動する主体をカメラのフレーム内でインテリジェントに自動的な追跡を 行う方法において、 a.前記カメラを軸の同朋に運動させて主体をカメラ・フレーム内に置き、b. 前記カメラの軸の周囲の角速度および角加速度に対する予め定めた限度を確立し 、 c.前記主体の中心の周囲に実質的に対称的なカメラ・フレーム内の中心領域を 画成し、 d.前記予め定めた限度を越えない速度で前記カメラを軸の周囲に運動させて主 体を前記領域内に保持し、 e.所与の時間間隔において前記主体が前記中心領域の外にあった合計時間を表 わす第1の百分率を計算し、 f.前記所与の時間間隔内の主体の最大角速度と最大角加速度を計算し、g.前 記主体の予期される運動に従って前記カメラの角加速度と角速度に対する前記予 め定めた限度を再定義する ステップを含む方法。11. Intelligent and automatic tracking of moving subjects within the camera frame In the method of doing a. moving said camera axially to place a subject within a camera frame; b. establishing predetermined limits for angular velocity and angular acceleration about the axis of the camera; , c. a central region within the camera frame that is substantially symmetrical about the center of said subject; define, d. moving the camera around an axis at a speed not exceeding the predetermined limit; holding the body within the area; e. represents the total time that the subject was outside the central region in a given time interval. Calculate the first percentage, f. calculating the maximum angular velocity and acceleration of the subject within said given time interval; g. Before the prediction for the angular acceleration and angular velocity of the camera according to the expected movement of the recording subject; Redefine established limits A method that includes steps. 12.ステップ(g)が、前記第1の百分率を予め定めた最大許容百分率と比較 して、該第1の百分率が確立された予め定めた限度を越える時、カメラの前記角 速度と角加速度に対する増分値をもつ新しい予め定めた限度を選択することを含 む請求項11記載の方法。12. step (g) comparing said first percentage with a predetermined maximum allowable percentage; and when the first percentage exceeds an established predetermined limit, the angle of the camera is including selecting new predetermined limits with incremental values for velocity and angular acceleration. 12. The method according to claim 11. 13.ステップ(g)が、前記主体の前記最大許容角速度と最大角加速度が前記 カメラの角速度と角加速度に対して予め定めた限度より小さい時、該カメラの角 速度と角加速度に対する減分値をもつ新しい予め定めた限度を選択することを含 む請求項11記載の方法。13. step (g), wherein the maximum allowable angular velocity and maximum angular acceleration of the subject are the When the angular velocity and angular acceleration of the camera are smaller than the predetermined limits, the angle of the camera including selecting new predetermined limits with decrement values for velocity and angular acceleration. 12. The method according to claim 11. 14.鑑賞者にとって視覚的に快い方法でカメラのフレーム内に運動する主体を 保持することをカメラに許容する装置において、a.軸周囲における前記カメラ の角速度と角加速度に対する複数の予め定めた限度を記憶する手段と、 b.前記記憶手段に応答して、前記領域内に主体を保持するため予め定めた限度 を越えない速度で前記カメラを軸の周囲に運動させる駆動装置と、c.前記カメ ラ・フレーム内に前記主体の中心周囲に実質的に対称的な中心領域を画成する手 段と、 d.所与の時間間隔において前記主体が前記中心領域の外にあった合計時間を表 わす第1の百分率を計算する第1の手段と、e.前記所与の時間間隔内の主体の 最大加速度と最大角加速度を計算する第2の手段と、 f.前記第1および第2の手段に応答して、前記主体の符来の運動を予期して前 記カメラの角加速度と角速度に対して前記記憶手段からの新しい予め定めた限度 を選択する手段と、 を設けてなる装置。14. Place a moving subject within the camera frame in a way that is visually pleasing to the viewer. In an apparatus for permitting a camera to hold: a. the camera around the axis means for storing a plurality of predetermined limits for the angular velocity and angular acceleration of; b. responsive to said storage means, a predetermined limit for retaining the subject within said area; a drive for moving said camera about an axis at a speed not exceeding c. the turtle a hand defining a central region substantially symmetrical about the center of said subject within a frame; step by step, d. represents the total time that the subject was outside the central region in a given time interval. a first means for calculating a first percentage; e. of the subject within the given time interval. a second means for calculating maximum acceleration and maximum angular acceleration; f. In response to the first and second means, the subject moves forward in anticipation of the subsequent movement of the subject. new predetermined limits from said storage means for the angular acceleration and angular velocity of said camera; a means of selecting A device equipped with 15.前記選択手段が、前記第1の百分率を前記記憶手段に記憶された予め定め た量大許容百分率と比較し、前記第1の百分率が予め定めた最大許容百分率を越 える時、カメラの角速度と角加速度に対する新しい予め定めた限度を選択する手 段を含む請求項14記載の装置。15. The selection means selects the first percentage from a predetermined percentage stored in the storage means. The first percentage exceeds a predetermined maximum allowable percentage. How to select new predetermined limits for camera angular velocity and angular acceleration when 15. The apparatus of claim 14, comprising a stage. 16.前記選択手段が、前記主体の最大角速度と最大角加速度を前記カメラの角 速度と角加速度に対するその時の予め定めた限度と比較し、主体の最大角速度と 最大角加速度がその侍の予め定めた限度より実質的に小さいかあるいはこれより 実質的に大きい時、カメラの角加速度と角速度に対する新しい予め定めた限度を 選択する手段を含む請求項14記載の装置。16. The selection means selects the maximum angular velocity and maximum angular acceleration of the subject from the angle of the camera. The maximum angular velocity of the subject compared with the then predetermined limits for velocity and angular acceleration. The maximum angular acceleration is substantially less than or greater than the predetermined limit for that samurai. New predetermined limits for the camera's angular acceleration and angular velocity when substantially large. 15. The apparatus of claim 14, including means for selecting. 17.カメラのフレーム内で運動する主体をインテリジェントに自動的な追跡を 行う方法において、 a.第1の時間において1つの軸に沿って前記主体の中心の周囲に実質的に対称 的である1対の角度座標によりカメラ・フレーム内に中心領域を画成し、b.第 2の時間において前記1つの軸に沿って主体とカメラ間の角度誤差を決定し、 c.前記角度誤差が中心領域内にあるかどうかを決定し、d.前記角度誤差が中 心領域内になければ、前記カメラが前記第2の時間における角度誤差を減じるよ うに運動しなければならない方向を表わす誤差方向を決定し、 e.前記誤差方向における前記1つの軸の周囲に前記カメラを運動させ、f.前 記中心領域が誤差方向と反対の方向に偏移されるように、中心領域の角度座標を 再定義する ステップを含む方法。17. Intelligent and automatic tracking of moving subjects within the camera frame In the method of doing a. substantially symmetrical about the center of said subject along one axis at a first time; defining a central region within the camera frame by a pair of angular coordinates that are the target; b. No. determining the angular error between the subject and the camera along the one axis at a time of 2; c. determining whether the angular error is within a central region; d. The angle error is medium If not within the heart region, the camera reduces the angular error at the second time. determine the error direction representing the direction in which it must move; e. moving the camera about the one axis in the error direction; f. Before The angular coordinates of the central region are shifted in the direction opposite to the error direction. redefine A method that includes steps. 18.ステップ(f)が、 f.1 前記角度誤差値から中心領域の角度座標の1つの値を差引いて差の値を 形成し、 f.2 前記角度座標の各々から前記差の値を差引いて新しい角度座標を形成す るステップを含む請求項17記載の方法。18. Step (f) is f. 1 Subtract one value of the angular coordinate of the central region from the angular error value and calculate the difference value. form, f. 2 Subtract the difference value from each of the angular coordinates to form new angular coordinates. 18. The method of claim 17, including the step of: 19.g.前記角度誤差が前記中心領域内にあるならば、前記カメラをその時の 方位に維持するステップを更に含む請求項17記載の方法。19. g. If the angular error is within the center area, then the camera is 18. The method of claim 17, further comprising the step of maintaining the orientation. 20.連動する主体をカメラのフレーム内でインテリジェントに自動的な追跡を 行う装置において、 a.第1の時間において1つの軸に沿って前記主体の中心の周囲に実質的に対称 的な1対の角度記号により前記カメラ・フレーム内の中心領域を画成する手段と 、 b.第2の時間において前記1つの軸に沿って前記主体とカメラ間に角度誤差を 定義する手段と、 c.前記角度誤差が中心領域内にあるかどうかを決定する手段と、d.前記角度 誤差が中心領域内になければ、前記カメラが前記第2の時間における角度誤差を 減じるように運動しなければならない方向を表わす誤差方向を決定する手段と、 e.前記誤差方向における前記1つの軸の周囲に前記カメラを運動させる手段と 、 f.前記中心領域が誤差方向と反対の方向に偏移されるように、中心領域の角度 座標を再定義する手段と、 を設けてなる装置。20. Intelligent and automatic tracking of moving subjects within the camera frame In the device that performs a. substantially symmetrical about the center of said subject along one axis at a first time; means for defining a central region within the camera frame by a pair of angular symbols; , b. creating an angular error between the subject and the camera along the one axis at a second time; a means of defining; c. means for determining whether said angular error is within a central region; d. the angle If the error is not within the center region, the camera detects the angular error at the second time. means for determining an error direction representing the direction in which the movement should be made in a decreasing manner; e. means for moving the camera about the one axis in the error direction; , f. the angle of the central region such that the central region is shifted in a direction opposite to the error direction; a means of redefining the coordinates; A device equipped with 21.前記再定義手段が、 前記角度誤差の値から前記中心領域を画成する角度座標の1つの値を差引いて差 の値を形成する手段と、 前記角度座標の各々から差の値を差引いて新しい角度座標を形成する手段とを含 む請求項20記載の装置。21. The redefining means The difference is obtained by subtracting one value of angular coordinates defining the central region from the value of the angular error. means for forming the value of; means for subtracting a difference value from each of said angular coordinates to form a new angular coordinate. 21. The apparatus according to claim 20. 22.鑑賞者にとって視覚的に快い方法でカメラ・フレーム内に運動する主体を 保持することをカメラに許容する装置において、a.追跡することができる信号 を生成する主体と、b.前記主体から信号を受取り、該信号から制御信号の形態 の相対的方位データを連続的に生成する制御手段とを設け、該制御信号は、少な くとも1つの面に沿った前記主体とカメラの位置間の角度誤差を表わし、c.前 記主体の過去の運動に基いて主体の将来の相対的運動を予期する手段と、d.前 記制御信号に応答して、前記手段により予期される運動が与えられると、該制御 信号により表わされる角度誤差が受入れ得る範囲内にあるかどうかを判定し、前 記角度誤差が受入れ得る範囲内になければ、前記制御信号を処理する手段と、 e.前記処理された制御信号に応答して、前記カメラを軸に沿って選択的に運動 させて前記主体をカメラ・フレーム内に保持する駆動装置と、を設けてなる装置 。22. Introduce a moving subject within the camera frame in a way that is visually pleasing to the viewer. In an apparatus for permitting a camera to hold: a. signals that can be tracked a subject that generates; b. receiving a signal from the subject, and generating a control signal from the signal; control means for continuously generating relative azimuth data of the representing the angular error between the positions of said subject and camera along at least one plane; c. Before means for anticipating future relative motion of the subject based on past motion of the subject; d. Before When the expected movement is imparted by said means in response to said control signal, said control Determine whether the angular error represented by the signal is within an acceptable range and proceed. means for processing the control signal if the angle error is not within an acceptable range; e. selectively moving the camera along an axis in response to the processed control signal; and a drive device for holding the subject within a camera frame. .
JP3517834A 1990-09-05 1991-09-04 smart tracking system Pending JPH06509449A (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US57777990A 1990-09-05 1990-09-05
US07/577,779 1990-09-05
PCT/US1991/006316 WO1992004641A1 (en) 1990-09-05 1991-09-04 Smart tracking system

Publications (1)

Publication Number Publication Date
JPH06509449A true JPH06509449A (en) 1994-10-20

Family

ID=24310120

Family Applications (1)

Application Number Title Priority Date Filing Date
JP3517834A Pending JPH06509449A (en) 1990-09-05 1991-09-04 smart tracking system

Country Status (4)

Country Link
EP (1) EP0549716A1 (en)
JP (1) JPH06509449A (en)
AU (1) AU8853391A (en)
WO (1) WO1992004641A1 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3379067B2 (en) * 1994-05-30 2003-02-17 誠 日向 Imaging method and apparatus
JP2004129049A (en) 2002-10-04 2004-04-22 Matsushita Electric Ind Co Ltd Camera device, camera system, and control method of the camera system
DE102005057569A1 (en) * 2005-12-02 2007-06-06 Robert Bosch Gmbh Device for monitoring with at least one video camera
CN109095354A (en) * 2018-09-12 2018-12-28 北京起重运输机械设计研究院有限公司 Automatic rotary seat and its method of controlling rotation

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6056031B2 (en) * 1979-10-08 1985-12-07 松下電器産業株式会社 Color solid-state imaging device
JPS6138918A (en) * 1984-07-30 1986-02-25 Canon Inc Camera
JPS62243480A (en) * 1986-04-16 1987-10-23 Hitachi Ltd Automatic zooming tracking camera and range
JPS63195778A (en) * 1987-02-09 1988-08-12 Nippon Telegr & Teleph Corp <Ntt> Method for estimating 3-dimensional motion of picture

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4189747A (en) * 1967-09-15 1980-02-19 Hughes Aircraft Company Infrared tracking system
US3840699A (en) * 1972-05-25 1974-10-08 W Bowerman Television system for enhancing and tracking an object
US4409661A (en) * 1979-08-22 1983-10-11 The United States Of America As Represented By The Secretary Of The Air Force Aimpoint selection processor

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6056031B2 (en) * 1979-10-08 1985-12-07 松下電器産業株式会社 Color solid-state imaging device
JPS6138918A (en) * 1984-07-30 1986-02-25 Canon Inc Camera
JPS62243480A (en) * 1986-04-16 1987-10-23 Hitachi Ltd Automatic zooming tracking camera and range
JPS63195778A (en) * 1987-02-09 1988-08-12 Nippon Telegr & Teleph Corp <Ntt> Method for estimating 3-dimensional motion of picture

Also Published As

Publication number Publication date
AU8853391A (en) 1992-03-30
EP0549716A1 (en) 1993-07-07
WO1992004641A1 (en) 1992-03-19

Similar Documents

Publication Publication Date Title
US5384594A (en) Smart tracking system
EP2795891B1 (en) A portable system for high quality automated video recording
US10482342B2 (en) Search apparatus, imaging apparatus including the same, and search method
US5570177A (en) Camera lens control system and method
US5949481A (en) Image sensing and processing device
JP4561914B2 (en) Operation input device, operation input method, program
US20090073304A1 (en) Imaging apparatus, imaging apparatus control method, and computer program
EP0579404B1 (en) Lens control apparatus
US11265477B2 (en) Image capturing apparatus and non-transitory recording medium
US11812132B2 (en) Imaging device, control method therefor, and recording medium
US11503213B2 (en) Image capturing apparatus, control method, and recording medium
CN109936697A (en) A kind of video capture method for tracking target and device
US7415200B2 (en) Imaging device
JPH06509449A (en) smart tracking system
JP2016208252A (en) Control apparatus, optical instrument, imaging apparatus, and control method
JP2003528548A (en) Hand-free home video production camcorder
JP3615867B2 (en) Automatic camera system
US12052505B2 (en) Image capturing apparatus, method of controlling same, storage medium
US20230179864A1 (en) Driving control apparatus, image pickup apparatus, and control method
JP6845121B2 (en) Robots and robot control methods
JPH09322052A (en) Automatic photographing camera system
JP4136712B2 (en) Imaging control device and imaging system
JPH06121199A (en) Automatic diopter adjusting device of electronic viewfinder
JPH11215422A (en) Tracking device for object to be photographed
JP2015088887A (en) Sound recording apparatus