JPH08504543A - Camera control method and apparatus - Google Patents

Camera control method and apparatus

Info

Publication number
JPH08504543A
JPH08504543A JP6508703A JP50870394A JPH08504543A JP H08504543 A JPH08504543 A JP H08504543A JP 6508703 A JP6508703 A JP 6508703A JP 50870394 A JP50870394 A JP 50870394A JP H08504543 A JPH08504543 A JP H08504543A
Authority
JP
Japan
Prior art keywords
camera
pointer
computer
image
screen
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP6508703A
Other languages
Japanese (ja)
Inventor
サンダー、ピイター
シュタインメッツ、ラルフ
Original Assignee
インターナシヨナル・ビジネス・マシーンズ・コーポレーシヨン
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by インターナシヨナル・ビジネス・マシーンズ・コーポレーシヨン filed Critical インターナシヨナル・ビジネス・マシーンズ・コーポレーシヨン
Publication of JPH08504543A publication Critical patent/JPH08504543A/en
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B15/00Identifying, scaring or incapacitating burglars, thieves or intruders, e.g. by explosives
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/66Remote control of cameras or camera parts, e.g. by remote control devices
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/183Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a single remote source

Abstract

(57)【要約】 コンピュータまたはコンピュータ・ネットワークを通してカメラを簡単に制御できる方法を記述する。カメラの動作は、角運動、並進運動、またはその組合せが可能である。特に、カメラの動作が、オブジェクト指向または同様の方法で起動でき、データ回線、特に世界規模のコンピュータ・ネットワーク内のデータ回線が、短期間しかロードされず、面倒なパンの微調整をしなくて済む点が改良されている。 (57) [Summary] Describe how to easily control a camera through a computer or computer network. The movement of the camera can be angular movement, translational movement, or a combination thereof. In particular, camera movements can be activated in an object-oriented or similar way, data lines, especially data lines in world-wide computer networks, are only loaded for a short period of time without the hassle of fine-tuning the pan. The points to be completed have been improved.

Description

【発明の詳細な説明】 カメラの制御方法及び装置 本発明は、請求の範囲第1項の独立部分に記載されている如き、ビデオカメラ 等のビデオを制御するための方法及び装置に関するものである。 指定のプロセスのイメージを連続的にモニタに送るのに適したカメラ、特にビ デオカメラを制御する装置は、当然のことながらそれ自体が様々な実施例で開示 されている。特に監視用の場合、カメラは指定の順序付け方式に従ってパンされ る。特定の用途、例えば工場のホールでの工程の監視には、適切なカメラ・アン グルを確保するために、カメラ方向に対する観察者の動作、例えばパン機能を中 断させる動作が必要となる。 様々な実施例で、ユーザが操作するカメラ制御機構も開示されている。具体的 には、上、下、右、左、さらにそれらを組み合わせた方向(例えば左と上方向を 同時)にパンするためのボタンを有する実施態様が存在する。その場合、カメラ は、そのボタンを解放するまで、あるいは適切なボタンを1回作動させるだけで よい別の実施例では、適切なボタンまたは停止ボタンを作動させるまで、規定の 方向にパンする。このボタンの機能はジョイスティックで代用されることがあり 、ジョイスティックを使う場合は、所望の方向(ジョイスティ ックの動作方向で示される)が、またある程度はジョイスティックの動作の力に 基づいて所望のパン速度も、選択される。パン方向は、パン動作を連続的に実行 する(例えば、右上にしてから、時計の短針で1時30分の方向または磁石で北 西の方向に対応する上の1方向にする)か、あるいはジョイスティックの対応す る位置によって選択される。 監視機能及び操作機能がコンピュータに連結されている実施例も開示されてい る。この場合、カメラのイメージは予めディジタル化されてから、コンピュータ に供給される。ディジタル化はカメラ本体の中で行うことが好ましい。この場合 、コンピュータのモニタ画面またはその一部分がカメラ用のモニタとなる。この 実施例では、前述のボタンは、コンピュータのソフトウェアまたはオペレータに よって指定されるキーでよい。 コンピュータを使用するさらに別の開示された実施例では、モニタ上に表示さ れ、いわゆるマウスやタッチ・スクリーン等の位置決め装置によって活動化され るスクロール・バーを使用して、カメラをパンする。この制御方法でも、コマン ドは所定の方向にしか出せず、通常は磁石の4点に限られ、せいぜい1つの中間 方向(例えば磁石の北西方向に対応)が追加されるだけである。 以上の方法にはすべて、制御プロセス全体(いわゆるオンライン操作)を通じ てユーザ・コマンドの入力ステーションとカメラ制御機構との間のデータ・リン クを維持するか、あ るいは目標を越えてパンしないよう、カメラ動作を停止するコマンドを遅延なし に確実に送らなければならないという欠点がある。 さらに、開示された各方法には、制御コマンドの入力が複雑で、しばしば数回 試みなければうまく入力できないこともあるという欠点がある。 本発明の目的は、より簡単にカメラをパンできるカメラの制御方法及び装置を 提供することである。 この目的は、請求の範囲第1項に記載された方法、及び請求の範囲第5項で提 案された装置によって達成される。請求の範囲第1項に記載された方法の結果、 まず、信号手段によって発生する信号によって新たな目標位置が入力された(目 標選択)後、カメラをパンするためのすべてのデータが、カメラからかなり離れ ていることもあるコンピュータ内で利用できるようになり、抽象的な意味で、カ メラに関連するアクチュエータ・システムに渡すことができる。この送出は決し て、時間が重要ではない。つまり、送出の遅延が新しいカメラ位置に影響を及ぼ す可能性はない。 請求の範囲第2項に記載された方法では、動作方向の選択をボインタで制御す る。他方、旧来の方法で開示されているように、ユーザが望む時にカメラ動作を 終了できるように、停止信号を発生しなければならない。これは、少なくとも停 止信号の送出を瞬間的なものにするよう要求することで実現される。従って、こ の変形例は、少なくともカメラをパンす る方向に関して、新しいカメラ位置を簡単に選択できる局所的な用途には特に有 利である。 請求の範囲第3項では、この方法を、速度を簡単に選択できる有用な実施例の 特徴と組み合わせる。 本発明の方法のこの実施例は、スクリーンの中心が基準点を示すので、有利で ある。 請求の範囲第5項は、当然のことながらそれ自体、本発明の基本的概念を実施 するのに適している。本発明によると、カメラをパンすべき方向及び距離を決定 する手段は、コマンドを1個出すことによって、所望のカメラ制御機能を活動化 することができる。 次に本発明の利点について、サンプル応用例を用いて説明する。航空機の操縦 では、2回の飛行の間に、特に異常な状況では、地面の調査が必要である。調査 方法は、パン可能なビデオカメラを使用して、カメラを飛行機の位置に取り付け 、評価は航空会社の本社等の中央管理オフィスで行うのが、特に有利である。こ の2つの場所は、互いにどんな距離だけ離れていてもよい。航空機の特定の細部 、例えば着陸装置が調査の焦点になることが多い。従って、本社のオペレータは 、どの対象物をどのような順序で調査したいか分かつている。 大きな距離にわたる場合、ユーザの位置にあるコンピユータに加えてカメラと 連結したコンピュータを使用すると有利であり(請求の範囲第6項)、コンピュ ータ間の連結は、コンピュータ・ネットワーク、おそらくは公衆ネットワークを 使って行うと好都合である(請求の範囲第7項)。 本発明の概念は、1つの角度(例えば1方位のみ)でしかパンしない場合でも 実施できる。しかし、最も有利な実施例は、互いに直角で、高度及び方向を表す (請求の範囲第9項)2つの角度でのパンである(請求の範囲第8項)。 カメラ動作手段の可能な様々な実施例のうち、特に有用なのは、技術的に費用 がほとんどかからない、商用のディジタル制御式ステッパー電動機である(請求 の範囲第10項)。しかし、自律安定機構が必要な場合は、ステッパー電動機の 代わりに、好ましくはコンピュータでディジタル制御される独立したアクチュエ ータ・システム、たとえばジャイロによって安定化されるプラットフオームを使 用することができる。 他の応用例では、このカメラ制御機構は2次元並進運動にも有利に使用できる (請求の範囲第11項及び第12項)。 特に有利なのは、パンばかりでなく並進運動も実施するカメラ制御機構の実施 例である。この場合、モニタにコマンドを入力し、最終的にカメラのパンを実施 するためにアクチュエータに送る制御関連パラメータを決定する手段を、2回実 施しなければならない。 前述し、請求の範囲に記載し、あるいは下記の実施例で記述する本発明に関係 するコンポーネント、装置、及び手段には、その実施、設計、選択、技術的アー キテクチャ、または方法に関して特別な例外はないので、それぞれの応用分野で 既知の選択基準が制約なしに適用できる。 具体的には、実施態様は、自由にプログラム可能なコンピュータ内のプログラ ムまたはソフトウェア・パッケージに限られない。そうではなくて、電気回路と 、専用コンピユータと、自由にプログラム可能なディジタル・データ処理システ ム内のプログラムのどれを使用するかは、個々の応用例次第である。 本発明のその他の詳細、特徴、及び利点は、下記の関連図面の説明から理解で きよう。図面には、本発明及び本発明の方法に従った装置が例として示されてい る。 図は下記の通りである。 [図面の簡単な説明] 第1図は、2台のコンピュータがコンピュータ・ネットワークによって連結さ れている装置のブロック図である。 第2図は、本発明による1台のコンピュータを備える装置のブロック図である 。 第3図は、本発明の方法の順序付け方式を示す。 第4図は、本発明による並進制御用装置の概略ブロック図を示す。 第5図は、本発明によるスクリーン上に2個のポインタを表示した装置を示す 。 第1図に全体を100で表した装置では、表示すべき対象物のイメージが、カ メラ10で捕捉され、カメラ10のデータ出力部6に現れる。この実施例では、 このデータは第2コ ンピュータ50の入力インタフェース52に渡される。カメラ10の出力信号は RGB(赤、緑、青)ビデオ信号である。この第2コンピュータ50は、データ をコンピュータ・ネットワーク60に渡し、ネットワーク60はデータを、モニ タ22上に表示するためにコンピュータ20に転送する。この実施例では、上記 のプロセスが30Hzのフレーム・リフレッシュ速度で実施されるので、コンピ ュータ20のモニタ22に連続したイメージ・シーケンスが表示される。 さらに、コンピュータ20のモニタ22は、矢印の形でポインタ(カーソル) 24を表示し、これはスクリーンの内容に関係なく、スクリーンのどこにでも配 置できる。実施例の位置決め装置26は、いわゆるコンピュータ・マウスである 。ボインタ24は、マウスを移動することによって動かすことができる。この実 施例では、マウスの左ボタン(信号手段28)を300ミリ秒以内にダブルクリ ックすると(信号手段28)、ポインタ24の現在位置を使ってカメラ10の新 しいイメージの中心82が定義され、この目標に到達するまでカメラ10がパン される。 この実施例では、イメージの中心80が本方法の標準の基準点であるが、これ はスクリーン上の所望の他のどの点にも指定できる。 コンピュータ20内では、カメラ10のパン角度を決定するコンピュータ・プ ログラムによって角度決定手段74が実施される。計算には、この実施例で可能 で、既知の方法で実 現できる、カメラ10のキーで活動化されるズーム設定、及びやはリキーで活動 化される(イメージの拡大と縮小)イメージ・セグメント倍率(疑似ズーム)を 使用する。従って、この実施例では角度の計算は下式を用いて行う。 上式で、Aはカメラ10の口径の1/2、Zはカメラ10の現在のズーム倍率 、Pはモニタ22の現在のイメージ・セグメント倍率である。 同様に、この2つの角度がコンピュータ・ネットワーク60を介して第2コン ピュータ50に渡され、それから、それぞれの角度に比例したパルス数がアクチ ュエータ・システム30のステッパー電動機34及び36に与えられ、カメラ1 0をパンする。 1台のコンピュータ20しかなく、それがカメラ10にモニタ22及び位置決 め装置26に接続された別の実施例が、第2図に全体が200で表されている。 本発明の装置の一代替実施例では、カメラ10の制御装置には、前述のような 計算された角度ではなく時間間隔が送られ、その間にカメラ10は規定の速度で 選択された方向に動く。この時間間隔は、一定速度のとき、パン角度に比例する 。しかしこの代替実施例では、カメラがパンされる角度が一連 の時間間隔に分割され、この時間間隔の間に、カメラ10は低速から始めてカメ ラのパン装置に許される最高速度まで1段階ごとに増加する速度で移動した後、 移動動作を終了するために、再び1段階ごとに速度を落として最低速度レベルで 停止する。カメラをパンする角度は、このように一連の時間間隔に分割されるの で、パン方向にカメラの滑らかな加速が可能になる。データ決定手段74で表さ れる装置には、加速及び制動プロセスの非直線性を補正するための補正データが 含まれる。この補正データは、実験に基づいて決定されている。 第4図で全体が300として示されているさらに別の実施例では、カメラ10 はパンされず、レール84上を並進移動する。レール84自体は、レール84が 、従ってカメラ10が最初に記述した移動方向に対して直角に移動できるよう、 レール対86に取り付けられる。この実施例は、観察面(基準面)からカメラ1 0までの距離が分かっている応用例に特に適している。カメラ10を移動する先 の位置は、位置決め装置26及び信号手段28によってポインタ24の位置を決 めてから固定することによって決定され、上記で検討したようにして計算した角 度の正接に、カメラから基準面までの距離をかけたものに対応する。 上述の両方の実施例の可能性を兼備するさらに別の実施例は、並進移動手段9 0を含み、これはレール84および86とパン装置の組み合せによって表される 。コンピュータ20 のモニタ22上には、ポインタ24とカメラ10のイメージの他に、記号的にボ インタ24とは異なる第2ポインタ92も表示される(第5図)。この実施例で は、第2ポインタ92はボインタ24と同様にコンピュータ・マウスを使用して 動かされるが、第2ポインタを動かすにはコンピュータ・マウスの右ボタンを押 したままにする。この右ボタンによって、ポインタ24の位置決め手段26と第 2ポインタ92の位置決め手段94が実施されている。第2制御信号を出力する 手段96は、300ミリ秒までの間隔でコンピユータ・マウスの右ボタンをダブ ルクリックすることによって実施される。従って、並進運動はパン用の手段と同 様の手段で起動される。この実施例で記述される本発明の装置は、工場のホール を上方から監視するのに特に適している。この場合、ホールの天井が2並進方向 を示しかつそれを含み、カメラは、所望の観察点の位置を並進的に決定してから 対象物にパンすることによって、ホール内の対象物を観察できる。基準面は、ホ ールの機械類操作面、または床自体である。基準面は、コンピュータ20を使用 したキーボード入力(例えば数の入力)によって選択できる。この実施例ではさ らに別の実施態様が可能であり、保守管理者が航空機の状態を監視する前述の応 用例で有用である。この場合、保守管理者は、遠隔地から個々の対象物(例えば 着陸装置)を観察しなければならない。しかしこの実施例では、これが様々な角 度から見えなければならない。そのために、カメラ10をその上で移動できる垂 直観 察壁が航空機の前方に位置するように、カメラ10の2つの並進運動方向を選択 する。基準面として、航空機の中央を通り観察壁に平行な断面を選択する。観察 される対象物が基準面上に正確に載っていないために生じるカメラ10の制御誤 差は、この実施例では重要ではない。パン中に、この同じ観察対象物(例えば着 陸装置)をカメラ10のイメージの中心に位置決めできるからである。従って、 選択された観察方向で選択された対象物を、保守管理者が利用できるアーカイブ に保存された基準イメージと比較でき、なんらかの損傷があって修理作業が必要 なら、それを高い精度で決定できるので、この手法は前述の実施例で特に有益で ある。 本発明の方法の基本原理を、シーケンス図として第3図に示す。The present invention relates to a method and device for controlling video, such as a video camera, as described in the independent part of the first claim. . A device suitable for controlling a camera, in particular a video camera, suitable for continuously sending images of a specified process to a monitor has, of course, been disclosed in various embodiments. Especially for surveillance, the cameras are panned according to a specified ordering scheme. Certain applications, such as monitoring a process in a factory hall, require observer action relative to the camera direction, such as disrupting the pan function, to ensure proper camera angle. A user operated camera control mechanism is also disclosed in various embodiments. Specifically, there is an embodiment having buttons for panning up, down, right, left, and a combination thereof (eg, left and up simultaneously). In that case, the camera pans in the defined direction until the button is released, or in another embodiment, activating the appropriate button only once, until the appropriate button or stop button is activated. The function of this button may be replaced by a joystick, which, when used, also determines the desired direction (indicated by the direction of joystick movement) and, to some extent, the desired pan speed based on the force of the joystick movement. , Selected. The pan direction can either be a continuous pan operation (eg, top right, then the hour hand at 1:30 or the magnet to the top one corresponding to the northwest direction) or the joystick. Selected by the corresponding position of. Embodiments in which the monitoring and operating functions are coupled to the computer are also disclosed. In this case, the camera image is digitized in advance and then supplied to the computer. Digitization is preferably performed in the camera body. In this case, the monitor screen of the computer or a part thereof becomes the monitor for the camera. In this example, the aforementioned buttons may be computer software or keys specified by the operator. In yet another disclosed embodiment using a computer, a scroll bar displayed on a monitor and activated by a positioning device such as a so-called mouse or touch screen is used to pan the camera. Even with this control method, the command can be issued only in a predetermined direction, and is normally limited to four points of the magnet, and at most one intermediate direction (for example, corresponding to the northwest direction of the magnet) is added. All of the above methods maintain the data link between the user command input station and the camera control mechanism throughout the entire control process (so-called on-line operation), or allow the camera operation to not pan beyond the target. The drawback is that the command to stop must be sent reliably without delay. In addition, each of the disclosed methods has the disadvantage that the control commands are complicated to input and often cannot be successfully input without a few attempts. It is an object of the present invention to provide a camera control method and apparatus that allows the camera to be panned more easily. This object is achieved by the method as claimed in claim 1 and by the device as proposed in claim 5. As a result of the method according to claim 1, first, after a new target position is input (target selection) by a signal generated by the signal means, all data for panning the camera is transferred from the camera. It is now available in computers, which can be quite distant, and in an abstract sense can be passed to the actuator system associated with the camera. This delivery is never time critical. That is, the delivery delay may not affect the new camera position. In the method described in claim 2, the selection of the motion direction is controlled by the voider. On the other hand, as disclosed in the traditional method, a stop signal must be generated so that the user can terminate the camera operation at any time. This is achieved by at least requesting the delivery of the stop signal to be instantaneous. Therefore, this variant is particularly advantageous for local applications where a new camera position can be easily selected, at least in the direction of panning the camera. Claim 3 combines this method with the features of a useful embodiment in which the speed can be easily selected. This embodiment of the method of the invention is advantageous because the center of the screen shows the reference point. Claim 5 is, of course, per se suitable for implementing the basic idea of the invention. According to the invention, the means for determining the direction and distance in which the camera should be panned can activate the desired camera control function by issuing one command. Next, the advantages of the present invention will be described using a sample application example. Aircraft maneuvering requires investigation of the ground between two flights, especially in unusual circumstances. It is particularly advantageous that the survey method uses a pannable video camera and mounts the camera at the location of the airplane and the evaluation is done at a central control office, such as the headquarters of the airline. The two locations may be separated by any distance. Specific details of the aircraft, such as the landing gear, are often the focus of investigation. Therefore, the operator at the head office knows which objects to investigate in what order. For large distances, it is advantageous to use a computer in addition to the computer at the user's location, coupled with a camera (Claim 6), and the coupling between the computers may be through a computer network, perhaps a public network. It is convenient to do so (claim 7). The inventive concept can be implemented even when panning at only one angle (eg, only one orientation). However, the most advantageous embodiment is panning at two angles (claim 9), which are at right angles to each other and represent altitude and direction (claim 9). Of the various possible embodiments of the camera actuation means, of particular utility are the commercially inexpensive digitally controlled stepper motors (claim 10). However, if an autonomous stabilizing mechanism is required, the stepper motor can be replaced by an independent actuator system, preferably digitally controlled by a computer, such as a gyro-stabilized platform. In other applications, this camera control mechanism can also be used to advantage in two-dimensional translation (claims 11 and 12). Particularly advantageous is an embodiment of the camera control mechanism that performs translation as well as pan. In this case, the means of entering a command into the monitor and finally determining the control-related parameters to send to the actuator to effect the camera pan must be implemented twice. There are no special exceptions to the components, apparatus and means related to the invention as described above, in the claims or in the examples below, with regard to their implementation, design, choice, technical architecture or method. As such, the selection criteria known in the respective application fields can be applied without restriction. In particular, implementations are not limited to freely programmable programs or software packages within a computer. Instead, it depends on the particular application whether to use the electrical circuit, the dedicated computer, or the program in the freely programmable digital data processing system. Other details, features and advantages of the present invention will be understood from the following description of the associated drawings. The drawing shows by way of example a device according to the invention and a method according to the invention. The figure is as follows. BRIEF DESCRIPTION OF THE DRAWINGS FIG. 1 is a block diagram of an apparatus in which two computers are connected by a computer network. FIG. 2 is a block diagram of an apparatus having one computer according to the present invention. FIG. 3 shows the ordering scheme of the method of the present invention. FIG. 4 shows a schematic block diagram of a device for translational control according to the invention. FIG. 5 shows a device according to the invention displaying two pointers on a screen. In the apparatus indicated by 100 in FIG. 1, an image of an object to be displayed is captured by the camera 10 and appears on the data output unit 6 of the camera 10. In this embodiment, this data is passed to the input interface 52 of the second computer 50. The output signal of the camera 10 is an RGB (red, green, blue) video signal. This second computer 50 passes the data to computer network 60, which transfers the data to computer 20 for display on monitor 22. In this embodiment, the above process is performed at a frame refresh rate of 30 Hz so that a continuous image sequence is displayed on the monitor 22 of the computer 20. In addition, the monitor 22 of the computer 20 displays a pointer (cursor) 24 in the form of an arrow, which can be placed anywhere on the screen, regardless of the screen contents. The positioning device 26 of the embodiment is a so-called computer mouse. The pointer 24 can be moved by moving the mouse. In this embodiment, when the left mouse button (signal means 28) is double-clicked within 300 milliseconds (signal means 28), the current position of the pointer 24 is used to define the new image center 82 of the camera 10. The camera 10 is panned until the target is reached. In this example, the center 80 of the image is the standard reference point for the method, but it can be specified at any other desired point on the screen. In the computer 20, the angle determining means 74 is implemented by a computer program that determines the pan angle of the camera 10. The calculations are possible in this embodiment and can be realized in known manner, such as key-activated zoom settings of the camera 10 and / or re-key activated (image enlargement / reduction) image segment magnification. Use (pseudo zoom). Therefore, in this embodiment, the angle is calculated using the following equation. In the above equation, A is 1/2 the aperture of the camera 10, Z is the current zoom magnification of the camera 10, and P is the current image segment magnification of the monitor 22. Similarly, the two angles are passed to the second computer 50 via the computer network 60, and then the number of pulses proportional to each angle is applied to the stepper motors 34 and 36 of the actuator system 30 and the camera 1 Pan 0. Another embodiment, in which there is only one computer 20, which is connected to the monitor 22 and the positioning device 26 in the camera 10, is generally designated 200 in FIG. In an alternative embodiment of the device of the present invention, the controller of the camera 10 is sent a time interval rather than the calculated angle as described above, during which the camera 10 moves in a selected direction at a defined speed. . This time interval is proportional to the pan angle at constant speed. However, in this alternative embodiment, the angle at which the camera is panned is divided into a series of time intervals during which the camera 10 starts in low speed and increases in steps up to the maximum speed allowed by the camera's pan device. After moving at the speed, the speed is reduced again for each step to stop the movement operation, and the movement is stopped at the minimum speed level. The angle of panning the camera is thus divided into a series of time intervals, allowing a smooth acceleration of the camera in the pan direction. The device represented by the data determining means 74 contains correction data for correcting non-linearities of the acceleration and braking processes. This correction data has been determined empirically. In yet another embodiment, shown generally at 300 in FIG. 4, the camera 10 is not panned and is translated on rails 84. The rails 84 themselves are mounted on rail pairs 86 so that the rails 84 and thus the camera 10 can move at right angles to the direction of movement originally described. This embodiment is particularly suitable for applications where the distance from the viewing surface (reference surface) to the camera 10 is known. The position to which the camera 10 is moved is determined by positioning the pointer 24 by the positioning device 26 and the signal means 28 and then fixing the pointer 24. The position of the pointer 24 is fixed from the camera to the tangent of the angle calculated as discussed above. It corresponds to the product of the distance to the surface. Yet another embodiment, which combines the possibilities of both embodiments described above, comprises a translation means 90, which is represented by a combination of rails 84 and 86 and a pan device. On the monitor 22 of the computer 20, a second pointer 92 symbolically different from the pointer 24 is displayed in addition to the image of the pointer 24 and the camera 10 (FIG. 5). In this embodiment, the second pointer 92 is moved using a computer mouse similar to the pointer 24, but the right button of the computer mouse is held down to move the second pointer. By this right button, the positioning means 26 for the pointer 24 and the positioning means 94 for the second pointer 92 are implemented. The means 96 for outputting the second control signal is implemented by double-clicking the right button of the computer mouse at intervals of up to 300 milliseconds. Thus, the translational movement is activated by means similar to the means for panning. The device according to the invention described in this example is particularly suitable for monitoring factory halls from above. In this case, the ceiling of the hall shows and includes two translation directions, and the camera can observe the object in the hall by translationally determining the position of the desired observation point and then panning on the object. . The reference plane is the machinery operating surface of the hall or the floor itself. The reference plane can be selected by keyboard input (for example, input of a number) using the computer 20. Still other implementations of this embodiment are possible and are useful in the aforementioned applications where maintenance personnel monitor the condition of the aircraft. In this case, the maintenance manager must observe individual objects (for example, landing gear) from a remote location. However, in this embodiment it must be seen from different angles. To that end, the two translational directions of the camera 10 are chosen such that a vertical viewing wall on which the camera 10 can be moved is located in front of the aircraft. As the reference plane, select a section that passes through the center of the aircraft and is parallel to the observation wall. The control error of the camera 10 caused by the observed object not accurately resting on the reference surface is not significant in this embodiment. This is because this same observation object (for example, the landing gear) can be positioned at the center of the image of the camera 10 during panning. Therefore, the selected object in the selected viewing direction can be compared with a reference image stored in an archive available to maintenance personnel, and if any damage is required for repair work, it can be determined with high accuracy. Therefore, this method is particularly useful in the above-described embodiment. The basic principle of the method of the present invention is shown in FIG. 3 as a sequence diagram.

Claims (1)

【特許請求の範囲】 1.カメラ(10)によって生成されたイメージをコンピュータ(20)の表示 スクリーンに表示する段階と、 イメージと共にスクリーンに表示され位置決め装置(26)で位置決め可能な ポインタ(24)を使用して、カメラ(10)の新しい基準点を選択する段階と 、 スクリーン上の旧基準点からポインタ位置までの距離が、カメラをパンすべき 量を示す段階とを含む、カメラ(10)の制御方法。 2.カメラによって生成されたイメージがコンピュータを表示スクリーンに表示 する段階と、 イメージと共にスクリーンに表示され基準点に対するポインタの方向に対応す る位置決め装置(26)で位置決め可能なボインタ(24)を使用して、カメラ (10)を移動する方向を選択する段階とを含む、カメラ(10)の制御方法。 3.スクリーン上の基準点から位置決め装置の位置までの距離が、カメラの移動 速度を示すことを特徴とする、請求の範囲第2項に記載した方法。 4.基準点がイメージの中心であることを特徴とする、請求の範囲第1項ないし 第3項のいずれか一項に記載の方法。 5.カメラが捕捉したイメージを表示するための、モニタ(22)を備える少な くとも1台のコンピュータ(20)と、モニタ(22)上に、表示される各イメ ージに加えてポイ ンタ(24)を表示する手段と、 ポインタ(24)の位置を決め、位置決め操作(28)を終了させる信号を生 成する手段(26)とを備える、カメラ(10)の制御装置であって、 カメラの制御に必要なデータを、位置決め操作を終了させる信号を生成する手 段(28)によってポインタ(24)を固定した後に、基準点からポインタ(2 4)までの距離に基づいて決定する手段(74)を含むことを特徴とする制御装 置。 6.少なくとも2台のコンピュータ(20、50)を使用し、一方のコンピュー タ(50)がカメラ(10)のイメージを受け取り、他方のコンピュータ(20 )が、カメラ(10)の捕捉したイメージを表示するためのモニタ(22)と、 ポインタ(24)を表示する手段と、ポインタ(26)の位置を決め位置決め操 作(28)を終了させる信号を生成する手段とを含むことを特徴とする、請求の 範囲第5項に記載の装置。 7.コンピュータ(20、50)の相互接続が、コンピュータ・ネットワーク( 60)によって実施されることを特徴とする、請求の範囲第6項に記載の装置。 8.カメラ(10)が、2つの角度方向にパンする手段(30)を含むことを特 徴とする、請求の範囲第5項ないし第7項のいずれか一項に記載の装置。 9.カメラをパンする手段(30)が、仰角(70)及び方 位角(72)で独立にカメラ(10)をパンすることを特徴とする、請求の範囲 第8項に記載の装置。 10.カメラ(10)をパンする手段(30)が、カメラ(10)に接続された コンピュータ(20、50)によって起動されるステッパー電動機(34、36 )を含むことを特徴とする、請求の範囲第5項ないし第9項のいずれか一項に記 載の装置。 11.カメラ(10)が、少なくとも1つの並進方向にパンする手段(90)に 接続されていることを特徴とする、請求の範囲第5項ないし第7項のいずれか一 項に記載の装置。 12.カメラ(10)がパン手段(90)に接続され、パン手段(90)が互い にほぼ直角な2つの並進方向にカメラを移動させることを特徴とする、請求の範 囲第11項に記載の装置。 13.装置が、カメラをその方向及びその並進位置で移動させる手段を含み、 装置が、モニタ(22)上にポインタ(24)及び表示される各イメージに加 えて第2ポインタ(92)を表示する手段を含み、 装置が、第2ポインタ(92)の位置を決め第2ポインタ(92)の位置決め を終了させる第2信号(94)を生成する手段を含み、 装置が、制御信号を決定する手段(74)に加えて、第2制御信号を決定する 手段(94)をも含み、第2ボインタ (92)の位置決めを終了させる信号を生成する手段(94)によって第2ポイ ンタ(92)を固定した後に、第2制御信号によって、カメラ(10)の制御に 必要なデータが、基準点から第2ポインタ(92)までの位置に基づいて決定さ れることを特徴とする、請求の範囲第5項ないし第9項のいずれか一項に記載の 装置。 14.カメラによって生成されたイメージをコンピュータの表示スクリーン上に 表示する段階と、 位置決め装置を使用して位置決め可能なポインタを上記スクリーン上に生成す る段階と、 起動装置によって起動できる信号に応答して、上記カメラの中心を上記ボイン タの位置に置く段階とを含む、カメラの制御方法。[Claims] 1. Displaying the image generated by the camera (10) on a computer (20) The stage of displaying on the screen,   It is displayed on the screen together with the image and can be positioned by the positioning device (26). Using the pointer (24) to select a new reference point for the camera (10); ,   The distance from the old reference point on the screen to the pointer position should pan the camera A method of controlling a camera (10), the method including the step of indicating a quantity. 2. Image generated by camera shows computer on display screen To do,   It is displayed on the screen with the image and corresponds to the direction of the pointer with respect to the reference point. A camera using a pointer (24) that can be positioned by a positioning device (26) And (10) selecting a direction to move the camera (10). 3. The distance from the reference point on the screen to the position of the positioning device is the movement of the camera. Method according to claim 2, characterized in that it indicates velocity. 4. Claims 1 to 3, characterized in that the reference point is the center of the image. The method according to any one of item 3. 5. A few with a monitor (22) for displaying the images captured by the camera Each image displayed on at least one computer (20) and monitor (22). Page and poi Interface (24) is displayed,   Determine the position of the pointer (24) and generate a signal to end the positioning operation (28). A control device for the camera (10), comprising:   The data needed to control the camera is used to generate the signal that ends the positioning operation. After the pointer (24) is fixed by the step (28), the pointer (2 4) A control device comprising means (74) for making a decision based on the distance to Place. 6. Use at least two computers (20, 50), one computer Computer (50) receives the image of the camera (10) and the other computer (20) ) Is a monitor (22) for displaying the image captured by the camera (10); A means for displaying the pointer (24) and a positioning operation for determining the position of the pointer (26). Means for generating a signal to terminate the operation (28). The apparatus according to claim 5. 7. Computers (20, 50) are interconnected by a computer network ( Device according to claim 6, characterized in that it is implemented by means of 60). 8. The camera (10) comprises means (30) for panning in two angular directions. The device according to any one of claims 5 to 7, which is an indicator. 9. The means (30) for panning the camera has an elevation (70) and Claims, characterized in that the camera (10) is panned independently at the angular position (72). The apparatus according to item 8. 10. A means (30) for panning the camera (10) is connected to the camera (10) Stepper motor (34, 36) activated by computer (20, 50) ) Is included, any one of claims 5 to 9 is included. On-board equipment. 11. The camera (10) has means (90) for panning in at least one translation direction. 8. A connection according to any one of claims 5 to 7, characterized in that they are connected. The device according to paragraph. 12. The camera (10) is connected to the pan means (90) so that the pan means (90) are connected to each other. Claims, characterized in that the camera is moved in two translational directions approximately perpendicular to A device according to item 11. 13. The device includes means for moving the camera in its direction and its translational position,   The device adds a pointer (24) and each image displayed on the monitor (22). And means for displaying the second pointer (92),   The device determines the position of the second pointer (92) and positions the second pointer (92). A means for generating a second signal (94) that terminates   The device determines the second control signal in addition to the means (74) for determining the control signal. A second interface including means (94) The second pointer is generated by means (94) for generating a signal for ending the positioning of (92). After fixing the camera (92), the camera (10) is controlled by the second control signal. The required data is determined based on the position from the reference point to the second pointer (92). 10. The method according to any one of claims 5 to 9, characterized in that apparatus. 14. The image produced by the camera is displayed on the computer display screen. Stage to display,   Generate a positionable pointer on the screen using a positioner. Stage,   In response to a signal that can be activated by an activation device, the center of the camera is A method of controlling the camera, including the steps of placing the camera in the position of the camera.
JP6508703A 1992-10-02 1993-09-29 Camera control method and apparatus Pending JPH08504543A (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
DE4233137.4 1992-10-02
DE4233137A DE4233137C1 (en) 1992-10-02 1992-10-02 Method and device for controlling a camera
PCT/EP1993/002647 WO1994008424A1 (en) 1992-10-02 1993-09-29 Method and apparatus for controlling a camera

Publications (1)

Publication Number Publication Date
JPH08504543A true JPH08504543A (en) 1996-05-14

Family

ID=6469467

Family Applications (1)

Application Number Title Priority Date Filing Date
JP6508703A Pending JPH08504543A (en) 1992-10-02 1993-09-29 Camera control method and apparatus

Country Status (4)

Country Link
EP (1) EP0663132A1 (en)
JP (1) JPH08504543A (en)
DE (1) DE4233137C1 (en)
WO (1) WO1994008424A1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006295968A (en) * 2006-06-12 2006-10-26 Sony Corp Image transmission device and imaging apparatus

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB9506802D0 (en) * 1995-04-01 1995-05-24 Meryon Instr Limited Surveillance system
DE19531213A1 (en) * 1995-08-24 1997-02-27 Siemens Ag Interactive video camera control method
DE19531593A1 (en) * 1995-08-28 1997-03-06 Siemens Ag Camera cross-connection control for monitoring arrangement
JP3990771B2 (en) * 1997-07-23 2007-10-17 キヤノン株式会社 Camera control system, camera server, camera control method, and storage medium
DE19811286C2 (en) * 1998-03-16 2003-06-26 Plettac Ag Camera motion control
DE19845531A1 (en) * 1998-10-02 2000-04-06 Iws Elektronik Und Information Camera control for object observation involves selecting image section on screen, generating camera control commands from control data for selected image's raster field, generating detailed images
DE10010590A1 (en) * 2000-03-03 2001-09-13 Nedret Sahin Operating a remote-controlled camera, involves transmitting data from a remote control unit and camera to an image display device via a computer network
DE10033652A1 (en) * 2000-07-11 2002-01-24 Messer Griesheim Gmbh Monitoring system for remote controlled inventory, has head office with evaluation unit that processes signal sequence of data from receiver to obtain actual state of inventory
DE10050094C2 (en) * 2000-10-09 2003-06-18 Carsten Rosemann Method for controlling the pivoting angle of a camera that can be pivoted via a remote control
PT102667B (en) * 2001-09-27 2003-09-30 Inesc Inovacao Inst De Novas T DIRECTING SYSTEM FOR VIDEO CAMERAS OF ANY SPECTRUM RANGE
DE102006048006A1 (en) * 2006-10-09 2008-04-10 Funkwerk Plettac Electronic Gmbh Control method for pan-tilt-zoom (PTZ) camera, involves changing marking inserted in displayed summary image on display unit to change line of sight and zooming position of PTZ camera

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3984628A (en) * 1975-01-13 1976-10-05 Paul Grayson Sharp Remote camera-position control
US4720805A (en) * 1985-12-10 1988-01-19 Vye Scott R Computerized control system for the pan and tilt functions of a motorized camera head
JPS63152293A (en) * 1986-12-09 1988-06-24 マイクロワ−ルド オブ インナ− スペ−ス リミテイド Display
GB2215568A (en) * 1988-02-22 1989-09-20 Photo Scan Limited CCTV/surveillance system
JP2988676B2 (en) * 1989-12-22 1999-12-13 コニカ株式会社 Imaging device
GB9119863D0 (en) * 1991-09-17 1991-10-30 Radamec Epo Ltd Pictorial based shot and recall method and equipment for remotely controlled camera systems

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006295968A (en) * 2006-06-12 2006-10-26 Sony Corp Image transmission device and imaging apparatus

Also Published As

Publication number Publication date
EP0663132A1 (en) 1995-07-19
DE4233137C1 (en) 1994-01-05
WO1994008424A1 (en) 1994-04-14

Similar Documents

Publication Publication Date Title
US5872594A (en) Method for open loop camera control using a motion model to control camera movement
US5053975A (en) Master-slave manipulator control
US6515689B1 (en) Control apparatus
US7535493B2 (en) Method, apparatus, and system for controlling a camera, and a storage medium storing a program used with the method, apparatus and/or system
JPH08504543A (en) Camera control method and apparatus
JP2001145123A (en) Image photographing device for three-dimensional display device
EP0715453A3 (en) Camera controller
EP0469030B1 (en) Method and equipment for remote control of the movements of a telecamera or cinecamera
CN109416589A (en) Interactive system and exchange method
EP3730899A1 (en) Method and system for the optical-inertial tracking of a mobile object
JP3735708B2 (en) Remote environment guide device
JPH03213278A (en) Remote control support system for robot
JP2981408B2 (en) Method and apparatus for controlling high-speed introduction of a target object in a camera image
JP2005252831A (en) Support system for facility monitoring
JP5508308B2 (en) Related operation method of TV camera monitor screen of numerical control equipment
WO2024019002A1 (en) Information processing method, information processing device, and information processing program
JPH08181902A (en) Camera control system
JP2838954B2 (en) Monitoring device
JPH09102945A (en) Monitor television camera control method
Baldwin et al. Predictive windows for delay compensation in telepresence applications
JPS6231272A (en) Universal head controller
JPH06270076A (en) Camera control device for remote control
JPH09116790A (en) Camera controller
JP3188084B2 (en) Video information retrieval system
JPH09163354A (en) Video monitor system