JP2006121261A - Method for correcting target position of camera stabilizer - Google Patents

Method for correcting target position of camera stabilizer Download PDF

Info

Publication number
JP2006121261A
JP2006121261A JP2004305267A JP2004305267A JP2006121261A JP 2006121261 A JP2006121261 A JP 2006121261A JP 2004305267 A JP2004305267 A JP 2004305267A JP 2004305267 A JP2004305267 A JP 2004305267A JP 2006121261 A JP2006121261 A JP 2006121261A
Authority
JP
Japan
Prior art keywords
camera
target position
target
visual axis
stabilizer
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2004305267A
Other languages
Japanese (ja)
Other versions
JP2006121261A5 (en
JP4515884B2 (en
Inventor
Yasuhiro Ota
泰弘 太田
Kenzo Kono
兼三 河野
Hirokazu Ito
博和 伊藤
Yoshiaki Watabe
義明 渡部
Masayuki Miyazaki
正之 宮崎
Kenji Yanagiuchi
賢治 柳内
Kazufumi Takizawa
和史 滝沢
Hisashi Ariga
寿 有賀
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Japan Aviation Electronics Industry Ltd
Japan Broadcasting Corp
Original Assignee
Japan Aviation Electronics Industry Ltd
Nippon Hoso Kyokai NHK
Japan Broadcasting Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Japan Aviation Electronics Industry Ltd, Nippon Hoso Kyokai NHK, Japan Broadcasting Corp filed Critical Japan Aviation Electronics Industry Ltd
Priority to JP2004305267A priority Critical patent/JP4515884B2/en
Publication of JP2006121261A publication Critical patent/JP2006121261A/en
Publication of JP2006121261A5 publication Critical patent/JP2006121261A5/ja
Application granted granted Critical
Publication of JP4515884B2 publication Critical patent/JP4515884B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide a method for correcting a target position of a camera stabilizer in which the target position can be corrected to capture a target continuously within the field of view of a camera even if the precision of a target position acquired from a map, or the like, is low when an aircraft mounting the camera approaches the target. <P>SOLUTION: The method for correcting the target position is applied to a position control tracking system camera stabilizer where a visual axis L of the camera is directed automatically to previous target position P when the previous target position P and a current position N are given, the first time target position P1 is given from a map, its own position N is given by GPS, and the visual axis L is controlled depending on manual operation. The visual axis L is directed to the position Q of an imaging object by performing manual operation at the capturing position N1, a point closest the P1 on the visual axis L2 directing the Q from the N1 is operated as a second target position P2, and then the target position is corrected similarly as required thus correcting the target position to approach the Q gradually. <P>COPYRIGHT: (C)2006,JPO&NCIPI

Description

本発明は、ヘリコプタなどの航空機の機体に搭載され、撮影対象の目標物に関する経度緯度などの位置情報が予め与えられたとき、カメラの視軸をその位置に自動追尾させる機能を備えるカメラスタビライザに関し、特に予め与えられたその目標位置が実際の目標位置からずれているときに、自動追尾対象を実際の目標位置に漸次補正することを可能にするカメラスタビライザ目標位置補正方法に関する。   The present invention relates to a camera stabilizer that is mounted on an aircraft body such as a helicopter and has a function of automatically tracking a camera's visual axis to a position when position information such as longitude and latitude regarding a target to be imaged is given in advance. In particular, the present invention relates to a camera stabilizer target position correction method that enables an automatic tracking target to be gradually corrected to an actual target position when the predetermined target position deviates from the actual target position.

報道用ヘリコプタ等の航空機から飛行中も対象物を安定に撮影するために、TVカメラ等のカメラは通常カメラスタビライザに搭載する。カメラスタビライザは、3軸の自由度を有するジンバルを備える。該ジンバルの台座は、航空機の所定位置に固定される。ジンバルには、カメラと、カメラの視軸の方向を検出するジャイロとが搭載される。ジンバルの各軸の角度はジンバル角として検知される。   A camera such as a TV camera is usually mounted on a camera stabilizer in order to stably capture an object during flight from an aircraft such as a news helicopter. The camera stabilizer includes a gimbal having three degrees of freedom. The gimbal base is fixed in place on the aircraft. The gimbal is equipped with a camera and a gyro that detects the direction of the visual axis of the camera. The angle of each axis of the gimbal is detected as a gimbal angle.

地図などから撮像対象の位置を目標位置として入力し、また航空機の位置をGPS(Global Positioning System)で取得すれば、カメラ視軸が指向するべき方向(目標方向)が計算できるので、カメラの視軸方向をジャイロで検知することにより、目標方向とカメラ視軸方向との差を追尾誤差として計算し、追尾誤差を最小にする制御ループを構成することにより、航空機の飛行中にもカメラ視軸を目標位置に自動的に指向させる位置追尾が可能である。   If the position of the imaging target is input as a target position from a map or the like, and the position of the aircraft is acquired by GPS (Global Positioning System), the direction (target direction) that the camera visual axis should point to can be calculated. By detecting the axial direction with a gyro, the difference between the target direction and the camera visual axis direction is calculated as a tracking error, and by constructing a control loop that minimizes the tracking error, the camera visual axis can be used even during flight of the aircraft. Position tracking that automatically points to the target position is possible.

特許文献1(特開2001−359083)には、位置追尾をする撮像装置が開示されている。この撮像装置は、被写体の絶対位置(緯度、経度、標高)を入力する位置入力手段を備える。その位置入力手段は、被写体の絶対位置(緯度、経度、標高)を地図から取得し、その絶対位置をするキーボード、或いは被写体自身から無線で送信される被写体の絶対位置を受信する受信手段でなる。この撮像装置では、その位置入力手段で被写体の絶対位置を入力し、ヘリコプタ等の移動体の位置をGPSで入力し、移動体の進行方向を進行方向検出手段で検出し、撮像方向変更部でカメラの撮像方向を求め、カメラの回転角度を制御し、カメラ視軸を被写体に自動的に追尾させる。   Japanese Patent Laid-Open No. 2001-359083 discloses an imaging apparatus that performs position tracking. This imaging apparatus includes position input means for inputting the absolute position (latitude, longitude, altitude) of the subject. The position input means is a receiving means for acquiring the absolute position (latitude, longitude, altitude) of the subject from the map and receiving the absolute position of the subject wirelessly transmitted from the keyboard or the subject itself. . In this imaging device, the absolute position of the subject is input by the position input means, the position of a moving body such as a helicopter is input by GPS, the traveling direction of the moving body is detected by the traveling direction detecting means, and the imaging direction changing unit The imaging direction of the camera is obtained, the rotation angle of the camera is controlled, and the camera visual axis is automatically tracked by the subject.

しかしながら、地図などから取得できる目標位置のデータは、緯度、経度および高度で表されるが、データの精度は高くないのが一般的であるから、航空機(移動体)が目標位置に近づくと、撮像対象の位置と地図などから取得した目標位置との誤差によりカメラの視界から撮像対象が外れることが多い。また、撮像対象が高いビルディングの屋上である場合があるが、ビルディングの高さは地図には通常記載されていないので、そのような高層建造物の上部位置を撮像対象とするときは、やはり撮像対象の位置と地図などから取得した目標位置との誤差によりカメラの視界から撮像対象が外れ易い。また、高度のデータが記載されていない地図も多いので、高度のデータは入力できないこともあり、同様に撮像対象がカメラの視界から外れ易い。   However, the target position data that can be acquired from a map or the like is represented by latitude, longitude, and altitude, but since the accuracy of the data is generally not high, when the aircraft (moving body) approaches the target position, In many cases, an imaging target deviates from the field of view of the camera due to an error between the position of the imaging target and a target position acquired from a map or the like. In addition, the imaging target may be on the roof of a high building, but the height of the building is not usually described on the map. Therefore, when the upper position of such a high-rise building is used as the imaging target, imaging is also necessary. Due to the error between the target position and the target position acquired from a map or the like, the imaging target is likely to fall out of the camera view. In addition, since there are many maps in which altitude data is not described, altitude data may not be input, and similarly, an imaging target is likely to be out of the field of view of the camera.

目標位置を正確に測定し、しかる後にその目標位置にカメラ視軸を自動的に追尾することを可能にする視軸制御装置が特許文献2(特開2001−169171)に開示されている。この視軸制御装置は、撮像装置と、撮像装置の視軸が目標位置を指向するように制御する制御手段と、視軸を目標に向ける視軸操作器と、移動に伴う複数の地点で目標方向を移動量とから目標位置を演算する演算手段とを備える。このような構成により、特許文献2の視軸制御装置は、緯度、経度および高度の不明な目標をも捕捉する。地図など既存の位置データを要せずして目標の自動追尾を可能にするために、少なくとも2つの地点から目標物をカメラで捕捉し、各地点で捉えた目標物の方向と、各地点間の距離とから目標位置のデータを演算により算出している。   Japanese Patent Application Laid-Open No. 2001-169171 discloses a visual axis control device that can accurately measure a target position and then automatically track the camera visual axis to the target position. The visual axis control device includes: an imaging device; a control unit that controls the visual axis of the imaging device to be directed toward a target position; a visual axis controller that directs the visual axis toward the target; and a target at a plurality of points associated with movement. Computation means for computing the target position from the direction and the amount of movement. With such a configuration, the visual axis control device disclosed in Patent Document 2 captures targets whose latitude, longitude, and altitude are unknown. In order to enable automatic tracking of a target without requiring existing location data such as a map, the target is captured from at least two points with the camera, the direction of the target captured at each point, and between each point The target position data is calculated by calculation from the distance.

カメラで撮像したい目標の近傍の地理情報を経度、緯度及び高度で表し、その地理情報を三次元地理データとして予め記憶しておき、航空機の現在位置をGPSで取得し、カメラ及びジャイロをジンバルに搭載し、ジャイロでカメラの姿勢を安定化するとともに、カメラの方向(カメラの視軸の方向)を撮像制御ユニット35で制御し、地表面における目標位置を検知する位置特定方法は特許文献3(特開平8−285590)の図5及び段落0019−0022に開示されている。そのジンバル及びジャイロはカメラスタビライザに相当する。この位置特定方法では、撮像位置から目標物を見たときのカメラ視軸と、予め記録した地理情報で表される地表面との交点から目標物の位置を特定するので、目標物の位置が三次元的に特定されると特許文献3には記載されている。   Geographic information in the vicinity of the target to be imaged by the camera is represented by longitude, latitude and altitude, the geographical information is stored in advance as three-dimensional geographic data, the current position of the aircraft is acquired by GPS, and the camera and gyro are used as gimbals. A position specifying method for detecting a target position on the ground surface by mounting and stabilizing the posture of the camera with a gyro and controlling the direction of the camera (the direction of the visual axis of the camera) with the imaging control unit 35 is disclosed in Patent Document 3 ( JP-A-8-285590) is disclosed in FIG. 5 and paragraphs 0019-0022. The gimbal and gyro are equivalent to a camera stabilizer. In this position specifying method, since the position of the target is specified from the intersection of the camera visual axis when the target is viewed from the imaging position and the ground surface represented by the pre-recorded geographical information, the position of the target is determined. The three-dimensional specification is described in Patent Document 3.

また、特許文献4(特開2004−80580)には、カメラ雲台の視軸が目標を指向するように目標物を追尾する別の方法が開示されている。この方法では、ヘリコプタ等の移動体に目標物の直上を通過させ、その時の移動体の位置を目標物の位置として取得し、その後に、移動体の任意の位置でカメラ雲台の視軸を目標物に指向し、このときの移動体の位置、高度および視軸の俯角を取得し、これらから移動体と目標物との高度差を算出し、また移動体の位置、高度および機首方位角に基づき移動体から目標物を指向する方位角および俯角を算出し、方位角および俯角を指令視軸角度とし、指令視軸角度に基づいてカメラ雲台の視軸を目標に指向するようにしている。   Japanese Patent Application Laid-Open No. 2004-80580 discloses another method for tracking a target so that the visual axis of a camera head is directed to the target. In this method, a moving object such as a helicopter is passed immediately above the target, the position of the moving object at that time is acquired as the position of the target, and then the visual axis of the camera pan head is set at an arbitrary position of the moving object. Aiming at the target, obtain the position, altitude and depression angle of the visual axis of the moving body at this time, calculate the altitude difference between the moving body and the target from these, and also the position, altitude and heading of the moving body Based on the angle, the azimuth and depression angles for directing the target from the moving object are calculated, and the azimuth and depression angles are used as command visual axis angles, and the visual axis of the camera platform is directed to the target based on the command visual axis angles. ing.

特開2001−359083JP 2001-359083 A 特開2001−169171JP 2001-169171 A 特開平8−285590JP-A-8-285590 特開2004−80580JP2004-80580

報道用ヘリコプタにカメラスタビライザを装備し、そのカメラスタビライザにカメラを搭載し、火災現場などの報道対象をそのカメラですばやく安定に自動的に撮像したいという要請は強い。上述のように、カメラスタビライザに搭載したカメラの視軸を目標物に指向させる装置や方法は従来から提案されている。   There is a strong demand to equip a news helicopter with a camera stabilizer, and to equip the camera stabilizer with a camera so that the subject can be imaged quickly and stably by the camera. As described above, devices and methods for directing the visual axis of a camera mounted on a camera stabilizer to a target have been proposed.

特許文献1に記載の撮像装置では、目標(被写体)位置のデータは、地図から緯度、経度及び標高のデータを読み取り、そのデータをキーボードから入力するか、または被写体から被写体自らの位置データが送信され、それを撮像装置の受信機で受信する。そこで、この特許文献1の撮像装置では、カメラ搭載の航空機が目標物に近接しても目標物をカメラの視野内に捕らえ続けられるか否か、即ち近接目標の自動追尾の可否は、地図から読み取る被写体の位置データの精度または被写体から送信される被写体自身の位置データの精度に依存する。   In the imaging device described in Patent Document 1, target (subject) position data is read from latitude, longitude, and altitude data from a map and input from the keyboard, or the subject's own position data is transmitted from the subject. It is received by the receiver of the imaging device. Therefore, in the imaging apparatus of Patent Document 1, whether or not the target can continue to be captured in the camera's field of view even if the camera-equipped aircraft approaches the target, that is, whether or not the proximity target can be automatically tracked is determined from the map. This depends on the accuracy of the position data of the subject to be read or the accuracy of the position data of the subject itself transmitted from the subject.

しかしながら、地図から読み取り得る被写体の位置データはかなり大まかであるから、その位置データに依存した特許文献1の撮像装置による位置追尾では、カメラ搭載の航空機が目標物に近接したとき目標物をカメラの視野内に捕らえ続けることは難しい。また、ビルディングの高さのデータは地図には通常記載されていないので、目標物がビルディングの屋上や中間階にあるとき、目標位置データにおける高度の要素は欠けるから、近接目標の自動追尾は難しい。   However, since the position data of the subject that can be read from the map is quite rough, in the position tracking by the imaging device of Patent Document 1 that relies on the position data, the target object is detected by the camera when the camera-equipped aircraft approaches the target object. It is difficult to keep it in sight. In addition, since the building height data is not usually described on the map, when the target is on the roof or middle floor of the building, the altitude element in the target position data is lacking, so it is difficult to automatically track the proximity target. .

特許文献2に記載の視軸制御装置では、少なくとも2つの地点から目標物をカメラで捕捉し、それらの地点で得た目標物の方向と各地点間の距離とから目標位置のデータを演算により算出するから、まず目標物付近に到達し、それを発見するまでは人の観察に依存し、さらに発見後に少なくとも2回にわたってカメラで目標物を捕らえる必要がある。そこで、この特許文献2の視軸制御装置では、目標物の発見と、カメラによる少なくとも2回の目標物の捕捉までは、自動追尾はできないから、目標物の撮像までに時間を要し、また航空機に搭乗して空中から視覚により目標物を探し出す能力は熟練度に依存するから安定的に目標物を撮像することが困難である。   In the visual axis control device described in Patent Document 2, a target is captured from at least two points by a camera, and the target position data is calculated from the direction of the target obtained at those points and the distance between the points. Since it is calculated, first, the vicinity of the target is reached, and until it is discovered, it depends on human observation, and after the discovery, it is necessary to capture the target with the camera at least twice. Therefore, in this visual axis control device of Patent Document 2, automatic tracking cannot be performed until the target is detected and the target is captured at least twice by the camera. Therefore, it takes time to image the target. The ability to board a plane and search for a target visually from the air depends on the skill level, so that it is difficult to stably image the target.

特許文献3に記載された位置特定方法では、撮像位置から目標物を見たときのカメラ視軸と、予め記録した三次元地理データで表される地表面との交点から目標物の位置を特定する。そこで、特許文献3の位置特定方法では、三次元地理データが必須である。また特許文献3の位置特定方法では、目標物をカメラで捕らえてから目標位置を演算により取得するから、まず目標物を発見し、カメラで目標物を捕捉する必要があり、前記特許文献2に記載の視軸制御装置と同様に、目標物の撮像までに時間を要し、また航空機に搭乗して空中から視覚により目標物を探し出す能力は熟練度に依存するから安定的に目標物を撮像することが困難である。   In the position specifying method described in Patent Document 3, the position of the target is specified from the intersection of the camera visual axis when the target is viewed from the imaging position and the ground surface represented by the prerecorded three-dimensional geographic data. To do. Therefore, in the position specifying method of Patent Document 3, three-dimensional geographic data is essential. Further, in the position specifying method of Patent Document 3, since the target position is obtained by calculation after the target is captured by the camera, it is necessary to first discover the target and capture the target by the camera. As with the described visual axis control device, it takes time to image the target, and the ability to find the target visually in the air after boarding the aircraft depends on the skill level, so the target is imaged stably. Difficult to do.

特許文献4に記載された追尾方法では、目標物の直上および他の任意の位置でカメラにより目標物に捕捉することにより、移動体から目標物を指向する方位角および俯角を算出し、方位角および俯角を指令視軸角度とし、指令視軸角度に基づいてカメラ雲台の視軸を目標に指向するようにしているので、やはり前記特許文献2に記載の視軸制御装置と同様に、目標物の撮像までに時間を要し、また航空機に搭乗して空中から視覚により目標物を探し出す能力は熟練度に依存するから安定的に目標物を撮像することが困難である。   In the tracking method described in Patent Document 4, an azimuth angle and a depression angle directing the target from the moving body are calculated by capturing the target with the camera at a position immediately above the target and at any other position, and the azimuth And the depression angle are set as the commanded visual axis angle, and the visual axis of the camera head is directed to the target based on the commanded visual axis angle. Similarly to the visual axis control device described in Patent Document 2, It takes time until the object is imaged, and the ability to board the aircraft and search for the object visually from the air depends on the skill level, so that it is difficult to stably image the object.

そこで、本発明は、地図などから取得する目標位置の精度が低いことが原因で、カメラ搭載の航空機が目標物に近接したときに目標物をカメラの視野内に捕らえ続けられなくなったときも、目標位置を補正できるカメラスタビライザ目標位置補正方法の提供にある。   Therefore, the present invention is due to the low accuracy of the target position acquired from the map or the like, when the aircraft mounted on the camera can not keep capturing the target in the camera's field of view when approaching the target, A camera stabilizer target position correction method capable of correcting a target position is provided.

本発明のカメラスタビライザ目標位置補正方法は、地図などから取得する目標位置の精度が低いときにも、カメラスタビライザによる近接目標自動追尾能力の向上を可能とする。また、本発明のカメラスタビライザ目標位置補正方法は、目標物がビルディング等の建造物の屋上や中間階にあり、目標位置データにおける高度の要素が欠けるときも、カメラスタビライザによる近接目標自動追尾能力を向上する。更に、本発明のカメラスタビライザ目標位置補正方法は、地図などから取得する目標位置の精度が低いことが原因で、カメラ搭載の航空機が目標物に近接したときに目標物をカメラの視野内に捕らえ続けられなくなり、撮像対象物を視覚により直接に捕捉できないときでもカメラによる目標物の自動捕捉を可能にし、ひいては航空機が目標の方向に飛行を始めてから目標物の撮像開始までの時間を短縮し、またその撮像開始までの時間をカメラの操作者の熟練度に拘わらす一定にすることができる。   The camera stabilizer target position correction method of the present invention enables improvement of the proximity target automatic tracking capability by the camera stabilizer even when the accuracy of the target position acquired from a map or the like is low. Further, the camera stabilizer target position correction method of the present invention has a proximity target automatic tracking capability by the camera stabilizer even when the target is on the roof or intermediate floor of a building or the like and the altitude element in the target position data is missing. improves. Furthermore, the camera stabilizer target position correction method of the present invention captures the target in the camera's field of view when the camera-equipped aircraft approaches the target because the target position acquired from a map or the like is low in accuracy. Even if it is not possible to continue and the object to be imaged cannot be directly captured visually, the camera can automatically capture the object, and thus the time from when the aircraft starts flying in the direction of the target to the start of imaging of the object is shortened. In addition, the time until the start of imaging can be made constant regardless of the skill level of the camera operator.

前述の課題を解決するために本発明は次の手段を提供する。   In order to solve the above-mentioned problems, the present invention provides the following means.

(1)目標位置Pと自らの位置Nとが与えられたとき、カメラの視軸Lを目標位置Pに自動的に指向する位置制御追尾方式のカメラスタビライザであって、初回の目標位置P1が地図で、また自らの位置NがGPSでそれぞれ与えられ、操作者の操作を入力する操作部を備え、該操作に応じ視軸Lが制御されるカメラスタビライザに適用されて、視軸Lを初回の目標位置P1に指向しており、かつ撮像対象物の位置Qがカメラで捕捉できる第1の捕捉位置N1で該操作を与えることにより、撮像対象物の位置Qに視軸Lを指向し、第1の捕捉位置N1から撮像対象物の位置Qを指向するカメラの視軸L2上であって初回の目標位置P1に最も近い点を第2の目標位置P2として演算により求め、更に必要に応じて、視軸Lを第2の目標位置P2に指向しており、かつ撮像対象物の位置Qがカメラで捕捉できる第2の捕捉位置N2で該操作を与えることにより、撮像対象物の位置Qに視軸Lを指向し、第2の捕捉位置N2から撮像対象物の位置Qを指向するカメラの視軸L3上であって第2の目標位置P2に最も近い点を第3の目標位置P3として演算により求め、以後必要に応じて同様に、目標位置を補正することにより、撮像対象物の位置Qに漸次近接するように目標位置Pを補正するカメラスタビライザ目標位置補正方法。   (1) A position control tracking type camera stabilizer that automatically points the visual axis L of the camera to the target position P when the target position P and its own position N are given. It is applied to a camera stabilizer that is provided with an operation unit for inputting an operator's operation on the map and its position N is given by GPS, and applied to the camera stabilizer in which the visual axis L is controlled according to the operation. Is directed to the target position P1, and the position Q of the imaging object is directed at the first capture position N1 where the camera can capture the position Q, thereby directing the visual axis L to the position Q of the imaging object, A point that is closest to the initial target position P1 on the visual axis L2 of the camera that is directed from the first capture position N1 to the position Q of the object to be imaged is calculated as the second target position P2, and further calculated as necessary. The visual axis L is set to the second target position P The position Q of the imaging object is directed at the second capture position N2 that can be captured by the camera, and thereby the visual axis L is directed to the position Q of the imaging object, and the second capture is performed. A point closest to the second target position P2 on the visual axis L3 of the camera that is directed from the position N2 to the position Q of the object to be imaged is calculated as the third target position P3. A camera stabilizer target position correction method for correcting the target position P so as to gradually approach the position Q of the imaging object by correcting the target position.

(2)目標位置Pと現在の自らの位置Nとが与えられたとき、カメラの視軸Lを目標位置Pに自動的に指向する位置制御追尾方式のカメラスタビライザであって、操作者の操作を入力する操作部を備え、該操作に応じ視軸Lが制御されるカメラスタビライザに適用され、撮像対象物の位置Qに漸次近接するように目標位置Pを補正するカメラスタビライザ目標位置補正方法において、
前回の目標位置Pの座標を
P(Xp, Yp, Zp)
現在位置の座標Nを
N(Xn, Yn, Zn)
前記カメラスタビライザが座標Nにあって、カメラが位置Qの撮像対象物を捕捉したとき、カメラの視軸LのベクトルVを
V(Xv, Yv, Zv)
とすると、助変数tを与えることにより、視軸Lを

Figure 2006121261
なる式で表し、
補正後の目標位置は、視軸L上であって、前回の目標位置に最も近い点とし、
視軸LのベクトルVを法線とするとともに、前回の目標位置Pを通る平面Sを仮想し、
平面Sを、
Xv・(x−Xp)+Yv・(y−Yp)+Zv・(z−Zp)=0・・・・・(2)
と表し、
式(1)で表される視軸と式(2)で表される平面Sとの交点の座標Tを補正後の目標位置の座標とし、式(1)と式(2)の連立方程式を助変数tに関し、
Figure 2006121261
と解き、式(3)及び式(1)により、座標Tを、
(Xv・t+Xp, Yv・t+Yp, Zv・t+Zp)・・・・・・・(4)
なる式(4)で求める
ことを特徴とするカメラスタビライザ目標位置補正方法。 (2) A position control tracking type camera stabilizer that automatically directs the visual axis L of the camera to the target position P when the target position P and the current position N are given. In a camera stabilizer target position correction method, which is applied to a camera stabilizer that includes an operation unit that inputs a visual axis L and is controlled in accordance with the operation, and corrects the target position P so as to gradually approach the position Q of the object to be imaged. ,
The coordinates of the previous target position P
P (Xp, Yp, Zp)
The coordinates N of the current position
N (Xn, Yn, Zn)
When the camera stabilizer is at the coordinate N and the camera captures the imaging object at the position Q, the vector V of the camera visual axis L is obtained.
V (Xv, Yv, Zv)
Then, by giving the auxiliary variable t, the visual axis L is
Figure 2006121261
It is expressed by the formula
The corrected target position is on the visual axis L and is the closest point to the previous target position,
Assuming that the vector V of the visual axis L is a normal line, a plane S passing through the previous target position P is assumed,
Plane S,
Xv · (x−Xp) + Yv · (y−Yp) + Zv · (z−Zp) = 0 (2)
And
The coordinate T of the intersection of the visual axis represented by the equation (1) and the plane S represented by the equation (2) is set as the coordinate of the target position after correction, and the simultaneous equations of the equations (1) and (2) are expressed as follows. For the parameter t
Figure 2006121261
And the coordinates T are expressed by the equations (3) and (1).
(Xv.t + Xp, Yv.t + Yp, Zv.t + Zp) (4)
A camera stabilizer target position correction method characterized by being obtained by the following equation (4).

上述の本発明によれば、地図などから取得する目標位置の精度が低いことが原因で、カメラ搭載の航空機が目標物に近接したときに目標物をカメラの視野内に捕らえ続けられなくなったときも、目標位置を補正できるカメラスタビライザ目標位置補正方法を提供できる。   According to the above-described present invention, when the target position acquired from the map or the like is low, the target object cannot be continuously captured in the camera field of view when the camera-equipped aircraft approaches the target object. In addition, a camera stabilizer target position correction method capable of correcting the target position can be provided.

本発明のカメラスタビライザ目標位置補正方法は、地図などから取得する目標位置の精度が低いときにも、カメラスタビライザによる近接目標自動追尾能力の向上を可能とする。また、本発明のカメラスタビライザ目標位置補正方法は、目標物がビルディング等の建造物の屋上や中間階にあり、目標位置データにおける高度の要素が欠けるときも、カメラスタビライザによる近接目標自動追尾能力を向上する。更に、本発明のカメラスタビライザ目標位置補正方法は、地図などから取得する目標位置の精度が低いことが原因で、カメラ搭載の航空機が目標物に近接したときに目標物をカメラの視野内に捕らえ続けられなくなったときも、視覚に依存することなくカメラによる目標物の自動捕捉を可能にし、ひいては航空機が目標の方向に飛行を始めてから目標物の撮像開始までの時間を短縮し、またその撮像開始までの時間をカメラの操作者の熟練度に拘わらず短縮できる。   The camera stabilizer target position correction method of the present invention enables improvement of the proximity target automatic tracking capability by the camera stabilizer even when the accuracy of the target position acquired from a map or the like is low. Further, the camera stabilizer target position correction method of the present invention has a proximity target automatic tracking capability by the camera stabilizer even when the target is on the roof or intermediate floor of a building or the like and the altitude element in the target position data is missing. improves. Furthermore, the camera stabilizer target position correction method of the present invention captures the target in the camera's field of view when the camera-equipped aircraft approaches the target because the target position acquired from a map or the like is low in accuracy. Even when it is not possible to continue, the camera can automatically capture the target without depending on the vision, and thus the time from the start of the flight of the aircraft in the direction of the target to the start of imaging of the target is reduced. The time to start can be shortened regardless of the skill level of the camera operator.

次に、本発明のカメラスタビライザ目標位置補正方法の実施形態について説明する。図1は、本発明の一実施の形態のカメラスタビライザ目標位置補正方法を適用したカメラスタビライザを示すブロック図である。このカメラスタビライザ10は、目標位置補正計算部1、目標位置保持部2、追尾ジンバル角計算部3、ジンバル角制御部4、カメラ5、慣性装置6および操作部7でなる。ジンバル角制御部4はジンバル機構を有する。カメラ5の筐体及び慣性装置6の筐体は互いに固定され、カメラ・慣性装置一体構造をなす。カメラ・慣性装置一体構造は、ジンバル角制御部4のジンバル機構に搭載されている。カメラスタビライザ10には、地図11から目標位置111が入力され、またGPS(Global Positioning System)12から現在位置112が入力される。カメラスタビライザ10を操作する操作者13による操作113は、操作部7のジョイスティック(操作入力レバー)に対する手動操作入力である。このカメラスタビライザ10は、ヘリコプタに搭載されている。   Next, an embodiment of the camera stabilizer target position correction method of the present invention will be described. FIG. 1 is a block diagram showing a camera stabilizer to which a camera stabilizer target position correcting method according to an embodiment of the present invention is applied. The camera stabilizer 10 includes a target position correction calculation unit 1, a target position holding unit 2, a tracking gimbal angle calculation unit 3, a gimbal angle control unit 4, a camera 5, an inertia device 6, and an operation unit 7. The gimbal angle control unit 4 has a gimbal mechanism. The housing of the camera 5 and the housing of the inertial device 6 are fixed to each other to form a camera / inertia device integrated structure. The camera / inertia integrated structure is mounted on the gimbal mechanism of the gimbal angle control unit 4. A target position 111 is input from the map 11 to the camera stabilizer 10, and a current position 112 is input from a GPS (Global Positioning System) 12. An operation 113 by the operator 13 who operates the camera stabilizer 10 is a manual operation input to the joystick (operation input lever) of the operation unit 7. This camera stabilizer 10 is mounted on a helicopter.

ディジタル形式の三次元の地図データを電子的に記憶する手段としては、例えば、前述の特許文献3の図5および段落21に記載されている三次元地理データ記憶装置があるが、図1の地図11としては、同様な構成の三次元または二次元の地理データ記憶装置に記憶されたディジタル形式の地図データを用いることができる。また、自動車に搭載されている自動車ナビゲーションシステム(カーナビと通称される地図表示装置)にはディジタルデータで地図情報が記憶されているが、地図11は、そのナビゲーションシステムにおけるものと同様な形式で記憶されている地図情報でも差し支えない。自動車ナビゲーションシステムと同様な形式で記憶されたディジタルデータの地図情報であれば、自動車ナビゲーションシステムにおける地図表示装置と同様な地図表示装置に地図を表示させ、地図上の目標物をカーソルで指定することにより、目標物の緯度および経度を読み出し、その緯度および経度を目標位置111として、目標位置保持部2へ提供することができる。この目標位置111は、カメラ5で撮像しようとする目標物の位置を表す。地図11は、紙に描かれた地図であっても差し支えない。地図11が紙に描かれているとき、目標位置111は、操作者13により地図11から目視により読み取られる緯度、経度及び高度であり、キーボードにより目標位置保持部2へ入力される。このキーボードは、図1では図示されていないが、地図11に含まれることになる。   As a means for electronically storing the three-dimensional map data in the digital format, for example, there is a three-dimensional geographic data storage device described in FIG. 11 may be digital map data stored in a three-dimensional or two-dimensional geographic data storage device having a similar configuration. Further, map information is stored as digital data in a car navigation system (a map display device called car navigation system) mounted on a car, but the map 11 is stored in the same format as that in the navigation system. The map information can be used. If the map information is digital data stored in the same format as the car navigation system, the map is displayed on the map display device similar to the map display device in the car navigation system, and the target on the map is specified with the cursor. Thus, the latitude and longitude of the target can be read out and provided as the target position 111 to the target position holding unit 2. This target position 111 represents the position of the target to be imaged by the camera 5. The map 11 may be a map drawn on paper. When the map 11 is drawn on paper, the target position 111 is the latitude, longitude, and altitude that are visually read from the map 11 by the operator 13, and is input to the target position holding unit 2 by the keyboard. This keyboard is not shown in FIG. 1 but is included in the map 11.

GPS12は、カメラスタビライザ10を搭載するヘリコプタに搭載されており、このヘリコプタの位置を検出し、該ヘリコプタの位置をカメラスタビライザ10の現在位置112として出力する。現在位置112はカメラスタビライザ10の緯度、経度および高度のデータでなる。カメラスタビライザ10とGPS12との距離は、カメラスタビライザ10と目標物(撮像対象物)との距離に比べてはるかに小さいから、GPS12で検出したヘリコプタの位置をカメラスタビライザ10の位置とみなして差し支えないのである。   The GPS 12 is mounted on a helicopter on which the camera stabilizer 10 is mounted, detects the position of the helicopter, and outputs the position of the helicopter as the current position 112 of the camera stabilizer 10. The current position 112 is made up of latitude, longitude, and altitude data of the camera stabilizer 10. Since the distance between the camera stabilizer 10 and the GPS 12 is much smaller than the distance between the camera stabilizer 10 and the target (imaging target), the position of the helicopter detected by the GPS 12 may be regarded as the position of the camera stabilizer 10. It is.

図1のカメラスタビライザ10の各構成要素の作動を次に説明する。目標位置補正計算部1は、補正前目標位置102a、カメラスタビライザ10の現在位置112、カメラ視軸方向106及び補正指示107bを入力し、補正指示107bの入力があったときだけに補正後目標位置101を演算し、補正後目標位置101を目標位置保持部2へ出力する。目標位置補正計算部1における補正後目標位置101の計算については後に数式を使って詳述する。   Next, the operation of each component of the camera stabilizer 10 of FIG. 1 will be described. The target position correction calculation unit 1 inputs the pre-correction target position 102a, the current position 112 of the camera stabilizer 10, the camera visual axis direction 106, and the correction instruction 107b, and the corrected target position only when the correction instruction 107b is input. 101 is calculated and the corrected target position 101 is output to the target position holding unit 2. The calculation of the corrected target position 101 in the target position correction calculation unit 1 will be described in detail later using mathematical expressions.

目標位置保持部2は、カメラスタビライザ10を立ち上げた当初は地図11から入力した目標位置111を記憶し、補正前目標位置102aおよび目標位置102bとして出力する。その後に補正後目標位置101が供給されたときは、目標位置保持部2は、それまで記憶していた目標位置111を補正後目標位置101に置き換え、補正後目標位置101を新たな目標位置として保存し、補正前目標位置102aおよび目標位置102bとして出力する。以後、新たな補正後目標位置101が供給される度に、それまで記憶していた目標位置を新たな補正後目標位置101で置き換え、新たな補正後目標位置101を新たな目標位置として保存するとともに、補正前目標位置102aおよび目標位置102bとして出力する。   The target position holding unit 2 initially stores the target position 111 input from the map 11 when the camera stabilizer 10 is started up, and outputs the target position 111 as a pre-correction target position 102a and a target position 102b. Thereafter, when the corrected target position 101 is supplied, the target position holding unit 2 replaces the previously stored target position 111 with the corrected target position 101, and sets the corrected target position 101 as a new target position. Save and output as the pre-correction target position 102a and the target position 102b. Thereafter, each time a new corrected target position 101 is supplied, the previously stored target position is replaced with the new corrected target position 101, and the new corrected target position 101 is saved as a new target position. At the same time, they are output as the pre-correction target position 102a and the target position 102b.

追尾ジンバル角計算部3は、目標位置102b、現在位置112、カメラ視軸方向106及び現在ジンバル角104aを入力し、これらのデータに基づき、追尾ジンバル角103を演算し、追尾ジンバル角103をジンバル角制御部4へ出力する。追尾ジンバル角計算部3は、目標位置102b及び現在位置112から、カメラ5の視軸が指向するべき方向を計算する。更に、追尾ジンバル角計算部3は、この指向するべきカメラ5の視軸方向と、カメラ5の現在の視軸方向を表すカメラ視軸方向106との差並びに現在のジンバル角を表す現在ジンバル角104aから、追尾ジンバル角103を計算する。追尾ジンバル角103は、カメラ5の視軸が目標物を指向するために、ジンバル角制御部4におけるジンバル機構の各軸がとるべき角度である。追尾ジンバル角103は、ジンバル角制御部4へ供給され、ジンバル角制御部4のジンバル機構を制御し、適切に角度だけ視軸制御104bを行い、カメラ5で追尾しようとする目標物にカメラ5の視軸を自動的に指向させるための信号である。   The tracking gimbal angle calculation unit 3 inputs the target position 102b, the current position 112, the camera visual axis direction 106, and the current gimbal angle 104a, calculates the tracking gimbal angle 103 based on these data, and calculates the tracking gimbal angle 103 as the gimbal. Output to the angle controller 4. The tracking gimbal angle calculation unit 3 calculates the direction in which the visual axis of the camera 5 should be directed from the target position 102b and the current position 112. Further, the tracking gimbal angle calculation unit 3 determines the difference between the visual axis direction of the camera 5 to be directed and the camera visual axis direction 106 representing the current visual axis direction of the camera 5 and the current gimbal angle representing the current gimbal angle. From 104a, a tracking gimbal angle 103 is calculated. The tracking gimbal angle 103 is an angle that each axis of the gimbal mechanism in the gimbal angle control unit 4 should take so that the visual axis of the camera 5 points to the target. The tracking gimbal angle 103 is supplied to the gimbal angle control unit 4, controls the gimbal mechanism of the gimbal angle control unit 4, performs the visual axis control 104 b by an appropriate angle, and moves the camera 5 to the target to be tracked by the camera 5. This is a signal for automatically directing the visual axis.

ジンバル角制御部4は、ジンバル機構を有し、駆動コマンド107a又は追尾ジンバル角103に応じて視軸制御104bを行い、視軸制御104bによりジンバル機構の各軸を回転させ、カメラ5の視軸を制御する。視軸制御104bは、ジンバル機構各軸を回転させる機械出力であり、ジンバル機構各軸の角度によって定まる方向にカメラ5の視軸を制御する。ジンバル角制御部4は、駆動コマンド107aの入力があるときは、駆動コマンド107aだけに基づき視軸制御104bを行い、駆動コマンド107aの入力がないときは、追尾ジンバル角103に基づき視軸制御104bを行う。また、ジンバル角制御部4は、ジンバル機構の各軸の角度を現在ジンバル角104aとして検出し、現在ジンバル角104aを追尾ジンバル角計算部3へ出力する。   The gimbal angle control unit 4 has a gimbal mechanism, performs a visual axis control 104b according to the drive command 107a or the tracking gimbal angle 103, and rotates each axis of the gimbal mechanism by the visual axis control 104b. To control. The visual axis control 104b is a mechanical output for rotating each axis of the gimbal mechanism, and controls the visual axis of the camera 5 in a direction determined by the angle of each axis of the gimbal mechanism. The gimbal angle control unit 4 performs the visual axis control 104b based on only the drive command 107a when the drive command 107a is input, and controls the visual axis control 104b based on the tracking gimbal angle 103 when there is no input of the drive command 107a. I do. The gimbal angle control unit 4 detects the angle of each axis of the gimbal mechanism as the current gimbal angle 104a, and outputs the current gimbal angle 104a to the tracking gimbal angle calculation unit 3.

カメラ5は、視軸を中心とする所定角度範囲の視野を有し、その視野内を撮像する手段である。カメラ5に一体に固定されている慣性装置6は、カメラ5の姿勢および方位角を検出し、この姿勢および方位角で表されるカメラ視軸方向106を生成し、目標位置補正計算部1および追尾ジンバル角計算部3へカメラ視軸方向106を出力する。操作部7は、操作入力レバーとしてジョイスティックを備え、操作者13の手動操作をジョイスティックで入力し、その操作の大きさが閾値を越えたときは、その操作の大きさ及び方向に応じたデータを駆動コマンド107aとして生成し、駆動コマンド107aをジンバル角制御部4へ出力する。また、操作部7は、操作者13の操作の大きさがその閾値を越えたときは、補正指示107bを生成し、補正指示107bを目標位置補正計算部1へ出力する。   The camera 5 has a field of view within a predetermined angle range centered on the visual axis, and is a means for imaging the field of view. The inertial device 6 fixed integrally with the camera 5 detects the posture and azimuth angle of the camera 5, generates a camera visual axis direction 106 represented by this posture and azimuth angle, The camera visual axis direction 106 is output to the tracking gimbal angle calculation unit 3. The operation unit 7 is provided with a joystick as an operation input lever, and when a manual operation of the operator 13 is input with the joystick and the size of the operation exceeds a threshold value, data corresponding to the size and direction of the operation is obtained. The drive command 107 a is generated and output to the gimbal angle control unit 4. Further, when the magnitude of the operation of the operator 13 exceeds the threshold value, the operation unit 7 generates a correction instruction 107 b and outputs the correction instruction 107 b to the target position correction calculation unit 1.

次に、図1のカメラスタビライザ10の作用を図2乃至図7を参照し、詳しく説明する。図2は、高層のビルディング200の屋上の位置Qに撮像対象物があり、ビルディング200の地上位置P1が地図11で取得した目標位置111であるときに、ヘリコプタ100に搭載したカメラスタビライザ10におけるカメラ5の視軸がL1であることを表す模式図である。図2において(図3及び図4においても)、GPSから取得されるカメラスタビライザ10の位置(ヘリコプタ100の位置に実質上同じ)はN1である。カメラスタビライザ10は、起動するとともに、地図11から供給された目標位置111で表される地表上の目標位置P1及びGPSから取得するカメラスタビライザ10の現在位置112に基づき、カメラ5の視軸を地表上の目標位置P1へ自動的に指向させる自動追尾を開始する。ヘリコプタ100から目標位置P1までの距離が大きいときは、カメラ5の視軸が目標位置P1を指向していても、撮像対象物の位置Qはカメラ5の視界に入るから、ヘリコプタ100が移動してもカメラ5は撮像対象物を自動的に撮像できる。しかし、ヘリコプタ100が目標位置P1に近接すると、カメラ5の視軸は相変わらず目標位置P1を指向しているので、撮像対象物の位置Qはカメラ5の視界から外れ、撮像対象物を撮像ができなくなる。   Next, the operation of the camera stabilizer 10 of FIG. 1 will be described in detail with reference to FIGS. FIG. 2 shows a camera in the camera stabilizer 10 mounted on the helicopter 100 when there is an imaging object at the rooftop position Q of the high-rise building 200 and the ground position P1 of the building 200 is the target position 111 acquired on the map 11. It is a schematic diagram showing that the visual axis of 5 is L1. In FIG. 2 (also in FIGS. 3 and 4), the position of the camera stabilizer 10 acquired from the GPS (substantially the same as the position of the helicopter 100) is N1. The camera stabilizer 10 is activated and determines the visual axis of the camera 5 based on the target position P1 on the ground surface represented by the target position 111 supplied from the map 11 and the current position 112 of the camera stabilizer 10 acquired from the GPS. Automatic tracking that automatically points to the upper target position P1 is started. When the distance from the helicopter 100 to the target position P1 is large, the position Q of the imaging object enters the field of view of the camera 5 even if the visual axis of the camera 5 is directed to the target position P1, and thus the helicopter 100 moves. However, the camera 5 can automatically capture an image of the object to be imaged. However, when the helicopter 100 is close to the target position P1, the visual axis of the camera 5 is still directed to the target position P1, so that the position Q of the imaging target deviates from the field of view of the camera 5 and the imaging target can be imaged. Disappear.

このようなときにも、操作者13が操作部7のジョイスティックを操作し、閾値以上の大きさの操作113を操作部7に入力することにより、駆動コマンド107aを生成し、カメラ5の視軸を移動させることにより、撮像対象物をカメラ5の視野に捕捉し、カメラ5の視軸を撮像対象物の位置Qに指向させ、位置Qをカメラ5の視野の中心に捕らえる(図3参照)。図3は、カメラ5の視軸をL1からL2へ変更する様子を概念的に表している。   Even in such a case, the operator 13 operates the joystick of the operation unit 7 and inputs an operation 113 having a magnitude greater than or equal to the threshold value to the operation unit 7, thereby generating the drive command 107 a and the visual axis of the camera 5. , The imaging object is captured in the field of view of the camera 5, the visual axis of the camera 5 is directed to the position Q of the imaging object, and the position Q is captured at the center of the field of view of the camera 5 (see FIG. 3). . FIG. 3 conceptually shows how the visual axis of the camera 5 is changed from L1 to L2.

操作部7は、駆動コマンド107aを生成すると同時に、補正指示107bを生成する。目標位置補正計算部1は、補正指示107bを受けると、補正後目標位置101を計算する。いま補正後目標位置101で現される位置をP2とする(図4参照)。図4において、S1は視軸L2を法線ベクトルとし、目標位置P1を通る平面である。補正後目標位置P2は、平面S1と視軸L2との交点であり、視軸L2上にあって、当初の目標位置P1に最も近い位置である。   The operation unit 7 generates a correction command 107b at the same time as generating the drive command 107a. Upon receiving the correction instruction 107b, the target position correction calculation unit 1 calculates the corrected target position 101. The position represented by the corrected target position 101 is now P2 (see FIG. 4). In FIG. 4, S1 is a plane passing through the target position P1 with the visual axis L2 as a normal vector. The corrected target position P2 is an intersection of the plane S1 and the visual axis L2, and is located on the visual axis L2 and closest to the initial target position P1.

目標位置保持部2は、保持する目標位置を当初の目標位置P1から補正後目標位置P2に変更し、目標位置102bも補正後目標位置P2とする。すると、追尾ジンバル角計算部3およびジンバル角制御部4は、カメラ5の視軸が補正後目標位置P2を常に指向するように、視軸制御104bを出力する。このようにして、以後カメラスタビライザ10はこの新たな目標位置P2を自動追尾する。   The target position holding unit 2 changes the target position to be held from the initial target position P1 to the corrected target position P2, and the target position 102b is also set as the corrected target position P2. Then, the tracking gimbal angle calculation unit 3 and the gimbal angle control unit 4 output the visual axis control 104b so that the visual axis of the camera 5 is always directed to the corrected target position P2. Thus, thereafter, the camera stabilizer 10 automatically tracks this new target position P2.

この新たな目標位置P2に自動追尾をしているときに、ヘリコプタ100が図5の位置N2に移動したところ、視軸はL2´で目標位置P2を捕捉してはいるが、撮像対象物の位置Qが再度カメラ5の視界から外れたとする。このときは、操作者13は改めて操作部7のジョイスティックに操作113を与え、閾値以上の大きさの操作を操作部7に入力すると、操作部7は駆動コマンド107aを生成し、カメラ5の視軸を移動させることにより、撮像対象物をカメラ5の視野に捕捉し、カメラ5の視軸を撮像対象物の位置Qに指向させ、撮像対象物の位置Qを再びカメラ5の視界の中心に捕らえる。図6の視軸L3は、撮像対象物の位置Qを指向した新たなカメラ5の視軸を表す。図6におけるヘリコプタ100の位置は、図5と同じくN2である。   When the helicopter 100 moves to the position N2 in FIG. 5 while automatically tracking to the new target position P2, the visual axis is L2 ′ and the target position P2 is captured. Assume that the position Q is out of the field of view of the camera 5 again. At this time, when the operator 13 gives the operation 113 to the joystick of the operation unit 7 again and inputs an operation having a magnitude greater than or equal to the threshold value to the operation unit 7, the operation unit 7 generates a drive command 107 a and views the camera 5. By moving the axis, the imaging object is captured in the field of view of the camera 5, the visual axis of the camera 5 is directed to the position Q of the imaging object, and the position Q of the imaging object is again set at the center of the field of view of the camera 5. capture. The visual axis L3 in FIG. 6 represents the visual axis of the new camera 5 that is directed to the position Q of the imaging object. The position of the helicopter 100 in FIG. 6 is N2 as in FIG.

操作部7は駆動コマンド107aとともに補正指示107bを出力するので、前回の補正指示107bの出力のときと同様に、目標位置補正計算部1は新たに補正後目標位置101を生成する。このときの新たな補正後目標位置101を補正後目標位置P3とする。補正後目標位置P3は、図6に示すように、視軸L3上の点であって、前回の目標位置P2に最も近い位置である。図6において、S2は視軸L3を法線とする平面を表す。目標位置保持部2は、この新たな補正後目標位置P3を保存し、補正前目標位置102a及び目標位置102bとして出力する。以後カメラスタビライザ10は、前回の目標位置P2の自動追尾と同様に、追尾ジンバル角計算部3およびジンバル角制御部4の作用により、新たな目標位置P3にカメラ5の視軸を自動追尾させる。この新たな目標位置P3は、前回の目標位置P2より撮像対象物の位置Qに一層近い。   Since the operation unit 7 outputs the correction instruction 107b together with the drive command 107a, the target position correction calculation unit 1 newly generates a corrected target position 101 as in the case of the output of the previous correction instruction 107b. The new corrected target position 101 at this time is set as a corrected target position P3. As shown in FIG. 6, the post-correction target position P3 is a point on the visual axis L3 and is the closest position to the previous target position P2. In FIG. 6, S2 represents a plane having the visual axis L3 as a normal line. The target position holding unit 2 stores the new post-correction target position P3 and outputs it as the pre-correction target position 102a and the target position 102b. Thereafter, the camera stabilizer 10 automatically tracks the visual axis of the camera 5 to the new target position P3 by the action of the tracking gimbal angle calculation unit 3 and the gimbal angle control unit 4 as in the previous automatic tracking of the target position P2. This new target position P3 is closer to the imaging object position Q than the previous target position P2.

このような手順により、図1のカメラスタビライザ10では、ヘリコプタ100の移動に応じて撮像対象物の位置Qがカメラ5の視野から外れるか、或いはカメラ5の視野から外れる前に、操作者13が撮像対象物の位置Qをカメラ5の視野の中心に捕らえるように操作部7に操作113を入力し、自動追尾の目標位置(例えば、前述のP1,P2,P3)を順次に更新することにより、自動追尾の目標位置を撮像対象物の位置Qに漸次近接させることができる。   With such a procedure, in the camera stabilizer 10 of FIG. 1, the operator 13 moves the position Q of the imaging object out of the field of view of the camera 5 according to the movement of the helicopter 100, or before the operator 13 moves out of the field of view of the camera 5. By inputting the operation 113 to the operation unit 7 so as to capture the position Q of the imaging object in the center of the visual field of the camera 5 and sequentially updating the target positions (for example, P1, P2, P3 described above) for automatic tracking. The target position for automatic tracking can be gradually brought closer to the position Q of the object to be imaged.

次に本発明のカメラスタビライザ目標位置補正方法の原理を説明する。説明の便宜のために、本発明を適用するカメラスタビライザは図1に示す構成であるとする。図7は、図1のカメラスタビライザ10に適用する本発明の目標位置補正方法の原理を説明するための図であり、本発明における各要素の関係を示す概念図である。図7で示す各要素の関係は、カメラスタビライザ10が現時点まで自動追尾の対象としていた目標位置が点Pであり、その目標位置Pがカメラ5の視界から外れたか或いは外れそうになったので、操作者13による操作113により、カメラ5の視軸を移動させることにより、撮像対象物をカメラ5の視野に捕捉し、カメラ5の視軸を撮像対象物の位置Qに指向させ、撮像対象物の位置Qがカメラ5の視野の中心に捕らえられ、カメラ5の視軸Lが撮像対象物の位置Qに指向し、この操作によりカメラスタビライザ10の自動追尾の目標位置が補正され、新たな点Tを目標位置としたときのものである。   Next, the principle of the camera stabilizer target position correction method of the present invention will be described. For convenience of explanation, it is assumed that the camera stabilizer to which the present invention is applied has the configuration shown in FIG. FIG. 7 is a diagram for explaining the principle of the target position correction method of the present invention applied to the camera stabilizer 10 of FIG. 1, and is a conceptual diagram showing the relationship of each element in the present invention. The relationship between each element shown in FIG. 7 is that the target position that the camera stabilizer 10 has been subject to automatic tracking is the point P, and the target position P is out of the field of view of the camera 5 or is about to come off. By moving the visual axis of the camera 5 by the operation 113 by the operator 13, the imaging target is captured in the visual field of the camera 5, the visual axis of the camera 5 is directed to the position Q of the imaging target, and the imaging target Is captured at the center of the field of view of the camera 5, the visual axis L of the camera 5 is directed to the position Q of the object to be imaged, and this operation corrects the target position for automatic tracking of the camera stabilizer 10 to produce a new point. This is when T is the target position.

カメラスタビライザ10において、地図から入力された目標位置P1と実際の撮像対象物の位置Qとの間に相違があるときにも、撮像対象物の追尾を可能にするために行う補正目標位置算出の演算は、前述のとおり、目標位置補正計算部1で行われ、補正後目標位置101として出力される。この自動追尾の目標位置を補正する演算は次のようになされる。   In the camera stabilizer 10, even when there is a difference between the target position P1 input from the map and the actual position Q of the imaging object, correction target position calculation is performed to enable tracking of the imaging object. As described above, the calculation is performed by the target position correction calculation unit 1 and is output as the corrected target position 101. The calculation for correcting the target position for automatic tracking is performed as follows.

前回の目標位置Pの座標を
P(Xp, Yp, Zp)
ヘリコプタ100の現在位置の座標Nを
N(Xn, Yn, Zn)
ヘリコプタ100が座標Nの現在位置にあるときに、カメラ5が撮像対象物(位置Q)を捕捉したとき、カメラ5の視軸LのベクトルV(視軸ベクトルVと称することとする)を
V(Xv, Yv, Zv)
とする。このとき、カメラ5の視軸Lを表す視軸直線は、助変数tを与えると、次の式(1)で表される。

Figure 2006121261
本発明による目標位置補正方法では、補正した後の目標位置は、視軸直線上であって、前回の目標位置に最も近い点とする。この補正後の目標位置の座標Tを計算するために、平面Sを仮想する。平面Sは、視軸ベクトルVを法線とし、前回の目標位置Pを通る平面である。この平面Sは、
Xv・(x−Xp)+Yv・(y−Yp)+Zv・(z−Zp)=0・・・・・(2)
と表せる。 The coordinates of the previous target position P
P (Xp, Yp, Zp)
The coordinate N of the current position of the helicopter 100 is
N (Xn, Yn, Zn)
When the helicopter 100 is at the current position of the coordinate N and the camera 5 captures the imaging target (position Q), the vector V of the visual axis L of the camera 5 (referred to as the visual axis vector V).
V (Xv, Yv, Zv)
And At this time, the visual axis straight line representing the visual axis L of the camera 5 is expressed by the following equation (1) when an auxiliary variable t is given.
Figure 2006121261
In the target position correction method according to the present invention, the corrected target position is on the visual axis straight line and is the closest point to the previous target position. In order to calculate the coordinates T of the corrected target position, the plane S is assumed. The plane S is a plane passing through the previous target position P with the visual axis vector V as a normal line. This plane S is
Xv · (x−Xp) + Yv · (y−Yp) + Zv · (z−Zp) = 0 (2)
It can be expressed.

前記式(1)で表される視軸直線と式(2)で表される平面Sとの交点の座標Tが補正後の目標位置の座標である。式(1)と式(2)の連立方程式を助変数tについて解くと、

Figure 2006121261
となる。 The coordinate T of the intersection point between the visual axis straight line represented by the equation (1) and the plane S represented by the equation (2) is the coordinate of the target position after correction. Solving the simultaneous equations of Equation (1) and Equation (2) for the auxiliary variable t,
Figure 2006121261
It becomes.

この式(3)及び式(1)により、座標Tは、
(Xv・t+Xp, Yv・t+Yp, Zv・t+Zp)・・・・・・・(4)
と求められる。かくして、本発明による「視軸直線上であって、前回の目標位置に最も近い点」という補正後の目標位置が式(4)により決定される。
From this equation (3) and equation (1), the coordinate T is
(Xv.t + Xp, Yv.t + Yp, Zv.t + Zp) (4)
Is required. Thus, the corrected target position “a point on the visual axis straight line and closest to the previous target position” according to the present invention is determined by the equation (4).

図7から明らかなように、撮像対象物の位置Qと前回の目標位置Pとの距離をD1、撮像対象物の位置Qと補正後の目標位置Tとの距離をD2とすると、位置Q,T,Pは直角3角形をなすから、常にD2<D1である。この不等式は、補正の度に、補正後の目標位置Tは撮像対象物の位置Qに一層近づくことを表している。   As is apparent from FIG. 7, when the distance between the position Q of the imaging object and the previous target position P is D1, and the distance between the position Q of the imaging object and the corrected target position T is D2, the position Q, Since T and P form a right triangle, D2 <D1 is always satisfied. This inequality indicates that the corrected target position T is closer to the position Q of the object to be imaged at every correction.

以上に詳しく説明したように、図1乃至図7を参照して説明した本発明の一実施の形態は、目標位置Pと自らの位置Nとが与えられたとき、カメラ5の視軸Lを目標位置Pに自動的に指向する位置制御追尾方式のカメラスタビライザであって、初回の目標位置P1が地図11で、また自らの位置NがGPS12でそれぞれ与えられ、操作者13の操作113を入力する操作部7を備え、操作113に応じ該視軸Lが制御されるカメラスタビライザに適用されて、カメラ5の視軸Lを初回の目標位置P1に自動的に指向しており、かつ撮像対象物の位置Qがカメラ5で捕捉できる第1の捕捉位置N1で操作113を与えることにより、撮像対象物の位置Qにカメラ5の視軸を指向し、第1の捕捉位置N1から撮像対象物の位置Qを指向するカメラ5の視軸L2上であって初回の目標位置P1に最も近い点を第2の目標位置P2として演算により求め、更に必要に応じて、カメラの視軸Lを第2の目標位置P2に自動的に指向しており、かつ撮像対象物の位置Qがカメラ5で捕捉できる第2の捕捉位置N2で操作113を与えることにより、撮像対象物の位置Qにカメラ5の視軸を指向し、第2の捕捉位置N2から撮像対象物の位置Qを指向するカメラ5の視軸L3上であって第2の目標位置P2に最も近い点を第3の目標位置P3として演算により求め、以後必要に応じて同様に目標位置を補正することにより、撮像対象物の位置Qに漸次近接するように目標位置を補正する方法である。   As described in detail above, the embodiment of the present invention described with reference to FIG. 1 to FIG. 7 shows the visual axis L of the camera 5 when the target position P and its own position N are given. It is a position control tracking type camera stabilizer that automatically points to the target position P, the initial target position P1 is given by the map 11, and its own position N is given by the GPS 12, and the operation 113 of the operator 13 is input. Applied to a camera stabilizer in which the visual axis L is controlled in accordance with an operation 113, the visual axis L of the camera 5 is automatically directed to the initial target position P1, and the imaging target By giving the operation 113 at the first capture position N1 at which the object position Q can be captured by the camera 5, the visual axis of the camera 5 is directed to the position Q of the image capture object, and the image capture object from the first capture position N1 Turtle that points to the position Q The point closest to the first target position P1 on the five visual axes L2 is obtained by calculation as the second target position P2, and the camera visual axis L is automatically set to the second target position P2 if necessary. And by giving the operation 113 at the second capture position N2 where the position Q of the imaging object can be captured by the camera 5, the visual axis of the camera 5 is directed to the position Q of the imaging object, A point that is closest to the second target position P2 on the visual axis L3 of the camera 5 pointing from the second capture position N2 to the position Q of the object to be imaged is calculated as the third target position P3, and is necessary thereafter. Similarly, the target position is corrected so as to gradually approach the position Q of the object to be imaged by correcting the target position in the same manner.

このカメラスタビライザ目標位置補正方法により、カメラ搭載の航空機が目標物に近接したときに、地図などから取得する目標位置の精度が低くても、目標物をカメラの視野内に捕らえ続けられるように、目標位置を補正できる。図2ないし図7には、地図11から入力される目標位置111における高度のデータがビルディング200の地表面上の位置P1であって、実際に撮像したい対象物の位置Qではない場合を説明した。しかし本発明は、所要精度の目標位置が地図などから取得できない場合には常に有効であり、例えば高度だけではなく緯度や経度のデータの精度が十分でないときも有効であり、またビルディングの屋上のみならず、中間の階が撮像対象物であるとき、或いは撮像対象物の位置が時間の経過とともに変動する場合などに柔軟に目標位置を補正できる方法である。   With this camera stabilizer target position correction method, when an aircraft equipped with a camera is close to the target, even if the accuracy of the target position acquired from a map or the like is low, the target can continue to be captured in the camera's field of view. The target position can be corrected. FIGS. 2 to 7 illustrate the case where the altitude data at the target position 111 input from the map 11 is the position P1 on the ground surface of the building 200 and not the position Q of the object to be actually imaged. . However, the present invention is always effective when the target position with the required accuracy cannot be obtained from a map or the like. For example, the present invention is effective not only when the altitude but also the accuracy of latitude and longitude data is not sufficient, and only on the rooftop of the building. In other words, the target position can be flexibly corrected when an intermediate floor is an imaging target or when the position of the imaging target changes with time.

本発明のカメラスタビライザ目標位置補正方法の採用により、地図などから取得する目標位置の精度が低いときにも、カメラスタビライザによる近接目標自動追尾能力の向上を可能とする。また、本発明のカメラスタビライザ目標位置補正方法は、目標物がビルディング等の建造物の屋上や中間階にあり、目標位置データにおける高度の要素が欠けるときも、カメラスタビライザによる近接目標自動追尾能力を向上する。更に、本発明のカメラスタビライザ目標位置補正方法は、地図などから取得する目標位置の精度が低いことが原因で、カメラ搭載の航空機が目標物に近接したときに目標物をカメラの視野内に捕らえ続けられなくなったときも、撮像対象物を視覚により直接に捕捉できないときでもカメラよる目標物の自動捕捉を可能にし、ひいては航空機が目標の方向に飛行を始めてから目標物の撮像開始までの時間を短縮し、またその撮像開始までの時間をカメラの操作者の熟練度に拘わらず短縮できる。   By adopting the camera stabilizer target position correction method of the present invention, it is possible to improve the proximity target automatic tracking capability by the camera stabilizer even when the accuracy of the target position acquired from a map or the like is low. Further, the camera stabilizer target position correction method of the present invention has a proximity target automatic tracking capability by the camera stabilizer even when the target is on the roof or intermediate floor of a building or the like and the altitude element in the target position data is missing. improves. Furthermore, the camera stabilizer target position correction method of the present invention captures the target in the camera's field of view when the camera-equipped aircraft approaches the target because the target position acquired from a map or the like is low in accuracy. Even when it is not possible to continue, even when the object to be imaged cannot be captured directly visually, the camera can automatically capture the target, and the time from when the aircraft starts to fly in the direction of the target until the target starts to be imaged can be reduced. The time until the start of imaging can be shortened regardless of the skill level of the camera operator.

なお、以上には実施の形態を挙げ、本発明を具体的に説明したが、本発明がこの実施の形態に限定されるものでないことは勿論である。   In addition, although embodiment was mentioned above and this invention was demonstrated concretely, of course, this invention is not limited to this embodiment.

本発明のカメラスタビライザ目標位置補正方法の一実施の形態を適用するカメラスタビライザを示すブロック図である。It is a block diagram which shows the camera stabilizer to which one Embodiment of the camera stabilizer target position correction method of this invention is applied. ヘリコプタ100に搭載したカメラ5の視軸L1がビルディング200の地表上の位置P1を指向する様子を示す概念図である。4 is a conceptual diagram showing a state in which a visual axis L1 of a camera 5 mounted on a helicopter 100 is directed to a position P1 on the ground surface of a building 200. FIG. ヘリコプタ100に搭載したカメラ5の視軸L1がビルディング200の地表上の位置P1を指向しているとき(図2)に、カメラスタビライザ10の操作部(ジョイスティック)7を操作し、カメラ5の視軸をL1からL2に変更し、カメラ5の視軸をビルディング200の屋上の位置Qに指向させた様子を示す概念図である。When the visual axis L1 of the camera 5 mounted on the helicopter 100 is directed to the position P1 on the ground surface of the building 200 (FIG. 2), the operation unit (joystick) 7 of the camera stabilizer 10 is operated to view the camera 5 It is a conceptual diagram which shows a mode that the axis | shaft was changed from L1 to L2 and the visual axis of the camera 5 was orient | assigned to the position Q on the roof of the building 200. FIG. ヘリコプタ100に搭載したカメラ5の視軸L1がビルディング200の地表上の位置P1を指向しているとき(図2)に、カメラスタビライザ10の操作部(ジョイスティック)7を操作し、カメラ5の視軸をL1からL2に変更し、カメラ5の視軸をビルディング200の屋上の位置Qに指向させる(図3)とともに、カメラスタビライザ10の目標位置補正計算部1が、追尾対象の目標の位置を点P2に補正する様子を示す概念図である。When the visual axis L1 of the camera 5 mounted on the helicopter 100 is directed to the position P1 on the ground surface of the building 200 (FIG. 2), the operation unit (joystick) 7 of the camera stabilizer 10 is operated to view the camera 5 The axis is changed from L1 to L2, the visual axis of the camera 5 is directed to the position Q on the roof of the building 200 (FIG. 3), and the target position correction calculation unit 1 of the camera stabilizer 10 determines the target position of the tracking target. It is a conceptual diagram which shows a mode that it correct | amends to the point P2. ヘリコプタ100が図4の位置から別の位置に移動したとき、カメラスタビライザ10が図4の補正後の追尾対象位置P2にカメラ5の視軸を向けた様子を示す概念図である。FIG. 5 is a conceptual diagram illustrating a state in which the camera stabilizer 10 directs the visual axis of the camera 5 to the corrected tracking target position P2 in FIG. 4 when the helicopter 100 moves from the position in FIG. 4 to another position. ヘリコプタ100が図4の位置から別の位置に移動したとき、カメラスタビライザ10が図4の補正後の追尾対象位置P2にカメラ5の視軸を向ける(図5)とともに、カメラスタビライザ10の目標位置補正計算部1が、追尾対象の目標の位置を点P3に補正する様子を示す概念図である。When the helicopter 100 moves from the position of FIG. 4 to another position, the camera stabilizer 10 directs the visual axis of the camera 5 to the corrected tracking target position P2 of FIG. 4 (FIG. 5), and the target position of the camera stabilizer 10 It is a conceptual diagram which shows a mode that the correction calculation part 1 correct | amends the position of the target of tracking object to the point P3. 本発明のカメラスタビライザ目標位置補正方法の原理を説明する図である。It is a figure explaining the principle of the camera stabilizer target position correction method of this invention.

符号の説明Explanation of symbols

1 目標位置補正計算部
2 目標位置保持部
3 追尾ジンバル角計算部
4 ジンバル角制御部
5 カメラ
6 慣性装置
7 操作部
10 カメラスタビライザ
11 地図
12 GPS(Global Positioning System)
13 操作者
101 補正後目標位置
102a 補正前目標位置
102b 目標位置
103 追尾ジンバル角
104a 現在ジンバル角
104b 視軸制御
106 カメラ視軸方向
107a 駆動コマンド
107b 補正指示
111 目標位置
112 現在位置
113 操作
L 視軸直線
N 機体100の現在位置
P 前回の目標位置
Q 撮像対象物の位置
S Vを法線ベクトルとしたPを通る平面
V 視軸ベクトル
T,P2,P3 補正後の目標位置
DESCRIPTION OF SYMBOLS 1 Target position correction | amendment calculation part 2 Target position holding | maintenance part 3 Tracking gimbal angle calculation part 4 Gimbal angle control part 5 Camera 6 Inertial device 7 Operation part 10 Camera stabilizer 11 Map 12 GPS (Global Positioning System)
13 operator 101 post-correction target position 102a pre-correction target position 102b target position 103 tracking gimbal angle 104a current gimbal angle 104b visual axis control 106 camera visual axis direction 107a drive command 107b correction instruction 111 target position 112 current position 113 operation L visual axis Straight line N Current position of aircraft 100 P Previous target position Q Position of object to be imaged S Plane with P as normal vector V Visual axis vector T, P2, P3 Target position after correction

Claims (2)

目標位置Pと自らの位置Nとが与えられたとき、カメラの視軸Lを目標位置Pに自動的に指向する位置制御追尾方式のカメラスタビライザであって、初回の目標位置P1が地図で、また自らの位置NがGPSでそれぞれ与えられ、操作者の操作を入力する操作部を備え、該操作に応じ視軸Lが制御されるカメラスタビライザに適用されて、視軸Lを初回の目標位置P1に指向しており、かつ撮像対象物の位置Qがカメラで捕捉できる第1の捕捉位置N1で該操作を与えることにより、撮像対象物の位置Qに視軸Lを指向し、第1の捕捉位置N1から撮像対象物の位置Qを指向するカメラの視軸L2上であって初回の目標位置P1に最も近い点を第2の目標位置P2として演算により求め、更に必要に応じて、視軸Lを第2の目標位置P2に指向しており、かつ撮像対象物の位置Qがカメラで捕捉できる第2の捕捉位置N2で該操作を与えることにより、撮像対象物の位置Qに視軸Lを指向し、第2の捕捉位置N2から撮像対象物の位置Qを指向するカメラの視軸L3上であって第2の目標位置P2に最も近い点を第3の目標位置P3として演算により求め、以後必要に応じて同様に、目標位置を補正することにより、撮像対象物の位置Qに漸次近接するように目標位置Pを補正するカメラスタビライザ目標位置補正方法。   When a target position P and its own position N are given, it is a position control tracking type camera stabilizer that automatically points the visual axis L of the camera to the target position P, and the initial target position P1 is a map, Further, the present invention is applied to a camera stabilizer in which its own position N is given by GPS and an operation unit for inputting an operator's operation is provided, and the visual axis L is controlled in accordance with the operation. By giving the operation at the first capture position N1 that is directed to P1 and the position Q of the imaging object can be captured by the camera, the visual axis L is directed to the position Q of the imaging object, and the first A point that is closest to the initial target position P1 on the visual axis L2 of the camera that is directed from the capture position N1 to the position Q of the object to be imaged is calculated as the second target position P2, and is further viewed as necessary. The axis L is fingered to the second target position P2. And giving the operation at the second capture position N2 at which the position Q of the imaging object can be captured by the camera, the visual axis L is directed to the position Q of the imaging object, and the second capture position N2 To obtain the point closest to the second target position P2 on the visual axis L3 of the camera directed to the position Q of the object to be imaged as the third target position P3. A camera stabilizer target position correction method for correcting the target position P so as to gradually approach the position Q of the imaging object by correcting the position. 目標位置Pと現在の自らの位置Nとが与えられたとき、カメラの視軸Lを目標位置Pに自動的に指向する位置制御追尾方式のカメラスタビライザであって、操作者の操作を入力する操作部を備え、該操作に応じ視軸Lが制御されるカメラスタビライザに適用され、撮像対象物の位置Qに漸次近接するように目標位置Pを補正するカメラスタビライザ目標位置補正方法において、
前回の目標位置Pの座標を
P(Xp, Yp, Zp)
現在位置の座標Nを
N(Xn, Yn, Zn)
前記カメラスタビライザが座標Nにあって、カメラが位置Qの撮像対象物を捕捉したとき、カメラの視軸LのベクトルVを
V(Xv, Yv, Zv)
とすると、助変数tを与えることにより、視軸Lを
Figure 2006121261
なる式で表し、
補正後の目標位置は、視軸L上であって、前回の目標位置に最も近い点とし、
視軸LのベクトルVを法線とするとともに、前回の目標位置Pを通る平面Sを仮想し、
平面Sを、
Xv・(x−Xp)+Yv・(y−Yp)+Zv・(z−Zp)=0・・・・・(2)
と表し、
式(1)で表される視軸と式(2)で表される平面Sとの交点の座標Tを補正後の目標位置の座標とし、式(1)と式(2)の連立方程式を助変数tに関し、
Figure 2006121261
と解き、式(3)及び式(1)により、座標Tを、
(Xv・t+Xp, Yv・t+Yp, Zv・t+Zp)・・・・・・・(4)
なる式(4)で求める
ことを特徴とするカメラスタビライザ目標位置補正方法。
This is a position control tracking type camera stabilizer that automatically directs the visual axis L of the camera to the target position P when the target position P and the current own position N are given, and inputs the operation of the operator In a camera stabilizer target position correction method that includes an operation unit and is applied to a camera stabilizer in which the visual axis L is controlled according to the operation and corrects the target position P so as to gradually approach the position Q of the object to be imaged.
The coordinates of the previous target position P
P (Xp, Yp, Zp)
The coordinates N of the current position
N (Xn, Yn, Zn)
When the camera stabilizer is at the coordinate N and the camera captures the imaging object at the position Q, the vector V of the camera visual axis L is obtained.
V (Xv, Yv, Zv)
Then, by giving the auxiliary variable t, the visual axis L is
Figure 2006121261
It is expressed by the formula
The corrected target position is on the visual axis L and is the closest point to the previous target position,
Assuming that the vector V of the visual axis L is a normal line, a plane S passing through the previous target position P is assumed,
Plane S,
Xv · (x−Xp) + Yv · (y−Yp) + Zv · (z−Zp) = 0 (2)
And
The coordinate T of the intersection of the visual axis represented by the expression (1) and the plane S represented by the expression (2) is the coordinate of the target position after correction, and the simultaneous equations of the expressions (1) and (2) are For the parameter t
Figure 2006121261
And the coordinate T is expressed by the equations (3) and (1).
(Xv.t + Xp, Yv.t + Yp, Zv.t + Zp) (4)
A camera stabilizer target position correction method characterized by being obtained by the following equation (4).
JP2004305267A 2004-10-20 2004-10-20 Camera stabilizer target position correction method Active JP4515884B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004305267A JP4515884B2 (en) 2004-10-20 2004-10-20 Camera stabilizer target position correction method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004305267A JP4515884B2 (en) 2004-10-20 2004-10-20 Camera stabilizer target position correction method

Publications (3)

Publication Number Publication Date
JP2006121261A true JP2006121261A (en) 2006-05-11
JP2006121261A5 JP2006121261A5 (en) 2007-08-16
JP4515884B2 JP4515884B2 (en) 2010-08-04

Family

ID=36538753

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004305267A Active JP4515884B2 (en) 2004-10-20 2004-10-20 Camera stabilizer target position correction method

Country Status (1)

Country Link
JP (1) JP4515884B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010124398A (en) * 2008-11-21 2010-06-03 Mitsubishi Electric Corp Automatic tracking photographing apparatus from aerial mobile vehicle
JP2010124399A (en) * 2008-11-21 2010-06-03 Mitsubishi Electric Corp Automatic tracking photographing apparatus from aerial mobile vehicle
US8363107B2 (en) 2008-12-04 2013-01-29 Sony Corporation Image processing device and method, image processing system, and image processing program

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03250870A (en) * 1990-02-28 1991-11-08 Matsushita Electric Ind Co Ltd Television camera device for aerial photographing
JPH08285590A (en) * 1995-04-10 1996-11-01 Kawasaki Heavy Ind Ltd Method and apparatus for specifying position
JPH09101142A (en) * 1995-10-06 1997-04-15 Japan Aviation Electron Ind Ltd Display device for photographing position
JP2001169171A (en) * 1999-12-13 2001-06-22 Mitsubishi Electric Corp Visual line control device
JP2001343213A (en) * 2000-06-01 2001-12-14 Minolta Co Ltd Position-specifying apparatus loaded to mobile body
JP2001359083A (en) * 2000-06-13 2001-12-26 Minolta Co Ltd Imaging unit mounted on mobile body
JP2003228122A (en) * 2002-02-04 2003-08-15 Sanyo Kogaku:Kk Camera base for mounting camera on flight vehicle
JP2004080580A (en) * 2002-08-21 2004-03-11 Japan Aviation Electronics Industry Ltd Tracking method of panhead for camera and tracking camera panhead

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03250870A (en) * 1990-02-28 1991-11-08 Matsushita Electric Ind Co Ltd Television camera device for aerial photographing
JPH08285590A (en) * 1995-04-10 1996-11-01 Kawasaki Heavy Ind Ltd Method and apparatus for specifying position
JPH09101142A (en) * 1995-10-06 1997-04-15 Japan Aviation Electron Ind Ltd Display device for photographing position
JP2001169171A (en) * 1999-12-13 2001-06-22 Mitsubishi Electric Corp Visual line control device
JP2001343213A (en) * 2000-06-01 2001-12-14 Minolta Co Ltd Position-specifying apparatus loaded to mobile body
JP2001359083A (en) * 2000-06-13 2001-12-26 Minolta Co Ltd Imaging unit mounted on mobile body
JP2003228122A (en) * 2002-02-04 2003-08-15 Sanyo Kogaku:Kk Camera base for mounting camera on flight vehicle
JP2004080580A (en) * 2002-08-21 2004-03-11 Japan Aviation Electronics Industry Ltd Tracking method of panhead for camera and tracking camera panhead

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010124398A (en) * 2008-11-21 2010-06-03 Mitsubishi Electric Corp Automatic tracking photographing apparatus from aerial mobile vehicle
JP2010124399A (en) * 2008-11-21 2010-06-03 Mitsubishi Electric Corp Automatic tracking photographing apparatus from aerial mobile vehicle
US8363107B2 (en) 2008-12-04 2013-01-29 Sony Corporation Image processing device and method, image processing system, and image processing program
US8957971B2 (en) 2008-12-04 2015-02-17 Sony Corporation Image processing device and method, image processing system, and image processing program
US9786144B2 (en) 2008-12-04 2017-10-10 Sony Corporation Image processing device and method, image processing system, and image processing program
US9886770B2 (en) 2008-12-04 2018-02-06 Sony Corporation Image processing device and method, image processing system, and image processing program

Also Published As

Publication number Publication date
JP4515884B2 (en) 2010-08-04

Similar Documents

Publication Publication Date Title
US11009893B2 (en) Flying vehicle tracking method, flying vehicle image acquiring method, flying vehicle displaying method and flying vehicle guiding system
JP6601554B2 (en) Unmanned aerial vehicle, unmanned aircraft control system, flight control method, and computer program
US9073637B2 (en) Flying vehicle guiding system and flying vehicle guiding method
CA2513514C (en) Compensation for overflight velocity when stabilizing an airborne camera
CN101390383B (en) Image correction device, method, program, integrated circuit, and system
JP7022559B2 (en) Unmanned aerial vehicle control method and unmanned aerial vehicle control program
JP2018013337A (en) Device and method for guiding and positioning flying object
JP6675537B1 (en) Flight path generation device, flight path generation method and program, and structure inspection method
JP2003014477A (en) Image navigation device
JP2009250827A (en) Navigation device, method, and program
JP2007240506A (en) Three-dimensional shape and 3-dimensional topography measuring method
JP6001914B2 (en) Target position specifying device, target position specifying system, and target position specifying method
CN106325305A (en) Geo-location or navigation type camera, aircraft, and navigation method and system thereof
US20220026208A1 (en) Surveying system, surveying method, and surveying program
US10778899B2 (en) Camera control apparatus
JP4515884B2 (en) Camera stabilizer target position correction method
JP6570344B2 (en) Route generation method and system
JP2021096805A (en) Image capturing method and image capturing apparatus
JP6978566B2 (en) Controls, programs, and control methods
KR102127962B1 (en) Pan-tilt-gimbal integrated system and control method thereof
JP2022010965A (en) Flight device
JP6760876B2 (en) Control devices, programs, and control methods
JP2019219206A (en) Measurement system
KR102571330B1 (en) Control apparatus for subject tracking shooting, drone and operation method thereof
JP2004080580A (en) Tracking method of panhead for camera and tracking camera panhead

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070702

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070702

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20091214

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20091222

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20100204

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100219

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20100204

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100420

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100513

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

Ref document number: 4515884

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130521

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140521

Year of fee payment: 4

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250