JP2011095112A - Three-dimensional position measuring apparatus, mapping system of flying object, and computer program - Google Patents

Three-dimensional position measuring apparatus, mapping system of flying object, and computer program Download PDF

Info

Publication number
JP2011095112A
JP2011095112A JP2009249528A JP2009249528A JP2011095112A JP 2011095112 A JP2011095112 A JP 2011095112A JP 2009249528 A JP2009249528 A JP 2009249528A JP 2009249528 A JP2009249528 A JP 2009249528A JP 2011095112 A JP2011095112 A JP 2011095112A
Authority
JP
Japan
Prior art keywords
flying object
camera
optical axis
azimuth
calculating
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2009249528A
Other languages
Japanese (ja)
Inventor
Hideaki Tezuka
英昭 手塚
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tokyo Electric Power Company Holdings Inc
Original Assignee
Tokyo Electric Power Co Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tokyo Electric Power Co Inc filed Critical Tokyo Electric Power Co Inc
Priority to JP2009249528A priority Critical patent/JP2011095112A/en
Publication of JP2011095112A publication Critical patent/JP2011095112A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Length Measuring Devices By Optical Means (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To compute three-dimensional position coordinates of a projectile even when photographing is performed by one camera from one location and to create and display a map such as a projectile map on the basis of the three-dimensional position coordinates. <P>SOLUTION: A three-dimensional position measuring apparatus includes both of the one camera (12) for photographing a projectile (50) in a prescribed space region (11) and a distance measuring means (24) for measuring the distance r from an origin O of a measuring position of the camera (12) to the projectile (50). Position data of the origin O of the measuring position and the azimuth direction Θ of an optical axis (13) of the camera (12) are computed on the basis of position data and azimuth data based on a GPS receiver (15). The three-dimensional position of the position C of a screen center through which the optical axis (13) of the camera (12) passes. The three-dimensional position of the projectile (50) on a photograph screen is computed on the basis of the height and the horizontal distance from the position C of the screen center. The height and the horizontal distance from the position C of the screen center are computed on the basis of the distance r from the origin O of the measuring position to the projectile (50); an angle of elevation ψ of relative height; and a relative azimuth θ. <P>COPYRIGHT: (C)2011,JPO&INPIT

Description

本発明は、鳥や飛行物体などの飛翔体を、1台のカメラによって1箇所から撮影しても、飛翔体の定量的な三次元位置座標を算出可能な三次元位置測定装置、および飛翔体の飛翔図のマップを作成して表示する飛翔体のマッピングシステムに関する。   The present invention relates to a three-dimensional position measuring device capable of calculating quantitative three-dimensional position coordinates of a flying object even when a flying object such as a bird or a flying object is photographed from one place by one camera, and the flying object The present invention relates to a flying object mapping system that creates and displays a map of a flying diagram.

大規模な屋外フィールドにて鳥などの飛翔体の飛翔図を作成する方法としては、一般的には、以下のような方法が採用されている。すなわち、2台のカメラを遠く離して2箇所へ設置して撮影し、スラレオ画像法を用いて三次元位置座標を計測する。その計測データに基づいて飛翔体の位置を地図上に3D表示(3Dマッピング)する、という方法である。   As a method for creating a flying diagram of a flying object such as a bird in a large outdoor field, the following method is generally adopted. In other words, two cameras are placed far apart and photographed, and three-dimensional position coordinates are measured using the slurryo image method. In this method, the position of the flying object is displayed in 3D (3D mapping) on the map based on the measurement data.

特許文献1は、移動物体の三次元軌跡を計測する技術であり、球技スポーツにおけるボールのように高速で移動する物体の移動軌跡を解析するための技術である。 これは、複数(たいてい2台)のカメラによって飛翔体を含む画像データを取得し、同期させた複数の画像データ中において一致する粒子や画素を抽出する(PTVステレオペアマッチング法)。一致した粒子や画素について、三次元における速度の情報に変換し、三次元の軌跡を求めるものである。
PTVステレオペアマッチング法の技術は、鳥などの飛翔体の軌跡を解析するために利用することができる。
Patent Document 1 is a technique for measuring a three-dimensional trajectory of a moving object, and is a technique for analyzing a movement trajectory of an object that moves at high speed like a ball in ball sports. In this method, image data including a flying object is acquired by a plurality of (usually two) cameras, and coincident particles or pixels are extracted from the synchronized plurality of image data (PTV stereo pair matching method). The matched particles and pixels are converted into three-dimensional velocity information to obtain a three-dimensional trajectory.
The technique of the PTV stereo pair matching method can be used to analyze the trajectory of a flying object such as a bird.

また、特許文献2,3などに開示されるように、離間させた左カメラおよび右カメラによって所定の空間領域を互いに異なる方向から同期させて連続撮影し、それぞれ左側画像データおよび右側画像データを取得する。 次に、左側画像データおよび右側画像データの粒子の対応付けを実行する。その対応付けした粒子に対して時刻間の対応付けをする。このとき、複数の時刻間で対応付けが検証されていた。
上記の対応付けられた複数の時刻間の粒子に基づいて、その粒子の三次元速度ベクトルが算出される。この方法は、「多時刻法」と呼ばれる。
In addition, as disclosed in Patent Documents 2 and 3 and the like, the left camera and the right camera that are separated from each other are continuously photographed in a predetermined space area synchronized with each other from different directions, and the left image data and the right image data are obtained, respectively. To do. Next, the left image data and the right image data are associated with each other. Correspondence between times is associated with the associated particles. At this time, the correspondence was verified between a plurality of times.
Based on the particle | grains between the said some corresponding | compatible time, the three-dimensional velocity vector of the particle | grain is calculated. This method is called “multi-time method”.

一方、1台のカメラを水平に設置してから、そのカメラによって、予め大きさが把握できている飛翔体を撮影する。撮影画像に記録された飛翔体が撮影画像においてどの程度の大きさであるか、を把握するとともに、その飛翔体が映っている角度を計測することによって、飛翔体が飛翔している高さを算出するシステムがあった。   On the other hand, after a single camera is installed horizontally, a flying object whose size is known in advance is photographed by the camera. By grasping how big the flying object recorded in the captured image is in the captured image, and measuring the angle at which the flying object is reflected, the height at which the flying object is flying can be determined. There was a system to calculate.

例えば特許文献4では、レーザ装置を用いて飛翔体の高度を求める技術が開示されている。 すなわち、高繰返しパルスレーザ装置によってレーザ光を飛翔体へ投射し、その飛翔体で反射する反射光を受光することによって飛翔体までの距離を求める。さらに、反射光パルスの受光方向および受光光学系の光軸の仰角より飛翔物体を見る仰角を求め、飛翔体までの距離と方向から飛翔体の高度を算出するのである。   For example, Patent Document 4 discloses a technique for obtaining the height of a flying object using a laser device. That is, the distance to the flying object is obtained by projecting the laser beam onto the flying object by the high repetition pulse laser device and receiving the reflected light reflected by the flying object. Further, the elevation angle for viewing the flying object is obtained from the light receiving direction of the reflected light pulse and the elevation angle of the optical axis of the light receiving optical system, and the altitude of the flying object is calculated from the distance and direction to the flying object.

特開2007−115236号公報JP 2007-115236 A 特開平8−14828号公報JP-A-8-14828 特開平10−122819号公報Japanese Patent Laid-Open No. 10-122819 特開平8−101272号公報JP-A-8-101272

前述した技術はいずれも、2台のカメラを遠く離して異なる2箇所へ設置する必要がある。すなわち、飛翔体を撮影可能な2箇所のカメラ設置場所を確保する必要がある。 さて、野原などの広い場所であれば、カメラ設置場所を確保することは容易な場合もあるが、山間部や都市部などでは2台のカメラ設置場所を確保することが困難であった。たとえば、1箇所のカメラ設置場所を確保できても、他のカメラ設置場所を所望の位置に確保できないとすれば、撮影条件を変更する必要が生じてくるのである。   In any of the technologies described above, it is necessary to install two cameras at two different locations far apart. That is, it is necessary to secure two camera installation locations where the flying object can be photographed. Now, in a wide area such as a field, it may be easy to secure a camera installation location, but it is difficult to secure two camera installation locations in a mountainous area or an urban area. For example, even if one camera installation location can be secured, if another camera installation location cannot be secured at a desired position, the shooting conditions need to be changed.

加えて、2台のカメラの撮影範囲を重ねた領域内が計測対象となるので、飛翔体が前記領域外を飛行することが判明したときは、遠く離れた2台のカメラの撮影範囲や設置箇所を再設定することが困難であった。 また、2セットの撮影装置が必要となる上に、設定を合理的に進めるには2名の作業者が必要となってしまう。
以上のように、カメラを設置する場所の確保および設定作業、作業人員の確保、遠く離れた2箇所間の連携作業の必要性などが必要であり、飛翔体を撮影することそのものが大掛かりであり、費用や手間もかかってしまう。
In addition, since the measurement area is the area where the shooting ranges of the two cameras are overlapped, when it is found that the flying object flies outside the area, the shooting range and installation of the two cameras far away from each other It was difficult to reset the location. In addition, two sets of photographing devices are required, and two workers are required to proceed with the setting rationally.
As described above, it is necessary to secure and set the location where the camera is to be installed, to secure work personnel, and to coordinate the work between two remote locations. , It will be expensive and time consuming.

前述した1台のカメラにて飛翔体の高度を求めるシステムは、高度情報しか得られない。そのため、飛翔図などのマップを作成することができなかった。
また、レーザ装置にて飛翔体の高度を求めるシステムでも、高度情報しか得られない。したがって、やはり飛翔図などのマップを作成することができなかった。
The above-described system for determining the altitude of a flying object with one camera can only obtain altitude information. As a result, maps such as flight charts could not be created.
Even a system that obtains the altitude of a flying object with a laser device can only obtain altitude information. Therefore, maps such as flying charts could not be created.

本発明が解決しようとする課題は、1台のカメラによって1箇所から撮影しても、飛翔体の三次元位置座標を演算する飛翔体の三次元位置測定装置、および飛翔体の三次元位置座標から飛翔図などのマップを作成して表示する飛翔体のマッピングシステムを提供することにある。
Problems to be solved by the present invention include a three-dimensional position measuring device for a flying object that calculates the three-dimensional position coordinates of the flying object, and a three-dimensional position coordinate of the flying object even if the image is taken from one place by one camera. It is an object to provide a flying object mapping system that creates and displays a map such as a flying diagram from the aircraft.

(第一の発明)
本願における第一の発明は、 所定の空間領域(11)の飛翔体(50)を撮影する1台のカメラ(12)と、 前記カメラ(12)の測定位置原点Oの位置データおよび方位データを取得するGPSレシーバ(15)と、 前記カメラ(12)の測定位置原点Oから飛翔体(50)までの距離rを計測する距離計測手段(24)と、 前記GPSレシーバ(15)で取得した方位データに基づいて前記カメラ(12)の光軸(13)の方位方向Θを前記測定位置原点Oから水平角で演算する光軸方向演算手段(25)と、 前記カメラ(12)によって撮影した画像データにおいて、画面中心位置Cから飛翔体(50)の高さ位置までのピクセル角度演算に基づいてカメラ(12)の光軸(13)から前記飛翔体(50)までの相対高さ仰角ψを演算する高さ仰角演算手段(26)と、 前記カメラ(12)によって撮影した画像データにおいて、画面中心位置Cから飛翔体(50)の相対方位位置までのピクセル角度演算に基づいてカメラ(12)の光軸(13)から前記飛翔体(50)までの相対方位θを演算する相対方位演算手段(27)と、 前記測定位置原点O、飛翔体(50)までの距離r、光軸(13)の方位方向Θ、相対高さ仰角ψおよび相対方位θから飛翔体(50)の空間位置を演算し、その空間位置を経度、緯度および高度に換算する三次元位置座標演算手段(28)と、
を備えた飛翔体の三次元位置測定装置(20)に係る。
(First invention)
The first invention in the present application is a camera (12) for photographing a flying object (50) in a predetermined space region (11), and position data and azimuth data of the measurement position origin O of the camera (12). A GPS receiver (15) to be acquired, a distance measuring means (24) for measuring a distance r from the measurement position origin O of the camera (12) to the flying object (50), and an orientation acquired by the GPS receiver (15) Based on the data, the optical axis direction calculating means (25) for calculating the azimuth direction Θ of the optical axis (13) of the camera (12) from the measurement position origin O as a horizontal angle, and an image taken by the camera (12) In the data, the relative elevation angle ψ from the optical axis (13) of the camera (12) to the flying object (50) is calculated based on the pixel angle calculation from the screen center position C to the height position of the flying object (50). The height elevation angle calculating means (26) for calculating, and the image center position in the image data taken by the camera (12) Relative azimuth calculating means (27) for calculating the relative azimuth θ from the optical axis (13) of the camera (12) to the flying object (50) based on the pixel angle calculation from the relative azimuth position of the flying object (50) to the flying object (50). Calculating the spatial position of the flying object (50) from the measurement position origin O, the distance r to the flying object (50), the azimuth direction Θ of the optical axis (13), the relative height elevation angle ψ, and the relative azimuth θ; Three-dimensional position coordinate calculation means (28) for converting the spatial position into longitude, latitude and altitude,
And a flying object three-dimensional position measuring apparatus (20).

(作用)
カメラ(12)の測定位置原点Oの位置データとカメラ(12)の光軸(13)の方位方向Θは、GPSレシーバ(15)で取得した位置データと方位データに基づいて演算する。これによって、カメラ(12)の光軸(13)が通る画面中心位置Cの三次元位置を演算できる。したがって、カメラ(12)による撮影画面上の飛翔体(50)の三次元位置は、画面中心位置Cからの高さと水平距離から演算できる。その画面中心位置Cからの高さと水平距離は、測定位置原点Oから飛翔体(50)までの距離rと、相対高さ仰角ψと、相対方位θから演算される。その結果として、1台のカメラ(12)にて1箇所で撮影しても、飛翔体(50)の三次元位置座標が演算される。
(Function)
The position data of the measurement position origin O of the camera (12) and the azimuth direction Θ of the optical axis (13) of the camera (12) are calculated based on the position data and azimuth data acquired by the GPS receiver (15). Thereby, the three-dimensional position of the screen center position C through which the optical axis (13) of the camera (12) passes can be calculated. Therefore, the three-dimensional position of the flying object (50) on the photographing screen by the camera (12) can be calculated from the height from the screen center position C and the horizontal distance. The height and horizontal distance from the screen center position C are calculated from the distance r from the measurement position origin O to the flying object (50), the relative height elevation angle ψ, and the relative orientation θ. As a result, the three-dimensional position coordinates of the flying object (50) are calculated even if one camera (12) captures images at one location.

(第一の発明のバリエーション1)
第一の発明は、以下のようなバリエーションを提供することもできる。
すなわち、 前記三次元位置座標演算手段(28)は、前記カメラ(12)の光軸(13)を水平方向から上方へ傾けた際の前記光軸(13)と水平方向とのなす相対光軸仰角ψ’を補正値として飛翔体(50)の三次元位置座標の演算を補正する補正機構を備えてもよい。
(Variation 1 of the first invention)
The first invention can also provide the following variations.
That is, the three-dimensional position coordinate calculating means (28) is a relative optical axis formed by the optical axis (13) and the horizontal direction when the optical axis (13) of the camera (12) is tilted upward from the horizontal direction. A correction mechanism that corrects the calculation of the three-dimensional position coordinates of the flying object (50) using the elevation angle ψ ′ as a correction value may be provided.

(作用)
前記カメラ(12)の光軸(13)を水平方向から上方へ傾けることによって、飛翔体(50)の飛ぶ領域の撮影範囲が広がる。このとき、カメラ(12)の光軸(13) と水平方向とのなす相対光軸仰角ψ’を補正値として補正することにより、飛翔体(50)の三次元位置座標が演算できる。
(Function)
By tilting the optical axis (13) of the camera (12) upward from the horizontal direction, the imaging range of the flying area of the flying object (50) is expanded. At this time, the three-dimensional position coordinates of the flying object (50) can be calculated by correcting the relative optical axis elevation angle ψ ′ formed by the optical axis (13) of the camera (12) and the horizontal direction as a correction value.

(第一の発明のバリエーション2)
第一の発明は、以下のようなバリエーションを提供することもできる。
すなわち、 前記カメラ(12)は、飛翔体(50)が撮影画像内に入ったことを認知して出力する鳥トリガ(41)と、その鳥トリガ(41)による飛翔体(50)の認知出力を入力するとともに、前記空間領域(11)の画像データを所定時間取得する撮影起動手段(42)と、を備え、 前記カメラ(12)が取得した所定時間の画像データに基づいて試験的なPTV処理を実行するPTV演算手段(43)と、 そのPTV演算手段(43)が実行したPTV処理の結果を出力するPTV処理出力手段(44)と、 そのPTV処理出力手段(44)の出力結果に基づいて、PTV処理が可能な画像データが取得できているか否かを判断する判断手段(45)と、 その判断手段(45)によってPTV処理が可能な画像データを取得できていると判断された場合に、前記カメラ(12)に対して本番撮影用の画像データを所定時間取得するように命令信号を発信し、かつ前記距離計測手段(24)に対して距離rを計測するように命令信号を発信する制御手段(46)と、を備えてもよい。
(Variation 2 of the first invention)
The first invention can also provide the following variations.
That is, the camera (12) recognizes and outputs that the flying object (50) has entered the captured image, and the recognition output of the flying object (50) by the bird trigger (41). And a shooting start means (42) for acquiring the image data of the spatial region (11) for a predetermined time, and a trial PTV based on the image data of the predetermined time acquired by the camera (12). PTV calculation means (43) for executing processing, PTV processing output means (44) for outputting the result of PTV processing executed by the PTV calculation means (43), and the output result of the PTV processing output means (44) Based on the determination means (45) for determining whether or not image data capable of PTV processing has been acquired, and the determination means (45) has determined that image data capable of PTV processing has been acquired. In this case, the image data for actual shooting is predetermined for the camera (12). It transmits a command signal so as to obtain between, and a control means for transmitting a command signal to measure (46) a distance r with respect to the distance measuring means (24) may be provided.

(作用)
カメラ(12)の撮影画像に飛翔体(50)が入ると、鳥トリガ(41)が自動的に認知して警報発生的に出力する。その飛翔体(50)の認知出力によって試し撮りが開始され、その画像データは所定時間取得される。その取得した画像データはPTV演算手段(43)によって試験的なPTV処理が行われる。その結果がPTV処理出力手段(44)によって出力され、判断手段(45)では、その結果に基づいて、PTV処理が可能な画像データが取得できているか否かを判断する。良好であると判断した時、カメラ(12)で本番撮影を開始し、かつ距離計測手段(24)によって飛翔体(50)までの距離rを計測し、飛翔体(50)の三次元座標を計測する。
(Function)
When the flying object (50) enters the captured image of the camera (12), the bird trigger (41) automatically recognizes and outputs an alarm. Trial shooting is started by the recognition output of the flying object (50), and the image data is acquired for a predetermined time. The acquired image data is subjected to a trial PTV process by the PTV calculation means (43). The result is outputted by the PTV processing output means (44), and the judging means (45) judges based on the result whether or not image data capable of PTV processing has been acquired. When it is judged as good, the camera (12) starts the actual shooting, and the distance measurement means (24) measures the distance r to the flying object (50), and the three-dimensional coordinates of the flying object (50) are obtained. measure.

(第一の発明のバリエーション3)
第一の発明は、以下のようなバリエーションを提供することもできる。
すなわち、 前記制御手段(46)は、その発信する命令信号に基づいて前記カメラ(12)および前記距離計測手段(24)に対して本番起動開始指示を表示する本番開始表示手段(47)を備えてもよい。
(Variation 3 of the first invention)
The first invention can also provide the following variations.
That is, the control means (46) comprises a production start display means (47) for displaying a production start instruction to the camera (12) and the distance measurement means (24) based on a command signal transmitted. May be.

(作用)
カメラ(12)および距離計測手段(24)の起動が手動で行われる場合は、本番開始表示手段(47)によって対応し、制御手段(46)の命令信号を操作員に知らせる。
(Function)
When the activation of the camera (12) and the distance measuring means (24) is performed manually, the production start display means (47) responds and notifies the operator of the command signal of the control means (46).

(第二の発明)
本願における第二の発明は、 所定の空間領域(11)の飛翔体(50)を撮影する1台のカメラ(12)と、 前記カメラ(12)の測定位置原点Oの位置データおよび方位データを取得するGPSレシーバ(15)と、 前記カメラ(12)の測定位置原点Oから飛翔体(50)までの距離rを計測する距離計測手段(24)と、 前記GPSレシーバ(15)で取得した方位データに基づいて前記カメラ(12)の光軸(13)の方位方向Θを前記測定位置原点Oから水平角で演算する光軸方向演算手段(25)と、 前記カメラ(12)によって撮影した画像データにおいて、画面中心位置Cから飛翔体(50)の高さ位置までのピクセル角度演算に基づいてカメラ(12)の光軸(13)から前記飛翔体(50)までの相対高さ仰角ψを演算する高さ仰角演算手段(26)と、 前記カメラ(12)によって撮影した画像データにおいて、画面中心位置Cから飛翔体(50)の相対方位位置までのピクセル角度演算に基づいてカメラ(12)の光軸(13)から前記飛翔体(50)までの相対方位θを演算する相対方位演算手段(27)と、 前記測定位置原点O、飛翔体(50)までの距離r、光軸(13)の方位方向Θ、相対高さ仰角ψ、相対方位θから、飛翔体(50)の空間位置を演算し、その空間位置を経度、緯度、高度に換算する三次元位置座標演算手段(28)と、 前記三次元位置座標演算手段(28)によって演算した位置座標を時間ごとの位置から前記飛翔体(50)の軌跡を演算する飛翔体軌跡演算手段(31)と、 前記飛翔体軌跡演算手段(31)によって演算したデータを三次元マップにて表示する出力表示手段(32)と、を備えた飛翔体のマッピングシステム(10)に係る。
(Second invention)
The second invention in the present application is a camera (12) for photographing a flying object (50) in a predetermined space region (11), and position data and orientation data of the measurement position origin O of the camera (12). A GPS receiver (15) to be acquired, a distance measuring means (24) for measuring a distance r from the measurement position origin O of the camera (12) to the flying object (50), and an orientation acquired by the GPS receiver (15) Based on the data, the optical axis direction calculating means (25) for calculating the azimuth direction Θ of the optical axis (13) of the camera (12) from the measurement position origin O as a horizontal angle, and an image taken by the camera (12) In the data, the relative elevation angle ψ from the optical axis (13) of the camera (12) to the flying object (50) is calculated based on the pixel angle calculation from the screen center position C to the height position of the flying object (50). The height elevation angle calculating means (26) for calculating, and the image center position in the image data taken by the camera (12) Relative azimuth calculating means (27) for calculating the relative azimuth θ from the optical axis (13) of the camera (12) to the flying object (50) based on the pixel angle calculation from the relative azimuth position of the flying object (50) to the flying object (50). The spatial position of the flying object (50) is calculated from the measurement position origin O, the distance r to the flying object (50), the azimuth direction Θ of the optical axis (13), the relative height elevation angle ψ, and the relative azimuth θ. 3D position coordinate calculation means (28) for converting the spatial position into longitude, latitude and altitude, and the position coordinates calculated by the 3D position coordinate calculation means (28) from the position for each time to the flying object (50 Flying object trajectory calculating means (31) for calculating the trajectory of the flying object, and output display means (32) for displaying the data calculated by the flying object trajectory calculating means (31) in a three-dimensional map. Related to the mapping system (10).

(作用)
カメラ(12)の測定位置原点Oの位置データとカメラ(12)の光軸(13)の方位方向Θは、GPSレシーバ(15)で取得した位置データと方位データに基づいて演算する。これによって、カメラ(12)の光軸(13)が通る画面中心位置Cの三次元位置を演算できる。したがって、カメラ(12)による撮影画面上の飛翔体(50)の三次元位置は、画面中心位置Cからの高さと水平距離から演算できる。その画面中心位置Cからの高さと水平距離は、測定位置原点Oから飛翔体(50)までの距離rと、相対高さ仰角ψと、相対方位θから演算される。その結果として、1台のカメラ(12)にて1箇所で撮影しても、飛翔体(50)の三次元位置座標が演算される。その飛翔体(50)の三次元位置座標を時間ごとの位置から飛翔体(50)の軌跡を演算し、三次元マップにて表示する。
(Function)
The position data of the measurement position origin O of the camera (12) and the azimuth direction Θ of the optical axis (13) of the camera (12) are calculated based on the position data and azimuth data acquired by the GPS receiver (15). Thereby, the three-dimensional position of the screen center position C through which the optical axis (13) of the camera (12) passes can be calculated. Therefore, the three-dimensional position of the flying object (50) on the photographing screen by the camera (12) can be calculated from the height from the screen center position C and the horizontal distance. The height and horizontal distance from the screen center position C are calculated from the distance r from the measurement position origin O to the flying object (50), the relative height elevation angle ψ, and the relative orientation θ. As a result, the three-dimensional position coordinates of the flying object (50) are calculated even if one camera (12) captures images at one location. The trajectory of the flying object (50) is calculated from the three-dimensional position coordinates of the flying object (50) from the position for each time and displayed on a three-dimensional map.

(第二の発明のバリエーション1)
第二の発明は、以下のようなバリエーションを提供することもできる。
すなわち、 前記三次元位置座標演算手段(28)は、前記カメラ(12)の光軸(13)を水平方向から上方へ傾けた際の前記光軸(13)と水平方向とのなす相対光軸仰角ψ’を補正値として飛翔体(50)の三次元位置座標の演算を補正する補正機構を備えてもよい。
(Variation 1 of the second invention)
The second invention can also provide the following variations.
That is, the three-dimensional position coordinate calculating means (28) is a relative optical axis formed by the optical axis (13) and the horizontal direction when the optical axis (13) of the camera (12) is tilted upward from the horizontal direction. A correction mechanism that corrects the calculation of the three-dimensional position coordinates of the flying object (50) using the elevation angle ψ ′ as a correction value may be provided.

(作用)
前記カメラ(12)の光軸(13)を水平方向から上方へ傾けることによって、飛翔体(50)の飛ぶ領域の撮影範囲が広がる。このとき、カメラ(12)の光軸(13) と水平方向とのなす相対光軸仰角ψ’を補正値として補正するだけで、飛翔体(50)の三次元位置座標が簡単に演算される。
(Function)
By tilting the optical axis (13) of the camera (12) upward from the horizontal direction, the imaging range of the flying area of the flying object (50) is expanded. At this time, the three-dimensional position coordinates of the flying object (50) can be calculated simply by correcting the relative optical axis elevation angle ψ 'formed by the optical axis (13) of the camera (12) and the horizontal direction as a correction value. .

(第二の発明のバリエーション2)
第二の発明は、以下のようなバリエーションを提供することもできる。
すなわち、 前記カメラ(12)は、飛翔体(50)が撮影画像内に入ったことを認知して出力する鳥トリガ(41)と、 その鳥トリガ(41)による飛翔体(50)の認知出力を入力するとともに、前記空間領域(11)の画像データを所定時間取得する撮影起動手段(42)と、を備え、 前記カメラ(12)が取得した所定時間の画像データに基づいて試験的なPTV処理を実行するPTV演算手段(43)と、 そのPTV演算手段(43)が実行したPTV処理の結果を出力するPTV処理出力手段(44)と、 そのPTV処理出力手段(44)の出力結果に基づいて、PTV処理が可能な画像データが取得できているか否かを判断する判断手段(45)と、 その判断手段(45)によってPTV処理が可能な画像データを取得できていると判断された場合に、前記カメラ(12)に対して本番撮影用の画像データを所定時間取得するように命令信号を発信し、かつ前記距離計測手段(24)に対して距離rを計測するように命令信号を発信する制御手段(46)と、を備えてもよい。
(Variation 2 of the second invention)
The second invention can also provide the following variations.
That is, the camera (12) recognizes and outputs that the flying object (50) has entered the captured image, and recognizes and outputs the flying object (50) by the bird trigger (41). And a shooting start means (42) for acquiring the image data of the spatial region (11) for a predetermined time, and a trial PTV based on the image data of the predetermined time acquired by the camera (12). PTV calculation means (43) for executing processing, PTV processing output means (44) for outputting the result of PTV processing executed by the PTV calculation means (43), and the output result of the PTV processing output means (44) Based on the determination means (45) for determining whether or not image data capable of PTV processing has been acquired, and the determination means (45) has determined that image data capable of PTV processing has been acquired. In this case, the image data for actual shooting is predetermined for the camera (12). It transmits a command signal so as to obtain between, and a control means for transmitting a command signal to measure (46) a distance r with respect to the distance measuring means (24) may be provided.

(作用)
カメラ(12)の撮影画像に飛翔体(50)が入ると、鳥トリガ(41)が自動的に認知して警報発生的に出力する。その飛翔体(50)の認知出力によって試し撮りが開始され、その画像データは所定時間取得される。その取得した画像データはPTV演算手段(43)によって試験的なPTV処理が行われる。その結果がPTV処理出力手段(44)によって出力され、判断手段(45)では、その結果に基づいて、PTV処理が可能な画像データが取得できているか否かを判断する。良好であると判断した時、カメラ(12)で本番撮影を開始し、かつ距離計測手段(24)によって飛翔体(50)までの距離rを計測し、飛翔体(50)の三次元座標を計測する。
(Function)
When the flying object (50) enters the captured image of the camera (12), the bird trigger (41) automatically recognizes and outputs an alarm. Trial shooting is started by the recognition output of the flying object (50), and the image data is acquired for a predetermined time. The acquired image data is subjected to a trial PTV process by the PTV calculation means (43). The result is outputted by the PTV processing output means (44), and the judging means (45) judges based on the result whether or not image data capable of PTV processing has been acquired. When it is judged as good, the camera (12) starts the actual shooting, and the distance measurement means (24) measures the distance r to the flying object (50), and the three-dimensional coordinates of the flying object (50) are obtained. measure.

(第二の発明のバリエーション3)
第二の発明は、以下のようなバリエーションを提供することもできる。
すなわち、 前記制御手段(46)は、その発信する命令信号に基づいて前記カメラ(12)および前記距離計測手段(24)に対して本番起動開始指示を表示する本番開始表示手段(47)を備えてもよい。
(Variation 3 of the second invention)
The second invention can also provide the following variations.
That is, the control means (46) comprises a production start display means (47) for displaying a production start instruction to the camera (12) and the distance measurement means (24) based on a command signal transmitted. May be.

(作用)
カメラ(12)および距離計測手段(24)の起動が手動で行われる場合は、本番開始表示手段(47)によって対応し、制御手段(46)の命令信号を操作員に知らせる。
(Function)
When the activation of the camera (12) and the distance measuring means (24) is performed manually, the production start display means (47) responds and notifies the operator of the command signal of the control means (46).

(第三の発明)
第三の発明は、 所定の空間領域の飛翔体を撮影する1台のカメラ、 前記カメラの測定位置原点の位置データおよび方位データを取得するGPSレシーバ、および前記カメラの測定位置原点から飛翔体までの距離rを計測する距離計測手段を用いて飛翔体の三次元位置を測定するためのコンピュータプログラムに係る。
そのプログラムは、 前記GPSレシーバで取得した方位データに基づいて前記カメラの光軸の方位方向Θを前記測定位置原点から水平角で演算する光軸方向演算手順と、
前記カメラによって撮影した画像データにおいて、画面中心位置から飛翔体の高さ位置までのピクセル角度演算に基づいてカメラの光軸から前記飛翔体までの相対高さ仰角ψを演算する高さ仰角演算手順と、
前記カメラによって撮影した画像データにおいて、画面中心位置から飛翔体の相対方位位置までのピクセル角度演算に基づいてカメラの光軸から前記飛翔体までの相対方位θを演算する相対方位演算手順と、
前記測定位置原点、飛翔体までの距離r、光軸の方位方向Θ、相対高さ仰角ψおよび相対方位θから飛翔体の空間位置を演算し、その空間位置を経度、緯度および高度に換算する三次元位置座標演算手順と、をコンピュータに実行させるためのコンピュータプログラムである。
(Third invention)
According to a third aspect of the present invention, there is provided one camera for photographing a flying object in a predetermined space region, a GPS receiver for obtaining position data and orientation data of the measurement position origin of the camera, and from the measurement position origin of the camera to the flying object. The present invention relates to a computer program for measuring the three-dimensional position of a flying object using distance measuring means for measuring the distance r of the flying object.
The program includes an optical axis direction calculation procedure for calculating the azimuth direction Θ of the optical axis of the camera based on the azimuth data acquired by the GPS receiver as a horizontal angle from the measurement position origin,
Height elevation angle calculation procedure for calculating the relative height elevation angle ψ from the optical axis of the camera to the flying object based on the pixel angle calculation from the center position of the screen to the height position of the flying object in the image data taken by the camera When,
In the image data taken by the camera, a relative azimuth calculation procedure for calculating a relative azimuth θ from the optical axis of the camera to the flying object based on a pixel angle calculation from the center position of the screen to the relative azimuth position of the flying object,
The spatial position of the flying object is calculated from the measurement position origin, the distance r to the flying object, the azimuth direction Θ of the optical axis, the relative height elevation angle ψ, and the relative azimuth θ, and the spatial position is converted into longitude, latitude, and altitude. A computer program for causing a computer to execute a three-dimensional position coordinate calculation procedure.

(第四の発明)
第四の発明は、 所定の空間領域の飛翔体を撮影する1台のカメラと、 前記カメラの測定位置原点の位置データおよび方位データを取得するGPSレシーバと、 前記カメラの測定位置原点から飛翔体までの距離rを計測する距離計測手段と、を用いて前記飛翔体の軌跡を三次元マップにて表示するためのコンピュータプログラムに係る。
そのプログラムは、 前記GPSレシーバで取得した方位データに基づいて前記カメラの光軸の方位方向Θを前記測定位置原点から水平角で演算する光軸方向演算手順と、 前記カメラによって撮影した画像データにおいて、画面中心位置から飛翔体の高さ位置までのピクセル角度演算に基づいてカメラの光軸から前記飛翔体までの相対高さ仰角ψを演算する高さ仰角演算手順と、 前記カメラによって撮影した画像データにおいて、画面中心位置から飛翔体の相対方位位置までのピクセル角度演算に基づいてカメラの光軸から前記飛翔体までの相対方位θを演算する相対方位演算手順と、 前記測定位置原点、飛翔体までの距離r、光軸の方位方向Θ、相対高さ仰角ψおよび相対方位θから、飛翔体の空間位置を演算し、その空間位置を経度、緯度および高度に換算する三次元位置座標演算手順と、 その三次元位置座標演算手順にて演算した位置座標を時間ごとの位置から前記飛翔体の軌跡を演算する飛翔体軌跡演算手順と、 その飛翔体軌跡演算手順にて演算したデータを三次元マップにて表示する出力表示手順と、をコンピュータに実行させることとしたコンピュータプログラムである。
(Fourth invention)
4th invention is the one camera which image | photographs the flying body of a predetermined | prescribed space area | region, the GPS receiver which acquires the positional data and azimuth | direction data of the measurement position origin of the said camera, and a flying body from the measurement position origin of the said camera And a computer program for displaying the trajectory of the flying object on a three-dimensional map using distance measuring means for measuring the distance r up to.
The program includes an optical axis direction calculation procedure for calculating the azimuth direction Θ of the optical axis of the camera based on the azimuth data acquired by the GPS receiver from a horizontal angle from the measurement position origin, and image data captured by the camera. A height elevation angle calculation procedure for calculating a relative height elevation angle ψ from the optical axis of the camera to the flying object based on a pixel angle calculation from the center position of the screen to the height position of the flying object, and an image taken by the camera In the data, a relative azimuth calculation procedure for calculating a relative azimuth θ from the optical axis of the camera to the flying object based on a pixel angle calculation from the center position of the screen to the relative azimuth position of the flying object, the measurement position origin, the flying object Is calculated from the distance r, the azimuth direction Θ of the optical axis, the relative height elevation angle ψ, and the relative azimuth θ. A three-dimensional position coordinate calculation procedure for converting to a high altitude, a flying object locus calculation procedure for calculating the locus of the flying object from the position coordinates calculated in the three-dimensional position coordinate calculation procedure for each time, and the flying object A computer program that causes a computer to execute an output display procedure for displaying data calculated by a locus calculation procedure on a three-dimensional map.

第三および第四の発明は、記録媒体に記録させて提供すること、および通信回線を通じて提供することが可能である。   The third and fourth inventions can be provided by being recorded on a recording medium, and can be provided through a communication line.

第一の発明および第三の発明によれば、1台のカメラと距離計測手段を用いて、1箇所から撮影しても、飛翔体の三次元位置であるX軸,Y軸,Z軸の座標データを演算することができる。その結果、カメラを設置する場所の確保、操作人員の確保が容易となり、費用や手間も少なくする飛翔体の三次元位置測定装置およびそれを実現するコンピュータプログラムを提供することができた。   According to the first and third aspects of the invention, the X-axis, Y-axis, and Z-axis, which are the three-dimensional positions of the flying object, can be captured from one place using one camera and distance measuring means. Coordinate data can be calculated. As a result, it has become possible to provide a flying object three-dimensional position measuring apparatus and a computer program for realizing the same, which make it easy to secure a place for installing a camera and secure an operator and reduce costs and labor.

第二の発明および第四の発明によれば、1台のカメラと距離計測手段を用いて、1箇所から撮影しても、飛翔体の三次元位置であるX軸,Y軸,Z軸の座標データを演算することができる。その三次元位置座標を時間ごとの位置から飛翔体の軌跡を演算し、その飛翔体の飛翔図を作成して表示することができる。その結果、カメラを設置する場所の確保、操作人員の確保が容易となり、費用や手間も少なくする飛翔体のマッピングシステムおよびそれを実現するコンピュータプログラムを提供することができた。
According to 2nd invention and 4th invention, even if it image | photographs from one place using one camera and distance measuring means, it is X-axis, Y-axis, and Z-axis which are the three-dimensional positions of a flying body. Coordinate data can be calculated. The trajectory of the flying object can be calculated from the three-dimensional position coordinates from the position for each time, and a flying diagram of the flying object can be created and displayed. As a result, it was possible to provide a flying object mapping system and a computer program for realizing it, which facilitated securing a place for installing the camera and securing operating personnel, and reducing costs and labor.

本発明の実施形態の飛翔体の三次元位置測定装置および飛翔体のマッピングシステムを示す概略的な斜視図である。1 is a schematic perspective view showing a flying object three-dimensional position measurement apparatus and a flying object mapping system according to an embodiment of the present invention. 図1を横から見た側面図である。It is the side view which looked at FIG. 1 from the side. 図1を上から見た平面図である。It is the top view which looked at FIG. 1 from the top. 本発明の実施形態の三次元位置測定装置および飛翔体のマッピングシステムのコンピュータの構成ブロック図である。It is a block diagram of a computer of the three-dimensional position measurement apparatus and flying object mapping system of the embodiment of the present invention. 他の実施形態を示す側面図である。It is a side view which shows other embodiment. 本発明の実施形態の飛翔体の三次元位置測定装置および飛翔体のマッピングシステムに対して付加する試し撮り装置を示す構成ブロック図である。It is a block diagram showing a test photographing device added to a flying object three-dimensional position measuring apparatus and a flying object mapping system according to an embodiment of the present invention.

以下、本発明の実施形態について図面を参照して説明する。
図1ないし図3を参照するに、本実施形態に係る飛翔体のマッピングシステム10(コンピュータ)は、1台のカメラ12、GPSレシーバ15、距離計測手段24、光軸方向演算手段25、高さ仰角演算手段26、相対方位演算手段27、三次元位置座標演算手段28によって構成される飛翔体の三次元位置測定装置20と、この三次元位置測定装置20に加えて、飛翔体軌跡演算手段31、出力表示手段32によって構成される。
Embodiments of the present invention will be described below with reference to the drawings.
1 to 3, a flying object mapping system 10 (computer) according to the present embodiment includes one camera 12, a GPS receiver 15, a distance measuring means 24, an optical axis direction calculating means 25, and a height. The flying object three-dimensional position measuring device 20 constituted by the elevation angle calculating means 26, the relative azimuth calculating means 27, and the three-dimensional position coordinate calculating means 28, and the flying object locus calculating means 31 in addition to the three-dimensional position measuring device 20 The output display means 32 is configured.

なお、上記の各手段12,15,24,25,26,27,28,31,32は、図4に示すように、飛翔体のマッピングシステム10(コンピュータ)の中央処理装置であるCPU21に接続されている。このCPU21には、種々のデータなどを入力するための入力手段22と、種々のデータを記憶する記憶手段23が接続されている。   Each of the means 12, 15, 24, 25, 26, 27, 28, 31, 32 is connected to a CPU 21 which is a central processing unit of the flying object mapping system 10 (computer) as shown in FIG. Has been. The CPU 21 is connected to an input means 22 for inputting various data and a storage means 23 for storing various data.

1台のカメラ12は、鳥50などの飛翔体を計測したい所定の空間領域11(撮影領域)を連続撮影するための撮影手段である。前記空間領域11の全体を撮影するために、ほどよく離れた場所へ三脚16などの設置用固定具を用いて設置される。基本的には、図2に示すように前記カメラ12の光軸13が水平方向に向けられる。なお、本実施形態では飛翔体として鳥50で説明する。
また、前記カメラ12では、鳥50の軌跡を示す飛翔図を作成するための撮影画像データ17(以下、単に「画像データ」という)を取得するために、本実施形態では1秒間に50回の連続撮影が行われ、例えば5〜10分間の撮影が行われる。図1では、説明のために、前記カメラ12で取得する撮影画面14の範囲を図示している。
One camera 12 is a photographing means for continuously photographing a predetermined space region 11 (photographing region) where a flying object such as a bird 50 is to be measured. In order to photograph the entire space area 11, the space area 11 is installed using a fixing tool such as a tripod 16 at a reasonably distant place. Basically, as shown in FIG. 2, the optical axis 13 of the camera 12 is directed in the horizontal direction. In the present embodiment, the description will be made using the bird 50 as a flying object.
Further, in the present embodiment, in order to obtain the captured image data 17 (hereinafter simply referred to as “image data”) for creating a flight diagram showing the trajectory of the bird 50, the camera 12 performs 50 times per second in this embodiment. Continuous shooting is performed, for example, shooting for 5 to 10 minutes. For the sake of explanation, FIG. 1 illustrates the range of the shooting screen 14 acquired by the camera 12.

前記カメラ12はC−MOSセンサを用いたカメラである。C−MOSセンサを備えているのは、CCD素子よりも露光時間の制御が容易であり、飛行速度の速い鳥類の画像を捉えるのに適している。また曇天などにおいても撮影が容易でレーザ光の照射などの設備が不要となるからである。   The camera 12 is a camera using a C-MOS sensor. The C-MOS sensor is easier to control the exposure time than the CCD element, and is suitable for capturing images of birds with a high flight speed. In addition, it is easy to shoot in cloudy weather and the like, and equipment such as laser light irradiation is not necessary.

GPSレシーバ15は、前記カメラ12の測定位置原点Oの位置データおよび方位データを取得するために該カメラ12に対して備えられる。すなわち、GPSレシーバ15によって、カメラ12の設置場所の緯度、経度、海抜の高度の位置データおよび方位データが得られる。カメラ12の位置データとしては、例えば、地図上地表面におけるカメラ12の測定位置原点Oが、海抜0mを基準点とするX軸(例えば、N極方向),Y軸,Z軸の座標データで表わされる。なお、X軸−Y軸平面は水平面であり、Z軸は垂線方向の軸である。
前記カメラ12の光軸13は、前記測定位置原点Oと、該カメラ12で取得する画面中心位置Cを通過する。その光軸13の方位方向Θは、図1および図3に示すように、前記測定位置原点Oを中心としてN極方向(X軸)に対する水平角で表わされる。これらの情報は、GPSに備えられている機能を利用して得られる。
A GPS receiver 15 is provided for the camera 12 in order to acquire position data and orientation data of the measurement position origin O of the camera 12. That is, the latitude and longitude of the installation location of the camera 12, the altitude altitude position data and the azimuth data are obtained by the GPS receiver 15. As the position data of the camera 12, for example, the measurement position origin O of the camera 12 on the map ground surface is coordinate data of the X axis (for example, the N pole direction), the Y axis, and the Z axis with a reference point of 0 m above sea level. Represented. The X-axis-Y-axis plane is a horizontal plane, and the Z-axis is a perpendicular axis.
The optical axis 13 of the camera 12 passes through the measurement position origin O and the screen center position C acquired by the camera 12. As shown in FIGS. 1 and 3, the azimuth direction Θ of the optical axis 13 is represented by a horizontal angle with respect to the N-pole direction (X axis) with the measurement position origin O as the center. Such information is obtained by using a function provided in the GPS.

距離計測手段24は、前記カメラ12の測定位置原点Oから鳥50までの距離rを計測するもので、例えば、レーザ距離計などのセオドライトが用いられる。例えば、高繰返しパルスレーザ装置によってレーザ光LBを鳥50へ投射し、その鳥50で反射する反射光を受光することによって鳥50までの距離rを求める。
前記距離rは手動で計測してもできるが、前記距離計測手段24を三脚などの設置用固定具を用いて設置し、鳥50に向けて追跡駆動する駆動装置によって自動的に追跡し、前記距離rを時間ごとに自動的に計測することもできる。自動的に距離rを計測する場合は、その計測したデータを入力手段22から三次元位置測定装置20(コンピュータ)に自動的に入力することによって、時刻ごとに鳥50の軌跡を計測することが容易となる。
The distance measuring means 24 measures the distance r from the measurement position origin O of the camera 12 to the bird 50, and for example, a theodolite such as a laser distance meter is used. For example, the distance r to the bird 50 is obtained by projecting the laser beam LB onto the bird 50 with a high repetition pulse laser device and receiving the reflected light reflected by the bird 50.
The distance r can be measured manually, but the distance measuring means 24 is installed using a mounting fixture such as a tripod and is automatically tracked by a driving device that tracks and drives the bird 50, It is also possible to automatically measure the distance r every time. When the distance r is automatically measured, the trajectory of the bird 50 can be measured at each time by automatically inputting the measured data from the input means 22 to the three-dimensional position measuring device 20 (computer). It becomes easy.

光軸方向演算手段25は、前記GPSレシーバ15で取得した方位データに基づいて前記カメラ12の光軸13の方位方向Θを前記測定位置原点Oから水平角で演算するものである。前記カメラ12の光軸13は、前記測定位置原点Oと、該カメラ12で取得する画面中心位置Cを通過する。その光軸13の方位方向Θは、図1および図3に示すように、前記測定位置原点Oを中心としてN極方向(X軸)に対する水平角Θで表わされる。これらの情報は、GPSに備えられている機能を利用して得られる。   The optical axis direction calculation means 25 calculates the azimuth direction Θ of the optical axis 13 of the camera 12 from the measurement position origin O as a horizontal angle based on the azimuth data acquired by the GPS receiver 15. The optical axis 13 of the camera 12 passes through the measurement position origin O and the screen center position C acquired by the camera 12. The azimuth direction Θ of the optical axis 13 is represented by a horizontal angle Θ with respect to the N-pole direction (X axis) with the measurement position origin O as the center, as shown in FIGS. Such information is obtained by using a function provided in the GPS.

高さ仰角演算手段26は、前記カメラ12によって撮影した撮影画面14において、画面中心位置Cから鳥50の高さ位置までのピクセル角度演算に基づいてカメラ12の光軸13から前記鳥50までの相対高さ仰角ψを演算するものである。例えば、図2に示すように、カメラ12のレンズの高さ方向の撮影角度を45°とし、撮影撮影画面14の高さ方向の画素数を200ピクセルとすると、1ピクセル当りの角度が0.225°(=45°/200)となる。画面中心位置Cから鳥50の高さHまでの画素数がhである場合、相対高さ仰角ψは0.225°×hとなる。   The height elevation angle calculating means 26 is configured to calculate from the optical axis 13 of the camera 12 to the bird 50 based on the pixel angle calculation from the screen center position C to the height position of the bird 50 on the photographing screen 14 photographed by the camera 12. The relative height elevation angle ψ is calculated. For example, as shown in FIG. 2, if the shooting angle in the height direction of the lens of the camera 12 is 45 ° and the number of pixels in the height direction of the shooting and shooting screen 14 is 200 pixels, the angle per pixel is 0. 225 ° (= 45 ° / 200). When the number of pixels from the screen center position C to the height H of the bird 50 is h, the relative height elevation angle ψ is 0.225 ° × h.

相対方位演算手段27は、前記カメラ12によって撮影した撮影画面14において、画面中心位置Cから鳥50の相対方位位置までのピクセル角度演算に基づいてカメラ12の光軸13から前記鳥50までの相対方位θを演算するものである。例えば、図3に示すように、カメラ12のレンズの水平方向の撮影角度を60°とし、撮影画面14の水平方向の画素数を300ピクセルとすると、1ピクセル当りの角度が0.2°(=60°/300)となる。画面中心位置Cから鳥50の水平距離Vまでの画素数がvである場合、相対方位θは0.2°×vとなる。   The relative azimuth calculating means 27 is a relative position from the optical axis 13 of the camera 12 to the bird 50 based on the pixel angle calculation from the screen center position C to the relative azimuth position of the bird 50 on the photographing screen 14 photographed by the camera 12. The azimuth θ is calculated. For example, as shown in FIG. 3, when the horizontal shooting angle of the lens of the camera 12 is 60 ° and the horizontal number of pixels of the shooting screen 14 is 300 pixels, the angle per pixel is 0.2 ° ( = 60 ° / 300). When the number of pixels from the screen center position C to the horizontal distance V of the bird 50 is v, the relative orientation θ is 0.2 ° × v.

三次元位置座標演算手段28は、前記測定位置原点O、鳥50までの距離r、光軸13の方位方向Θ、相対高さ仰角ψ、相対方位θから、鳥50の空間位置を演算し、その空間位置を経度、緯度、高度のX軸,Y軸,Z軸座標データに換算するものである。例えば、図1ないし図3に示すように、撮影画面14において、画面中心位置Cから鳥50までの高さHは、単純に、H=rsinψとなる。一方、画面中心位置Cから鳥50までの水平距離Vは、単純に、V=rsinθとなる。
測定位置原点Oから鳥50までの距離rと光軸13の方位方向Θとから画面中心位置Cの位置座標のデータを演算できるので、画面中心位置Cの位置座標と、鳥50の高さHおよび水平距離Vによって鳥50の三次元位置X軸,Y軸,Z軸の座標データを演算できる。
The three-dimensional position coordinate calculation means 28 calculates the spatial position of the bird 50 from the measurement position origin O, the distance r to the bird 50, the azimuth direction Θ of the optical axis 13, the relative height elevation angle ψ, and the relative azimuth θ, The spatial position is converted into longitude, latitude, altitude X-axis, Y-axis, and Z-axis coordinate data. For example, as shown in FIGS. 1 to 3, the height H from the screen center position C to the bird 50 in the photographing screen 14 is simply H = rsinψ. On the other hand, the horizontal distance V from the screen center position C to the bird 50 is simply V = rsinθ.
Since the position coordinate data of the screen center position C can be calculated from the distance r from the measurement position origin O to the bird 50 and the azimuth direction Θ of the optical axis 13, the position coordinates of the screen center position C and the height H of the bird 50 can be calculated. The coordinate data of the three-dimensional position X-axis, Y-axis, and Z-axis of the bird 50 can be calculated from the horizontal distance V.

以上のようにして、本実施形態の飛翔体の三次元位置測定装置20では、1台のカメラ12と距離計測手段24を用いて、1箇所から撮影しても、鳥50の三次元位置であるX軸,Y軸,Z軸の座標データを演算することができる。その結果、1台のカメラ12を設置する場所は簡単に確保することができる。また、操作人員は設置場所の1箇所での1組だけであるので容易に確保することができる。また、2台のカメラの場合のように遠く離れた2箇所の間で連携作業をする必要がなくなる。したがって、従来の大掛かりな撮影作業を解消し、費用や手間もかからずに、鳥50を撮影することができる。   As described above, the flying object three-dimensional position measurement apparatus 20 according to the present embodiment uses the single camera 12 and the distance measurement unit 24 to capture the three-dimensional position of the bird 50 even if the image is taken from one place. Coordinate data of a certain X axis, Y axis, and Z axis can be calculated. As a result, a place where one camera 12 is installed can be easily secured. In addition, since there is only one set of operating personnel at one place of installation, it can be easily secured. In addition, it is not necessary to perform a cooperative operation between two remote locations as in the case of two cameras. Accordingly, it is possible to eliminate the conventional large-scale photographing work and photograph the bird 50 without cost and time.

本実施形態に係る飛翔体のマッピングシステム10(コンピュータ)は、上記の飛翔体の三次元位置測定装置20で演算した鳥50の三次元位置であるX軸,Y軸,Z軸の座標データに基づいて、飛翔体軌跡演算手段31、出力表示手段32によって鳥50の飛翔図などのマップを作成して表示するものである。   The flying object mapping system 10 (computer) according to the present embodiment uses the X-axis, Y-axis, and Z-axis coordinate data, which are the three-dimensional positions of the bird 50 calculated by the three-dimensional position measurement apparatus 20 of the flying object. Based on this, a map such as a flying diagram of the bird 50 is created and displayed by the flying object trajectory calculating means 31 and the output display means 32.

飛翔体軌跡演算手段31は、前記三次元位置座標演算手段28によって演算した三次元位置座標を時間ごとの位置から前記鳥50の軌跡を演算するものである。すなわち、前記三次元位置座標データに対して時刻間対応付けをする。その時刻間対応付けは、前記X軸,Y軸,Z軸の三次元データの鳥50の粒子と、例えばΔt秒後の次の時刻の三次元データの鳥50の中で最も距離が短い粒子を対応する鳥50の粒子として決定する。
次に、前記時刻間対応付けによって対応付けられた二つの時刻間(Δt秒間)の鳥50の粒子で、その粒子の三次元速度ベクトルを算出する。
時刻ごとに算出した鳥50の粒子の三次元速度ベクトルを連続させてたどっていくことによって鳥50の軌跡が算出される。このときの鳥50の軌跡は海抜0mを基準点とするX軸,Y軸,Z軸座標データで表わされる。
The flying object trajectory calculating means 31 calculates the trajectory of the bird 50 from the position of each three-dimensional position coordinate calculated by the three-dimensional position coordinate calculating means 28. That is, time correlation is performed on the three-dimensional position coordinate data. The correlation between the time points is the particle having the shortest distance among the three-dimensional data bird 50 particles of the X-axis, Y-axis, and Z-axis and the three-dimensional data bird 50 of the next time after Δt seconds, for example. Are determined as the particles of the corresponding bird 50.
Next, the three-dimensional velocity vector of the particle of the bird 50 between two times (Δt seconds) correlated by the time correlation is calculated.
The trajectory of the bird 50 is calculated by continuously following the three-dimensional velocity vector of the bird 50 particles calculated at each time. The locus of the bird 50 at this time is represented by X-axis, Y-axis, and Z-axis coordinate data with a reference point of 0 m above sea level.

出力表示手段32は、前記飛翔体軌跡演算手段31によって演算した鳥50の軌跡を三次元マップにてモニタなどに表示するものである。   The output display means 32 displays the trajectory of the bird 50 calculated by the flying object trajectory calculating means 31 on a monitor or the like in a three-dimensional map.

以上のようにして、本実施形態の飛翔体のマッピングシステム10では、1台のカメラ12と距離計測手段24を用いて、1箇所から撮影しても、鳥50の三次元位置であるX軸,Y軸,Z軸の座標データを演算することができる。その鳥50の三次元位置座標を時間ごとの位置から三次元速度ベクトルを連続して算出することによって鳥50の軌跡を演算し、その鳥50の軌跡を飛翔図に作成して表示することができる。
その結果、飛翔体の三次元位置測定装置20の説明でも述べたように、1台のカメラ12を設置する場所は簡単に確保することができる。また、操作人員は設置場所の1箇所での1組だけであるので容易に確保することができる。従来の大掛かりな撮影作業を解消し、費用や手間もかからずに、鳥50を撮影することができる。
As described above, in the flying object mapping system 10 according to the present embodiment, the X axis that is the three-dimensional position of the bird 50 is captured even from one place using the single camera 12 and the distance measuring unit 24. , Y-axis, and Z-axis coordinate data can be calculated. It is possible to calculate the trajectory of the bird 50 by continuously calculating the three-dimensional velocity vector of the three-dimensional position coordinates of the bird 50 from the position for each time, and to create and display the trajectory of the bird 50 in the flight diagram. it can.
As a result, as described in the description of the flying object three-dimensional position measurement apparatus 20, a place where one camera 12 is installed can be easily secured. In addition, since there is only one set of operating personnel at one place of installation, it can be easily secured. The conventional large-scale photographing work can be eliminated, and the bird 50 can be photographed without cost and effort.

前述した飛翔体の三次元位置測定装置20、および飛翔体のマッピングシステム10では、1台のカメラ12の光軸13を水平方向に向けて設置しているので、光軸13より下の空間領域11にはそれほど鳥50が飛ばないことが多い。そこで、撮影画面14の下半分の無駄をなくすために、図5に示すように、カメラ12の光軸13を水平より上方へ傾けて鳥50が飛ぶ領域の撮影範囲を広げることができる。つまり、水平方向に対する光軸13の仰角ψ’を補正角度とすることができる。   In the above-described flying object three-dimensional position measurement apparatus 20 and flying object mapping system 10, the optical axis 13 of one camera 12 is installed in the horizontal direction. 11 often does not fly the bird 50 so much. Therefore, in order to eliminate the waste of the lower half of the shooting screen 14, as shown in FIG. 5, the shooting range of the region where the bird 50 flies can be expanded by tilting the optical axis 13 of the camera 12 upward from the horizontal. That is, the elevation angle ψ ′ of the optical axis 13 with respect to the horizontal direction can be set as the correction angle.

そこで、前記三次元位置座標演算手段28には、前記カメラ12の光軸13を水平方向から上方へ傾けた際の前記光軸13と水平方向とのなす相対光軸仰角ψ’を補正値として鳥50の三次元位置座標の演算を補正する補正機構を備えることができる。   Therefore, the three-dimensional position coordinate calculation means 28 uses the relative optical axis elevation angle ψ ′ formed by the optical axis 13 and the horizontal direction when the optical axis 13 of the camera 12 is tilted upward from the horizontal direction as a correction value. A correction mechanism for correcting the calculation of the three-dimensional position coordinates of the bird 50 can be provided.

基本的には、鳥50の三次元位置座標データは、前述した実施形態に基づいて撮影画面14の画面中心位置Cからの鳥50の高さおよび水平距離を演算し、その演算した鳥50の高さおよび水平距離と画面中心位置Cの三次元座標から演算する。その際に、画面中心位置Cを通る光軸13が仰角ψ’で水平方向より傾いている分だけ画面中心位置Cの座標が補正される。したがって、鳥50の三次元位置座標は仰角ψ’だけ補正されて簡単に演算される。   Basically, the three-dimensional position coordinate data of the bird 50 calculates the height and horizontal distance of the bird 50 from the screen center position C of the shooting screen 14 based on the above-described embodiment, and the calculated bird 50 Calculation is performed from the three-dimensional coordinates of the height and horizontal distance and the screen center position C. At this time, the coordinates of the screen center position C are corrected by the amount that the optical axis 13 passing through the screen center position C is inclined at the elevation angle ψ ′ from the horizontal direction. Therefore, the three-dimensional position coordinate of the bird 50 is corrected by the elevation angle ψ 'and easily calculated.

また、前述した飛翔体の三次元位置測定装置20、および飛翔体のマッピングシステム10に対して、1台のカメラ12で本番撮影する前に、予め設定した空間領域11内に鳥50が入ったかどうかを確認する試し撮り装置40を付加することができる。
その理由は、撮影画面14には、鳥50などの飛翔体が前記空間領域11から外れた場合であっても撮影されるので、その撮影した鳥50が実際に前記空間領域11内に入ったものか、あるいは外れたものかを見極める必要がある。もし、空間領域11から外れた鳥50を撮影するなら無駄なので、バッテリ(動力源)やハードディスク(記録手段)の費用や操作の手間がかかることになる。
In addition, whether or not the bird 50 has entered the preset space area 11 before performing the actual shooting with the single camera 12 for the above-described flying object three-dimensional position measuring device 20 and the flying object mapping system 10. A test shooting device 40 for confirming whether or not can be added.
The reason is that, even if a flying object such as a bird 50 deviates from the space area 11 on the shooting screen 14, the shot bird 50 actually enters the space area 11. It is necessary to determine whether it is a thing or a thing that has come off. If the bird 50 that has fallen out of the space area 11 is photographed, it is useless, so the cost of the battery (power source) and the hard disk (recording means) and the time and effort of the operation are increased.

試し撮り装置40としては、図6に示すように、カメラ12に対して鳥トリガ41、撮影起動手段42を備える。これに加えて、PTV演算手段43、PTV処理出力手段44、判断手段45、制御手段46を備えて構成される。
なお、上記の各手段41,42,43,44,45,46は、飛翔体のマッピングシステム10(コンピュータ)の中央処理装置であるCPU21に接続されている。
As shown in FIG. 6, the trial photographing apparatus 40 includes a bird trigger 41 and a photographing activation unit 42 for the camera 12. In addition to this, a PTV calculation unit 43, a PTV processing output unit 44, a determination unit 45, and a control unit 46 are provided.
Each means 41, 42, 43, 44, 45, 46 is connected to the CPU 21 which is a central processing unit of the flying object mapping system 10 (computer).

鳥トリガ41は、鳥50が撮影画像内に入ったことを自動的に認知して警報発生的に出力するものである。
撮影起動手段42は、前記鳥トリガ41による鳥50の認知出力をカメラ12に入力することによって、カメラ12が前記撮影領域11の画像データ17を、例えば5〜10秒間などのように短い所定時間、試験的に取得するものである。
PTV演算手段43は、前記カメラ12が取得した所定時間の画像データ17に基づいて試験的なPTV処理を実行するものである。
PTV処理出力手段44は、前記PTV演算手段43が実行したPTV処理の結果を出力するものである。
The bird trigger 41 automatically recognizes that the bird 50 has entered the captured image and outputs it in an alarming manner.
The imaging activation means 42 inputs the recognition output of the bird 50 by the bird trigger 41 to the camera 12, so that the camera 12 stores the image data 17 in the imaging area 11 for a short predetermined time such as 5 to 10 seconds, for example. , To obtain on a trial basis.
The PTV calculation means 43 executes a trial PTV process based on the image data 17 of a predetermined time acquired by the camera 12.
The PTV process output means 44 outputs the result of the PTV process executed by the PTV calculation means 43.

判断手段45は、前記PTV処理出力手段44の出力結果に基づいて、PTV処理が可能な画像データ17が取得できているか否かを判断するものである。
鳥50が前記空間領域11から外れる場合は、カメラ12の設置位置に対して鳥50が近すぎたり、速度が速すぎたり、遠くて小さすぎたりする。したがって、試し撮りをした際に、上記のように鳥50が近すぎたり、速すぎたり、小さすぎたりした場合は、予め設定した空間領域11から外れていると判断する。
The determination unit 45 determines whether or not the image data 17 that can be PTV processed can be acquired based on the output result of the PTV processing output unit 44.
When the bird 50 deviates from the space region 11, the bird 50 is too close to the installation position of the camera 12, too fast, or too far away and too small. Therefore, when trial shooting is performed, if the bird 50 is too close, too fast, or too small as described above, it is determined that the bird is out of the preset space area 11.

制御手段46は、前記判断手段45によってPTV処理が可能な画像データ17を取得できていると判断された場合に、前記カメラ12に対して本番撮影用の画像データ17を所定時間取得するように命令信号を発信し、かつ前記距離計測手段24に対して鳥50までの距離rを計測するように命令信号を発信する本番撮影用制御手段である。
一方、前記判断手段45によってPTV処理が可能な画像データ17を取得できていないと判断された場合は、カメラ12の設置場所を適切な場所に変更することができる。
When it is determined by the determination unit 45 that the image data 17 that can be PTV-processed is acquired, the control unit 46 acquires the image data 17 for actual shooting from the camera 12 for a predetermined time. It is a control unit for actual photographing that transmits a command signal and transmits a command signal so as to measure the distance r to the bird 50 with respect to the distance measuring unit 24.
On the other hand, if it is determined by the determination means 45 that the image data 17 that can be PTV-processed has not been acquired, the installation location of the camera 12 can be changed to an appropriate location.

また、カメラ12および距離計測手段24の起動を手動で行われる場合に対応するために、前記制御手段46には、その発信する命令信号に基づいて前記カメラ12および前記距離計測手段24に対して本番起動開始指示を表示する本番開始表示手段47を備えることができる。この本番開始表示手段47としては音声発生器や発光装置などを用いることができる。   Further, in order to cope with the case where the camera 12 and the distance measuring unit 24 are manually activated, the control unit 46 notifies the camera 12 and the distance measuring unit 24 based on the command signal transmitted. Production start display means 47 for displaying a production activation start instruction can be provided. As the actual start display means 47, a sound generator or a light emitting device can be used.

上記構成により、カメラ12の撮影画像に鳥50が入ると、鳥トリガ41が自動的に認知して警報発生的に出力する。その鳥50の認知出力によって試し撮りが開始され、その画像データ17は所定時間取得される。その取得した画像データ17はPTV演算手段43によって試験的なPTV処理が行われる。その結果がPTV処理出力手段44によって出力され、判断手段45では、その結果に基づいて、PTV処理が可能な画像データ17が取得できているか否か、つまり、鳥50が前記空間領域11の中に入ったかどうかを判断する。鳥50が前記空間領域11に入ったと判断した時、すぐにカメラ12で本番撮影を開始し、かつ距離計測手段24によって鳥50までの距離rを計測する。   With the above configuration, when the bird 50 enters the captured image of the camera 12, the bird trigger 41 automatically recognizes and outputs an alarm. Trial shooting is started by the recognition output of the bird 50, and the image data 17 is acquired for a predetermined time. The acquired image data 17 is subjected to a trial PTV process by the PTV calculation means 43. The result is output by the PTV processing output means 44. Based on the result, the judgment means 45 determines whether or not the image data 17 that can be PTV processed has been acquired, that is, the bird 50 is in the space area 11. Determine if you entered. When it is determined that the bird 50 has entered the space region 11, the actual shooting is started immediately by the camera 12, and the distance r to the bird 50 is measured by the distance measuring unit 24.

上記の試し撮り装置40を付加することによって、操作員の入力によって撮影画面14を常時監視することなく、本番撮影する前に、空間領域11の中に鳥50が入ったことを自動的に判断することができる。その結果を受けて、無駄なく、カメラ12で本番撮影を開始し、かつ距離計測手段24によって距離rを計測し、鳥50の三次元座標を計測し、鳥50の軌跡を計測し、飛翔図などのマップを作成することができる。   By adding the trial shooting device 40 described above, it is automatically determined that the bird 50 has entered the space area 11 before the actual shooting, without constantly monitoring the shooting screen 14 by an operator input. can do. In response to the result, the actual shooting is started with the camera 12, the distance r is measured by the distance measuring means 24, the three-dimensional coordinates of the bird 50 are measured, the trajectory of the bird 50 is measured, and the flight diagram You can create a map.

本発明は、飛翔体に関する環境アセスメントの情報を収集するための計測サービスに関する事業、当該計測機器の製造業、当該計測サービスに関するソフトウェア作成業などにおいて、利用可能性を有する。
The present invention has applicability in a business related to a measurement service for collecting information on environmental assessments related to flying objects, a manufacturing industry of the measurement device, a software creation business related to the measurement service, and the like.

10 マッピングシステム 11 空間領域(撮影領域)
12 カメラ 13 光軸
14 撮影画面(画面) 15 GPSレシーバ
16 三脚 17 撮影画像データ
20 三次元位置測定装置 21 CPU
22 入力手段 23 記憶手段
24 距離計測手段 25 光軸方向演算手段
26 高さ仰角演算手段 27 相対方位演算手段
28 三次元位置座標演算手段
31 飛翔体軌跡演算手段 32 出力表示手段
40 試し撮り装置 41 鳥トリガ
42 撮影起動手段 43 PTV演算手段
44 PTV処理出力手段 45 判断手段
46 制御手段 47 本番開始表示手段
50 鳥(飛翔体)
O 測定位置原点 C 画面中心位置
LB レーザ光
10 Mapping system 11 Spatial area (shooting area)
DESCRIPTION OF SYMBOLS 12 Camera 13 Optical axis 14 Shooting screen (screen) 15 GPS receiver 16 Tripod 17 Captured image data 20 Three-dimensional position measuring device 21 CPU
22 Input means 23 Storage means 24 Distance measurement means 25 Optical axis direction calculation means 26 Height elevation angle calculation means 27 Relative azimuth calculation means 28 Three-dimensional position coordinate calculation means 31 Flying object locus calculation means 32 Output display means 40 Trial shooting device 41 Bird Trigger 42 Shooting starting means 43 PTV calculating means 44 PTV processing output means 45 Judging means 46 Control means 47 Production start display means 50 Bird (flying object)
O Measurement position origin C Screen center position LB Laser beam

Claims (10)

所定の空間領域の飛翔体を撮影する1台のカメラと、
前記カメラの測定位置原点の位置データおよび方位データを取得するGPSレシーバと、
前記カメラの測定位置原点から飛翔体までの距離rを計測する距離計測手段と、
前記GPSレシーバで取得した方位データに基づいて前記カメラの光軸の方位方向Θを前記測定位置原点から水平角で演算する光軸方向演算手段と、
前記カメラによって撮影した画像データにおいて、画面中心位置から飛翔体の高さ位置までのピクセル角度演算に基づいてカメラの光軸から前記飛翔体までの相対高さ仰角ψを演算する高さ仰角演算手段と、
前記カメラによって撮影した画像データにおいて、画面中心位置から飛翔体の相対方位位置までのピクセル角度演算に基づいてカメラの光軸から前記飛翔体までの相対方位θを演算する相対方位演算手段と、
前記測定位置原点、飛翔体までの距離r、光軸の方位方向Θ、相対高さ仰角ψおよび相対方位θから飛翔体の空間位置を演算し、その空間位置を経度、緯度および高度に換算する三次元位置座標演算手段と、
を備えた飛翔体の三次元位置測定装置。
One camera that captures flying objects in a predetermined space area;
A GPS receiver for obtaining position data and orientation data of the measurement position origin of the camera;
Distance measuring means for measuring a distance r from the measurement position origin of the camera to the flying object;
An optical axis direction calculating means for calculating the azimuth direction Θ of the optical axis of the camera based on the azimuth data acquired by the GPS receiver in a horizontal angle from the measurement position origin;
Height elevation angle calculating means for calculating a relative height elevation angle ψ from the optical axis of the camera to the flying object based on a pixel angle calculation from the center position of the screen to the height position of the flying object in the image data photographed by the camera When,
In the image data photographed by the camera, relative azimuth calculating means for calculating the relative azimuth θ from the optical axis of the camera to the flying object based on the pixel angle calculation from the center position of the screen to the relative azimuth position of the flying object,
The spatial position of the flying object is calculated from the measurement position origin, the distance r to the flying object, the azimuth direction Θ of the optical axis, the relative height elevation angle ψ, and the relative azimuth θ, and the spatial position is converted into longitude, latitude, and altitude. Three-dimensional position coordinate calculation means;
A three-dimensional position measurement device for flying objects.
前記三次元位置座標演算手段は、前記カメラの光軸を水平方向から上方へ傾けた際の前記光軸と水平方向とのなす相対光軸仰角ψ’を補正値として飛翔体の三次元位置座標の演算を補正する補正機構を備えた請求項1に記載の飛翔体の三次元位置測定装置。   The three-dimensional position coordinate calculation means is a three-dimensional position coordinate of the flying object using a relative optical axis elevation angle ψ ′ formed by the optical axis and the horizontal direction when the optical axis of the camera is tilted upward from the horizontal direction as a correction value. The flying object three-dimensional position measurement apparatus according to claim 1, further comprising a correction mechanism that corrects the calculation. 前記カメラは、飛翔体が撮影画像内に入ったことを認知して出力する鳥トリガと、その鳥トリガによる飛翔体の認知出力を入力するとともに、前記空間領域の画像データを所定時間取得する撮影起動手段と、を備え、
前記カメラが取得した所定時間の画像データに基づいて試験的なPTV処理を実行するPTV演算手段と、そのPTV演算手段が実行したPTV処理の結果を出力するPTV処理出力手段と、そのPTV処理出力手段の出力結果に基づいて、PTV処理が可能な画像データが取得できているか否かを判断する判断手段と、その判断手段によってPTV処理が可能な画像データを取得できていると判断された場合に、前記カメラに対して本番撮影用の画像データを所定時間取得するように命令信号を発信し、かつ前記距離計測手段に対して距離rを計測するように命令信号を発信する制御手段と、
を備えたことを特徴とする請求項1または請求項2のいずれかに記載の飛翔体の三次元位置測定装置。
The camera inputs a bird trigger that recognizes and outputs that the flying object has entered the captured image, and a recognition output of the flying object by the bird trigger, and acquires the image data of the space area for a predetermined time. An activation means,
A PTV calculation means for executing a trial PTV process based on image data of a predetermined time acquired by the camera, a PTV process output means for outputting a result of the PTV process executed by the PTV calculation means, and an output of the PTV process A determination unit that determines whether image data that can be PTV-processed can be acquired based on an output result of the unit, and a case where it is determined by the determination unit that image data that can be PTV-processed can be acquired A control means for transmitting a command signal so as to acquire image data for actual shooting for a predetermined time to the camera, and for transmitting a command signal so as to measure a distance r to the distance measuring means;
The apparatus for measuring a three-dimensional position of a flying object according to any one of claims 1 and 2.
前記制御手段は、その発信する命令信号に基づいて前記カメラおよび前記距離計測手段に対して本番起動開始指示を表示する本番開始表示手段を備えた請求項3に記載の飛翔体の三次元位置測定装置。   The three-dimensional position measurement of the flying object according to claim 3, wherein the control means includes a production start display means for displaying a production start start instruction to the camera and the distance measurement means based on a command signal transmitted. apparatus. 所定の空間領域の飛翔体を撮影する1台のカメラと、
前記カメラの測定位置原点の位置データおよび方位データを取得するGPSレシーバと、
前記カメラの測定位置原点から飛翔体までの距離rを計測する距離計測手段と、
前記GPSレシーバで取得した方位データに基づいて前記カメラの光軸の方位方向Θを前記測定位置原点から水平角で演算する光軸方向演算手段と、
前記カメラによって撮影した画像データにおいて、画面中心位置から飛翔体の高さ位置までのピクセル角度演算に基づいてカメラの光軸から前記飛翔体までの相対高さ仰角ψを演算する高さ仰角演算手段と、
前記カメラによって撮影した画像データにおいて、画面中心位置から飛翔体の相対方位位置までのピクセル角度演算に基づいてカメラの光軸から前記飛翔体までの相対方位θを演算する相対方位演算手段と、
前記測定位置原点、飛翔体までの距離r、光軸の方位方向Θ、相対高さ仰角ψおよび相対方位θから、飛翔体の空間位置を演算し、その空間位置を経度、緯度および高度に換算する三次元位置座標演算手段と、
前記三次元位置座標演算手段によって演算した位置座標を時間ごとの位置から前記飛翔体の軌跡を演算する飛翔体軌跡演算手段と、
前記飛翔体軌跡演算手段によって演算したデータを三次元マップにて表示する出力表示手段と、
を備えたことを特徴とする飛翔体のマッピングシステム。
One camera that captures flying objects in a predetermined space area;
A GPS receiver for obtaining position data and orientation data of the measurement position origin of the camera;
Distance measuring means for measuring a distance r from the measurement position origin of the camera to the flying object;
An optical axis direction calculating means for calculating the azimuth direction Θ of the optical axis of the camera based on the azimuth data acquired by the GPS receiver in a horizontal angle from the measurement position origin;
Height elevation angle calculating means for calculating a relative height elevation angle ψ from the optical axis of the camera to the flying object based on a pixel angle calculation from the center position of the screen to the height position of the flying object in the image data photographed by the camera When,
In the image data photographed by the camera, relative azimuth calculating means for calculating the relative azimuth θ from the optical axis of the camera to the flying object based on the pixel angle calculation from the center position of the screen to the relative azimuth position of the flying object,
The space position of the flying object is calculated from the measurement position origin, the distance r to the flying object, the azimuth direction Θ of the optical axis, the relative height elevation angle ψ, and the relative azimuth θ, and the spatial position is converted into longitude, latitude, and altitude. Three-dimensional position coordinate calculation means for
Flying object trajectory calculating means for calculating the trajectory of the flying object from the position coordinates calculated by the three-dimensional position coordinate calculating means for each time;
Output display means for displaying the data calculated by the flying object trajectory calculating means in a three-dimensional map;
A flying object mapping system characterized by comprising:
前記三次元位置座標演算手段は、前記カメラの光軸を水平方向から上方へ傾けた際の前記光軸と水平方向とのなす相対光軸仰角ψ’を補正値として飛翔体の三次元位置座標の演算を補正する補正機構を備えた請求項5に記載の飛翔体のマッピングシステム。   The three-dimensional position coordinate calculation means is a three-dimensional position coordinate of the flying object using a relative optical axis elevation angle ψ ′ formed by the optical axis and the horizontal direction when the optical axis of the camera is tilted upward from the horizontal direction as a correction value. The flying object mapping system according to claim 5, further comprising a correction mechanism that corrects the calculation. 前記カメラは、飛翔体が撮影画像内に入ったことを認知して出力する鳥トリガと、その鳥トリガによる飛翔体の認知出力を入力するとともに、前記空間領域の画像データを所定時間取得する撮影起動手段と、を備え、
前記カメラが取得した所定時間の画像データに基づいて試験的なPTV処理を実行するPTV演算手段と、そのPTV演算手段が実行したPTV処理の結果を出力するPTV処理出力手段と、そのPTV処理出力手段の出力結果に基づいて、PTV処理が可能な画像データが取得できているか否かを判断する判断手段と、その判断手段によってPTV処理が可能な画像データを取得できていると判断された場合に、前記カメラに対して本番撮影用の画像データを所定時間取得するように命令信号を発信し、かつ前記距離計測手段に対して距離rを計測するように命令信号を発信する制御手段と、
を備えた請求項5または請求項6のいずれかに記載の飛翔体のマッピングシステム。
The camera inputs a bird trigger that recognizes and outputs that the flying object has entered the captured image, and a recognition output of the flying object by the bird trigger, and acquires the image data of the space area for a predetermined time. An activation means,
A PTV calculation means for executing a trial PTV process based on image data of a predetermined time acquired by the camera, a PTV process output means for outputting a result of the PTV process executed by the PTV calculation means, and an output of the PTV process A determination unit that determines whether image data that can be PTV-processed can be acquired based on an output result of the unit, and a case where it is determined by the determination unit that image data that can be PTV-processed can be acquired A control means for transmitting a command signal so as to acquire image data for actual shooting for a predetermined time to the camera, and for transmitting a command signal so as to measure a distance r to the distance measuring means;
The flying object mapping system according to claim 5, further comprising:
前記制御手段は、その発信する命令信号に基づいて前記カメラおよび前記距離計測手段に対して本番起動開始指示を表示する本番開始表示手段を備えた請求項7記載の飛翔体のマッピングシステム。   8. The flying object mapping system according to claim 7, wherein the control means comprises production start display means for displaying a production start start instruction for the camera and the distance measurement means based on a command signal transmitted. 所定の空間領域の飛翔体を撮影する1台のカメラ、 前記カメラの測定位置原点の位置データおよび方位データを取得するGPSレシーバ、および前記カメラの測定位置原点から飛翔体までの距離rを計測する距離計測手段を用いて飛翔体の三次元位置を測定するためのコンピュータプログラムであって、
そのプログラムは、 前記GPSレシーバで取得した方位データに基づいて前記カメラの光軸の方位方向Θを前記測定位置原点から水平角で演算する光軸方向演算手順と、
前記カメラによって撮影した画像データにおいて、画面中心位置から飛翔体の高さ位置までのピクセル角度演算に基づいてカメラの光軸から前記飛翔体までの相対高さ仰角ψを演算する高さ仰角演算手順と、
前記カメラによって撮影した画像データにおいて、画面中心位置から飛翔体の相対方位位置までのピクセル角度演算に基づいてカメラの光軸から前記飛翔体までの相対方位θを演算する相対方位演算手順と、
前記測定位置原点、飛翔体までの距離r、光軸の方位方向Θ、相対高さ仰角ψおよび相対方位θから飛翔体の空間位置を演算し、その空間位置を経度、緯度および高度に換算する三次元位置座標演算手順と、をコンピュータに実行させるためのコンピュータプログラム。
One camera that captures a flying object in a predetermined space area, a GPS receiver that acquires position data and azimuth data of the measurement position origin of the camera, and a distance r from the measurement position origin of the camera to the flying object A computer program for measuring the three-dimensional position of a flying object using a distance measuring means,
The program includes an optical axis direction calculation procedure for calculating the azimuth direction Θ of the optical axis of the camera based on the azimuth data acquired by the GPS receiver as a horizontal angle from the measurement position origin,
Height elevation angle calculation procedure for calculating the relative height elevation angle ψ from the optical axis of the camera to the flying object based on the pixel angle calculation from the center position of the screen to the height position of the flying object in the image data taken by the camera When,
In the image data taken by the camera, a relative azimuth calculation procedure for calculating a relative azimuth θ from the optical axis of the camera to the flying object based on a pixel angle calculation from the center position of the screen to the relative azimuth position of the flying object,
The spatial position of the flying object is calculated from the measurement position origin, the distance r to the flying object, the azimuth direction Θ of the optical axis, the relative height elevation angle ψ, and the relative azimuth θ, and the spatial position is converted into longitude, latitude, and altitude. A computer program for causing a computer to execute a three-dimensional position coordinate calculation procedure.
所定の空間領域の飛翔体を撮影する1台のカメラと、
前記カメラの測定位置原点の位置データおよび方位データを取得するGPSレシーバと、
前記カメラの測定位置原点から飛翔体までの距離rを計測する距離計測手段と、を用いて前記飛翔体の軌跡を三次元マップにて表示するためのコンピュータプログラムであって、
そのプログラムは、 前記GPSレシーバで取得した方位データに基づいて前記カメラの光軸の方位方向Θを前記測定位置原点から水平角で演算する光軸方向演算手順と、
前記カメラによって撮影した画像データにおいて、画面中心位置から飛翔体の高さ位置までのピクセル角度演算に基づいてカメラの光軸から前記飛翔体までの相対高さ仰角ψを演算する高さ仰角演算手順と、
前記カメラによって撮影した画像データにおいて、画面中心位置から飛翔体の相対方位位置までのピクセル角度演算に基づいてカメラの光軸から前記飛翔体までの相対方位θを演算する相対方位演算手順と、
前記測定位置原点、飛翔体までの距離r、光軸の方位方向Θ、相対高さ仰角ψおよび相対方位θから、飛翔体の空間位置を演算し、その空間位置を経度、緯度および高度に換算する三次元位置座標演算手順と、
その三次元位置座標演算手順にて演算した位置座標を時間ごとの位置から前記飛翔体の軌跡を演算する飛翔体軌跡演算手順と、
その飛翔体軌跡演算手順にて演算したデータを三次元マップにて表示する出力表示手順と、をコンピュータに実行させることとしたコンピュータプログラム。
One camera that captures flying objects in a predetermined space area;
A GPS receiver for obtaining position data and orientation data of the measurement position origin of the camera;
A computer program for displaying a trajectory of the flying object on a three-dimensional map using a distance measuring means for measuring a distance r from the measurement position origin of the camera to the flying object,
The program includes an optical axis direction calculation procedure for calculating the azimuth direction Θ of the optical axis of the camera based on the azimuth data acquired by the GPS receiver as a horizontal angle from the measurement position origin,
Height elevation angle calculation procedure for calculating the relative height elevation angle ψ from the optical axis of the camera to the flying object based on the pixel angle calculation from the center position of the screen to the height position of the flying object in the image data taken by the camera When,
In the image data taken by the camera, a relative azimuth calculation procedure for calculating a relative azimuth θ from the optical axis of the camera to the flying object based on a pixel angle calculation from the center position of the screen to the relative azimuth position of the flying object,
The space position of the flying object is calculated from the measurement position origin, the distance r to the flying object, the azimuth direction Θ of the optical axis, the relative height elevation angle ψ, and the relative azimuth θ, and the spatial position is converted into longitude, latitude, and altitude. 3D position coordinate calculation procedure to
A flying object trajectory calculation procedure for calculating the trajectory of the flying object from the position coordinates calculated in the three-dimensional position coordinate calculation procedure from the position for each time;
A computer program for causing a computer to execute an output display procedure for displaying data calculated by the flying object trajectory calculation procedure on a three-dimensional map.
JP2009249528A 2009-10-29 2009-10-29 Three-dimensional position measuring apparatus, mapping system of flying object, and computer program Pending JP2011095112A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009249528A JP2011095112A (en) 2009-10-29 2009-10-29 Three-dimensional position measuring apparatus, mapping system of flying object, and computer program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009249528A JP2011095112A (en) 2009-10-29 2009-10-29 Three-dimensional position measuring apparatus, mapping system of flying object, and computer program

Publications (1)

Publication Number Publication Date
JP2011095112A true JP2011095112A (en) 2011-05-12

Family

ID=44112188

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009249528A Pending JP2011095112A (en) 2009-10-29 2009-10-29 Three-dimensional position measuring apparatus, mapping system of flying object, and computer program

Country Status (1)

Country Link
JP (1) JP2011095112A (en)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015041081A1 (en) 2013-09-17 2015-03-26 日本電気株式会社 Object detection device, object detection method, and object detection system
KR20170007353A (en) 2014-05-07 2017-01-18 닛본 덴끼 가부시끼가이샤 Object detection device, object detection method, and object detection system
CN107230229A (en) * 2016-03-25 2017-10-03 奥林巴斯株式会社 Image processing apparatus, image processing method and recording medium
JP2017215340A (en) * 2017-08-04 2017-12-07 株式会社トプコン Aerial photographing system
CN107455361A (en) * 2016-06-06 2017-12-12 国网安徽省电力公司安庆供电公司 A kind of laser speech synthesis scarer
KR101945116B1 (en) * 2017-08-07 2019-02-01 이은경 Mobile terminal
CN112637445A (en) * 2021-01-06 2021-04-09 上海市建筑科学研究院有限公司 Three-dimensional motion synchronous measurement method based on multiple high-frequency cameras
KR102249769B1 (en) * 2019-12-06 2021-05-12 주식회사 모빌테크 Estimation method of 3D coordinate value for each pixel of 2D image and autonomous driving information estimation method using the same
CN113175609A (en) * 2021-04-26 2021-07-27 山东智慧城市云信息技术有限公司 Appurtenance is used in ancient building survey and drawing

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9721154B2 (en) 2013-09-17 2017-08-01 Nec Corporation Object detection apparatus, object detection method, and object detection system
WO2015041081A1 (en) 2013-09-17 2015-03-26 日本電気株式会社 Object detection device, object detection method, and object detection system
US10157468B2 (en) 2014-05-07 2018-12-18 Nec Corporation Object detection device, object detection method, and object detection system
KR20170007353A (en) 2014-05-07 2017-01-18 닛본 덴끼 가부시끼가이샤 Object detection device, object detection method, and object detection system
CN107230229A (en) * 2016-03-25 2017-10-03 奥林巴斯株式会社 Image processing apparatus, image processing method and recording medium
US10275917B2 (en) 2016-03-25 2019-04-30 Olympus Corporation Image processing apparatus, image processing method, and computer-readable recording medium
CN107455361A (en) * 2016-06-06 2017-12-12 国网安徽省电力公司安庆供电公司 A kind of laser speech synthesis scarer
CN107455361B (en) * 2016-06-06 2023-04-14 国网安徽省电力公司安庆供电公司 Laser voice comprehensive bird repelling device
JP2017215340A (en) * 2017-08-04 2017-12-07 株式会社トプコン Aerial photographing system
KR101945116B1 (en) * 2017-08-07 2019-02-01 이은경 Mobile terminal
KR102249769B1 (en) * 2019-12-06 2021-05-12 주식회사 모빌테크 Estimation method of 3D coordinate value for each pixel of 2D image and autonomous driving information estimation method using the same
WO2021112462A1 (en) * 2019-12-06 2021-06-10 주식회사 모빌테크 Method for estimating three-dimensional coordinate values for each pixel of two-dimensional image, and method for estimating autonomous driving information using same
CN112637445A (en) * 2021-01-06 2021-04-09 上海市建筑科学研究院有限公司 Three-dimensional motion synchronous measurement method based on multiple high-frequency cameras
CN113175609A (en) * 2021-04-26 2021-07-27 山东智慧城市云信息技术有限公司 Appurtenance is used in ancient building survey and drawing
CN113175609B (en) * 2021-04-26 2023-02-28 山东智慧城市云信息技术有限公司 Appurtenance is used in ancient building survey and drawing

Similar Documents

Publication Publication Date Title
JP2011095112A (en) Three-dimensional position measuring apparatus, mapping system of flying object, and computer program
RU2743112C2 (en) Apparatus and method for analyzing vibrations using high-speed video data and using such a device for contactless analysis of vibrations
JP4188394B2 (en) Surveillance camera device and surveillance camera system
US11880118B2 (en) Method of determining a path along an object, system and method for automatically inspecting an object
JP6251142B2 (en) Non-contact detection method and apparatus for measurement object
JP2015109641A (en) System for following object marked by tag device with camera
JP2002034055A (en) Wide view angle multi-directional image acquiring apparatus and system for mobile unit
CN111046121B (en) Environment monitoring method, device and system
JP6802599B1 (en) Inspection system
JP2016177640A (en) Video monitoring system
JP2011203057A (en) Distance measuring instrument for flying object and flying object position measuring instrument
CN111953892B (en) Unmanned aerial vehicle and inspection method
WO2019230604A1 (en) Inspection system
JP2017201757A (en) Image acquisition system, image acquisition method, and image processing method
JP7035272B2 (en) Shooting system
JP6482856B2 (en) Monitoring system
JP2020191523A (en) Unmanned mobile
CN111103899A (en) Holder positioning method and device
JP6681101B2 (en) Inspection system
JP2010223752A (en) Flying object altitude measuring device
JP2019211486A (en) Inspection system
US10750132B2 (en) System and method for audio source localization using multiple audio sensors
JP2016176751A (en) Target information acquisition device and target information acquisition method
JP2011232131A (en) Image target location apparatus and image target location method
JP5409451B2 (en) 3D change detector