JPH08285590A - Method and apparatus for specifying position - Google Patents

Method and apparatus for specifying position

Info

Publication number
JPH08285590A
JPH08285590A JP7084350A JP8435095A JPH08285590A JP H08285590 A JPH08285590 A JP H08285590A JP 7084350 A JP7084350 A JP 7084350A JP 8435095 A JP8435095 A JP 8435095A JP H08285590 A JPH08285590 A JP H08285590A
Authority
JP
Japan
Prior art keywords
ground surface
target
photographing
specifying
air
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP7084350A
Other languages
Japanese (ja)
Other versions
JP2695393B2 (en
Inventor
Yuuji Sugano
侑次 菅野
Osamu Sakakura
修 坂倉
Koichi Asano
宏一 浅野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kawasaki Heavy Industries Ltd
Original Assignee
Kawasaki Heavy Industries Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Family has litigation
First worldwide family litigation filed litigation Critical https://patents.darts-ip.com/?family=13828077&utm_source=google_patent&utm_medium=platform_link&utm_campaign=public_patent_search&patent=JPH08285590(A) "Global patent litigation dataset” by Darts-ip is licensed under a Creative Commons Attribution 4.0 International License.
Application filed by Kawasaki Heavy Industries Ltd filed Critical Kawasaki Heavy Industries Ltd
Priority to JP7084350A priority Critical patent/JP2695393B2/en
Publication of JPH08285590A publication Critical patent/JPH08285590A/en
Application granted granted Critical
Publication of JP2695393B2 publication Critical patent/JP2695393B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Landscapes

  • Instructional Devices (AREA)

Abstract

PURPOSE: To accurately specify the position of an object on the ground surface from the air. CONSTITUTION: A photographing unit 2 is provided in a helicopter 1 in the air. When the object 3 on the ground surface 4 is photographed by the unit 2, the position of the object 3 is obtained as the intersection between the straight line extended from the present position of the helicopter 1 toward the direction of the unit 2 and the surface 4 based on three-dimensional geographic data previously recorded. Since the three-dimensional measurements including the altitude H of the object 3 are conducted, the error E when the ground surface is handled as the two-dimensional plane 5 can be avoided.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、災害が発生している目
標物などを空中から撮影し、その位置を正確に特定する
ことができる位置特定方法および装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a position specifying method and apparatus capable of photographing a target object in which a disaster occurs from the air and accurately specifying the position.

【0002】[0002]

【従来の技術】従来から、たとえば水害や地震などの大
規模な災害が発生すると、ヘリコプタなどによって空中
から撮影し、災害の程度や緊急に対策が必要な部分の有
無を確認している。たとえば、火災が発生し、直ちに消
火活動を行わなければならないような場合は、映像から
確認される場所に消防車両などを急行させなければなら
ない。そのような場所の位置は、ヘリコプタなどの航空
機の現在位置の周辺として概略的に特定される。
2. Description of the Related Art Conventionally, when a large-scale disaster such as a flood or an earthquake occurs, a helicopter or the like photographs an image from the air to confirm the extent of the disaster and the presence or absence of an urgent countermeasure. For example, if a fire occurs and immediate fire fighting is required, a fire engine or the like must be rushed to the location confirmed by the image. The location of such locations is generally identified as around the current location of the aircraft, such as a helicopter.

【0003】航空機の現在位置を、GPS(Global Pos
itioning System)衛星からの電波を受信して測定し、
航行方向の途中にある障害物の存在を予測する先行技術
は、たとえば特開昭64−36400号公報に開示され
ている。この先行技術では、航空機の現在位置を高度ま
でを含めて三次元的に測定し、山岳や鉄塔などの障害物
の位置と高さを記録した三次元的なデータと照合して、
航行方向前方に危険物が存在するか否かを判断する。
The current position of the aircraft is determined by GPS (Global Pos
itioning System) Radio waves from satellites are received and measured,
The prior art for predicting the presence of an obstacle in the middle of the navigation direction is disclosed in, for example, Japanese Patent Laid-Open No. 64-36400. In this prior art, the current position of the aircraft is three-dimensionally measured including altitude, and is compared with the three-dimensional data that records the position and height of obstacles such as mountains and steel towers,
Determine whether there is a dangerous material in the forward direction.

【0004】[0004]

【発明が解決しようとする課題】GPSなどを利用し
て、航空機の現在位置を測定することは比較的容易であ
るけれども、航空機から撮影した地表面上の目標物の位
置を精度よく特定することは必ずしも容易ではない。高
速度で飛行している航空機が、目標物の直上に存在しう
る時間は瞬間的であり、通常はずれた位置を航行する。
ヘリコプタのような空中で停止可能な航空機であって
も、火災発生現場の直上では、煙などのために充分な視
界を確保することができず、離れた位置から撮影する方
が好ましい場合が多い。
Although it is relatively easy to measure the current position of an aircraft using GPS or the like, it is possible to accurately specify the position of a target object photographed from the aircraft on the ground surface. Is not always easy. An aircraft flying at a high speed has a momentary time that it can be directly above the target, and usually navigates to an off-set position.
Even with an aircraft that can be stopped in the air, such as a helicopter, it is often preferable to shoot from a distant position because it is not possible to secure a sufficient field of view immediately above the fire site due to smoke and the like. .

【0005】撮影された映像から、特徴がある建物や地
形などを識別し、それらの位置が予め判明していれば、
目標物の位置の特定は容易となる。しかしながら、大規
模な災害、たとえば洪水や地震などでは、特徴的な建物
や地形も隠れてしまったり、変化してしまう可能性も大
きい。さらに、海上や山岳地帯などでは、位置を判別す
るための手かがりになる情報もほとんど得られず、航空
機の現在位置を中心として概略的な方向および距離が求
められるだけである。
If the characteristic buildings and terrain are identified from the captured images and their positions are known in advance,
The position of the target object can be easily specified. However, in a large-scale disaster, such as a flood or an earthquake, the characteristic buildings and terrain may be hidden or changed. Further, on the sea or in a mountainous area, almost no clues for determining the position can be obtained, and only a rough direction and distance centering on the current position of the aircraft can be obtained.

【0006】本発明の目的は、空中から地表面の目標物
の位置を正確に特定することができる位置特定方法およ
び装置を提供することである。
An object of the present invention is to provide a position specifying method and device capable of accurately specifying the position of a target object on the ground surface from the air.

【0007】[0007]

【課題を解決するための手段】本発明は、空中から地表
面の目標物を撮影し、目標物の位置を特定する方法であ
って、空中における撮影位置を三次元的に特定し、撮影
位置に対する目標物の方向を計測し、予め作成されてい
る高度情報を有する地理データから目標物の存在する地
表面を求め、地表面と、撮影位置から目標物の方向に延
びる直線との交点位置として、目標物の位置を特定する
ことを特徴とする位置特定方法である。また本発明は、
特定した目標位置と地表面の地理データとともに、二次
元的に表示することを特徴とする。また本発明は、目標
物を撮影する際の視野を、地表面の地理データとともに
二次元的に表示することを特徴とする。また本発明の空
中からの撮影は、赤外線カメラを用いて夜間も可能であ
り、撮影した映像は地上でも受信可能であることを特徴
とする。また本発明は、目標物の撮影を飛行体に搭載す
るカメラから行い、空中における撮影位置を三次元的に
特定する機能を利用して、飛行体の運航管理を行うこと
を特徴とする。さらに本発明は、空中を移動可能な機体
と、機体の位置を特定する機体位置特定手段と、機体に
搭載され、地表面上の目標物を撮影する撮影手段と、機
体に対して、撮影手段の向いている方向を検出する方向
検出手段と、地表面の三次元的な位置を表すデータを記
録しておく地表面記録手段と、機体位置特定手段、撮影
手段、方向検出手段および地表面記録手段からの出力に
応答し、機体の位置から撮影手段の向いている方向に延
ばした直線と、地表面との交点を算出し、目標物の位置
として特定する演算処理手段とを含むことを特徴とする
位置特定装置である。また本発明の前記撮影手段は、2
軸または3軸安定化ジャイロを内蔵するジンバル機構に
よって支持されることを特徴とする。
The present invention is a method for photographing a target on the ground surface from the air and specifying the position of the target. The photographing position in the air is specified three-dimensionally and the photographing position is determined. The direction of the target is measured, and the ground surface on which the target exists is obtained from the geographic data that has altitude information created in advance. As the intersection point of the ground surface and the straight line extending from the shooting position to the direction of the target The position specifying method is characterized by specifying the position of the target object. The present invention also provides
The feature is that it is displayed two-dimensionally together with the specified target position and the geographical data of the ground surface. Further, the present invention is characterized in that the visual field at the time of photographing the target object is two-dimensionally displayed together with the geographical data of the ground surface. Further, the feature of the present invention is that the image capturing from the air can be performed at night using an infrared camera, and the captured image can be received on the ground. Further, the present invention is characterized in that the target is photographed by a camera mounted on the flying body, and the flight management of the flying body is performed by utilizing the function of three-dimensionally specifying the photographing position in the air. Further, the present invention provides an aircraft that can move in the air, an aircraft position identifying means that identifies the location of the aircraft, an imaging means that is mounted on the aircraft and that captures an image of a target on the ground surface, and an imaging means for the aircraft. Direction detecting means for detecting the direction in which the vehicle is facing, ground surface recording means for recording data representing the three-dimensional position of the ground surface, airframe position specifying means, photographing means, direction detecting means and ground surface recording In response to the output from the means, a straight line extending from the position of the aircraft in the direction in which the photographing means is facing, and an arithmetic processing means for calculating an intersection point with the ground surface and specifying it as the position of the target are included. It is a position specifying device. Further, the photographing means of the present invention is 2
It is characterized by being supported by a gimbal mechanism that incorporates a three-axis or three-axis stabilizing gyro.

【0008】[0008]

【作用】本発明に従えば、空中から撮影する目標物の位
置を、撮影位置から目標物の方向に延びる直線と、予め
作成されている高度情報を有する地理データから求めら
れる目標物の存在する地表面との交点として特定する。
地表面には、高度情報が反映されているので、目標物の
位置を三次元的に精度よく特定することができる。
According to the present invention, the position of the target object photographed from the air exists on the straight line extending from the photographing position in the direction of the target object and the target object obtained from the geographical data having the altitude information created in advance. It is specified as the intersection with the ground surface.
Since the altitude information is reflected on the ground surface, the position of the target object can be accurately specified three-dimensionally.

【0009】また本発明に従えば、特定した目標物の位
置を、地表面の地理データとともに二次元的に表示する
ので、平面的な位置関係を判りやすく表示することがで
きる。
Further, according to the present invention, the position of the specified target is two-dimensionally displayed together with the geographical data of the ground surface, so that the two-dimensional positional relationship can be displayed easily.

【0010】また本発明に従えば、目標物を撮影する際
の視野を、二次元的に、地表面の地理データとともに表
示するので、撮影した映像と地理データとの対応関係が
把握しやすくなり、災害の発生規模などの把握も容易と
なる。
Further, according to the present invention, the field of view at the time of photographing the target object is two-dimensionally displayed together with the geographical data of the ground surface, so that the correspondence between the photographed image and the geographical data can be easily grasped. It also makes it easy to understand the scale of disasters.

【0011】また本発明に従えば、赤外線カメラを用い
て夜間も空中からの撮影が可能であり、撮影した映像は
地上でも受信可能であるので、地上と連携してより効果
的な目標物を選択したり、災害などの救助により有効と
なる情報を収集したりすることができる。
Further, according to the present invention, since it is possible to take an image from the air at night using an infrared camera and the taken image can be received even on the ground, a more effective target object can be obtained in cooperation with the ground. You can select and collect information that will be useful for rescue of disasters.

【0012】また本発明に従えば、目標物の撮影を行う
カメラを搭載する飛行体の位置を三次元的に特定し、飛
行体の運航管制を行うので、通常時における運航の安全
を確保するために三次元的に位置特定を行う機能を有効
に利用することができる。
Further, according to the present invention, the position of the flying body equipped with the camera for photographing the target is three-dimensionally specified and the flight control of the flying body is carried out. Therefore, it is possible to effectively use the function of three-dimensionally specifying the position.

【0013】さらに本発明に従えば、空中を移動可能な
機体に撮影手段を搭載し、目標物を撮影する。機体位置
特定手段によって機体の位置を特定し、方向検出手段に
よって撮影手段の向いている方向を機体に対して検出す
る。目標物が存在する地表面の三次元的な位置を表すデ
ータは、地表面記録手段に記録されている。演算処理手
段は、機体の位置から撮影手段の向いている方向に延ば
した直線と、地表面との交点を算出し、目標物の位置を
特定する。地表面は三次元的に高度情報を含んで表され
るので、交点として求められる目標物の位置は高度が精
度よく反映され、災害発生現場周辺などに機体を急行さ
せるだけで、その現場の位置を比較的容易、かつ精度よ
く特定することができる。
Further, according to the present invention, the photographing means is mounted on the body movable in the air to photograph the target object. The position of the machine body is specified by the machine body position specifying means, and the direction in which the photographing means is facing is detected with respect to the machine body by the direction detecting means. Data representing the three-dimensional position of the ground surface on which the target object exists is recorded in the ground surface recording means. The arithmetic processing means calculates the intersection of the straight line extending from the position of the machine body in the direction facing the photographing means and the ground surface, and specifies the position of the target object. Since the ground surface is represented three-dimensionally by including altitude information, the position of the target object that is obtained as the intersection accurately reflects the altitude, and by simply moving the aircraft around the disaster site, the position of the site Can be specified relatively easily and accurately.

【0014】また本発明に従えば、撮影手段は、2軸ま
たは3軸安定化ジャイロを内蔵するジンバル機構によっ
て支持されるので、機体の移動や振動に伴って映像が不
安定になることはなく、安定した撮影を行うことができ
る。
Further, according to the invention, since the photographing means is supported by the gimbal mechanism having the built-in biaxial or triaxial stabilizing gyro, the image does not become unstable due to the movement or vibration of the machine body. , Stable shooting can be performed.

【0015】[0015]

【実施例】図1は、本発明の一実施例の原理的な構成を
示す。空中を飛行するヘリコプタ1などの機体には、テ
レビカメラなどの撮影装置2が搭載され、目標物3を撮
影する。目標物3は、三次元的な起伏がある地表面4上
に存在し、地表面4を水平面に投影する二次元平面5上
には存在しない。本実施例では、ヘリコプタ1の現在位
置を測定し、目標物位置の方向に延ばす直線Lと、地表
面4との交点として、目標物3の位置を特定する。地表
面4が二次元平面5から高度Hだけ異なる高さに存在す
るので、目標物3までの直線を二次元平面5まで延長し
た交点の位置が、目標物3を二次元平面5に投影した位
置よりもEだけ異なる位置と判断してしまう。本実施例
によれば、地表面4上で目標物3の位置を正確に特定す
ることができる。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS FIG. 1 shows the principle structure of an embodiment of the present invention. An image pickup device 2 such as a television camera is mounted on a body such as a helicopter 1 flying in the air, and images a target object 3. The target 3 exists on the ground surface 4 having a three-dimensional undulation, and does not exist on the two-dimensional plane 5 that projects the ground surface 4 on a horizontal plane. In the present embodiment, the current position of the helicopter 1 is measured, and the position of the target 3 is specified as the intersection of the straight line L extending in the direction of the target position and the ground surface 4. Since the ground surface 4 exists at a height different from the two-dimensional plane 5 by the height H, the position of the intersection point where the straight line to the target object 3 is extended to the two-dimensional plane 5 projects the target object 3 on the two-dimensional plane 5. The position is determined to be different from the position by E. According to this embodiment, the position of the target object 3 on the ground surface 4 can be accurately specified.

【0016】図2は、図1に示す実施例を用いて災害発
生時に空中撮影を行い、火事が発生している現場の位置
を特定するシステム構成を示す。ヘリコプタ1に搭載さ
れる撮影装置2は、目標物3を含む空撮映像6を撮影す
る。空撮映像6および空撮映像6に基づいて特定する目
標物3の位置は、無線電波によって伝送され、現地本部
指揮車7や、災害対策本部10で受信される。現地本部
指揮車7は、災害発生とともに、現場付近まで出動す
る。災害対策本部10は、消防署など予め設置されてい
る。災害対策本部10には、屋上などに、自動追尾空中
線装置11が設けられ、ヘリコプタ1との無線電波によ
る交信を確実に行うことができる。災害対策本部10の
建屋内には、制御装置12、大型プロジェクタ13およ
び操作卓14などが設けられる。現地本部指揮車7内に
も、災害対策本部10内と同様の機能を有する各種装置
が設けられている。
FIG. 2 shows a system configuration in which an aerial image is taken at the time of occurrence of a disaster by using the embodiment shown in FIG. 1 and the position of the site where the fire is occurring is specified. The image capturing device 2 mounted on the helicopter 1 captures an aerial image 6 including the target object 3. The aerial image 6 and the position of the target 3 specified based on the aerial image 6 are transmitted by radio waves and received by the local headquarters command vehicle 7 and the disaster countermeasures headquarters 10. The local headquarters command vehicle 7 is dispatched to the vicinity of the site when a disaster occurs. The disaster response headquarters 10 is installed in advance such as a fire station. The disaster countermeasure headquarters 10 is provided with an automatic tracking antenna device 11 on a rooftop or the like, and can reliably communicate with the helicopter 1 by radio waves. A control device 12, a large-sized projector 13, an operation console 14 and the like are provided in the building of the disaster countermeasure headquarters 10. In the local headquarters command vehicle 7, various devices having the same functions as those in the disaster countermeasures headquarters 10 are also provided.

【0017】図3は、図2に示す空撮映像6から災害発
生地点を見いだす過程を示す。図3(1)に示す災害発
生地点20に対応する画面を、図3(2)に示すように
拡大して表示すれば、被害状況を詳細に知ることができ
る。空撮映像6を撮影している機体搭載カメラの方位角
PAN、上下角TILTおよびヘリコプタ1の高度情報
を含む三次元的な位置情報をもとに、災害発生地点20
が特定される。
FIG. 3 shows a process of finding a disaster occurrence point from the aerial image 6 shown in FIG. If the screen corresponding to the disaster occurrence point 20 shown in FIG. 3A is enlarged and displayed as shown in FIG. 3B, the damage situation can be known in detail. Based on three-dimensional position information including azimuth PAN, vertical angle TILT, and altitude information of the helicopter 1 of the onboard camera that is shooting the aerial image 6, the disaster occurrence point 20
Is specified.

【0018】図4は、特定された災害発生地点20を、
二次元的な地図に合わせて画像表示している状態を示
す。災害発生地点20の周囲には、画像表示を行ってい
るカメラの視野21に対応する領域が表示され、カメラ
の方向22も矢印で表示される。災害発生地点20は、
種々の要因である程度の誤差を伴うけれども、カメラの
視野21およびカメラの方向22を考慮して空撮映像6
を見れば、災害発生地点20をより正確に特定すること
ができる。
FIG. 4 shows the identified disaster occurrence point 20,
The state where the image is displayed according to the two-dimensional map is shown. Around the disaster occurrence point 20, an area corresponding to the field of view 21 of the camera displaying an image is displayed, and the direction 22 of the camera is also displayed by an arrow. The disaster point 20 is
Although some errors are caused by various factors, the aerial image 6 is taken into consideration in consideration of the camera view 21 and the camera direction 22.
If the user sees, the disaster occurrence point 20 can be specified more accurately.

【0019】図5は、図1のヘリコプタ1に搭載される
位置特定に関連する機器の概略的な構成を示す。撮影装
置2としては、カメラ30およびジンバル・ユニット3
1を含む。カメラ30としては、TVカメラ30aおよ
び赤外線カメラ30bを有し、昼夜を問わず空撮映像を
得ることができる。カメラ30は、2軸または3軸安定
化ジャイロを内蔵するジンバル・ユニット31に取付け
られ、図1のヘリコプタ1の外部を撮影する。このよう
な撮影装置2は、図1に示すようにヘリコプタ1の機体
の外部に突出させてもよく、ヘリコプタ1の機体に装着
してもよい。図1に示すように、機体外に突出させれ
ば、広い範囲を撮影することができるけれども、ヘリコ
プタ1の離着陸時には、ヘリコプタ1の機体内部に収納
する機構を必要とする。ヘリコプタ1の機体に直接装着
すれば、収納用の機構は不要であるけれども、撮影する
範囲が限られる。
FIG. 5 shows a schematic structure of a device related to position identification mounted on the helicopter 1 of FIG. The photographing device 2 includes a camera 30 and a gimbal unit 3.
Including 1. The camera 30 has a TV camera 30a and an infrared camera 30b, and it is possible to obtain an aerial image regardless of day or night. The camera 30 is attached to a gimbal unit 31 incorporating a two-axis or three-axis stabilizing gyro, and photographs the outside of the helicopter 1 of FIG. Such an imaging device 2 may be projected outside the body of the helicopter 1 as shown in FIG. 1, or may be attached to the body of the helicopter 1. As shown in FIG. 1, if the helicopter 1 can be photographed over a wide range by projecting it outside the airframe, a mechanism for accommodating the helicopter 1 inside the airframe is required when the helicopter 1 is taking off and landing. If the helicopter 1 is directly attached to the body of the helicopter, the mechanism for storing is unnecessary, but the range of photographing is limited.

【0020】撮影装置2によって撮影された映像信号
と、ジンバル・ユニット31の向きとは、データ変換や
システム電源配分も行うビデオ処理およびジンバル制御
ユニット32によって処理あるいは制御される。処理さ
れたビデオ画像や音声情報は、VTR33によって磁気
テープに収録され、モニタ34によって画像表示され
る。カメラ30の焦点調整や、ジンバル・ユニット31
の方向制御は、撮影制御ユニット35から操作される。
The video signal photographed by the photographing device 2 and the orientation of the gimbal unit 31 are processed or controlled by the video processing and gimbal control unit 32 which also performs data conversion and system power distribution. The processed video image and audio information are recorded on a magnetic tape by the VTR 33 and displayed as an image on the monitor 34. Focus adjustment of camera 30 and gimbal unit 31
The direction control of is operated from the photographing control unit 35.

【0021】図1のヘリコプタ1の現在位置は、GPS
アンテナ36を介してGPS受信機37に受信されるG
PS衛星からの電波に基づいて測定される。4つのGP
S衛星からの電波を受信すれば、ヘリコプタ1の現在位
置を三次元的に求めることができる。地表面についての
高度情報を含む地勢データは、三次元地理データ記憶装
置38内に記憶されている。そのようなデータの一例と
しては、国土地理院発行の三次元地勢データがある。位
置検出装置39は、三次元地理データ記憶装置38の記
憶内容を読出して、地図画像の発生を行う。また、GP
S受信機37からの出力に基づいて、自機位置の出力を
行う。さらに、ヘリコプタ1の機首が向いている方向の
出力や、撮影している日付や時間等の出力、さらに目標
の表示や、その補正を行う。
The current position of the helicopter 1 in FIG. 1 is GPS
G received by the GPS receiver 37 via the antenna 36
It is measured based on the radio waves from the PS satellite. 4 GP
If the radio wave from the S satellite is received, the current position of the helicopter 1 can be obtained three-dimensionally. Terrain data including altitude information about the ground surface is stored in the three-dimensional geographic data storage device 38. One example of such data is three-dimensional terrain data issued by the Geographical Survey Institute. The position detecting device 39 reads the stored contents of the three-dimensional geographical data storage device 38 and generates a map image. Also, GP
Based on the output from the S receiver 37, the own position is output. Further, the helicopter 1 outputs the direction in which the nose of the helicopter faces, outputs the date and time of shooting, displays the target, and corrects it.

【0022】データ処理ユニット40は、位置検出装置
39からの出力に応答して、目標物の位置計算を行い、
図4に示すような二次元表示を行うための画像データ処
理を行う。カメラ30の操作者と、ヘリコプタ1のパイ
ロットとの連絡などは、機内交話系統41を介して行わ
れる。データ処理ユニット40によって処理された画像
データは、分配ユニット42を介して送信ユニット43
に送られ、送信アンテナ44から電波として送信され
る。送信アンテナ44は、自動追尾ユニット45によっ
て制御され、図2に示す現地本部指揮車7あるいは災害
対策本部10の方向に向けられる。自動追尾ユニット4
5は、必ずしも必要とは限らないけれども、自動追尾ユ
ニット45を装着すれば、送信アンテナ44から送信す
る電力が小さくても、遠方に効率よく伝送することがで
きる。分配ユニット42では、送信項目を選択し、送信
制御を行い、信号の分配などを行う。送信ユニット43
では、分配ユニット42で選択された各項目の画像や音
声やデータを送信する。送信する画像をモニタ34で見
ることもできる。
The data processing unit 40 responds to the output from the position detecting device 39 to calculate the position of the target,
Image data processing for performing two-dimensional display as shown in FIG. 4 is performed. Communication between the operator of the camera 30 and the pilot of the helicopter 1 is performed via the in-flight communication system 41. The image data processed by the data processing unit 40 is sent to the transmission unit 43 via the distribution unit 42.
And transmitted as a radio wave from the transmitting antenna 44. The transmitting antenna 44 is controlled by the automatic tracking unit 45, and is directed toward the local headquarters command vehicle 7 or the disaster countermeasure headquarters 10 shown in FIG. Automatic tracking unit 4
5 is not always necessary, but if the automatic tracking unit 45 is attached, even if the power transmitted from the transmission antenna 44 is small, it is possible to efficiently transmit to a distant place. The distribution unit 42 selects transmission items, controls transmission, and distributes signals. Transmission unit 43
Then, the image, voice, and data of each item selected by the distribution unit 42 are transmitted. The image to be transmitted can be viewed on the monitor 34.

【0023】図6は、図5に示すヘリコプタ1の機器か
ら送信される画像などの電波信号を災害対策本部10で
受信する構成を示す。操作卓14としては、データ処理
ユニット50および地図画像発生ユニット51などが含
まれる。データ処理ユニット50では、受信された画像
データの処理とデータ変換などを行う。地図画像発生ユ
ニット51では、二次元地図画像の発生や、三次元地図
画像の発生や、日付および時間等の出力を行う。
FIG. 6 shows a configuration in which the disaster countermeasures headquarters 10 receives a radio signal such as an image transmitted from the device of the helicopter 1 shown in FIG. The operation console 14 includes a data processing unit 50, a map image generation unit 51 and the like. The data processing unit 50 processes the received image data and performs data conversion. The map image generation unit 51 generates a two-dimensional map image, a three-dimensional map image, and outputs the date and time.

【0024】自動追尾空中線装置11内には、自動追尾
アンテナ55、アンテナ制御ユニット56および受信ユ
ニット57などが含まれる。自動追尾アンテナ55とし
ては、高利得の指向性の大きなアンテナが使用され、ア
ンテナ制御ユニット56によって指向性の向きがヘリコ
プタ1の方向となるように制御される。自動追尾アンテ
ナ55が受信した電波は、受信ユニット57によって受
信され、画像データなどを含む各項目の受信データが、
データ処理ユニット50に入力される。
The automatic tracking antenna device 11 includes an automatic tracking antenna 55, an antenna control unit 56 and a receiving unit 57. As the automatic tracking antenna 55, an antenna having a high gain and a large directivity is used, and the antenna control unit 56 controls the directivity to be the direction of the helicopter 1. The radio wave received by the automatic tracking antenna 55 is received by the receiving unit 57, and the received data of each item including image data is
It is input to the data processing unit 50.

【0025】データ処理ユニット50は、ヘリコプタ1
から受信される画像データなどの処理結果を、大型プロ
ジェクタ13内に設けられる防災用のモニタ60に画像
表示し、VTR61に記録する。モニタ60には、図4
に示すような二次元地図画像が表示され、VTR61に
はその二次元地図画像が収録される。図4に示すような
二次元地図画像が表示されるのは、災害発生時の防災用
であり、平時の運航管理用には、モニタ62によって三
次元地図画像が表示される。三次元地図画像は、ヘリコ
プタ1の周囲に山岳などの障害物を三次元的に表示し、
運航の注意を促す。三次元地図画像は、図5の位置検出
装置39からの自機位置の出力に基づいて地図画像発生
ユニット51で発生され、VTR63でも収録される。
図5のカメラ30が撮影した画像データは、制御装置1
2に設けられるモニタ65に表示され、VTR66に収
録される。図5に示すカメラ30は、可視光用のTVカ
メラ30aと、赤外線用の赤外線カメラ30bを備える
ので、これを適宜切換えることによって、昼夜を問わず
に映像を得ることができる。一般的に、昼間はTVカメ
ラ30aを使用し、夜間は赤外線カメラ30bを使用す
る。火災が発生しているときには、夜間でもTVカメラ
30aを使用することもできる。また、昼間でも、霧や
煙のためにTVカメラ30aでは良好な映像が得られな
いときには、赤外線カメラ30bを使用する。
The data processing unit 50 includes the helicopter 1
The processing result such as the image data received from the device is displayed as an image on the disaster prevention monitor 60 provided in the large-sized projector 13 and recorded in the VTR 61. As shown in FIG.
The two-dimensional map image as shown in (1) is displayed, and the two-dimensional map image is recorded in the VTR 61. The two-dimensional map image as shown in FIG. 4 is displayed for disaster prevention when a disaster occurs, and the three-dimensional map image is displayed by the monitor 62 for operation management during normal times. The three-dimensional map image displays obstacles such as mountains around the helicopter three-dimensionally,
Call attention to the flight. The three-dimensional map image is generated by the map image generating unit 51 based on the output of the own position from the position detecting device 39 of FIG. 5, and is also recorded by the VTR 63.
The image data taken by the camera 30 of FIG.
It is displayed on the monitor 65 provided in No. 2 and recorded in the VTR 66. Since the camera 30 shown in FIG. 5 includes a TV camera 30a for visible light and an infrared camera 30b for infrared light, it is possible to obtain an image regardless of day or night by appropriately switching these. Generally, the TV camera 30a is used in the daytime and the infrared camera 30b is used in the nighttime. When there is a fire, the TV camera 30a can be used even at night. Further, even in the daytime, when the TV camera 30a cannot obtain a good image due to fog or smoke, the infrared camera 30b is used.

【0026】以上の実施例では、火事などの災害発生地
点20を特定する場合について説明しているけれども、
海上や山岳地帯などの遭難者を発見し、救助するために
位置特定を行うことも容易である。海上であれば、高度
差を考慮しなくてもよいけれども、広い範囲を迅速に移
動しながら撮影する必要があり、遭難者などが瞬間的に
撮影された状態で、その位置を特定する必要がある。山
岳地帯などでは、三次元的な位置の特定が重要である。
In the above embodiment, the case where the disaster occurrence point 20 such as a fire is specified has been described.
It is also easy to identify victims on the sea or in mountainous areas and identify their positions to rescue them. On the sea, it is not necessary to consider the difference in altitude, but it is necessary to move quickly over a wide area to take a picture, and it is necessary to specify the position of a victim, etc., in an instantaneous picture. is there. In a mountainous area, it is important to identify the three-dimensional position.

【0027】なお以上の実施例では、GPS電波を利用
して三次元的にヘリコプタ1の位置特定を行っているけ
れども、GPSでは緯度および経度のデータに比較し
て、高度データの誤差が若干大きくなるので、高度デー
タに関しては、高度計などによって別に測定する方が好
ましい。地表の凹凸が少なければ、電波高度計によって
正確な高度が得られる。また、その時点での地表面の気
圧が測定されていれば、気圧高度計によって正確な高度
を測定することができる。さらに、ヘリコプタ1の現在
位置は、基準点からの相対的な移動位置として、INS
などの推測航法によっても求めることができる。
In the above embodiment, the position of the helicopter 1 is three-dimensionally identified using GPS radio waves, but in GPS, the error in the altitude data is slightly larger than that in the latitude and longitude data. Therefore, it is preferable to separately measure altitude data with an altimeter or the like. If there are few irregularities on the surface of the earth, accurate altitude can be obtained by a radio altimeter. Moreover, if the atmospheric pressure on the ground surface at that time is measured, an accurate altitude can be measured by a barometric altimeter. Further, the current position of the helicopter 1 is set as the INS relative movement position from the reference point.
It can also be obtained by dead reckoning.

【0028】さらに、撮影装置2は、ヘリコプタ1の機
体に搭載するようにしているけれども、他の種類の航空
機に搭載してもよい。航空機の飛行速度が大きいと、特
定した目標物の位置の精度が悪くなるので、航空機とし
てはヘリコプタ1と同様に比較的低速度で撮影すること
が可能な方が好ましい。そのような航空機としては、た
とえば飛行船や気球などであってもよいけれども、撮影
可能な位置まで迅速に接近するためには、ヘリコプタ1
のように、ある程度の高速度の航行も可能であることが
好ましい。
Further, although the photographing device 2 is mounted on the body of the helicopter 1, it may be mounted on other types of aircraft. When the flight speed of the aircraft is high, the accuracy of the position of the specified target is deteriorated. Therefore, it is preferable for the aircraft to be able to take images at a relatively low speed, like the helicopter 1. Although such an aircraft may be an airship or a balloon, for example, the helicopter 1 may
As described above, it is preferable to be able to navigate at a high speed to some extent.

【0029】[0029]

【発明の効果】以上のように本発明によれば、空中から
撮影した地表面の目標物の位置を、予め作成されている
高度情報を有する地理データを利用して三次元的に特定
することができるので、迅速、かつ比較的精度よく災害
対策などを実行することができる。
As described above, according to the present invention, the position of a target on the ground surface photographed from the air can be three-dimensionally specified by using geographical data having altitude information created in advance. Therefore, disaster countermeasures can be executed quickly and relatively accurately.

【0030】また本発明によれば、特定された目標物の
位置を二次元的に表示するので、目標物の周囲の状況な
ども含めて容易に位置を把握することができる。
Further, according to the present invention, since the specified position of the target object is displayed two-dimensionally, it is possible to easily grasp the position including the situation around the target object.

【0031】また本発明によれば、目標物を撮影する際
の視野を二次元に表示するので、発生している災害など
の程度を容易に把握することができる。
Further, according to the present invention, the field of view at the time of photographing the target object is displayed two-dimensionally, so that it is possible to easily grasp the degree of a disaster or the like that has occurred.

【0032】また本発明によれば、赤外線カメラを用い
て夜間撮影可能となり、撮影した映像は地上でも受信可
能であるので、夜間に発生する災害などを地上と密接に
連携して、効果的な対策を講じることができる。
Further, according to the present invention, since the infrared camera can be used for nighttime photographing and the photographed video can be received on the ground, it is effective to closely cooperate with the ground for disasters occurring at night. Can take measures.

【0033】また本発明によれば、目標物の撮影を行う
飛行体は、空中における撮影位置を三次元的に特定する
機能を利用して飛行体の運航管制を行うので、災害が発
生していない平時などにも有効に装備を利用することが
できる。
Further, according to the present invention, since the flight vehicle for shooting the target object controls the flight operation of the flight vehicle by utilizing the function of three-dimensionally specifying the shooting position in the air, a disaster occurs. You can use the equipment effectively even in normal times.

【0034】さらに本発明によれば、機体に搭載される
撮影手段が目標物を撮影すると、機体の位置を機体位置
特定手段が特定し、特定された位置に基づいて地表面記
録手段に記録されている地表面の三次元的な位置と、方
向検出手段が検出する撮影手段の向いている方向とに基
づいて、演算処理手段が目標物の位置を特定する。機体
からは、撮影手段を目的物の方向に向けるだけで、地表
面の目的物の位置を三次元的に特定することができるの
で、災害の発生時などに迅速に対応することができる。
Further, according to the present invention, when the photographing means mounted on the machine body photographs the target object, the machine body position specifying means specifies the position of the machine body and is recorded in the ground surface recording means based on the specified position. The arithmetic processing means identifies the position of the target object based on the three-dimensional position of the ground surface and the direction in which the image capturing means is detected by the direction detecting means. Since the position of the target object on the ground surface can be specified three-dimensionally from the machine body only by directing the photographing means in the direction of the target object, it is possible to quickly respond to a disaster or the like.

【0035】また本発明によれば、撮影手段は、2軸ま
たは3軸安定化ジャイロを内蔵するジンバル機構によっ
て支持されるので、機械の揺れや振動の影響を受けずに
安定した撮影を行い、目標物の位置を精度よく特定する
ことができる。
Further, according to the present invention, since the photographing means is supported by the gimbal mechanism having the built-in biaxial or triaxial stabilizing gyro, stable photographing can be performed without being affected by the shaking or vibration of the machine. The position of the target object can be accurately specified.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の一実施例の基本的な構成を示す簡略化
した側面図である。
FIG. 1 is a simplified side view showing a basic configuration of an embodiment of the present invention.

【図2】図1の実施例を用いる災害撮影システムの構成
を示す簡略化した斜視図である。
FIG. 2 is a simplified perspective view showing a configuration of a disaster photography system using the embodiment of FIG.

【図3】図2の空撮映像およびその部分拡大画面であ
る。
3A and 3B are the aerial image and the partially enlarged screen of FIG.

【図4】災害発生地点後、二次元表示画面である。FIG. 4 is a two-dimensional display screen after the disaster occurrence point.

【図5】図1の実施例でヘリコプタ1に搭載される機器
の概略的な電気的構成を示すブロック図である。
5 is a block diagram showing a schematic electrical configuration of a device mounted on the helicopter 1 in the embodiment of FIG.

【図6】図2の構成で災害対策本部10内の機器の概略
的な電気的構成を示すブロック図である。
6 is a block diagram showing a schematic electrical configuration of devices in the disaster countermeasures headquarters 10 with the configuration of FIG.

【符号の説明】[Explanation of symbols]

1 ヘリコプタ 2 撮影装置 3 目標物 4 地表面 5 二次元平面 6 空撮映像 7 現地本部指揮車 10 災害対策本部 11 自動追尾空中線装置 12 制御装置 13 大型プロジェクタ 14 操作卓 20 災害発生地点 21 カメラの視野 22 カメラの方向 30 カメラ 30a TVカメラ 30b 赤外線カメラ 31 ジンバル・ユニット 34,60,62,65 モニタ 35 撮影制御ユニット 37 GPS受信機 38 三次元地理データ記憶装置 39 位置検出装置 40,50 データ処理ユニット 51 地図画像発生ユニット 1 Helicopter 2 Imager 3 Target 4 Ground plane 5 Two-dimensional plane 6 Aerial image 7 Local headquarters command vehicle 10 Disaster countermeasures headquarters 11 Automatic tracking aerial ray device 12 Control device 13 Large projector 14 Operator console 20 Disaster occurrence point 21 Camera view 22 camera direction 30 camera 30a TV camera 30b infrared camera 31 gimbal unit 34, 60, 62, 65 monitor 35 photographing control unit 37 GPS receiver 38 three-dimensional geographic data storage device 39 position detection device 40, 50 data processing unit 51 Map image generation unit

Claims (7)

【特許請求の範囲】[Claims] 【請求項1】 空中から地表面の目標物を撮影し、目標
物の位置を特定する方法であって、 空中における撮影位置を三次元的に特定し、 撮影位置に対する目標物の方向を計測し、 予め作成されている高度情報を有する地理データから目
標物の存在する地表面を求め、 地表面と、撮影位置から目標物の方向に延びる直線との
交点位置として、目標物の位置を特定することを特徴と
する位置特定方法。
1. A method of photographing a target on the ground surface from the air and specifying the position of the target, wherein the photographing position in the air is three-dimensionally specified, and the direction of the target with respect to the photographing position is measured. , Obtain the ground surface where the target exists from the geographic data that has been created in advance, and specify the position of the target as the intersection point of the ground surface and the straight line extending in the direction of the target from the shooting position. A position specifying method characterized by the above.
【請求項2】 特定した目標位置と地表面の地理データ
とともに、二次元的に表示することを特徴とする請求項
1記載の位置特定方法。
2. The position specifying method according to claim 1, wherein the specified position and the geographical data of the ground surface are displayed two-dimensionally.
【請求項3】 目標物を撮影する際の視野を、地表面の
地理データとともに二次元的に表示することを特徴とす
る請求項1または2に記載の位置特定方法。
3. The position specifying method according to claim 1, wherein the field of view when the target is photographed is two-dimensionally displayed together with the geographical data of the ground surface.
【請求項4】 空中からの撮影は、赤外線カメラを用い
て夜間も可能であり、撮影した映像は地上でも受信可能
であることを特徴とする請求項1〜3のいずれかに記載
の位置特定方法。
4. The position specifying method according to claim 1, wherein photographing from the air is possible even at night by using an infrared camera, and the photographed image can be received even on the ground. Method.
【請求項5】 目標物の撮影を飛行体に搭載するカメラ
から行い、 空中における撮影位置を三次元的に特定する機能を利用
して、飛行体の運航管理を行うことを特徴とする請求項
1〜4のいずれかに記載の位置特定方法。
5. The flight management of the flight object is performed by using a function of shooting the target object from a camera mounted on the flight object and specifying a shooting position in the air in three dimensions. The position specifying method according to any one of 1 to 4.
【請求項6】 空中を移動可能な機体と、 機体の位置を特定する機体位置特定手段と、 機体に搭載され、地表面上の目標物を撮影する撮影手段
と、 機体に対して、撮影手段の向いている方向を検出する方
向検出手段と、 地表面の三次元的な位置を表すデータを記録しておく地
表面記録手段と、 機体位置特定手段、撮影手段、方向検出手段および地表
面記録手段からの出力に応答し、機体の位置から撮影手
段の向いている方向に延ばした直線と地表面との交点を
算出し、目標物の位置として特定する演算処理手段とを
含むことを特徴とする位置特定装置。
6. An airframe movable in the air, an airframe position specifying means for specifying a position of the airframe, an image pickup means mounted on the airframe for photographing an object on the ground surface, and an image pickup means for the airframe. Direction detecting means for detecting the direction in which the aircraft is facing, ground surface recording means for recording data representing the three-dimensional position of the ground surface, airframe position specifying means, photographing means, direction detecting means and ground surface recording In response to the output from the means, an arithmetic processing means for calculating the intersection of the straight line extending from the position of the aircraft in the direction in which the photographing means is facing and the ground surface, and specifying it as the position of the target object. Localization device.
【請求項7】 前記撮影手段は、2軸または3軸安定化
ジャイロを内蔵するジンバル機構によって支持されるこ
とを特徴とする請求項6記載の位置特定装置。
7. The position specifying device according to claim 6, wherein the photographing means is supported by a gimbal mechanism containing a biaxial or triaxial stabilizing gyro.
JP7084350A 1995-04-10 1995-04-10 Position specifying method and device Expired - Lifetime JP2695393B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP7084350A JP2695393B2 (en) 1995-04-10 1995-04-10 Position specifying method and device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP7084350A JP2695393B2 (en) 1995-04-10 1995-04-10 Position specifying method and device

Publications (2)

Publication Number Publication Date
JPH08285590A true JPH08285590A (en) 1996-11-01
JP2695393B2 JP2695393B2 (en) 1997-12-24

Family

ID=13828077

Family Applications (1)

Application Number Title Priority Date Filing Date
JP7084350A Expired - Lifetime JP2695393B2 (en) 1995-04-10 1995-04-10 Position specifying method and device

Country Status (1)

Country Link
JP (1) JP2695393B2 (en)

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000181346A (en) * 1998-12-15 2000-06-30 Fujitsu Ltd Video-map cooperation system
JP2004226190A (en) * 2003-01-22 2004-08-12 Kawasaki Heavy Ind Ltd Method for displaying locational information on photograph image from helicopter and its apparatus
JP2006060459A (en) * 2004-08-19 2006-03-02 Japan Aviation Electronics Industry Ltd Camera stabilizer attaching error acquisition method and camera stabilizer to which the method is applied
JP2006121261A (en) * 2004-10-20 2006-05-11 Japan Aviation Electronics Industry Ltd Method for correcting target position of camera stabilizer
JP2007272085A (en) * 2006-03-31 2007-10-18 Pioneer Electronic Corp Information display device, information display method, and program for information display
WO2009152567A1 (en) * 2008-06-16 2009-12-23 Eyefi R & D Pty Ltd Spatial predictive approximation and radial convolution
US7800645B2 (en) 2003-06-20 2010-09-21 Mitsubishi Denki Kabushiki Kaisha Image display method and image display apparatus
JP2011112556A (en) * 2009-11-27 2011-06-09 Nec Corp Search target position locating device, method, and computer program
JP2011232131A (en) * 2010-04-27 2011-11-17 Hitachi Ltd Image target location apparatus and image target location method
JP2013234946A (en) * 2012-05-10 2013-11-21 Kawasaki Heavy Ind Ltd Target position identification device, target position identification system and target position identification method
JP2017016395A (en) * 2015-07-01 2017-01-19 株式会社Ihiエアロスペース Route generation method and system
JP2017532798A (en) * 2014-07-17 2017-11-02 エルビット・システムズ・リミテッド Remote image stabilization and display
CN112621766A (en) * 2021-03-09 2021-04-09 常州微亿智造科技有限公司 Flying shooting image error prediction method based on machine learning
KR20210053012A (en) * 2019-11-01 2021-05-11 대한민국(산림청 국립산림과학원장) Image-Based Remaining Fire Tracking Location Mapping Device and Method

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH01123219A (en) * 1987-11-09 1989-05-16 Canon Inc Camera with camera-shake display function
JPH03213498A (en) * 1989-12-01 1991-09-18 Thomson Csf Optoelectronics system to support air attach and air navigation assignment
JPH0431200A (en) * 1990-05-25 1992-02-03 Toshiba Tesco Kk Aircraft docking guidance device
JPH0524588A (en) * 1991-07-26 1993-02-02 Matsushita Electric Ind Co Ltd Television camera device for aerial reconnaissance
JPH06222482A (en) * 1993-01-27 1994-08-12 Asahi Koyo Kk Aerial photographing method

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH01123219A (en) * 1987-11-09 1989-05-16 Canon Inc Camera with camera-shake display function
JPH03213498A (en) * 1989-12-01 1991-09-18 Thomson Csf Optoelectronics system to support air attach and air navigation assignment
JPH0431200A (en) * 1990-05-25 1992-02-03 Toshiba Tesco Kk Aircraft docking guidance device
JPH0524588A (en) * 1991-07-26 1993-02-02 Matsushita Electric Ind Co Ltd Television camera device for aerial reconnaissance
JPH06222482A (en) * 1993-01-27 1994-08-12 Asahi Koyo Kk Aerial photographing method

Cited By (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000181346A (en) * 1998-12-15 2000-06-30 Fujitsu Ltd Video-map cooperation system
JP2004226190A (en) * 2003-01-22 2004-08-12 Kawasaki Heavy Ind Ltd Method for displaying locational information on photograph image from helicopter and its apparatus
US7800645B2 (en) 2003-06-20 2010-09-21 Mitsubishi Denki Kabushiki Kaisha Image display method and image display apparatus
JP2006060459A (en) * 2004-08-19 2006-03-02 Japan Aviation Electronics Industry Ltd Camera stabilizer attaching error acquisition method and camera stabilizer to which the method is applied
JP2006121261A (en) * 2004-10-20 2006-05-11 Japan Aviation Electronics Industry Ltd Method for correcting target position of camera stabilizer
JP4515884B2 (en) * 2004-10-20 2010-08-04 日本航空電子工業株式会社 Camera stabilizer target position correction method
JP2007272085A (en) * 2006-03-31 2007-10-18 Pioneer Electronic Corp Information display device, information display method, and program for information display
KR20110016993A (en) * 2008-06-16 2011-02-18 아이파이 알앤디 피티와이 리미티드 Spatial predictive approximation and radial convolution
WO2009152567A1 (en) * 2008-06-16 2009-12-23 Eyefi R & D Pty Ltd Spatial predictive approximation and radial convolution
JP2011525968A (en) * 2008-06-16 2011-09-29 アイファイ アール アンド ディー ピーティーワイ リミテッド Spatial prediction approximation and radial convolution integral
US9058689B2 (en) 2008-06-16 2015-06-16 Eyefi Pty Ltd Spatial predictive approximation and radial convolution
JP2011112556A (en) * 2009-11-27 2011-06-09 Nec Corp Search target position locating device, method, and computer program
JP2011232131A (en) * 2010-04-27 2011-11-17 Hitachi Ltd Image target location apparatus and image target location method
JP2013234946A (en) * 2012-05-10 2013-11-21 Kawasaki Heavy Ind Ltd Target position identification device, target position identification system and target position identification method
JP2017532798A (en) * 2014-07-17 2017-11-02 エルビット・システムズ・リミテッド Remote image stabilization and display
JP2017016395A (en) * 2015-07-01 2017-01-19 株式会社Ihiエアロスペース Route generation method and system
KR20210053012A (en) * 2019-11-01 2021-05-11 대한민국(산림청 국립산림과학원장) Image-Based Remaining Fire Tracking Location Mapping Device and Method
CN112621766A (en) * 2021-03-09 2021-04-09 常州微亿智造科技有限公司 Flying shooting image error prediction method based on machine learning
CN112621766B (en) * 2021-03-09 2021-05-18 常州微亿智造科技有限公司 Flying shooting image error prediction method based on machine learning

Also Published As

Publication number Publication date
JP2695393B2 (en) 1997-12-24

Similar Documents

Publication Publication Date Title
JP5767731B1 (en) Aerial video distribution system and aerial video distribution method
US6281970B1 (en) Airborne IR fire surveillance system providing firespot geopositioning
US5672820A (en) Object location identification system for providing location data of an object being pointed at by a pointing device
USRE45253E1 (en) Remote image management system (RIMS)
JP2695393B2 (en) Position specifying method and device
US7538724B1 (en) Method and system for relative tracking
JP3225434B2 (en) Video presentation system
US20030218675A1 (en) Video picture processing method
US11374648B2 (en) Radio link coverage map generation using link quality and position data of mobile platform
CN111953892B (en) Unmanned aerial vehicle and inspection method
JP2004056664A (en) Cooperative photography system
JP7362203B2 (en) unmanned moving body
KR20120036684A (en) An intelligent aviation robot using gps
JP7428461B2 (en) Unmanned aircraft system and flight control method
JPH1114354A (en) Photographing apparatus
JPH09101142A (en) Display device for photographing position
KR102181809B1 (en) Apparatus and method for checking facility
JPH10285583A (en) Fire position and video display transmission system
KR20110136225A (en) An intelligent aviation robot using gps
JP3606018B2 (en) Monitoring device
JPS63278179A (en) Earth observing device
US20220230550A1 (en) 3d localization and mapping systems and methods
JPH0524588A (en) Television camera device for aerial reconnaissance
JPH10210457A (en) Automatic aerial image-photographing device for aircraft
JP4292796B2 (en) Monitoring device

Legal Events

Date Code Title Description
R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080912

Year of fee payment: 11

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090912

Year of fee payment: 12

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100912

Year of fee payment: 13

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110912

Year of fee payment: 14

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110912

Year of fee payment: 14

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120912

Year of fee payment: 15

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120912

Year of fee payment: 15

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120912

Year of fee payment: 15

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130912

Year of fee payment: 16

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130912

Year of fee payment: 16

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140912

Year of fee payment: 17

RVTR Cancellation of determination of trial for invalidation
R157 Certificate of patent or utility model (correction)

Free format text: JAPANESE INTERMEDIATE CODE: R157