JP2007241085A - Photographed image processing system and photographed image processing device, and photographed image display method - Google Patents
Photographed image processing system and photographed image processing device, and photographed image display method Download PDFInfo
- Publication number
- JP2007241085A JP2007241085A JP2006066117A JP2006066117A JP2007241085A JP 2007241085 A JP2007241085 A JP 2007241085A JP 2006066117 A JP2006066117 A JP 2006066117A JP 2006066117 A JP2006066117 A JP 2006066117A JP 2007241085 A JP2007241085 A JP 2007241085A
- Authority
- JP
- Japan
- Prior art keywords
- map
- video
- image
- unit
- photographing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims description 14
- 238000004364 calculation method Methods 0.000 claims description 45
- 238000001514 detection method Methods 0.000 claims description 35
- 238000003384 imaging method Methods 0.000 claims description 35
- 230000005540 biological transmission Effects 0.000 claims description 8
- 238000010586 diagram Methods 0.000 description 21
- 238000006243 chemical reaction Methods 0.000 description 19
- 230000009466 transformation Effects 0.000 description 7
- 239000011159 matrix material Substances 0.000 description 1
- 238000012907 on board imaging Methods 0.000 description 1
- 230000002265 prevention Effects 0.000 description 1
- 238000011084 recovery Methods 0.000 description 1
- 230000006641 stabilisation Effects 0.000 description 1
- 238000011105 stabilization Methods 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
- 230000001131 transforming effect Effects 0.000 description 1
Landscapes
- Instructional Devices (AREA)
- Processing Or Creating Images (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
Abstract
Description
この発明は、機上系の撮影装置によって撮影された映像を、地上系の地理情報システムの地図上に重ね合わせ表示する撮影映像処理システム及び撮影映像処理装置並びに撮影映像表示方法に関するものである。 The present invention relates to a photographic video processing system, a photographic video processing device, and a photographic video display method for superimposing and displaying videos taken by an on-board imaging device on a map of a terrestrial geographic information system.
特許文献1に記載された従来の撮影映像処理システムは、撮影装置(カメラ)等を搭載したヘリコプタなどの飛行体(機体)からなる機上系と、機上系からの映像及び信号を受信して処理する地上に設置された地上系とによって構成される。 The conventional captured video processing system described in Patent Document 1 receives an on-board system composed of a flying body (airframe) such as a helicopter equipped with an imaging device (camera) and the like, and receives images and signals from the on-board system. And a ground system installed on the ground to be processed.
機上系には、空中から地上を撮影するジンバル機構支持の撮影装置であるカメラが搭載されている。機体は、アンテナによるGPS信号受信により、現在の位置情報を得て、機体位置検出を行う機体位置検出部、及び機体の姿勢すなわち仰角(ピッチ)とロール角を検出する機体姿勢検出部を備えている。
機上系の撮影装置であるジンバル機構支持のカメラは、地上を撮影し、その映像信号を出力すると共にカメラの絞り、ズームなどのカメラ情報も併せて出力する。カメラはジンバル機構に取り付けられ、このジンバル機構は、カメラの回転角、傾き(チルト)を検出するカメラ姿勢検出部を有しており、その値を出力する。
機体姿勢検出部からの出力信号、カメラの映像信号、カメラ情報信号、カメラ姿勢検出部からの出力信号は、一時記憶にてバッファされ、機体位置検出部からの出力信号のタイミングに同期してデータを出力し、多重変換部で多重変調され、信号変換部でデジタル信号に信号変換され、追尾機能を有するアンテナから地上系に向けて送信される。
The onboard system is equipped with a camera, which is an imaging device supported by a gimbal mechanism that captures the ground from the air. The airframe has a body position detection unit that obtains current position information by receiving GPS signals from the antenna and detects the body position, and a body attitude detection unit that detects the attitude of the aircraft, that is, the elevation angle (pitch) and the roll angle. Yes.
A camera supported by the gimbal mechanism, which is an on-machine imaging device, shoots the ground and outputs the video signal as well as camera information such as the camera aperture and zoom. The camera is attached to a gimbal mechanism, and this gimbal mechanism has a camera attitude detection unit that detects the rotation angle and tilt of the camera, and outputs the values.
The output signal from the airframe attitude detection unit, the video signal of the camera, the camera information signal, and the output signal from the camera attitude detection unit are buffered in the temporary storage and are synchronized with the timing of the output signal from the airframe position detection unit. Is multiplexed and modulated by the multiplex conversion unit, converted into a digital signal by the signal conversion unit, and transmitted from the antenna having the tracking function toward the terrestrial system.
地上系では、機上系からの信号を追尾機能を有するアンテナで受信し、信号変換部で信号変換し、多重復調部を経て、映像信号及び機体位置、機体姿勢、カメラ姿勢、カメラ情報等の情報信号を取り出す。取り出されたこれらの信号を信号処理部で信号処理し、映像信号は、動画データ、静止画データとして格納され、次のステップである地図処理部での地図処理に用いられる。
地図処理部は、撮影信号である動画データ、静止画データと機体位置、機体姿勢、カメラ姿勢の情報信号及び地理情報システムの2次元地図データ、3次元地勢データにより処理を行うもので、撮影装置の撮影位置を3次元的に特定するための情報に基づいて、撮影装置が撮影した撮影映像の撮影範囲に対応する地理情報システムの地図上の撮影範囲を求め、この求められた撮影範囲に併せて、撮影映像を変形して重ね合わせてモニタ表示する。
In the terrestrial system, the signal from the onboard system is received by the antenna having the tracking function, the signal conversion unit converts the signal, and through the multiple demodulation unit, the video signal, the aircraft position, the body posture, the camera posture, the camera information, etc. Retrieve the information signal. These extracted signals are signal-processed by the signal processing unit, and the video signal is stored as moving image data and still image data, and used for map processing in the map processing unit, which is the next step.
The map processing unit performs processing based on moving image data that is a shooting signal, still image data and body position, body posture, camera posture information signal, geographic information system 2D map data, and 3D terrain data. On the basis of information for three-dimensionally specifying the shooting position, a shooting range on the map of the geographic information system corresponding to the shooting range of the shot image shot by the shooting device is obtained, and is combined with the obtained shooting range. Then, the captured video is transformed and superimposed and displayed on the monitor.
特許文献1の従来の撮影映像処理システムでは、機上系として、ジンバル機構に支持されたカメラが搭載され、カメラの映像信号の他に、カメラ情報、カメラ姿勢等の情報を検出・出力するカメラ姿勢検出部を有する必要がある。これらの撮影装置は、防振制御を行うための専用の機器であり、それなりの体積と質量を持つことになる。
撮影映像処理システムを消防・防災や、警備・哨戒の目的で、ヘリコプタ等の飛行体に適用する場合、事故・災害時に怪我人・病人等を搭載するスペース、救援物資など必要な荷物を搭載する質量・スペースの確保を優先させなければならないという問題や、撮影装置の搭載のために時間が必要なため、緊急出動できないという問題があった。
In the conventional captured video processing system of Patent Document 1, a camera supported by a gimbal mechanism is mounted as an on-board system, and a camera that detects and outputs information such as camera information and camera posture in addition to the video signal of the camera. It is necessary to have an attitude detection unit. These photographing apparatuses are dedicated devices for performing image stabilization control, and have a certain volume and mass.
When the captured image processing system is applied to an aircraft such as a helicopter for the purpose of firefighting / disaster prevention, security / patrol, etc. There was a problem that priority should be given to securing mass and space, and there was a problem that emergency dispatch was not possible because it took time to mount the photographing apparatus.
この発明は、上記のような課題を解決するためになされたものであり、機上系から撮影情報、撮影装置の姿勢などの情報を検出・出力しない撮影装置で撮影された映像を、地上系で地図上に重ね合わせて表示する撮影映像処理システム及び撮影映像処理装置並びに撮影映像表示方法を得ることを目的としている。 The present invention has been made in order to solve the above-described problems, and images taken by a photographing device that does not detect and output information such as photographing information and the posture of the photographing device from an onboard system, It is an object of the present invention to obtain a photographic video processing system, a photographic video processing device, and a photographic video display method that are displayed superimposed on a map.
この発明に係わる撮影映像処理システムにおいては、機体に搭載され、撮影装置を搭載した撮影系、及び撮影装置により撮影された映像を地図上に重ね合わせて表示する映像処理系を備え、
撮影系は、撮影装置と、機体の位置を検出する機体位置検出手段と、撮影装置により撮影された映像及び機体位置検出手段により検出された機体位置情報を映像処理系に送信する送信手段とを有し、
映像処理系は、撮影系から送信された映像及び機体位置情報に基き、予め記憶された地図上に映像を重ね合わせる地図処理手段と、この地図処理手段により地図上に重ね合わせた映像を表示するモニタ表示手段とを有し、
地図処理手段は、映像内の特徴点とこれに対応する地図上の対応点とを対応付けされることにより、映像の撮影範囲に対応する地図上の撮影範囲を求め、この求めた撮影範囲に合わせるように映像を変形して重ね合わせを行うものである。
The photographed video processing system according to the present invention is equipped with a photographing system mounted on the aircraft and equipped with a photographing device, and a video processing system that displays the images photographed by the photographing device superimposed on a map,
The imaging system includes an imaging device, an aircraft position detection unit that detects the position of the aircraft, and a transmission unit that transmits the image captured by the imaging device and the aircraft position information detected by the aircraft position detection unit to the video processing system. Have
The video processing system displays a map processing means for superimposing the video on a map stored in advance and a video superimposed on the map by the map processing means based on the video transmitted from the imaging system and the aircraft position information. Monitor display means,
The map processing means obtains a shooting range on the map corresponding to the shooting range of the video by associating the feature point in the video with the corresponding point on the map, and the calculated shooting range. The video is deformed so as to be matched and superposed.
この発明は、以上説明したように、機体に搭載され、撮影装置を搭載した撮影系、及び撮影装置により撮影された映像を地図上に重ね合わせて表示する映像処理系を備え、
撮影系は、撮影装置と、機体の位置を検出する機体位置検出手段と、撮影装置により撮影された映像及び機体位置検出手段により検出された機体位置情報を映像処理系に送信する送信手段とを有し、
映像処理系は、撮影系から送信された映像及び機体位置情報に基き、予め記憶された地図上に映像を重ね合わせる地図処理手段と、この地図処理手段により地図上に重ね合わせた映像を表示するモニタ表示手段とを有し、
地図処理手段は、映像内の特徴点とこれに対応する地図上の対応点とを対応付けされることにより、映像の撮影範囲に対応する地図上の撮影範囲を求め、この求めた撮影範囲に合わせるように映像を変形して重ね合わせを行うので、撮影系の撮影装置は、撮影情報、撮影装置の姿勢等の情報を検出・出力する必要がなく、したがって一般的な撮影装置を用いて、撮影映像を地図上に重ね合わせて表示することができる。
As described above, the present invention is equipped with a photographing system mounted on an airframe and equipped with a photographing device, and a video processing system that displays an image photographed by the photographing device on a map,
The imaging system includes an imaging device, an aircraft position detection unit that detects the position of the aircraft, and a transmission unit that transmits the image captured by the imaging device and the aircraft position information detected by the aircraft position detection unit to the video processing system. Have
The video processing system displays a map processing means for superimposing the video on a map stored in advance and a video superimposed on the map by the map processing means based on the video transmitted from the imaging system and the aircraft position information. Monitor display means,
The map processing means obtains a shooting range on the map corresponding to the shooting range of the video by associating the feature point in the video with the corresponding point on the map, and the calculated shooting range. Since the video is deformed and superimposed so as to match, the photographing system photographing device does not need to detect and output information such as photographing information and the posture of the photographing device, and therefore, using a general photographing device, The captured video can be displayed superimposed on the map.
実施の形態1.
以下、この発明の実施の形態1を図に基づいて説明する。
図1は、この発明の実施の形態1による撮影映像処理システムを示す機能構成図である。
図1において、撮影映像処理システムは、ヘリコプタ等の機体等に搭載され、撮影装置等を有する機上系100(機上装置)(撮影系)と、地上にて機上系100からの信号を受信して処理する地上系200(地上装置)(映像処理系)から成る。
機上系100は、上空から地表を撮影するカメラである撮影装置101を有し、撮影装置101は、撮影した撮影映像を出力する。この撮影装置101は、ハンディカメラのような一般の撮影装置であり、カメラの絞り、ズーム等のカメラ情報や、カメラの撮影角度(パン、チルト)情報を持たない。機上系100は、さらに撮影装置101の位置を3次元的に特定するための情報をGPS信号受信部102を介して取得する機体位置検出部103(機体位置検出手段)を有している。
また、機上系100は、撮影装置101からの撮影映像、機体位置検出部103からの機体位置情報を多重変調部104で多重変調し、信号変換部105でデジタル信号に信号変換し、追尾機能部106を有するアンテナ(送信手段)から地上系200に向けて送信する。
Embodiment 1 FIG.
Embodiment 1 of the present invention will be described below with reference to the drawings.
FIG. 1 is a functional configuration diagram showing a captured video processing system according to Embodiment 1 of the present invention.
In FIG. 1, a captured video processing system is mounted on an aircraft such as a helicopter and has an onboard system 100 (onboard apparatus) (imaging system) having an imaging apparatus and the like, and signals from the onboard system 100 on the ground. It consists of a ground system 200 (ground equipment) (video processing system) that receives and processes.
The onboard system 100 includes a photographing device 101 that is a camera for photographing the ground surface from the sky, and the photographing device 101 outputs a photographed photographed image. The photographing apparatus 101 is a general photographing apparatus such as a handy camera, and does not have camera information such as a camera aperture and zoom and camera photographing angle (pan, tilt) information. The onboard system 100 further includes an airframe position detection unit 103 (aircraft position detection means) that acquires information for specifying the position of the photographing apparatus 101 three-dimensionally via the GPS signal receiving unit 102.
Further, the onboard system 100 multiplex-modulates the captured image from the imaging apparatus 101 and the body position information from the body position detection unit 103 by the multiplex modulation unit 104, converts the signal into a digital signal by the signal conversion unit 105, and performs a tracking function. Transmission is performed from the antenna (transmission means) having the unit 106 toward the ground system 200.
地上系200は、機上系100からの信号を追尾機能部201を有するアンテナで受信し、信号変換部202で信号変換し、多重復調部203によって、映像情報、機体位置情報の信号を取り出す。また、取り出した情報に対し、信号処理を行うための信号処理部204と、画面に地図を表示する地理情報システム(信号処理部204で処理された情報を含めて映像処理し、地図データに重畳させてモニタ表示部210(モニタ表示手段)に表示する地図処理部209(地図処理手段))とを有している。
多重復調部203によって取り出されたこれらの信号を信号処理部204で信号処理し、映像信号は、動画データ206、静止画データ205として格納され、次のステップである地図処理部209での地図処理に用いられる。その他、地理情報システムの2次元地図データ208、地表の起伏をデータ化した地勢データ207を含めた情報信号も地図処理部209での地図処理に用いられる。
The terrestrial system 200 receives a signal from the onboard system 100 by an antenna having a tracking function unit 201, converts the signal by a signal conversion unit 202, and takes out signals of video information and body position information by a multiplex demodulation unit 203. In addition, a signal processing unit 204 that performs signal processing on the extracted information and a geographic information system that displays a map on the screen (including information processed by the signal processing unit 204) is video-processed and superimposed on the map data And a map processing unit 209 (map processing unit) for displaying on the monitor display unit 210 (monitor display unit).
These signals extracted by the multiplex demodulator 203 are processed by the signal processor 204, and the video signal is stored as the moving image data 206 and the still image data 205, and the next step is the map processing in the map processor 209. Used for. In addition, the information signal including the two-dimensional map data 208 of the geographic information system and the terrain data 207 obtained by converting the undulations of the ground surface is also used for the map processing in the map processing unit 209.
図2は、この発明の実施の形態1による撮影映像処理システムの地図処理部を示す概略図である。
図2において、地図処理部209は、映像信号である静止画データ205、動画データ206、機体位置の情報信号、及び地理情報システムの地勢データ207、2次元地図データ208に基き、処理を行う。
この地図処理部209は、静止画データ205にある特徴となる数点を選択し、地理情報システムの2次元地図データ208上で、画像の中心点及び静止画データから選択した特徴点に対応する地図上の対応点を選択・対応付けする対応点入力部211と、ヘリコプタの機体位置と対応点(数点)から、カメラの姿勢情報を計算するカメラ姿勢計算部212(撮影装置姿勢計算手段)と、撮影装置が撮影した撮影映像の撮影範囲に対応する地理情報システムの2次元地図データ208上の撮影範囲を求める画枠計算部213と、画枠計算部213で求められた撮影範囲に合わせて静止画データ205を変形する映像変形部214と、地図上の撮影範囲に、変形された撮影映像を重ね合わせ表示する重ね合わせ部215とから構成される。
FIG. 2 is a schematic diagram showing a map processing unit of the photographed video processing system according to Embodiment 1 of the present invention.
In FIG. 2, the map processing unit 209 performs processing based on still image data 205, moving image data 206, which is a video signal, an information signal of the position of the aircraft, terrain data 207 of the geographic information system, and two-dimensional map data 208.
The map processing unit 209 selects several points as features in the still image data 205 and corresponds to the feature points selected from the center point of the image and the still image data on the two-dimensional map data 208 of the geographic information system. Corresponding point input unit 211 for selecting and associating corresponding points on the map, and camera posture calculating unit 212 (imaging device posture calculating means) for calculating camera posture information from the helicopter body position and corresponding points (several points) An image frame calculation unit 213 for obtaining a shooting range on the two-dimensional map data 208 of the geographic information system corresponding to the shooting range of the shot image shot by the shooting device, and the shooting range determined by the image frame calculation unit 213. The image transformation unit 214 for transforming the still image data 205 and the superposition unit 215 for superposing and displaying the transformed photographed image on the photographing range on the map.
図3は、この発明の実施の形態1による撮影映像処理システムの対応点入力部の入力方法を説明する図であり、図3(a)は静止画データ、図3(b)は地図データである。
図3において、画像の中心点●と、特徴点★が示されている。
3A and 3B are diagrams for explaining the input method of the corresponding point input unit of the photographed video processing system according to Embodiment 1 of the present invention. FIG. 3A is still image data, and FIG. 3B is map data. is there.
In FIG. 3, the center point ● of the image and the feature point ★ are shown.
図4は、この発明の実施の形態1による撮影映像処理システムのカメラ姿勢計算部の中の撮影画枠計算で使用する画像中心点の角度パラメータを説明する図である。
図4において、ヘリコプタの機体位置を原点とする座標軸x、y、zに、カメラの回転角φ0、カメラの傾きθ0が示されている。z軸が高さ方向を示している。
FIG. 4 is a diagram for explaining the angle parameter of the image center point used in the photographic image frame calculation in the camera posture calculation unit of the photographic image processing system according to Embodiment 1 of the present invention.
In FIG. 4, the camera rotation angle φ0 and the camera tilt θ0 are shown on the coordinate axes x, y, and z with the helicopter body position as the origin. The z axis indicates the height direction.
図5は、この発明の実施の形態1による撮影映像処理システムのカメラ姿勢計算部の中の撮影画枠計算で使用する画像対応点の角度パラメータを説明する図である。
図5において、ヘリコプタの機体位置を原点とする座標軸x、y、zに、ヘリコプタの機体位置からの回転角、傾きと、画像の中心点で求めたカメラの回転角、カメラの傾きとの差分△φ、△θが示されている。
FIG. 5 is a diagram for explaining angle parameters of image corresponding points used in shooting image frame calculation in the camera posture calculation unit of the shooting video processing system according to Embodiment 1 of the present invention.
In FIG. 5, the difference between the rotation angle and inclination from the helicopter aircraft position on the coordinate axes x, y, and z with the helicopter aircraft position as the origin, and the camera rotation angle and camera inclination obtained from the center point of the image. Δφ and Δθ are shown.
図6は、この発明の実施の形態1による撮影映像処理システムのカメラ姿勢計算部の中のカメラ姿勢計算方法を説明する図である。
図7は、この発明の実施の形態1による撮影映像処理システムのカメラ姿勢計算部の中のカメラフレーム平面とカメラ画枠平面を説明する図である。
図7において、カメラの結像面であるカメラフレーム平面と、カメラによって撮影される地表の撮影平面であるカメラ画枠平面との関係が示されている。
FIG. 6 is a diagram for explaining a camera posture calculation method in the camera posture calculation unit of the photographed video processing system according to Embodiment 1 of the present invention.
FIG. 7 is a diagram for explaining a camera frame plane and a camera image plane in the camera posture calculation unit of the photographed video processing system according to Embodiment 1 of the present invention.
FIG. 7 shows a relationship between a camera frame plane that is an imaging plane of the camera and a camera image frame plane that is an imaging plane of the ground surface photographed by the camera.
図8は、この発明の実施の形態1による撮影映像処理システムのカメラ画枠計算部を説明する図である。
図8(a)は、画枠4点の位置を機体の位置を原点として相対座標として計算することを示し、図8(b)は、カメラのチルト角度θ0からz軸方向に撮影画枠を回転することを示し、図8(c)は、カメラの方位角φ0からy軸方向に撮影画枠を回転することを示し、図8(d)は、カメラの撮影画枠を地表面に投象することで、地表面に投象された投象平面(撮影画枠)を得ることを示している。
FIG. 8 is a diagram for explaining a camera image frame calculation unit of the photographed video processing system according to Embodiment 1 of the present invention.
FIG. 8A shows that the positions of the four image frames are calculated as relative coordinates using the position of the aircraft as the origin, and FIG. 8B shows the image frame taken from the camera tilt angle θ0 in the z-axis direction. FIG. 8C shows that the photographic image frame is rotated in the y-axis direction from the azimuth angle φ0 of the camera, and FIG. 8D shows that the photographic image frame of the camera is projected on the ground surface. It is shown that the projection plane (photographing image frame) projected on the ground surface is obtained.
次に、図2の地図処理部209の処理について説明する。
図2の地図処理部209では、まず、対応点入力部211で、静止画データ205から数点特徴点(例えば建物や交差点等)を選択し、地理情報システムの2次元地図データ208から、画像の中心点及び選択した特徴点に対応する地図上のポイントを選択・対応付けを行う。
次に、カメラ姿勢計算部212で、対応点入力部211で対応付けされた数点の情報と、ヘリコプタの機体位置情報とを元に、カメラ姿勢情報(カメラの回転角、傾き(チルト)、焦点距離)を計算する。
さらに、画枠計算部213で、機体位置情報により、空中における撮影位置を3次元的に特定し、カメラ姿勢情報に基づいて、撮影した地表面の撮影範囲(撮影画枠)を計算により求める画枠計算を行う。この画枠に合わせて映像変形部214により撮影映像の映像変形を行う。この映像変形は、撮影した映像が地図に一致する四角形になるように映像を変形するものである。
最後に、重ね合わせ部215で、変形した映像を地理情報システムの地図上に重ね合わせ(貼り合わせ)、その後、これをCRTなどのモニタ表示手段210で表示する。
Next, processing of the map processing unit 209 in FIG. 2 will be described.
In the map processing unit 209 of FIG. 2, first, the corresponding point input unit 211 selects several feature points (for example, buildings, intersections, etc.) from the still image data 205, and the image is extracted from the two-dimensional map data 208 of the geographic information system. A point on the map corresponding to the center point and the selected feature point is selected and associated.
Next, in the camera posture calculation unit 212, camera posture information (camera rotation angle, tilt (tilt), tilt), based on the information on several points associated with the corresponding point input unit 211 and the helicopter body position information. Focal length).
Further, the image frame calculation unit 213 three-dimensionally identifies the shooting position in the air based on the body position information, and calculates the shooting range (shooting image frame) of the ground surface based on the camera posture information by calculation. Perform frame calculation. The video transformation unit 214 performs video transformation of the captured video in accordance with the image frame. This video transformation is to transform the video so that the captured video becomes a quadrangle that matches the map.
Finally, the superposed unit 215 superimposes (pastes) the deformed video on the map of the geographic information system, and then displays it on the monitor display means 210 such as a CRT.
以下、地図処理部209の各部の処理について、さらに詳しく説明する。
まず、対応点入力部211の処理について説明する。
図3は、対応点入力部211で設定する静止画データ205と2次元地図データ208との画像の中心点及び特徴点とこれらの対応する地図上の対応点とを図に示したものである。図3(a)の●は、静止画データ205の画像の中心点を示し、図3(a)の★は、静止画データ205から選んだ特徴点である。図3(b)の地図データにある●、★は、それぞれ図3(a)の静止画データで選択した画像の中心点及び特徴点に対応する地図上の対応点を示している。
対応点入力部211では、このように画像と地図の対応点を選択し、その位置情報をカメラ姿勢計算部212に送る。
Hereinafter, the processing of each unit of the map processing unit 209 will be described in more detail.
First, the processing of the corresponding point input unit 211 will be described.
FIG. 3 shows the center points and feature points of the images of the still image data 205 and the two-dimensional map data 208 set by the corresponding point input unit 211, and corresponding points on the corresponding map. . 3A represents the center point of the image of the still image data 205, and ★ in FIG. 3A is a feature point selected from the still image data 205. FIG. The ● and ★ in the map data of FIG. 3B indicate the corresponding points on the map corresponding to the center point and feature points of the image selected in the still image data of FIG.
The corresponding point input unit 211 selects the corresponding points between the image and the map in this way, and sends the position information to the camera posture calculation unit 212.
次に、カメラ姿勢計算部212の処理について説明する。
画像の中心点に対応する地図上の対応点(図3における●印)を対応点入力部211で指定することにより、カメラ姿勢情報のうち、カメラの回転角および傾きを、まず求める。
地図処理部209には、機体位置情報(緯度、経度、高度)が入力されており、地図上で画像の中心点に対応する地点を選択することにより、その地点の3次元的位置情報(緯度、経度、高度)は、2次元地図データ208、地勢データ207から得られる。したがって、機体位置と画像中心点に対応する地点の相対的な位置関係を求めることができる。
そこで、図4に示すように、ヘリコプタの機体位置を原点(0、0、0)とし、地図上で指定した画像の中心点に対応する地点の座標を(x0、y0、h)として、相対座標としてカメラ姿勢情報の計算を行う。
このカメラ姿勢情報として、カメラの回転角(φ0)、傾き(θ0)は、(式1)で求めることができる。
Next, processing of the camera posture calculation unit 212 will be described.
By designating the corresponding point on the map corresponding to the center point of the image (marked with ● in FIG. 3) by the corresponding point input unit 211, the camera rotation angle and inclination are first obtained from the camera posture information.
Aircraft position information (latitude, longitude, altitude) is input to the map processing unit 209. By selecting a point corresponding to the center point of the image on the map, the three-dimensional position information (latitude) of the point is selected. , Longitude, altitude) is obtained from the two-dimensional map data 208 and the terrain data 207. Accordingly, it is possible to obtain the relative positional relationship between the machine body position and the point corresponding to the image center point.
Therefore, as shown in FIG. 4, the helicopter body position is the origin (0, 0, 0), and the coordinates of the point corresponding to the center point of the image specified on the map are (x0, y0, h). Camera posture information is calculated as coordinates.
As the camera posture information, the rotation angle (φ0) and tilt (θ0) of the camera can be obtained by (Expression 1).
同様に、静止画データ205上で選択した特徴点に対応した2次元地図データ208の対応点について、図5に示すように、ヘリコプタの機体位置(カメラ位置C)を原点(0、0、0)とし、地図で選択した対応点Bの座標を(x1、y1、h)、ヘリコプタの機体位置からの回転角(φ1)、傾き(θ1)と、画像の中心点で求めたカメラ姿勢情報のカメラの回転角(φ0)、傾き(θ0)との差分を、それぞれ△φ、△θとするxyz空間を考えると、各点の座標は、以下のような(式2)で表すことができる。 Similarly, as shown in FIG. 5, with respect to corresponding points of the two-dimensional map data 208 corresponding to the feature points selected on the still image data 205, the helicopter body position (camera position C) is set to the origin (0, 0, 0). ), The coordinates of the corresponding point B selected on the map are (x1, y1, h), the rotation angle (φ1) and the inclination (θ1) from the aircraft position of the helicopter, and the camera posture information obtained from the center point of the image Considering an xyz space where the differences between the camera rotation angle (φ0) and tilt (θ0) are Δφ and Δθ, respectively, the coordinates of each point can be expressed by the following (formula 2). .
ここで、z軸のまわりに角度φ0の回転を行う座標変換、画枠中心が原点になるように並進座標変換、x軸のまわりに角度θ0の回転を行う座標変換を行うと、座標変換後のx’y’z’空間上の各座標は、図6に示すところにより、(式3)となる。 Here, when coordinate conversion is performed to rotate the angle φ0 around the z axis, translational coordinate conversion is performed so that the center of the image frame is the origin, and coordinate conversion is performed to rotate the angle θ0 around the x axis, Each coordinate in the x′y′z ′ space is represented by (Equation 3) as shown in FIG.
直線B’C’とx’y’平面との交点である地図対応点B"の座標(x1”、y1”、z1”)は、(式4)となる。 The coordinates (x1 ″, y1 ″, z1 ″) of the map corresponding point B ″, which is the intersection of the straight line B′C ′ and the x′y ′ plane, are expressed by (Expression 4).
この(式3)、(式4)を整理すると、(式5)が求められる。 By arranging (Equation 3) and (Equation 4), (Equation 5) is obtained.
次に、図5の地図対応点Bに対応するカメラフレームの静止画上の対応点βについて考えてみる。今、幅PX,高さPY(ピクセル)上の静止画上の位置(px、py)に対応点βがある場合、画像中心を原点とした時の座標β(δx、δy)は、(式6)となる。 Next, consider the corresponding point β on the still image of the camera frame corresponding to the map corresponding point B in FIG. Now, when there is a corresponding point β at a position (px, py) on the still image on the width PX and the height PY (pixel), the coordinates β (δx, δy) when the image center is set as the origin is 6).
また、カメラのフレームサイズを幅CX、高さCY(mm)とすると、カメラフレーム上の対応点β’の座標は、(式7)となる。(カメラフレームの中心点の座標α’は(0、0、0)である) When the frame size of the camera is a width CX and a height CY (mm), the coordinates of the corresponding point β ′ on the camera frame are (Expression 7). (The coordinate α ′ of the center point of the camera frame is (0, 0, 0))
図7は、カメラ位置からカメラの焦点距離f1(mm)離れた位置にあるカメラフレーム平面XYと、カメラ位置からh/cosθ0離れたx’y’平面(図6)との関係を示している。
カメラフレーム平面XY上にある画像対応点β’(xf、yf)をx’y’平面上に投影した座標β”(xf’、yf’)は、(式8)となる。
FIG. 7 shows the relationship between the camera frame plane XY at the camera focal distance f1 (mm) away from the camera position and the x′y ′ plane (FIG. 6) away from the camera position by h / cos θ0. .
The coordinates β ″ (xf ′, yf ′) obtained by projecting the image corresponding point β ′ (xf, yf) on the camera frame plane XY onto the x′y ′ plane is expressed by (Equation 8).
今、画像対応点β’をx’y’平面上に投影した座標β”と、地図対応点B”は、一致するので、(式9)の関係が成り立つ。 Now, the coordinates β ″ obtained by projecting the image corresponding point β ′ on the x′y ′ plane and the map corresponding point B ″ coincide with each other, and the relationship of (Equation 9) is established.
上述の(式5)、(式8)、(式9)より、(式10)が得られる。 (Expression 10) is obtained from the above (Expression 5), (Expression 8), and (Expression 9).
このように、カメラ姿勢計算部212で、カメラの焦点距離f、カメラの角度情報(回転角、傾き)を計算し、求めることができる。 In this way, the camera attitude calculation unit 212 can calculate and obtain the camera focal length f and camera angle information (rotation angle, tilt).
次に、画枠計算部213の処理について説明する。
画枠計算部213は、カメラの撮影画枠の計算を行うが、この計算方法は、コンピュータグラフィックの基礎として、3D座標内の矩形(画枠)の回転移動と投象処理で得ることができる。
基本は、カメラの撮影画枠をカメラ姿勢情報と機体位置情報とによって変換処理を行い、地上へ投影した場合の図枠を計算することで、目的の画枠を得ることができる。
3次元座標内の各座標の計算方法は、以下(1)(2)(3)(4)に述べる行列計算方法を使用して得る。
Next, processing of the image frame calculation unit 213 will be described.
The image frame calculation unit 213 calculates the image frame taken by the camera. This calculation method can be obtained by rotating and projecting a rectangle (image frame) in 3D coordinates as the basis of computer graphics. .
Basically, a target image frame can be obtained by performing a conversion process on the image frame of the camera based on the camera posture information and the body position information, and calculating a figure frame when projected onto the ground.
The calculation method of each coordinate in a three-dimensional coordinate is obtained using the matrix calculation method described in the following (1) (2) (3) (4).
(1)基準状態での撮影画枠の計算
まず、図8(a)に示すように、画枠4点の位置を機体の位置を原点として、相対座標として計算する。撮影画枠を、カメラの焦点距離、カメラの角度情報、高度によって、基準位置に計算し、4点の座標を得る。
(1) Calculation of Shooting Image Frame in Reference State First, as shown in FIG. 8A, the positions of the four image frames are calculated as relative coordinates with the position of the machine as the origin. The captured image frame is calculated as a reference position based on the focal length of the camera, camera angle information, and altitude, and four coordinates are obtained.
(2)カメラのチルト(y軸)にて、4点の回転後の位置を計算
図8(b)に示すように、カメラのチルト角度θ0から、y軸方向に撮影画枠を回転する。回転後の座標を、(式11)で変換して求める。(式11)では、x、y、zが図8(a)の4点の座標、x’、y’、z’がこれに対応する図8(b)の座標である。
(2) Calculate the position after rotation of the four points with the camera tilt (y-axis) As shown in FIG. 8B, the photographic image frame is rotated in the y-axis direction from the camera tilt angle θ0. The coordinates after rotation are calculated by (Equation 11). In (Expression 11), x, y, and z are the coordinates of the four points in FIG. 8A, and x ′, y ′, and z ′ are the corresponding coordinates in FIG. 8B.
(3)カメラの方位角(z軸)にて、4点の回転後の位置を計算
図8(c)に示すように、カメラの方位角φ0から、z軸方向に撮影画枠を回転する。回転後の座標を、(式12)で変換して求める。(式12)では、x、y、zが図8(b)の4点の座標、x’、y’、z’がこれに対応する図8(c)の座標である。
(3) Calculating the position after rotation of four points with the camera azimuth (z-axis) As shown in FIG. 8C, the photographic image frame is rotated in the z-axis direction from the camera azimuth φ0. . The coordinates after rotation are obtained by conversion using (Equation 12). In (Expression 12), x, y, and z are the coordinates of the four points in FIG. 8B, and x ′, y ′, and z ′ are the corresponding coordinates in FIG. 8C.
(4)回転処理後画枠を、原点(機体位置)から地表面(z軸高度地点)に投影した図枠を計算
図8(d)に示すように、撮影画枠を地表面(z軸高度地点)に投象することで投象平面(撮影画枠)を得る。投影後の座標を、(式13)で変換して求める。(式13)では、x、y、zが図8(c)の4点の座標、x’、y’、z’がこれに対応する図8(d)の座標である。
(4) Calculating a picture frame in which the post-rotation image frame is projected from the origin (airframe position) to the ground surface (z-axis altitude point), as shown in FIG. The projection plane (photographing image frame) is obtained by projecting to the altitude point. The projected coordinates are obtained by conversion using (Equation 13). In (Expression 13), x, y, and z are the coordinates of the four points in FIG. 8C, and x ′, y ′, and z ′ are the corresponding coordinates in FIG. 8D.
次の(式14)で、一般同次座標系[X、Y、Z、W]を得る。但し、dは海抜高度である。 In the following (Expression 14), a general homogeneous coordinate system [X, Y, Z, W] is obtained. Where d is the altitude above sea level.
次に、一般同次座標系[X、Y、Z、W]をW(z/d)で割って、3次元座標系に戻すと、(式15)となる。 Next, when the general homogeneous coordinate system [X, Y, Z, W] is divided by W (z / d) and returned to the three-dimensional coordinate system, (Expression 15) is obtained.
次に、映像変形部214の処理について説明する。
上述のように、画枠計算部213で求めた画枠に合わせて、映像変形部214により映像変形を行う。この映像変形は、映像が地図に一致する台形あるいは菱形に近い形等になるように映像を変形するものである。
Next, processing of the video transformation unit 214 will be described.
As described above, the video deformation unit 214 performs video deformation in accordance with the image frame obtained by the image frame calculation unit 213. This video transformation is to transform the video so that the video has a trapezoidal or diamond-like shape that matches the map.
最後に、重ね合わせ部215により、変形した映像を地理情報システムの地図上に重ね合わせ(貼り合わせ)、その後、これをCRTなどのモニタ表示手段210で表示する。 Finally, the superposed unit 215 superimposes (pastes) the deformed video on the map of the geographic information system, and then displays it on the monitor display unit 210 such as a CRT.
実施の形態1によれば、機上系として、特別な機構を持たない、ハンディカメラのような一般的な撮影装置で撮影された映像を元に、映像内の特徴点とそれに対応する地図上の対応点を対応付けすることにより、撮影装置が撮影した撮影映像の撮影範囲に対応する地理情報システムの地図上の撮影範囲を求め、この求められた撮影範囲に併せるように変形された撮影映像を、地図上の撮影範囲に重ね合わせて表示すると、映像と地図とが完全に一致し、映像情報と地図情報の整合性を確認することが容易となり、目標地点の判別が容易にできる。
このため、撮影装置は、ジンバル機構に支持されたカメラとして、カメラの映像信号の他に、カメラ情報、カメラ姿勢等の情報を検出・出力するカメラ姿勢検出部を有する専用のカメラである必要がなく、一般的なハンディカメラを用いることができる。
According to the first embodiment, as an on-board system, a feature point in a video and a map corresponding to the feature point in the video are captured based on a video captured by a general imaging device such as a handy camera that does not have a special mechanism. By associating the corresponding points, a shooting range on the map of the geographic information system corresponding to the shooting range of the shot video shot by the shooting device is obtained, and the shot video transformed to match the obtained shooting range Is superimposed on the shooting range on the map, the video and the map are completely matched, it is easy to check the consistency between the video information and the map information, and the target point can be easily identified.
Therefore, the photographing apparatus needs to be a dedicated camera having a camera posture detection unit that detects and outputs information such as camera information and camera posture in addition to the video signal of the camera as a camera supported by the gimbal mechanism. In addition, a general handy camera can be used.
また、カメラで撮影した画枠の映像を地図上に重ね合わせて表示することができる他に、映像情報を消して、画枠だけを表示することも容易にできる。例えば、災害発生時の映像がある場合、画枠のみの表示にすることによって、災害現場が地図上の何処に相当するかが迅速に認識することができる。 In addition to being able to display the image of the image frame captured by the camera superimposed on the map, it is also possible to easily display only the image frame with the video information deleted. For example, when there is a video at the time of the occurrence of a disaster, it is possible to quickly recognize where the disaster site corresponds to on the map by displaying only the image frame.
実施の形態2.
図9は、この発明の実施の形態2による撮影映像処理システムの対応点入力部の入力方法を説明する図であり、図9(a)は静止画データ、図9(b)は地図データである。
図9において、画像の中心点●と、特徴点★、▲が示されている。
Embodiment 2. FIG.
FIG. 9 is a diagram for explaining the input method of the corresponding point input unit of the photographed video processing system according to the second embodiment of the present invention. FIG. 9 (a) is still image data, and FIG. 9 (b) is map data. is there.
In FIG. 9, the center point ● of the image and the feature points ★ and ▲ are shown.
図9は、対応点入力部211で設定する静止画データ205と2次元地図データ208の画像の中心点及び特徴点と地図上の対応点を図に示しており、図9(a)では、画像の中心点●と、それぞれ静止画データ205から選んだ特徴点★、▲が示されている。図9(b)の地図データにある●、★、▲は、それぞれ図9(a)の静止画データで選択した画像の中心点及び特徴点に対応する地図上の対応点を示している。
対応点入力部211では、このように画像(静止画データ)と地図(地図データ)の対応点を複数点選択し、その位置情報をカメラ姿勢計算部212に送る。
(式10)の通り、複数点の画像特徴点と地図対応点を指定すれば、同様に焦点距離f1、f2、・・・を求めることができる。カメラ姿勢計算部212では、求めた複数の焦点距離の平均値を求め、その値を採用することとする。
FIG. 9 shows the center points and feature points of the images of the still image data 205 and the two-dimensional map data 208 set by the corresponding point input unit 211, and corresponding points on the map. In FIG. A center point ● of the image and feature points ★ and ▲ selected from the still image data 205 are shown. The ●, ★, and ▲ in the map data of FIG. 9B indicate the corresponding points on the map corresponding to the center point and feature points of the image selected in the still image data of FIG. 9A, respectively.
The corresponding point input unit 211 selects a plurality of corresponding points between the image (still image data) and the map (map data) in this way, and sends the position information to the camera posture calculation unit 212.
As shown in (Expression 10), if a plurality of image feature points and map corresponding points are designated, the focal lengths f1, f2,. In the camera posture calculation unit 212, an average value of a plurality of calculated focal lengths is obtained and the value is adopted.
実施の形態2によれば、複数の画像上の特徴点及びそれに対応する地図の対応点を指定した場合、より精度の高い焦点距離を求められる。それにより、地図上に重ね合わせ表示される映像の貼り合わせ精度を向上させることができる。 According to the second embodiment, when a feature point on a plurality of images and a corresponding point on the map corresponding thereto are designated, a more accurate focal length can be obtained. Thereby, it is possible to improve the accuracy of pasting the video that is superimposed on the map.
実施の形態3.
図10は、この発明の実施の形態3による撮影映像処理システムのカメラ姿勢計算部により計算されたカメラの姿勢情報を微調整するための画面を示す図である。
図10において、画面301には、カメラ姿勢計算部212で求めたカメラの姿勢情報(パン、チルト、ズーム)を手動で微調節するためのパン302、チルト303、ズーム304の各数値設定部を設けている。
Embodiment 3 FIG.
FIG. 10 is a diagram showing a screen for finely adjusting the camera posture information calculated by the camera posture calculation unit of the photographed video processing system according to the third embodiment of the present invention.
In FIG. 10, the screen 301 includes numerical setting units for pan 302, tilt 303, and zoom 304 for manually fine-tuning camera posture information (pan, tilt, zoom) obtained by the camera posture calculation unit 212. Provided.
画面301には、カメラ姿勢計算部212で求めたカメラの姿勢情報のパン302、チルト303、ズーム304の各数値が、デフォルトで入力されており、それぞれの値を任意の値に変更することができる。 On the screen 301, the camera posture information obtained by the camera posture calculation unit 212 is input with numerical values of pan 302, tilt 303, and zoom 304 by default, and each value can be changed to an arbitrary value. it can.
実施の形態3によれば、画像と地図の対応点の微妙なずれを修正し、かつ画面で重畳状態を確認することができるので、より精度の高い重ね合わせ表示を実現することができる。 According to the third embodiment, it is possible to correct a slight deviation between the corresponding points of the image and the map and to check the superimposed state on the screen, so that it is possible to realize a more accurate superimposed display.
実施の形態4.
図11は、この発明の実施の形態4による撮影映像処理システムの撮影装置を機体に固定させた状態を示す概念図である。
図11において、撮影装置101は、ヘリコプタ機体400に固定されている。
図12は、この発明の実施の形態4による撮影映像処理システムの画面イメージを示す図である。
Embodiment 4 FIG.
FIG. 11 is a conceptual diagram showing a state in which the photographing device of the photographed video processing system according to the fourth embodiment of the present invention is fixed to the airframe.
In FIG. 11, the photographing apparatus 101 is fixed to the helicopter body 400.
FIG. 12 is a diagram showing a screen image of the photographed video processing system according to Embodiment 4 of the present invention.
図11では、撮影装置101(カメラ)をヘリコプタ機体400に固定させることで、ヘリコプタ機体400から常に一定の角度で地上を撮影することになる。
これにより、実施の形態1〜実施の形態3のように、対応点入力部211で画像と地図上の対応を入力し、カメラ姿勢計算部212でカメラ姿勢情報の計算を一度行うと、ヘリコプタ機体400の姿勢が変化しない場合には、それ以降、そのカメラ姿勢情報を用いて、図12に示すように連続して撮影した映像を、地理情報システムの地図上に重ね合わせて表示することができる。
In FIG. 11, by fixing the photographing apparatus 101 (camera) to the helicopter body 400, the ground is always photographed from the helicopter body 400 at a constant angle.
Thus, as in the first to third embodiments, when the correspondence between the image and the map is input by the corresponding point input unit 211 and the camera posture calculation unit 212 calculates the camera posture information once, the helicopter body If the posture of 400 does not change, then, using the camera posture information, it is possible to superimpose and display images continuously photographed on the map of the geographic information system as shown in FIG. .
実施の形態4によれば、撮影した映像を広範囲に地図上に重ね合わせ表示することで、例えば、災害地域の広範囲な状況とその正確な位置情報を得ることができる。 According to the fourth embodiment, for example, a wide range of situations in a disaster area and accurate position information thereof can be obtained by overlaying and displaying captured images on a map over a wide range.
実施の形態5.
図13は、この発明の実施の形態5による撮影映像処理システムを示す機能構成図である。
図13において、100〜106、200〜210は図1におけるものと同一のものである。図13では、機上系100に機体姿勢を検出する機体姿勢検出部107を設けている。
図14は、この発明の実施の形態5による撮影映像処理システムのヘリコプタ機体の傾きを説明する図である。
図14において、ヘリコプタ機体が傾いたときのロール角、進行方向ピッチ角並びに撮影装置の回転角と傾きが示されている。
Embodiment 5 FIG.
FIG. 13 is a functional configuration diagram showing a photographed video processing system according to Embodiment 5 of the present invention.
In FIG. 13, reference numerals 100 to 106 and 200 to 210 are the same as those in FIG. In FIG. 13, an airframe posture detection unit 107 that detects the airframe posture is provided in the onboard system 100.
FIG. 14 is a diagram for explaining the inclination of the helicopter fuselage of the photographed video processing system according to the fifth embodiment of the present invention.
FIG. 14 shows the roll angle, the traveling direction pitch angle, and the rotation angle and inclination of the photographing apparatus when the helicopter body is inclined.
実施の形態5は、ヘリコプタ等の機体等に搭載され、撮影装置などを有する機上系100(機上装置)と、地上にて機上系100からの信号を受信して処理する地上系200(地上装置)から成る。
機上系100は、上空から地表を撮影するカメラである撮影装置101を有し、撮影装置101は、撮影した撮影映像を出力する。この撮影装置101は、ハンディカメラのような一般の撮影装置であり、カメラの絞り、ズーム等のカメラ情報や、カメラの撮影角度(パン、チルト)情報を持たない。
機上系100は、さらに撮影装置101の位置を3次元的に特定するための情報をGPS信号受信部102を介して取得する機体位置検出部103(機体位置検出手段)と、ヘリコプタ等の機体の姿勢を3次元的に特定するための機体姿勢検出部107(機体姿勢検出手段)を有している。
また、機上系100は、撮影装置101からの撮影映像、機体位置検出部103からの位置情報、機体姿勢検出部107からの機体姿勢情報を多重変調部104で多重変調し、信号変換部105でデジタル信号に信号変換し、追尾機能部106を有するアンテナ(送信手段)から地上系200に向けて送信する。
In the fifth embodiment, an on-board system 100 (on-board apparatus) that is mounted on an aircraft such as a helicopter and has a photographing device, and a ground system 200 that receives and processes signals from the on-board system 100 on the ground. (Ground equipment).
The onboard system 100 includes a photographing device 101 that is a camera for photographing the ground surface from the sky, and the photographing device 101 outputs a photographed photographed image. The photographing apparatus 101 is a general photographing apparatus such as a handy camera, and does not have camera information such as a camera aperture and zoom and camera photographing angle (pan, tilt) information.
The onboard system 100 further includes an airframe position detection unit 103 (airframe position detection means) for acquiring information for three-dimensionally specifying the position of the imaging device 101 via the GPS signal receiving unit 102, and an airframe such as a helicopter. Has a body posture detecting unit 107 (airframe posture detecting means) for three-dimensionally identifying the posture.
The onboard system 100 multiplex-modulates the captured image from the imaging apparatus 101, the position information from the body position detection unit 103, and the body posture information from the body position detection unit 107 by the multiplex modulation unit 104, and the signal conversion unit 105. Then, the signal is converted into a digital signal and transmitted from the antenna (transmission means) having the tracking function unit 106 toward the ground system 200.
地上系200は、機上系100からの信号を追尾機能部201を有するアンテナで受信し、信号変換部202で信号変換し、多重復調部203によって、映像情報、機体位置情報、機体姿勢情報の信号を取り出す。
また、取り出した情報に対し、信号処理を行うための信号処理部204と、画面に地図を表示する地理情報システム(信号処理部204で処理された情報を含めて映像処理し、地図データに重畳させてモニタ表示部210に表示する地図処理部209)とを有している。
多重復調部203によって取り出された、機体姿勢情報を含むこれらの信号を信号処理部204で信号処理し、映像信号は、動画データ206、静止画データ205として格納され、次のステップである地図処理部209での地図処理に用いられる。その他、地理情報システムの2次元地図データ208、地勢データ207を含めた情報信号も地図処理部209での地図処理に用いられる。
The terrestrial system 200 receives a signal from the onboard system 100 by an antenna having a tracking function unit 201, converts the signal by a signal conversion unit 202, and uses a multiple demodulation unit 203 to store video information, body position information, and body posture information. Retrieve the signal.
In addition, a signal processing unit 204 that performs signal processing on the extracted information and a geographic information system that displays a map on the screen (including information processed by the signal processing unit 204) is video-processed and superimposed on the map data And a map processing unit 209) for displaying on the monitor display unit 210.
These signals including the aircraft attitude information extracted by the multiplex demodulator 203 are processed by the signal processor 204, and the video signal is stored as the moving image data 206 and the still image data 205, and the next step is map processing. Used for map processing in the unit 209. In addition, information signals including the two-dimensional map data 208 and the terrain data 207 of the geographic information system are also used for map processing in the map processing unit 209.
これにより、図14に示すように、ヘリコプタ等の機体が傾いて航行しながら撮影をした場合、そのヘリコプタの機体姿勢(ロール角、ピッチ角)を考慮した、地表面からのカメラ角度を得ることができる。 As a result, as shown in FIG. 14, when shooting while the aircraft such as a helicopter is tilted and sailing, the camera angle from the ground surface is obtained in consideration of the aircraft posture (roll angle, pitch angle) of the helicopter. Can do.
実施の形態5によれば、機上系に機体姿勢検出部を設けたので、ヘリコプタ等の機体が傾いて航行しながら撮影をした場合でも、そのヘリコプタの機体姿勢(ロール角、ピッチ角)を考慮した、地表面からのカメラ角度を得ることができ、地図上に重ね合わせ表示される映像の貼り合わせ精度を向上させることができる。 According to the fifth embodiment, since the aircraft attitude detection unit is provided in the on-board system, even if the aircraft such as a helicopter is tilted and navigates while shooting, the aircraft attitude (roll angle, pitch angle) of the helicopter is determined. It is possible to obtain a camera angle from the ground surface that is taken into consideration, and to improve the accuracy of pasting the video displayed superimposed on the map.
実施の形態6.
図15は、この発明の実施の形態6による撮影映像処理システムを示す機能構成図である。
図15において、100〜106、200〜210は図1におけるものと同一のものである。図15では、機上系100に、地上系と同様な信号処理部108、地図処理部113、モニタ表示部114、静止画データ109、動画データ110、地勢データ111、2次元地図データ112を設けている。
Embodiment 6 FIG.
FIG. 15 is a functional block diagram showing a captured video processing system according to Embodiment 6 of the present invention.
In FIG. 15, reference numerals 100 to 106 and 200 to 210 are the same as those in FIG. In FIG. 15, the onboard system 100 is provided with a signal processing unit 108, a map processing unit 113, a monitor display unit 114, still image data 109, moving image data 110, terrain data 111, and two-dimensional map data 112 similar to those on the ground system. ing.
実施の形態6の撮影映像処理システムは、ヘリコプタ等の機体等に搭載され、撮影装置などを有する機上系100(機上装置)と、地上にて機上系100からの信号を受信して処理する地上系200(地上装置)から成る。
機上系100は、上空から地表を撮影するカメラである撮影装置101を有し、撮影装置101は、撮影した撮影映像を出力する。この撮影装置101は、ハンディカメラのような一般の撮影装置であり、カメラの絞り、ズーム等のカメラ情報や、カメラの撮影角度(パン、チルト)情報を持たない。
機上系100は、さらに撮影装置101の位置を3次元的に特定するための情報をGPS信号受信部102を介して取得する機体位置検出部103(機体位置検出手段)を有している。
また、機上系100は、撮影装置101からの撮影映像、機体位置検出部103からの機体位置情報を多重変調部104で多重変調し、信号変換部105でデジタル信号に信号変換し、追尾機能部106を有するアンテナ(送信手段)から地上系200に向けて送信する。
The captured image processing system according to the sixth embodiment is mounted on an aircraft such as a helicopter, and receives an onboard system 100 (onboard apparatus) having an imaging device and the like and a signal from the onboard system 100 on the ground. It consists of the ground system 200 (ground equipment) to be processed.
The onboard system 100 includes a photographing device 101 that is a camera for photographing the ground surface from the sky, and the photographing device 101 outputs a photographed photographed image. The photographing apparatus 101 is a general photographing apparatus such as a handy camera, and does not have camera information such as a camera aperture and zoom and camera photographing angle (pan, tilt) information.
The onboard system 100 further includes an airframe position detection unit 103 (aircraft position detection means) that acquires information for specifying the position of the photographing apparatus 101 three-dimensionally via the GPS signal receiving unit 102.
Further, the onboard system 100 multiplex-modulates the captured image from the imaging apparatus 101 and the body position information from the body position detection unit 103 by the multiplex modulation unit 104, converts the signal into a digital signal by the signal conversion unit 105, and performs a tracking function. Transmission is performed from the antenna (transmission means) having the unit 106 toward the ground system 200.
さらに、機上系100は、多重変調部104で変調する撮影装置101からの撮影映像、機体位置検出部103からの機体位置情報に対して、信号処理を行うための信号処理部108と、画面に地図を表示する地理情報システム(信号処理部108で処理された情報を含めて映像処理し、地図データに重畳させてモニタ表示部114に表示する地図処理部113)とを有している。
信号処理部108で信号処理し、映像信号は、動画データ110、静止画データ109として格納され、次のステップである地図処理部113での地図処理に用いられる。その他、地理情報システムの2次元地図データ112、地勢データ111を含めた情報信号も地図処理部113での地図処理に用いられる。
Furthermore, the onboard system 100 includes a signal processing unit 108 for performing signal processing on a captured image from the imaging apparatus 101 modulated by the multiplex modulation unit 104 and the aircraft position information from the aircraft position detection unit 103, and a screen. And a geographical information system (a map processing unit 113 that performs video processing including information processed by the signal processing unit 108 and superimposes it on map data and displays it on the monitor display unit 114).
The signal processing unit 108 performs signal processing, and the video signal is stored as moving image data 110 and still image data 109, and is used for map processing in the map processing unit 113, which is the next step. In addition, information signals including the two-dimensional map data 112 and the terrain data 111 of the geographic information system are also used for map processing in the map processing unit 113.
地上系200は、機上系100からの信号を、追尾機能部201を有するアンテナで受信し、信号変換部202で信号変換し、多重復調部203によって、映像情報、機体位置情報の信号を取り出す。
また、取り出した情報に対し、信号処理を行うための信号処理部204と、画面に地図を表示する地理情報システム(信号処理部204で処理された情報を含めて映像処理し、地図データに重畳させてモニタ表示部210に表示する地図処理部209)とを有している。
多重復調部203によって取り出された、これらの信号を信号処理部204で信号処理し、映像信号は、動画データ206、静止画データ205として格納され、次のステップである地図処理部209での地図処理に用いられる。その他、地理情報システムの2次元地図データ208、地勢データ207を含めた情報信号も地図処理部209での地図処理に用いられる。
これにより、撮影映像の地理情報システムの地図上への重ね合わせ表示をヘリコプタ搭乗員も見ることができる。
The terrestrial system 200 receives a signal from the onboard system 100 by an antenna having a tracking function unit 201, converts the signal by a signal conversion unit 202, and takes out video information and body position information signals by a multiple demodulation unit 203. .
In addition, a signal processing unit 204 that performs signal processing on the extracted information and a geographic information system that displays a map on the screen (including information processed by the signal processing unit 204) is video-processed and superimposed on the map data And a map processing unit 209) for displaying on the monitor display unit 210.
These signals extracted by the multiplex demodulator 203 are processed by the signal processing unit 204, and the video signal is stored as the moving image data 206 and the still image data 205, and the map in the map processing unit 209, which is the next step. Used for processing. In addition, information signals including the two-dimensional map data 208 and the terrain data 207 of the geographic information system are also used for map processing in the map processing unit 209.
Thereby, helicopter crew members can also see the superimposed display of the captured video on the map of the geographic information system.
実施の形態6によれば、撮影映像の地理情報システムの地図上への重ね合わせ表示をヘリコプタ搭乗員も見ることができ、地上にいる人間と同じ撮影映像の位置情報等の状況認識が行えることとなり、例えば災害現場での被災情報収集作業や、人命救助作業や復旧作業等の効率的な連携作業を行うことができるようになる。 According to the sixth embodiment, helicopter crew members can also see the superimposed display of the photographed video on the map of the geographic information system, and can recognize the situation such as the positional information of the photographed video that is the same as a person on the ground. Thus, for example, it is possible to perform efficient collaborative work such as disaster information collection work at the disaster site, lifesaving work, and recovery work.
実施の形態7.
図16は、この発明の実施の形態7による撮影映像処理システムを示す機能構成図である。
図16において、撮影映像処理システムは、ヘリコプタ等の機体等に搭載され、撮影装置等を有する機上系100(機上装置)と、地上系200(地上装置)から成る。
機上系100は、上空から地表を撮影するカメラである撮影装置101を有し、撮影装置101は、撮影した撮影映像を出力する。この撮影装置101は、ハンディカメラのような一般の撮影装置であり、カメラの絞り、ズーム等のカメラ情報や、カメラの撮影角度(パン、チルト)情報を持たない。
機上系100は、さらに撮影装置101の位置を3次元的に特定するための情報をGPS信号受信部102を介して取得する機体位置検出部103(機体位置検出手段)を有している。
また、機上系100は、撮影装置101からの撮影映像、機体位置検出部103からの機体位置情報を信号処理部115にて信号処理し、信号保存部116(保存手段)にて、記録メディア401にデジタル信号化された撮影映像、機体位置情報を保存する。
Embodiment 7 FIG.
FIG. 16 is a functional block diagram showing a captured video processing system according to Embodiment 7 of the present invention.
In FIG. 16, the captured video processing system is mounted on an aircraft such as a helicopter, and includes an onboard system 100 (onboard apparatus) having an imaging apparatus and the like, and a ground system 200 (ground apparatus).
The onboard system 100 includes a photographing device 101 that is a camera for photographing the ground surface from the sky, and the photographing device 101 outputs a photographed photographed image. The photographing apparatus 101 is a general photographing apparatus such as a handy camera, and does not have camera information such as a camera aperture and zoom and camera photographing angle (pan, tilt) information.
The onboard system 100 further includes an airframe position detection unit 103 (aircraft position detection means) that acquires information for specifying the position of the photographing apparatus 101 three-dimensionally via the GPS signal receiving unit 102.
Further, the onboard system 100 performs signal processing on the video image taken from the photographing apparatus 101 and the machine body position information from the machine body position detection unit 103 by the signal processing unit 115, and the signal storage unit 116 (storage unit) records the recording medium. A captured image and airframe position information converted into a digital signal are stored in 401.
一方、地上系200は、記録メディア401に保存された撮影映像、機体位置情報を再生する信号再生部220(再生手段)と、信号処理を行うための信号処理部204と、画面に地図を表示する地理情報システム(信号処理部204で処理された情報を含めて映像処理し、地図データに重畳させてモニタ表示部210に表示する地図処理部209)とを有している。地図処理部209の処理には、静止画データ205、動画データ206、地勢データ207、2次元地図データ208が用いられる。 On the other hand, the terrestrial system 200 displays a captured image stored in the recording medium 401, a signal reproduction unit 220 (reproduction unit) for reproducing the body position information, a signal processing unit 204 for performing signal processing, and a map on the screen. A geographic information system (a map processing unit 209 that performs video processing including information processed by the signal processing unit 204 and superimposes it on map data and displays it on the monitor display unit 210). For the processing of the map processing unit 209, still image data 205, moving image data 206, terrain data 207, and two-dimensional map data 208 are used.
実施の形態7では、記録メディア401に保存された撮影映像、機体位置情報は、撮影フライト終了後(ヘリコプタ帰還後)に、信号再生部220にて再生され、再生されたこれらの信号を信号処理部204で信号処理し、映像信号は、動画データ206、静止画データ205として格納され、次のステップである地図処理部209での地図処理に用いられる。その他、地理情報システムの2次元地図データ208、地勢データ207を含めた情報信号も、地図処理部209での地図処理に用いられる。地図処理部209の処理は、実施の形態1で説明したのと同じであり、撮影映像の地図上への重ね合わせ表示をモニタ表示部210により行う。 In the seventh embodiment, the captured image and the aircraft position information stored in the recording medium 401 are reproduced by the signal reproduction unit 220 after the photographing flight is completed (after the helicopter returns), and the reproduced signals are subjected to signal processing. Signal processing is performed by the unit 204, and the video signal is stored as moving image data 206 and still image data 205, and is used for map processing by the map processing unit 209 as the next step. In addition, information signals including the two-dimensional map data 208 and the terrain data 207 of the geographic information system are also used for map processing in the map processing unit 209. The processing of the map processing unit 209 is the same as that described in the first embodiment, and the monitor display unit 210 performs superimposed display of the captured video on the map.
実施の形態7によれば、機上系100に信号保存部116、地上系200に信号再生部220を設けることで、図1における機上系100の多重変調部104、信号変換部105、追尾機能部106と、地上系200の追尾機能部201、信号変換部202、多重復調部203がない場合でも、撮影映像を地上系200の地理情報システムの地図上にて重ね合わせ表示することができる。 According to the seventh embodiment, the signal storage unit 116 is provided in the onboard system 100 and the signal reproduction unit 220 is provided in the terrestrial system 200, so that the multiple modulation unit 104, the signal conversion unit 105, and the tracking of the onboard system 100 in FIG. Even if the function unit 106, the tracking function unit 201 of the terrestrial system 200, the signal conversion unit 202, and the multiplex demodulation unit 203 are not provided, the captured video can be superimposed and displayed on the map of the geographic information system of the terrestrial system 200. .
100 機上系、101 撮影装置、102 GPS信号受信部、
103 機体位置検出部、104 多重変調部、105 信号変換部、
106 追尾機能部、107 機体姿勢検出部、108 信号処理部、
109 静止画データ、110 動画データ、111 地勢データ、
112 2次元地図データ、113 地図処理部、114 モニタ表示部、
115 信号処理部、116 信号保存部、
200 地上系、201 追尾機能部、202 信号変換部、
203 多重復調部、204 信号処理部、205 静止画データ、
206 動画データ、207 地勢データ、208 2次元地図データ、
209 地図処理部、210 モニタ表示部、211 対応点入力部、
212 カメラ姿勢計算部、213 画枠計算部、214 映像変形部、
215 重ね合わせ部、220 信号再生部、
301 画面、302 パン、303 チルト、304 ズーム、
400 ヘリコプタ機体、401 記録メディア。
100 on-board system, 101 photographing device, 102 GPS signal receiver,
103 Airframe position detection unit, 104 Multiplex modulation unit, 105 Signal conversion unit,
106 tracking function unit, 107 airframe posture detection unit, 108 signal processing unit,
109 still image data, 110 video data, 111 terrain data,
112 2D map data, 113 Map processing unit, 114 Monitor display unit,
115 signal processing unit, 116 signal storage unit,
200 ground system, 201 tracking function unit, 202 signal conversion unit,
203 multiplex demodulator, 204 signal processor, 205 still image data,
206 video data, 207 terrain data, 208 two-dimensional map data,
209 Map processing unit, 210 Monitor display unit, 211 Corresponding point input unit,
212 camera posture calculation unit, 213 image frame calculation unit, 214 video transformation unit,
215 superposition unit, 220 signal reproduction unit,
301 screen, 302 pan, 303 tilt, 304 zoom,
400 Helicopter fuselage, 401 Recording media.
Claims (11)
上記撮影系は、上記撮影装置と、上記機体の位置を検出する機体位置検出手段と、上記撮影装置により撮影された映像及び上記機体位置検出手段により検出された機体位置情報を上記映像処理系に送信する送信手段とを有し、
上記映像処理系は、上記撮影系から送信された上記映像及び機体位置情報に基き、予め記憶された地図上に上記映像を重ね合わせる地図処理手段と、この地図処理手段により上記地図上に重ね合わせた映像を表示するモニタ表示手段とを有し、
上記地図処理手段は、上記映像内の特徴点とこれに対応する地図上の対応点とを対応付けされることにより、上記映像の撮影範囲に対応する地図上の撮影範囲を求め、この求めた撮影範囲に合わせるように上記映像を変形して上記重ね合わせを行うことを特徴とする撮影映像処理システム。 It is equipped with a shooting system mounted on the airframe and equipped with a shooting device, and a video processing system that displays the images shot by the shooting device superimposed on a map,
The imaging system includes the imaging device, an aircraft position detection unit that detects the position of the aircraft, an image captured by the imaging device, and an aircraft position information detected by the aircraft position detection unit in the video processing system. Transmission means for transmitting,
The video processing system includes map processing means for superimposing the video on a map stored in advance based on the video and aircraft position information transmitted from the imaging system, and superimposing the video on the map by the map processing means. Monitor display means for displaying the recorded video,
The map processing means obtains a shooting range on the map corresponding to the shooting range of the video by associating a feature point in the video with a corresponding point on the map corresponding to the feature point. A photographic video processing system, wherein the video is deformed so as to match a photographic range and the superposition is performed.
上記撮影系は、上記撮影装置と、上記機体の位置を検出する機体位置検出手段と、上記撮影装置により撮影された映像及び上記機体位置検出手段により検出された機体位置情報を保存する保存手段とを有し、
上記映像処理系は、上記保存手段により保存された映像及び機体位置情報を再生する再生手段と、この再生手段により再生された上記映像及び機体位置情報に基き、予め記憶された地図上に上記映像を重ね合わせる地図処理手段と、この地図処理手段により上記地図上に重ね合わせた映像を表示するモニタ表示手段とを有し、
上記地図処理手段は、上記映像内の特徴点とこれに対応する地図上の対応点とを対応付けされることにより、上記映像の撮影範囲に対応する地図上の撮影範囲を求め、この求めた撮影範囲に合わせるように上記映像を変形して上記重ね合わせを行うことを特徴とする撮影映像処理システム。 It is equipped with a shooting system mounted on the airframe and equipped with a shooting device, and a video processing system that displays the images shot by the shooting device superimposed on a map,
The photographing system includes the photographing apparatus, a body position detecting unit that detects the position of the body, and a storage unit that stores the image captured by the photographing apparatus and the body position information detected by the body position detecting unit. Have
The video processing system includes a playback unit that plays back the video and the aircraft position information stored by the storage unit, and the video on the map stored in advance based on the video and the machine location information played back by the playback unit. A map processing means for superimposing and a monitor display means for displaying an image superimposed on the map by the map processing means,
The map processing means obtains a shooting range on the map corresponding to the shooting range of the video by associating a feature point in the video with a corresponding point on the map corresponding to the feature point. A photographic video processing system, wherein the video is deformed so as to match a photographic range and the superposition is performed.
上記送信された上記映像及び機体位置情報に基き、予め記憶された地図上に上記映像を重ね合わせる地図処理手段を備え、
上記地図処理手段は、上記映像内の特徴点とこれに対応する地図上の対応点とを対応付けされることにより、上記映像の撮影範囲に対応する地図上の撮影範囲を求め、この求めた撮影範囲に合わせるように上記映像を変形して上記重ね合わせを行うことを特徴とする撮影映像処理装置。 In a photographed video processing apparatus that displays an image that is photographed by a photographing device mounted on a fuselage and that is transmitted together with the fuselage position information detected by a fuselage position detection unit on a map.
Map processing means for superimposing the video on a map stored in advance based on the transmitted video and aircraft position information,
The map processing means obtains a shooting range on the map corresponding to the shooting range of the video by associating a feature point in the video with a corresponding point on the map corresponding to the feature point. A photographic video processing apparatus, wherein the video is deformed so as to match a photographic range and the superposition is performed.
Based on the feature points in the video and the corresponding points on the map, the attitude of the imaging device is calculated. On the map, the shooting on the map corresponding to the imaging range of the video is calculated based on the calculated attitude of the imaging device. 11. The captured image display method according to claim 9, wherein a range is obtained, and an attitude of the photographing apparatus is finely adjusted by numerical input after the calculation.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006066117A JP2007241085A (en) | 2006-03-10 | 2006-03-10 | Photographed image processing system and photographed image processing device, and photographed image display method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006066117A JP2007241085A (en) | 2006-03-10 | 2006-03-10 | Photographed image processing system and photographed image processing device, and photographed image display method |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2007241085A true JP2007241085A (en) | 2007-09-20 |
Family
ID=38586664
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2006066117A Pending JP2007241085A (en) | 2006-03-10 | 2006-03-10 | Photographed image processing system and photographed image processing device, and photographed image display method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2007241085A (en) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103366634A (en) * | 2012-03-28 | 2013-10-23 | 嘉兴佳利电子股份有限公司 | Seamless connection method for inserting picture into electronic map |
KR101329111B1 (en) * | 2012-05-02 | 2013-11-14 | 한국과학기술연구원 | System and method for indoor navigation |
JP2015042201A (en) * | 2013-08-26 | 2015-03-05 | 株式会社 ミックウェア | Terminal device, method for outputting sky-map information, and program |
JP2015158802A (en) * | 2014-02-24 | 2015-09-03 | 国立研究開発法人宇宙航空研究開発機構 | Method for preventing misunderstanding due to parallax by view point position correction of camera video, and system executing the same |
JP7501878B2 (en) | 2019-04-01 | 2024-06-18 | 株式会社スカイマティクス | Drone operation support system and drone operation support method |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH09179967A (en) * | 1995-12-27 | 1997-07-11 | Tokyo Gas Co Ltd | Map data correcting method |
JPH11331831A (en) * | 1998-05-15 | 1999-11-30 | Mitsubishi Electric Corp | Device for discriminating position on image |
JP2001292444A (en) * | 2000-04-10 | 2001-10-19 | Mitsubishi Electric Corp | Image pickup system |
JP2003005628A (en) * | 2001-06-20 | 2003-01-08 | Mitsubishi Electric Corp | Photograph image processor |
JP2003316259A (en) * | 2002-02-25 | 2003-11-07 | Mitsubishi Electric Corp | Photography image processing method and system thereof |
WO2004113836A1 (en) * | 2003-06-20 | 2004-12-29 | Mitsubishi Denki Kabushiki Kaisha | Picked-up image display method |
-
2006
- 2006-03-10 JP JP2006066117A patent/JP2007241085A/en active Pending
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH09179967A (en) * | 1995-12-27 | 1997-07-11 | Tokyo Gas Co Ltd | Map data correcting method |
JPH11331831A (en) * | 1998-05-15 | 1999-11-30 | Mitsubishi Electric Corp | Device for discriminating position on image |
JP2001292444A (en) * | 2000-04-10 | 2001-10-19 | Mitsubishi Electric Corp | Image pickup system |
JP2003005628A (en) * | 2001-06-20 | 2003-01-08 | Mitsubishi Electric Corp | Photograph image processor |
JP2003316259A (en) * | 2002-02-25 | 2003-11-07 | Mitsubishi Electric Corp | Photography image processing method and system thereof |
WO2004113836A1 (en) * | 2003-06-20 | 2004-12-29 | Mitsubishi Denki Kabushiki Kaisha | Picked-up image display method |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103366634A (en) * | 2012-03-28 | 2013-10-23 | 嘉兴佳利电子股份有限公司 | Seamless connection method for inserting picture into electronic map |
KR101329111B1 (en) * | 2012-05-02 | 2013-11-14 | 한국과학기술연구원 | System and method for indoor navigation |
US9651384B2 (en) | 2012-05-02 | 2017-05-16 | Korea Institute Of Science And Technology | System and method for indoor navigation |
JP2015042201A (en) * | 2013-08-26 | 2015-03-05 | 株式会社 ミックウェア | Terminal device, method for outputting sky-map information, and program |
JP2015158802A (en) * | 2014-02-24 | 2015-09-03 | 国立研究開発法人宇宙航空研究開発機構 | Method for preventing misunderstanding due to parallax by view point position correction of camera video, and system executing the same |
JP7501878B2 (en) | 2019-04-01 | 2024-06-18 | 株式会社スカイマティクス | Drone operation support system and drone operation support method |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US7800645B2 (en) | Image display method and image display apparatus | |
JP2008186145A (en) | Aerial image processing apparatus and aerial image processing method | |
TW593978B (en) | Video picture processing method | |
JP2001025002A (en) | Remote photographing system, photographing device and remote photographing method | |
JP3946593B2 (en) | Joint shooting system | |
CN108734655B (en) | Method and system for detecting multiple nodes in air in real time | |
JPH07170443A (en) | Overall image pickup device mounted on aircraft | |
WO2014003698A1 (en) | An aircraft vision system | |
JP2007241085A (en) | Photographed image processing system and photographed image processing device, and photographed image display method | |
JP2695393B2 (en) | Position specifying method and device | |
JP6482855B2 (en) | Monitoring system | |
JP2019135605A (en) | Video image display device and video image display method | |
JP3919994B2 (en) | Shooting system | |
JP3527160B2 (en) | Imaging instruction system, imaging instruction method, and recording medium | |
JP2003316259A (en) | Photography image processing method and system thereof | |
JP5885974B2 (en) | Corresponding point setting method, corresponding point setting device, and corresponding point setting program for aerial photo image data | |
JP6997164B2 (en) | Image processing equipment, image processing methods, programs, and recording media | |
JP2016176751A (en) | Target information acquisition device and target information acquisition method | |
US11415990B2 (en) | Optical object tracking on focal plane with dynamic focal length | |
JPH1114354A (en) | Photographing apparatus | |
KR102181809B1 (en) | Apparatus and method for checking facility | |
JP4502793B2 (en) | Shooting video processing system | |
KR101323099B1 (en) | Device of generating Mosaic images | |
KR100745105B1 (en) | Image display method and image display apparatus | |
JP2004127322A (en) | Stereo image forming method and apparatus |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20080715 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20100901 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20110906 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20120403 |