JPH1042282A - Video presentation system - Google Patents

Video presentation system

Info

Publication number
JPH1042282A
JPH1042282A JP9102160A JP10216097A JPH1042282A JP H1042282 A JPH1042282 A JP H1042282A JP 9102160 A JP9102160 A JP 9102160A JP 10216097 A JP10216097 A JP 10216097A JP H1042282 A JPH1042282 A JP H1042282A
Authority
JP
Japan
Prior art keywords
camera
data
map data
dimensional
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP9102160A
Other languages
Japanese (ja)
Other versions
JP3225434B2 (en
Inventor
Shigeyuki Yamaguchi
重之 山口
Takeshi Sawai
健 澤井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Individual
Original Assignee
Individual
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Family has litigation
First worldwide family litigation filed litigation Critical https://patents.darts-ip.com/?family=26442134&utm_source=google_patent&utm_medium=platform_link&utm_campaign=public_patent_search&patent=JPH1042282(A) "Global patent litigation dataset” by Darts-ip is licensed under a Creative Commons Attribution 4.0 International License.
Application filed by Individual filed Critical Individual
Priority to JP10216097A priority Critical patent/JP3225434B2/en
Publication of JPH1042282A publication Critical patent/JPH1042282A/en
Application granted granted Critical
Publication of JP3225434B2 publication Critical patent/JP3225434B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To provide a system for superimposing accurate map information for photographed video images to the photographed video images and presenting them. SOLUTION: The photographed video images are obtained by a camera 31 loaded to a helicopter 30. Photographing conditions including the three- dimensional position, three-dimensional posture and viewing angle of the camera 31 are detected by a sensor 32. Video data obtained by the camera 31 and the respective kinds of the photographing conditions detected by the sensor 32 are transmitted to the ground and received by the receiver 34 of a ground station 33. In a CG (computer graphics) unit 35, threedimensional map data stored beforehand are perspectively transformed based on the photographing conditions and CG map image data are obtained. The images of a form in which the map information is superimposed on the actually photographed video images obtained by the camera 31 are displayed at a display 36. Also, for a traveling automobile 37 to which a CPS with a builtin communication function is attached, the automobile 37 is visually recognized and tracked in the actually photographed video images on which the map information is superimposed.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、撮影された映像を
提示する映像提示システムに関し、特に、撮影映像にそ
の撮影場所の地図情報を重畳させて提示する映像提示シ
ステムに関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a video presenting system for presenting a photographed video, and more particularly to a video presenting system for presenting a photographed video by superimposing map information of the photographed place.

【0002】[0002]

【従来の技術】甚大な被害を出した阪神・淡路大震災に
おけるテレビジョン(TV)報道では、陸路が寸断され
たこともあって、軽飛行機,ヘリコプター等の飛行体に
搭載したカメラによって空中撮影映像を取り込み、飛行
体のパイロットまたは飛行体に搭乗した放送局の記者,
アナウンサーが現場の状況を伝える中継番組が主流であ
った。そして、多くの視聴者が、リアルタイムで放送さ
れるこのような中継番組を大きな関心を抱いて見てい
た。
2. Description of the Related Art Television (TV) reports on the Great Hanshin-Awaji Earthquake that caused enormous damage have caused aerial photography by cameras mounted on flying objects such as light airplanes and helicopters due to the cutting of land routes. And the reporter of the pilot of the vehicle or the broadcaster on board the vehicle,
Broadcast programs where announcers conveyed the situation at the site were mainstream. And many viewers watched such a relay program broadcast in real time with great interest.

【0003】しかしながら、これらの一連の空撮報道に
おいて、地名・方角等の撮影場所を特定するための情報
の不足及び間違いがしばしば見受けられた。例えば、中
継を行う記者,アナウンサーが、ヘリコプターのパイロ
ットまたは局側のスタッフの助言を受けて、既報した地
名,方角等の情報を慌てて訂正するという場面が、特に
夜間の空撮報道で顕著に見られた。
[0003] However, in such a series of aerial photography reports, information for specifying a photographing place such as a place name and a direction has often been lacking and incorrect. For example, a reporter or announcer who relays, with the advice of a helicopter pilot or a staff member of the station, hastily corrects information such as previously reported place names and directions, especially in nighttime aerial photography reports. Was seen.

【0004】[0004]

【発明が解決しようとする課題】このような現象が発生
した原因としては、震災により都市の景観が変貌してし
まったこと、火災による煙または夜間の停電のために目
印となる建造物を確認できなかったこと、実況担当者が
空撮に不慣れであったこと等、様々な悪条件が考えられ
る。しかしながら、如何なる原因であったとしても、逃
避,救出等の緊急の事態が集中する地震後の初期段階に
おいて、このような誤報が例え一瞬でも公共の電波を通
じて流れるということは、TVというメディアの影響力
から考えても、多くの人命を左右しかねない深刻な問題
であることは間違いない。
The causes of such a phenomenon include a change in the cityscape due to the earthquake, a fire caused by a fire, or a building that serves as a landmark due to a nighttime power outage. Various bad conditions can be considered, such as that the confirmation could not be performed, and that the live broadcaster was unfamiliar with aerial photography. However, whatever the cause, in the early stage after an earthquake where emergency situations such as escape and rescue are concentrated, even such a false alarm flows through the public radio wave even for a moment, because of the influence of the TV media. It is undoubtedly a serious problem that can affect many lives, even from the perspective of power.

【0005】このような問題は、TV報道の重要な使命
の一つが情報の即時性にあり、また現場における中継で
の位置情報の判断が少数の中継スタッフの解釈に委ねら
れている限り、阪神・淡路大震災のような未曾有の災害
に限ることなく普遍的に存在していると言うことができ
る。
[0005] The problem is that one of the important missions of TV reporting is the immediacy of the information, and as long as the judgment of the location information in the on-site relay is left to the interpretation of a small number of relay staff, Hanshin -It can be said that it exists universally without being limited to unprecedented disasters such as the Great Awaji Earthquake.

【0006】ところで、GPS(Global Positioning S
ystem)が、対象物の航路,陸路,海路のナビゲーション
等に利用されており、対象物のリアルタイムでの正確な
位置情報を容易に取得できて、地図画面上に対象物の軌
跡をトラッキングしていくことが可能であるが、リアル
タイムでの周囲の状況を視覚的に認識するための情報は
提供されておらず、緊急時などには情報不足であるとい
う問題がある。
By the way, GPS (Global Positioning S)
ystem) is used for navigation of the object, navigation of land and sea, etc., and it is possible to easily obtain accurate real-time position information of the object and track the trajectory of the object on the map screen. However, information for visually recognizing the surrounding situation in real time is not provided, and there is a problem that information is insufficient in an emergency or the like.

【0007】本発明は斯かる事情に鑑みてなされたもの
であり、撮影された映像に地図情報をリアルタイムに重
ねて表示することにより、撮影映像を用いた中継時の誤
報を防止できる映像提示システムを提供することを目的
とする。
SUMMARY OF THE INVENTION The present invention has been made in view of the above circumstances, and an image presentation system capable of preventing a false alarm at the time of relay using a photographed image by displaying map information superimposed on the photographed image in real time. The purpose is to provide.

【0008】本発明の他の目的は、撮影映像に対する正
確な位置情報を撮影映像に重畳して表示できる映像提示
システムを提供することにある。
It is another object of the present invention to provide a video presentation system capable of displaying accurate position information on a captured video superimposed on the captured video.

【0009】本発明の更に他の目的は、移動する対象物
の撮影映像に地図情報を重畳することにより、対象物の
探索,追尾における位置確認を容易に行える映像提示シ
ステムを提供することにある。
Still another object of the present invention is to provide a video presenting system which can easily search and track a target by superimposing map information on a photographed video of a moving target. .

【0010】[0010]

【課題を解決するための手段】請求項1に係る映像表示
システムは、カメラで撮影した映像を提示するシステム
において、撮影を行うカメラの3次元位置,3次元姿勢
及び画角を検出する検出手段と、3次元の地図データを
格納している格納手段と、該格納手段に格納されている
3次元の地図データを前記検出手段の検出結果に基づき
透視変換して、撮影映像に応じた地図データを獲得する
手段と、獲得した地図データを前記カメラでの撮影映像
と共に表示する手段とを備えることを特徴とする。
According to a first aspect of the present invention, there is provided an image display system for detecting a three-dimensional position, a three-dimensional posture, and an angle of view of a camera to be photographed in a system for presenting an image photographed by a camera. And storage means for storing three-dimensional map data, and perspective conversion of the three-dimensional map data stored in the storage means based on the detection result of the detection means, and map data corresponding to the photographed image. And a means for displaying the acquired map data together with the image captured by the camera.

【0011】請求項2に係る映像表示システムは、飛行
体に備えられるカメラと、該飛行体に備えられ、該カメ
ラの3次元位置,3次元姿勢及び画角を検出する検出手
段と、前記飛行体に備えられ、3次元の地図データを格
納している格納手段と、前記飛行体に備えられ、該格納
手段に格納されている3次元の地図データを前記検出手
段の検出結果に基づき透視変換して、前記カメラでの撮
影映像に応じた地図データを獲得する手段と、前記飛行
体に備えられ、獲得した地図データを前記カメラでの撮
影映像と共に表示する手段とを備えることを特徴とす
る。
According to a second aspect of the present invention, there is provided an image display system, comprising: a camera provided on the flying object; detecting means provided on the flying object for detecting a three-dimensional position, a three-dimensional attitude and an angle of view of the camera; Storage means provided on the body for storing three-dimensional map data; and three-dimensional map data provided on the flying body and stored in the storage means based on the detection result of the detection means. And means for acquiring map data according to the image captured by the camera, and means provided on the flying object and displaying the acquired map data together with the image captured by the camera. .

【0012】請求項3に係る映像表示システムは、飛行
体に備えられるカメラと、該飛行体に備えられ、該カメ
ラの3次元位置,3次元姿勢及び画角を検出する検出手
段と、前記飛行体に備えられ、前記カメラでの撮影映像
のデータ及び前記検出手段の検出結果のデータを地上に
送信する送信手段と、該送信手段からの送信データを受
信する受信手段と、3次元の地図データを格納している
格納手段と、該格納手段に格納されている3次元の地図
データを前記検出手段の検出結果に基づき透視変換し
て、前記カメラでの撮影映像に応じた地図データを獲得
する手段と、獲得した地図データを前記カメラでの撮影
映像と共に表示する手段とを備えることを特徴とする。
According to a third aspect of the present invention, there is provided an image display system, comprising: a camera provided in the flying object; a detecting means provided in the flying object to detect a three-dimensional position, a three-dimensional attitude, and an angle of view of the camera; Transmitting means provided on the body for transmitting the data of the image captured by the camera and the data of the detection result of the detecting means to the ground, receiving means for receiving the transmitted data from the transmitting means, and three-dimensional map data , And perspectively transforms the three-dimensional map data stored in the storage means based on the detection result of the detection means to obtain map data corresponding to a video taken by the camera. Means, and means for displaying the acquired map data together with the video taken by the camera.

【0013】請求項4に係る映像表示システムは、定位
置に回転自在に設けられるカメラと、該カメラの3次元
姿勢及び画角を検出する検出手段と、3次元の地図デー
タを格納している格納手段と、該格納手段に格納されて
いる3次元の地図データを前記検出手段の検出結果に基
づき透視変換して、前記カメラでの撮影映像に応じた地
図データを獲得する手段と、獲得した地図データを前記
カメラでの撮影映像と共に表示する手段とを備えること
を特徴とする。
A video display system according to a fourth aspect of the present invention stores a camera rotatably provided at a fixed position, detection means for detecting a three-dimensional attitude and an angle of view of the camera, and three-dimensional map data. A storage unit, and a unit for performing a perspective transformation of the three-dimensional map data stored in the storage unit based on the detection result of the detection unit to obtain map data corresponding to a video image captured by the camera. Means for displaying the map data together with the video taken by the camera.

【0014】請求項5に係る映像表示システムは、移動
する対象物を含んでカメラで撮影した映像を提示するシ
ステムにおいて、前記対象物に取り付けられてその対象
物の3次元位置を同定する位置同定手段と、得られた位
置同定情報を発信する発信手段と、撮影を行うカメラの
3次元位置,3次元姿勢及び画角を検出する検出手段
と、3次元の地図データを格納している格納手段と、該
格納手段に格納されている3次元の地図データを前記検
出手段の検出結果に基づき透視変換して、撮影映像に応
じた地図データを獲得する手段と、獲得した地図データ
を前記カメラでの前記対象物を含む撮影映像と共に表示
する手段とを備えることを特徴とする。
According to a fifth aspect of the present invention, there is provided an image display system for presenting an image captured by a camera including a moving object, wherein the position identification is performed on the object to identify a three-dimensional position of the object. Means, transmitting means for transmitting the obtained position identification information, detecting means for detecting the three-dimensional position, three-dimensional attitude and angle of view of the camera for photographing, and storage means for storing three-dimensional map data Means for perspective-transforming the three-dimensional map data stored in the storage means based on the detection result of the detection means to obtain map data corresponding to the photographed video; and obtaining the obtained map data by the camera. Means for displaying the image together with the photographed image including the object.

【0015】請求項6に係る映像表示システムは、請求
項1,4または5の何れかにおいて、前記カメラは、空
中撮影を行うカメラであることを特徴とする。
A video display system according to a sixth aspect is characterized in that, in any one of the first, fourth and fifth aspects, the camera is a camera that performs aerial photography.

【0016】請求項7に係る映像表示システムは、請求
項1,4または5の何れかにおいて、前記カメラは、水
中撮影を行うカメラであることを特徴とする。
According to a seventh aspect of the present invention, in the video display system according to any one of the first to fourth aspects, the camera is a camera that performs underwater photography.

【0017】請求項8に係る映像表示システムは、請求
項1〜7の何れかにおいて、前記検出手段の検出結果の
データと前記カメラでの撮影映像のデータとを記録する
手段を更に備えることを特徴とする。
An image display system according to an eighth aspect of the present invention, according to any one of the first to seventh aspects, further comprises means for recording data of a detection result of the detection means and data of an image captured by the camera. Features.

【0018】本発明の映像提示システムでは、カメラの
撮影条件を検出手段にて検出し、その検出結果に基づい
て該当する3次元の地図データを透視変換して表示用の
地図データを得、カメラによる撮影映像を表示する際に
その地図データを重畳して表示する。よって、カメラ映
像の情報価値を高めることができる。本発明では、市町
村の地名及び境界,目印となる建造物等の地図情報を、
撮影映像にリアルタイムで同時に表示することができ、
例えば、飛行体を用いた災害発生時の中継報道におい
て、従来では発生していた地名,方向の誤報を未然に防
ぐ。また、撮影現場の位置情報を一目瞭然で視聴者に提
供できる。
In the video presenting system of the present invention, the photographing conditions of the camera are detected by the detection means, and the corresponding three-dimensional map data is perspective-transformed based on the detection result to obtain map data for display. When the photographed video is displayed, the map data is superimposed and displayed. Therefore, the information value of the camera image can be increased. In the present invention, map information such as a place name and a boundary of a municipal village, a building serving as a landmark,
It can be displayed in real time at the same time on the shot video,
For example, in a broadcast report at the time of occurrence of a disaster using a flying object, misinformation of the place name and direction, which has conventionally occurred, is prevented. In addition, the position information of the shooting site can be provided to the viewer at a glance.

【0019】なお、撮影するカメラは、軽飛行機,ヘリ
コプター,気球等の飛行体に搭載されて飛行体と共に移
動する空撮用カメラであっても良いし、また、高層ビ
ル,塔等の建築物に固設された定点カメラであっても良
いし、更に、水中に設けた防水仕様したカメラであって
も良い。
The camera for photographing may be an aerial photographing camera mounted on a flying object such as a light aircraft, helicopter, balloon, etc., and moving with the flying object, or a building such as a high-rise building or a tower. The camera may be a fixed-point camera fixed to the camera or a waterproof camera provided underwater.

【0020】カメラに加えて前記検出手段を飛行体に搭
載し、前記格納手段,獲得手段及び表示手段は地上に設
置しておき、カメラによる撮像データ及び検出手段での
検出結果を飛行体から地上に送信し、地図情報が重畳さ
れた実写の撮影映像を地上にて見るようにしても良い。
または、カメラに加えて前記検出手段,格納手段,獲得
手段及び表示手段の全てを飛行体に搭載しておけば、地
図情報が重畳された実写の撮影映像を飛行体の内部にて
見ることが可能である。勿論、前記格納手段,獲得手段
及び表示手段を、飛行体内及び地上の何れにも備えてお
いても良いことは言うまでもない。
The detecting means is mounted on the flying object in addition to the camera, and the storing means, the obtaining means and the displaying means are installed on the ground, and the image data obtained by the camera and the detection result by the detecting means are transferred from the flying object to the ground. And the photographed video of the actual photograph on which the map information is superimposed may be viewed on the ground.
Alternatively, if all of the detection means, storage means, acquisition means, and display means are mounted on the flying object in addition to the camera, the photographed image of the actual photograph on which the map information is superimposed can be viewed inside the flying object. It is possible. Of course, it goes without saying that the storage means, the acquisition means, and the display means may be provided both in the flying body and on the ground.

【0021】本発明の他の映像提示システムは、上述し
た検出手段,格納手段,獲得手段及び表示手段に加え
て、移動する対象物に取り付けられてその対象物の3次
元位置を同定する位置同定手段と、得られた位置情報を
発信する発信手段とを更に備える。移動する対象物の位
置情報が発信されると、その位置情報に応じて飛行体に
て対象物を探索してその存在を確認し、その後対象物の
追尾を行う。このようにすれば、地図情報が重畳された
実写の撮影映像上で対象物の視覚的な探索,追尾,位置
確認が可能である。
Another image presenting system according to the present invention, in addition to the above-described detection means, storage means, acquisition means and display means, is a position identification which is attached to a moving object and identifies a three-dimensional position of the object. Means for transmitting the obtained position information. When the position information of the moving object is transmitted, the flying object searches for the object according to the position information, confirms its existence, and then tracks the object. In this way, it is possible to visually search, track, and confirm the position of a target object on a photographed image of a real image on which map information is superimposed.

【0022】また、これらの映像提示システムにおい
て、カメラでの撮影映像データと前記検出手段の検出結
果とを記録する手段を更に備える。検出結果の情報及び
撮影映像のデータを記録して残しておけば、後の種々の
解析処理の情報源として利用可能である。
Further, in these video presenting systems, there is further provided a means for recording video data captured by a camera and a detection result of the detection means. If the information of the detection result and the data of the photographed video are recorded and left, they can be used as information sources for various analysis processes later.

【0023】[0023]

【発明の実施の形態】以下、本発明をその実施の形態を
示す図面を参照して具体的に説明する。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS The present invention will be specifically described below with reference to the drawings showing the embodiments.

【0024】図1は本発明の映像提示システムの概要を
示す模式図であり、ヘリコプター30には撮影用のカメラ
31と、不安定な挙動を呈するカメラ31の3次元位置,3
次元姿勢及び画角を検出するためのGPS,ジャイロ,
画角エンコーダ等を含むセンサ32とが搭載されている。
ヘリコプター30が飛行しながら、カメラ31にて得られる
映像データとセンサ32にて検知された各種のカメラ情報
とが、逐次地上に向けて送信され、地上局33の受信機34
で受信される。カメラ情報はCG(Computer Graphics)
ユニット35に送られる。CGユニット35にて、予め記憶
しておいた3次元の地図データをそのカメラ情報に基づ
き透視変換してCG地図画像データを得る。得られた地
図画像データはディスプレイ36に送られる。また、受信
された撮影映像データもディスプレイ36に送られる。そ
して、ディスプレイ36は、カメラ31で得られた実写の撮
影映像に地図情報を重畳させた態様での画像表示を行
う。
FIG. 1 is a schematic diagram showing an outline of a video presenting system according to the present invention.
31 and the three-dimensional position of the camera 31 exhibiting unstable behavior.
GPS, gyro, to detect 3D attitude and angle of view
A sensor 32 including an angle of view encoder and the like is mounted.
While the helicopter 30 flies, the image data obtained by the camera 31 and various types of camera information detected by the sensor 32 are sequentially transmitted to the ground, and the receiver 34 of the ground station 33
Received at. Camera information is CG (Computer Graphics)
Sent to unit 35. In the CG unit 35, the three-dimensional map data stored in advance is perspective-transformed based on the camera information to obtain CG map image data. The obtained map image data is sent to the display 36. The received captured video data is also sent to the display 36. Then, the display 36 displays an image in a mode in which the map information is superimposed on the actual photographed video obtained by the camera 31.

【0025】また、地上を走行する自動車37には、例え
ば通信機能を組み込んだGPSが取り付けられており、
自動車37の3次元位置情報のデータが地上局33に送られ
る。ヘリコプター30に搭載したカメラ31を回転させて、
その撮影領域に自動車37が存在すれば、ディスプレイ36
に自動車37の位置が表示される。そこで、その自動車37
の方向へリコプター30を飛行していくと、地図情報が重
畳されている実写映像の中で自動車37を視認でき、自動
車37をトラッキングしていくことが可能である。
The vehicle 37 running on the ground is equipped with, for example, a GPS incorporating a communication function.
The data of the three-dimensional position information of the automobile 37 is sent to the ground station 33. By rotating the camera 31 mounted on the helicopter 30,
If there is a car 37 in the shooting area, the display 36
Displays the position of the car 37. So the car 37
The vehicle 37 can be visually recognized in the photographed image on which the map information is superimposed, and the vehicle 37 can be tracked.

【0026】次に、本発明の映像提示システムの具体例
について詳述する。 (第1の実施の形態)図2は、本発明の映像提示システ
ム(第1の実施の形態)の構成例を示す模式図である。
本発明の映像提示システムにおける構成部材は、軽飛行
機,ヘリコプター,気球等の飛行体に搭載される部材
と、地上の放送局に設けられる部材とに分けられる。
Next, a specific example of the video presentation system of the present invention will be described in detail. (First Embodiment) FIG. 2 is a schematic diagram showing a configuration example of a video presentation system (first embodiment) of the present invention.
The components in the video presentation system of the present invention are classified into members mounted on a flying object such as a light aircraft, helicopter, balloon, and the like, and members provided on a terrestrial broadcasting station.

【0027】飛行体には、カメラ1と、カメラ1の3次
元姿勢検出用のジャイロセンサ2と、カメラ1の画角検
出用エンコーダ3と、ジャイロセンサ2の検出信号を姿
勢データに変換する信号変換器4と、画角検出用エンコ
ーダ3の検出信号を画角値データに変換する信号変換器
5と、カメラ1の位置検出用のGPS装置6と、GPS
受信用のアンテナ7と、GPS誤差補正装置8と、制御
用コンピュータ9と、モニタTV10と、データエンコー
ダ11と、送信装置12とを搭載している。一方、地上の放
送局には、受信装置21と、データデコーダ22と、ホスト
コンピュータ23と、内部または外部の記憶媒体24と、記
録装置25と、映像編集装置26とが設けられている。
The flying object includes a camera 1, a gyro sensor 2 for detecting a three-dimensional attitude of the camera 1, an encoder 3 for detecting an angle of view of the camera 1, and a signal for converting a detection signal of the gyro sensor 2 into attitude data. A converter 4, a signal converter 5 for converting a detection signal of the angle-of-view detection encoder 3 into angle-of-view value data, a GPS device 6 for detecting a position of the camera 1, a GPS
A receiving antenna 7, a GPS error correcting device 8, a control computer 9, a monitor TV 10, a data encoder 11, and a transmitting device 12 are mounted. On the other hand, a terrestrial broadcasting station is provided with a receiving device 21, a data decoder 22, a host computer 23, an internal or external storage medium 24, a recording device 25, and a video editing device 26.

【0028】カメラ1は、一般的なTVカメラまたは放
送用のビデオカメラであり、空中撮影して得られる映像
信号をモニタTV10及びデータエンコーダ11へ送出す
る。
The camera 1 is a general TV camera or a broadcast video camera, and sends a video signal obtained by aerial photography to a monitor TV 10 and a data encoder 11.

【0029】カメラ1には、その3次元姿勢を検出する
ためのジャイロセンサ2が取り付けられており、ジャイ
ロセンサ2は、カメラ1のヘッド角(カメラ1の東西南
北の方向),ピッチ角(カメラ1の上下方向の傾き),
バンク角(カメラ1の左右方向の傾き)を検出して、そ
の検出信号を信号変換器4へ出力する。信号変換器4
は、検出信号をHPBデータ(H(Head) :カメラ1の
方向データ,P(Pitch):カメラ1の上下方向の傾きデ
ータ,B(Bank) :カメラ1の左右方向の傾きデータ)
に変換して制御用コンピュータ9へ出力する。このよう
なカメラ1の姿勢を検出するジャイロ装置としては、例
えば、データテック社製ジャイロミニdt,トリンブル・
ジャパン社のTANS Vector TM等を使用できる。
A gyro sensor 2 for detecting the three-dimensional attitude of the camera 1 is attached to the camera 1. The gyro sensor 2 includes a head angle (a direction east, west, north and south of the camera 1) and a pitch angle (a camera angle). 1 tilt up and down),
The bank angle (the inclination of the camera 1 in the left-right direction) is detected, and the detection signal is output to the signal converter 4. Signal converter 4
Indicates the detection signal as HPB data (H (Head): direction data of camera 1, P (Pitch): tilt data of camera 1 in the vertical direction, B (Bank): tilt data of camera 1 in the horizontal direction)
And outputs it to the control computer 9. As such a gyro device for detecting the attitude of the camera 1, for example, a gyro mini dt manufactured by Datatec, Trimble
Japan's TANS Vector can be used.

【0030】また、カメラ1のレンズに付属するズーム
リングには、画角検出用エンコーダ3が取り付けられて
おり、カメラ1のズームレンズの回転角を検出して検出
信号を信号変換器5へ出力する。信号変換器5は、検出
信号をFVデータ(FV(Focusing Value):カメラ1
のレンズの焦点距離)に変換して制御用コンピュータ9
へ出力する。このようなカメラ1のズームレンズの画角
値を検出するエンコーダ装置としては、例えば、コスメ
イト社製レンズ位置検出器を使用できる。
An encoder 3 for angle of view detection is attached to a zoom ring attached to the lens of the camera 1, detects the rotation angle of the zoom lens of the camera 1, and outputs a detection signal to the signal converter 5. I do. The signal converter 5 converts the detection signal into FV data (FV (Focusing Value): camera 1).
The focal length of the lens) and the control computer 9
Output to As an encoder device for detecting the angle of view of the zoom lens of the camera 1, for example, a lens position detector manufactured by Cosmate can be used.

【0031】更に、カメラ1の近傍には、カーナビゲー
ションシステムに汎用されている、人工衛星を用いた位
置検出装置であるGPS装置6が設けられており、GP
S装置6は、アンテナ7からの受信信号(GPSデー
タ)に従ってカメラ1の3次元絶対位置を求めて、XY
Z・DR・DTデータ(XYZ:カメラ1の位置デー
タ,DR:カメラ1の移動方向データ,DT:日付と時
刻のデータ)を制御用コンピュータ9へ出力する。な
お、この際、GPS誤差補正装置8はGPSデータの補
正データを受信しており、GPS装置6は、この補正デ
ータに基づいてアンテナ7からの受信信号を補正する。
このようなカメラ1の3次元位置を検出するGPS装置
としては、例えば、ソニー社製IPS-3000,トリンブル社
のSierraTM GPSチップセット等を使用できる。また、G
PS誤差補正装置8は、定期的な送信サービスを携帯電
話,FM等の放送サービスまたは無線機で受信可能であ
り、気象条件等によって大きくなりがちなGPSデータ
の誤差を1m以下に抑えることができる。
Further, in the vicinity of the camera 1, there is provided a GPS device 6, which is a position detecting device using an artificial satellite, which is generally used in a car navigation system,
The S device 6 obtains the three-dimensional absolute position of the camera 1 according to the received signal (GPS data) from the antenna 7 and
The Z / DR / DT data (XYZ: position data of the camera 1, DR: moving direction data of the camera 1, DT: date and time data) are output to the control computer 9. At this time, the GPS error correction device 8 has received the correction data of the GPS data, and the GPS device 6 corrects the received signal from the antenna 7 based on the correction data.
As such a GPS device for detecting the three-dimensional position of the camera 1, for example, IPS-3000 manufactured by Sony Corporation, Sierra GPS chipset manufactured by Trimble Corporation can be used. G
The PS error correction device 8 can receive a periodic transmission service by a broadcasting service such as a mobile phone or FM or a wireless device, and can suppress an error of GPS data, which tends to be large due to weather conditions or the like, to 1 m or less. .

【0032】以上のようなジャイロセンサ2,画角検出
用エンコーダ3,信号変換器4,信号変換器5,GPS
装置6,アンテナ7及びGPS誤差補正装置8にて、カ
メラ位置・姿勢計測装置を構成している。そして、カメ
ラ位置・姿勢計測装置からの各々のデータは、制御用コ
ンピュータ9へ転送され、そこで統合処理される。
The gyro sensor 2, the angle of view encoder 3, the signal converter 4, the signal converter 5, and the GPS
The device 6, the antenna 7, and the GPS error correction device 8 constitute a camera position / posture measuring device. Then, each data from the camera position / posture measuring device is transferred to the control computer 9 and integrated there.

【0033】制御用コンピュータ9は、上述したカメラ
位置・姿勢計測装置で得られたパラメータ(XYZデー
タ,HPBデータ,FVデータ)から、コンピュータ内
の仮想の3次元地図空間における視点のパラメータを算
出する。算出する視点位置のパラメータは、カメラ1の
位置パラメータと同様に、視点座標(X,Y,Z)、視
軸方向(ヘッド角H,ピッチ角P,バンク角B)、画角
(FV)の7次元で定義される。制御用コンピュータ9
は、内部に記憶している3次元の地図情報を、算出した
視点位置のパラメータ結果に従って透視変換し、変換し
た地図情報(方位,市町村名及び境界)をモニタTV10
へ送出する。この3次元の地図データを透視変換するた
めのソフトウェアとしては、例えばプラスワン社製ソフ
トウェア「VPX」を使用できる。
The control computer 9 calculates the parameters of the viewpoint in a virtual three-dimensional map space in the computer from the parameters (XYZ data, HPB data, FV data) obtained by the camera position / posture measuring device described above. . Like the position parameters of the camera 1, the calculated viewpoint position parameters include the viewpoint coordinates (X, Y, Z), the visual axis direction (head angle H, pitch angle P, bank angle B), and view angle (FV). Defined in seven dimensions. Control computer 9
Performs perspective transformation of the three-dimensional map information stored therein in accordance with the parameter result of the calculated viewpoint position, and displays the converted map information (direction, municipal name and boundary) on the monitor TV10.
Send to As software for performing a perspective transformation of the three-dimensional map data, for example, software “VPX” manufactured by Plus One can be used.

【0034】モニタTV10は、映像編集装置を内蔵して
おり、カメラ1で得られた映像に制御用コンピュータ9
からの地図情報を重畳させた態様で画像表示し、飛行体
の乗員に提示する。地図情報の表示に要する時間は、処
理される地図情報のデータ量に比例して増大する。従っ
て、リアルタイム性を損なわないように、モニタTV10
へ送出する地図情報は必要に応じて取捨選択する。この
ため、GUI(Graphical User Interface:グラフィカ
ル・ユーザ・インターフェース)等を用いて対話性に優
れた編集機能が必要である。
The monitor TV 10 has a built-in video editing device, and controls the computer 9 to control the video obtained by the camera 1.
Is displayed in a form in which the map information from is superimposed and presented to the occupant of the flying object. The time required for displaying the map information increases in proportion to the data amount of the processed map information. Therefore, monitor TV 10
The map information to be sent to is selected as necessary. For this reason, an editing function having excellent interactivity using a GUI (Graphical User Interface) or the like is required.

【0035】また、制御用コンピュータ9は、視点位置
のパラメータデータ(XYZ,HPB,FV)と上述の
DR・DTデータとをシリアルデータの形態でデータエ
ンコーダ11へ送出する。データエンコーダ11は、制御用
コンピュータ9からのシリアルデータとカメラ1からの
映像データとを符号化して、その符号化データを送信装
置12へ出力する。送信装置12は、符号化データを電波信
号に変換してそれを地上の放送局へ送信する。
Further, the control computer 9 sends the parameter data (XYZ, HPB, FV) of the viewpoint position and the above-mentioned DR / DT data to the data encoder 11 in the form of serial data. The data encoder 11 encodes serial data from the control computer 9 and video data from the camera 1, and outputs the encoded data to the transmission device 12. The transmitting device 12 converts the encoded data into a radio signal and transmits it to a terrestrial broadcasting station.

【0036】なお、制御用コンピュータ9は、飛行体に
搭載した各部材用のキャリブレーションソフトウェア及
び誤差修正ソフトウェアを持っており、ジャイロセンサ
2,画角検出用エンコーダ3等の初期設定,誤差修正を
行っている。
The control computer 9 has calibration software and error correction software for each member mounted on the flying object, and performs initial setting and error correction of the gyro sensor 2, the angle of view detection encoder 3, and the like. Is going.

【0037】受信装置21は、送信装置12から送信された
電波信号を受信し、データデコーダ22及び記録装置25へ
出力する。データデコーダ22は、符号化データを、映像
データと視点位置のパラメータデータ(XYZ,HP
B,FV)及びDR・DTデータとに復号し、映像デー
タを映像編集装置26へ送出し、そのパラメータデータ
(XYZ,HPB,FV)及びDR・DTデータをホス
トコンピュータ23へ送出する。このデータエンコーダ11
/データデコーダ22としては、例えばプロスパー電子製
VX-50T/Rを使用できる。
The receiving device 21 receives the radio signal transmitted from the transmitting device 12 and outputs it to the data decoder 22 and the recording device 25. The data decoder 22 converts the encoded data into video data and parameter data (XYZ, HP
B, FV) and DR / DT data, and sends the video data to the video editing device 26, and sends its parameter data (XYZ, HPB, FV) and DR / DT data to the host computer 23. This data encoder 11
/ Data decoder 22 is, for example, manufactured by Prosper Electronics.
VX-50T / R can be used.

【0038】ホストコンピュータ23は、入力されたパラ
メータデータ(XYZ,HPB,FV)から、コンピュ
ータ内の仮想の3次元地図空間における視点のパラメー
タを算出する。算出する視点位置のパラメータは、上述
した制御用コンピュータ9の場合と同じである。ホスト
コンピュータ23は、CD−ROM,HD,MOディスク
等からなる外部記憶媒体24に記憶している3次元の地図
情報を、算出した視点位置のパラメータ結果に従って透
視変換し、得られた地図情報(方位,市町村名及び境
界,建造物,鉄道,道路,河川,湖沼,山頂)をCG映
像データとして映像編集装置26へ送出する。この3次元
の地図データを透視変換するためのソフトウェアとして
は、制御用コンピュータ9と同様に、プラスワン社製ソ
フトウェア「VPX」を使用できる。
The host computer 23 calculates a viewpoint parameter in a virtual three-dimensional map space in the computer from the input parameter data (XYZ, HPB, FV). The parameters of the viewpoint position to be calculated are the same as in the case of the control computer 9 described above. The host computer 23 performs perspective transformation of the three-dimensional map information stored in the external storage medium 24 such as a CD-ROM, HD, or MO disk according to the calculated viewpoint position parameter result, and obtains the obtained map information ( The direction, municipalities and boundaries, buildings, railways, roads, rivers, lakes, marshes, and mountain peaks) are sent to the video editing device 26 as CG video data. As software for performing a perspective transformation of the three-dimensional map data, similarly to the control computer 9, software "VPX" manufactured by Plus One can be used.

【0039】映像編集装置26は、データデコーダ22から
の実写した映像データと、ホストコンピュータ23からの
地図情報を示すCG映像データとを合成し、その合成映
像データを映像送出装置またはVTRへ出力する。記録
装置25は、受信装置21で受信された信号をビデオテープ
等に記録する。
The video editing device 26 combines the video data actually shot from the data decoder 22 with the CG video data indicating the map information from the host computer 23, and outputs the synthesized video data to the video transmission device or VTR. . The recording device 25 records the signal received by the receiving device 21 on a video tape or the like.

【0040】次に、動作について説明する。まず、ジャ
イロセンサ2,画角検出用エンコーダ3等の初期設定
が、制御用コンピュータ9のキャリブレーションソフト
ウェアにより実行される。カメラ1で空中から地上が撮
影され、その映像信号がモニタTV10及びデータエンコ
ーダ11へ送出される。撮影期間中に、カメラ1の姿勢が
ジャイロセンサ2で検出され、HPBデータが信号変換
器4から制御用コンピュータ9へ出力され、また、カメ
ラ1のズームレンズの画角が画角検出用エンコーダ3で
検出され、FVデータが信号変換器5から制御用コンピ
ュータ9へ出力され、更に、カメラ1の3次元位置を示
すXYZデータとカメラ1の移動方向を示すDRデータ
と撮影時の日時を示すDTデータとがGPS装置6から
制御用コンピュータ9へ出力される。
Next, the operation will be described. First, initial settings of the gyro sensor 2, the angle-of-view detection encoder 3, and the like are executed by the calibration software of the control computer 9. The ground is photographed from the air by the camera 1, and the video signal is sent to the monitor TV 10 and the data encoder 11. During the shooting period, the attitude of the camera 1 is detected by the gyro sensor 2, the HPB data is output from the signal converter 4 to the control computer 9, and the angle of view of the zoom lens of the camera 1 is determined by the angle of view encoder 3. And the FV data is output from the signal converter 5 to the control computer 9, and further, XYZ data indicating the three-dimensional position of the camera 1, DR data indicating the moving direction of the camera 1, and DT indicating the date and time of shooting. The data is output from the GPS device 6 to the control computer 9.

【0041】制御用コンピュータ9において、これらの
カメラ位置・姿勢計測装置から得られたパラメータデー
タ(XYZデータ,HPBデータ,FVデータ)に基づ
き、コンピュータ内の仮想の3次元地図空間における7
次元で定義される視点のパラメータが算出される。算出
した視点のパラメータに応じて、内部に記憶している3
次元の地図情報がその視点から透視変換され、得られた
地図情報(方位,市町村名及び境界)がモニタTV10へ
送出される。そして、カメラ1で撮影された映像にこの
地図情報を重畳してなる画像がモニタTV10に表示され
る。
In the control computer 9, based on the parameter data (XYZ data, HPB data, FV data) obtained from the camera position / posture measuring device, the control data in the virtual three-dimensional map space in the computer is obtained.
A viewpoint parameter defined by the dimension is calculated. 3 stored internally according to the calculated viewpoint parameters
The dimensional map information is perspectively transformed from the viewpoint, and the obtained map information (direction, municipal name, and boundary) is sent to the monitor TV 10. Then, an image obtained by superimposing the map information on the video taken by the camera 1 is displayed on the monitor TV10.

【0042】図3は、モニタTV10に表示される画像の
一例を示す模式図である。撮影映像に対して、東西南北
を示す方位の記号、市町村の名称(A市とB町)、市町
村の境界(一点鎖線で示すA市・B町の境界)が重畳し
て表示されている。そして、パイロットまたは放送局の
記者は、このモニタTV10の重畳画像を見ながら現場の
状況を中継する。実際の風景に透明な地図を重ねたよう
な画像をモニタTV10がパイロットまたは記者に提示す
るので、現場の地理に詳しくなくても、中継時に彼らが
間違った地理情報を報知することがない。
FIG. 3 is a schematic diagram showing an example of an image displayed on the monitor TV10. A direction sign indicating east, west, north and south, names of municipalities (A city and B town), and boundaries of municipalities (boundaries between A city and B town indicated by a dashed line) are superimposed and displayed on the captured video. Then, the pilot or the reporter of the broadcasting station relays the situation at the site while watching the superimposed image on the monitor TV10. Since the monitor TV 10 presents an image as if a transparent map is superimposed on the actual scenery to the pilot or reporter, they do not report wrong geographical information when relaying, even if they are not familiar with the geography of the site.

【0043】また、視点位置のパラメータデータ(XY
Z,HPB,FV)とDR・DTデータとが、制御用コ
ンピュータ9からデータエンコーダ11へ送出され、符号
化データに変換される。その符号化データは、送信装置
12へ出力されて通信可能な電波信号に変換され、その電
波信号が地上の放送局へ送信される。
The parameter data (XY) of the viewpoint position
Z, HPB, FV) and DR / DT data are sent from the control computer 9 to the data encoder 11 and converted into encoded data. The encoded data is transmitted to the transmitting device
The signal is output to 12 and converted into a communicable radio signal, and the radio signal is transmitted to a terrestrial broadcast station.

【0044】地上の放送局では、飛行体からの電波信号
が受信装置21で受信されて元の符号化データに変換され
る。その符号化データはデータデコーダ22で復号化処理
が施されて撮影した元の映像データと視点位置のパラメ
ータデータ(XYZ,HPB,FV)及びDR・DTデ
ータとに変換される。
In the terrestrial broadcasting station, the radio signal from the flying object is received by the receiver 21 and converted into the original coded data. The coded data is decoded by the data decoder 22 and converted into original video data captured and parameter data (XYZ, HPB, FV) and DR / DT data of the viewpoint position.

【0045】ホストコンピュータ23では、パラメータデ
ータ(XYZ,HPB,FV)が入力され、これに基づ
きコンピュータ内の仮想の3次元地図空間における視点
のパラメータが算出される。算出したパラメータに従っ
て、外部記憶媒体24に記憶している3次元の地図情報が
その視点から透視変換され、得られた地図情報が映像編
集装置26へ送出される。
In the host computer 23, parameter data (XYZ, HPB, FV) is input, and based on this, the parameters of the viewpoint in the virtual three-dimensional map space in the computer are calculated. According to the calculated parameters, the three-dimensional map information stored in the external storage medium 24 is perspective-transformed from its viewpoint, and the obtained map information is sent to the video editing device 26.

【0046】映像編集装置26へは元の映像データがデー
タデコーダ22から送出され、その映像データとホストコ
ンピュータ23からの地図情報とが合成され、その合成映
像データが映像送出装置またはVTRへ出力される。V
TRではこの合成映像データが記録される。
The original video data is sent from the data decoder 22 to the video editing device 26, the video data is combined with the map information from the host computer 23, and the synthesized video data is output to the video sending device or VTR. You. V
This composite video data is recorded in the TR.

【0047】また、この合成映像データに相当する映像
信号が映像送出装置から家庭用テレビジョンの放映信号
として出力される。そして、この合成映像データに応じ
た画像が各家庭のテレビジョンに表示される。図4は家
庭のテレビジョンに表示される画像の一例を示す模式図
である。撮影映像に対して、方位の記号、市町村の名
称、市町村の境界に加えて、建造物(C橋)、地形の名
称(D山,E山,F川,G湾)の情報も重畳して表示さ
れている。
A video signal corresponding to the composite video data is output from the video transmission device as a broadcast signal of a home television. Then, an image corresponding to the composite video data is displayed on the television of each home. FIG. 4 is a schematic diagram showing an example of an image displayed on a television at home. In addition to the azimuth sign, the name of the municipalities, and the boundaries of the municipalities, information of the building (C bridge) and the names of the terrain (Mountain D, Mount E, F river, G bay) are also superimposed on the captured video. Is displayed.

【0048】また、受信装置21で受信された、映像デー
タ,視点のパラメータデータ及びDR・DTデータを含
む信号が、記録装置25にも送られて記録される。記録さ
れたデータは、後に多角的な解析処理を行う際に使用さ
れる。例えば、実写した映像から撮影時の状況を示す地
図を作成する処理等が考えられる。なお、解析処理に必
要なデータはビデオテープ等に一旦記録しておくので、
撮影時にリアルタイムでこのような解析処理を行う必要
がないことは勿論である。
A signal including video data, viewpoint parameter data and DR / DT data received by the receiving device 21 is also sent to the recording device 25 and recorded. The recorded data is used later when performing multi-faceted analysis processing. For example, a process of creating a map indicating the situation at the time of shooting from a video image of a real shot can be considered. In addition, since the data necessary for the analysis process is temporarily recorded on a video tape, etc.,
Of course, it is not necessary to perform such analysis processing in real time at the time of photographing.

【0049】以上のような映像提示システムでは、空中
撮影を行う不安定な挙動のカメラ1の3次元位置・姿勢
及び画角をリアルタイムで計測し、その結果に基づいて
透視変換された3次元地図データの画像を、撮影映像に
合わせてリアルタイムで表示するので、撮影されている
状況を誤りなく伝達することができる。また、撮影時の
カメラ1の3次元位置・姿勢及び画角の数値情報を撮影
映像と共にリアルタイムで記録しておくので、後の撮影
映像の解析時にこれらの情報を有効に利用できる。
In the above-described image presentation system, the three-dimensional position, orientation, and angle of view of the camera 1 having an unstable behavior for performing aerial photography are measured in real time, and a three-dimensional map that is perspective-transformed based on the result is measured. Since the image of the data is displayed in real time in accordance with the photographed video, the photographed situation can be transmitted without error. Also, since numerical information of the three-dimensional position / posture and angle of view of the camera 1 at the time of photographing is recorded in real time together with the photographed image, such information can be used effectively when analyzing the photographed image later.

【0050】また、この映像提示システムは、地域的な
拡がりがある地震,山火事,水害,台風等の種々の災害
の報道用として視聴者に、より正確な情報をリアルタイ
ムで提供するだけでなく、今後確立が望まれている総合
的な災害情報システムのための早期の正確な情報収集手
段として、または、被害状況の把握,救済対策のための
情報収集手段として報道向け以外の用途にも大いに寄与
できる。
This video presentation system not only provides viewers with more accurate information in real time for reporting various types of disasters such as earthquakes, forest fires, floods, and typhoons that have a regional spread. As a means of collecting accurate information at an early stage for a comprehensive disaster information system that is expected to be established in the future, or as a means of collecting information for assessing the status of damage and taking remedial measures, it is also very useful for non-report uses. Can contribute.

【0051】以下、本発明において重要度が高い制御用
コンピュータ9及びホストコンピュータ23におけるソフ
トウェアの処理動作について説明する。図5,図6はそ
の処理動作の流れを示すフローチャートであり、図5は
初期設定動作を示し、図6は実際の処理動作(カメラ1
のデータ入力から地図データの描画処理までの動作)を
示す。
Hereinafter, the processing operation of software in the control computer 9 and the host computer 23 having high importance in the present invention will be described. 5 and 6 are flowcharts showing the flow of the processing operation. FIG. 5 shows the initial setting operation, and FIG. 6 shows the actual processing operation (camera 1).
From data input to map data drawing processing).

【0052】まず、図5を参照して初期動作について説
明する。プログラムが起動すると、種々の変数の初期化
を行った後(S1)、撮影現場である地域の地図データ
(都市データ,建造物データ等)を読み込む(S2)。
次いで、カメラ1のデータを初期化した後(S3)、基
準点の座標を入力する(S4)。ここで、基準点として
は、出発地点または現場における特定の地点等、その座
標が既知である地点が採用される。次に、カメラ1から
のデータ入力のサンプリング間隔を指定するためのタイ
マを設定する(S5)。この状態で、カメラ1のデータ
入力のイベント待ち状態となって初期動作は終了する。
First, the initial operation will be described with reference to FIG. When the program starts, various variables are initialized (S1), and map data (city data, building data, etc.) of the area where the photographing is performed is read (S2).
Next, after initializing the data of the camera 1 (S3), the coordinates of the reference point are input (S4). Here, as the reference point, a point whose coordinates are known, such as a departure point or a specific point on the site, is adopted. Next, a timer for specifying a sampling interval of data input from the camera 1 is set (S5). In this state, the camera 1 enters a data input event waiting state, and the initial operation ends.

【0053】次に、図6を参照して実際の処理動作につ
いて説明する。カメラ1のデータ入力のイベントが発生
するとそれを検知して(S11)、保存しておいた1秒前
の入力データから予想座標を計算する(S12)。予想座
標とは、後の地図データの描画処理に要する時間だけ経
過したときに予想されるカメラ1の位置座標である。求
めた予想座標と前回の予想座標とを比較し、その差が誤
差範囲内であるか否かを判定する(S13)。誤差範囲外
である場合には、カメラ1に対するカメラ位置・姿勢計
測装置の計測異常があったと判断して、その予想座標を
後の地図データの描画処理には使用せず、そのままリタ
ーンする。
Next, the actual processing operation will be described with reference to FIG. When the data input event of the camera 1 occurs, it is detected (S11), and the expected coordinates are calculated from the stored input data one second before (S12). The predicted coordinates are the position coordinates of the camera 1 that are predicted when the time required for the subsequent map data drawing processing has elapsed. The obtained predicted coordinates are compared with the previous predicted coordinates, and it is determined whether or not the difference is within an error range (S13). If it is out of the error range, it is determined that there is a measurement abnormality of the camera position / orientation measuring device with respect to the camera 1, and the predicted coordinates are not used for the subsequent map data drawing processing, and the process returns.

【0054】一方、誤差範囲内である場合には、その予
想座標をCG座標に変換する(S14)。そして、現在の
カメラ1の入力データを次回の1秒前の入力データとし
て保存する(S15)。次いで、CG映像データ描画のイ
ベントを発生し(S16)、視点に最も近い地図データを
検索してソートリストを作成する(S17)。画面表示と
遠近関係の情報を格納したZバッファとの内容をクリア
した後(S18)、地図データに基づいて描画処理を行う
(S19)。描画処理は、例えば、視点に近い位置からワ
イヤフレームで地形を描画、地区名を文字で描画、ワイ
ヤフレームで建造物を描画、ポリゴンで建造物を描画、
ポリゴンで地形を描画の順に行う。但し、カメラ1のデ
ータ入力のイベントが発生すると、描画処理を途中であ
っても強制的に終了して(S20)、リターンする。
On the other hand, if it is within the error range, the predicted coordinates are converted to CG coordinates (S14). Then, the current input data of the camera 1 is stored as the input data one second before the next time (S15). Next, an event of drawing CG video data is generated (S16), and map data closest to the viewpoint is searched to create a sort list (S17). After clearing the contents of the screen display and the Z buffer storing the information on the perspective relationship (S18), a drawing process is performed based on the map data (S19). The drawing process, for example, draws terrain with a wire frame from a position close to the viewpoint, draws the district name with characters, draws a building with a wire frame, draws a building with a polygon,
Perform terrain drawing in polygon order. However, when the data input event of the camera 1 occurs, the drawing process is forcibly terminated even if the drawing process is in progress (S20), and the process returns.

【0055】上述した処理動作において、カメラ1の予
想座標に基づいて地図データを描画するようにしている
ので、描画処理に伴うタイムラグを補償することがで
き、カメラ1の撮影映像に正確に合致したCG地図デー
タを常に表示することができる。また、カメラ1のデー
タ入力のイベントが発生すると、直ちに強制的に描画処
理を終了させるので、アニメーション並みの速度で地図
情報の表示が可能である。
In the above-described processing operation, the map data is drawn based on the predicted coordinates of the camera 1, so that the time lag associated with the drawing processing can be compensated, and the image data exactly matches the image captured by the camera 1. CG map data can always be displayed. In addition, when the event of the data input of the camera 1 occurs, the drawing process is forcibly terminated immediately, so that the map information can be displayed at the speed of the animation.

【0056】(第2の実施の形態)上述の第1の実施の
形態では、地図情報が重畳された実写映像を飛行体内の
モニタTV10でも見ることが可能なようにしたが、この
ような例では飛行体に搭載する器材が多くなるという問
題がある。また、現場の地理に詳しい人が飛行体に搭乗
している場合には、現場の状況は目視にて確認できるの
で、地図情報が重畳された実写映像の表示は不要である
ことが多い。よって、地図情報が重畳された実写映像の
表示を地上の基地局みとした例が、本発明の第2の実施
の形態の映像提示システムである。図7は、この映像提
示システム(第2の実施の形態)の構成例を示す模式図
である。
(Second Embodiment) In the above-described first embodiment, a real image on which map information is superimposed can be viewed on the monitor TV 10 in the flying body. Then, there is a problem that the equipment mounted on the flying object increases. In addition, when a person familiar with the geography of the site is boarding the flying object, the situation of the site can be visually checked, and in many cases, it is not necessary to display a photographed image on which map information is superimposed. Therefore, an example in which the display of a real image on which map information is superimposed is a base station on the ground is the image presentation system according to the second embodiment of the present invention. FIG. 7 is a schematic diagram showing a configuration example of this video presentation system (second embodiment).

【0057】図7において図2と同一部分には同一番号
を付してそれらの説明を省略する。第2の実施の形態の
構成では、飛行体内にモニタTVが設けられておらず、
カメラ1からの実写映像信号はデータエンコーダ11のみ
に送られる。また、制御用コンピュータ9は、ジャイロ
センサ2,画角検出用エンコーダ3,信号変換器4,信
号変換器5,GPS装置6,アンテナ7及びGPS誤差
補正装置8にて構成されるカメラ位置・姿勢計測装置か
らの各々のデータを統合するだけであり、第1の実施の
形態のように地図情報を得るような動作は行わない。
In FIG. 7, the same parts as those in FIG. 2 are denoted by the same reference numerals, and their description will be omitted. In the configuration of the second embodiment, the monitor is not provided in the flying body,
The actual video signal from the camera 1 is sent only to the data encoder 11. The control computer 9 includes a gyro sensor 2, an angle-of-view detection encoder 3, a signal converter 4, a signal converter 5, a GPS device 6, an antenna 7, and a GPS error correction device 8, It only integrates each data from the measuring device, and does not perform the operation of obtaining map information as in the first embodiment.

【0058】また、図7においてホストコンピュータ23
は、映像合成装置を内蔵しており、データデコーダ22で
復号された撮影条件のパラメータデータに基づいて得ら
れた地図情報を示すCG映像データと、データデコーダ
22で復号された実写映像データとがホストコンピュータ
23で合成され、その合成映像データがモニタTV27に出
力され、モニタTV27は、実写の映像に地図情報を重畳
させた態様で画像表示を行う。
In FIG. 7, the host computer 23
Includes a video synthesizing device, CG video data indicating map information obtained based on parameter data of shooting conditions decoded by the data decoder 22, and a data decoder.
The actual video data decoded in step 22 is the host computer
23, the combined video data is output to the monitor TV 27, and the monitor TV 27 performs image display in a mode in which map information is superimposed on a video of a real photograph.

【0059】なお、上述した第1,第2の実施の形態で
は、カメラ1を飛行体に搭載する場合について説明した
が、高層ビル,塔等の建築物の所定の場所に回転可能に
取り付けられているような定点カメラを使用するように
しても良い。このような場合には、カメラの3次元位置
は固定であるので、GPSは不要であり、カメラの3次
元姿勢及び画角を検出する検出手段として、ジャイロセ
ンサに代わるロータリエンコーダ及び飛行体の場合と同
様の画像検出用エンコーダが必要である。
In the above-described first and second embodiments, the case where the camera 1 is mounted on the flying object has been described. However, the camera 1 is rotatably attached to a predetermined place of a building such as a high-rise building or a tower. A fixed point camera as described above may be used. In such a case, since the three-dimensional position of the camera is fixed, GPS is not necessary. In the case of a rotary encoder and a flying object instead of a gyro sensor as detection means for detecting the three-dimensional attitude and angle of view of the camera Requires the same encoder for image detection.

【0060】(第3の実施の形態)図8は、本発明の映
像提示システム(第3の実施の形態)の構成例を示す模
式図である。第3実施例は、人間,動物,車両,船舶,
飛行機等のような移動する物体を対象物とし、その対象
物のトラッキングを行うようにした例である。
(Third Embodiment) FIG. 8 is a schematic diagram showing a configuration example of a video presenting system (third embodiment) of the present invention. In the third embodiment, humans, animals, vehicles, ships,
In this example, a moving object such as an airplane is set as a target, and the tracking of the target is performed.

【0061】図8において、18及び19は、GPS装置及
び送信機であり、これらのGPS装置18と送信機19とを
一体化したロケータ20が人間,動物,車両,船舶,飛行
機等のトラッキング対象の移動する対象物に取り付けら
れており、GPS装置18が対象物の絶対位置を求め、そ
の位置データ(XYZデータ)を送信機19により基地局
へ送るようになっている。なお、上述した第1,第2の
実施の形態と同一の構成部材には同一番号を付してそれ
らの説明を省略する。
In FIG. 8, reference numerals 18 and 19 denote a GPS device and a transmitter, and a locator 20 integrating the GPS device 18 and the transmitter 19 is a tracking target for a human, an animal, a vehicle, a ship, an airplane, or the like. The GPS device 18 determines the absolute position of the object, and transmits the position data (XYZ data) to the base station by the transmitter 19. The same components as those in the first and second embodiments described above are denoted by the same reference numerals, and description thereof will be omitted.

【0062】次に、動作について説明する。第1,第2
の実施の形態でも説明したように、飛行体に搭載された
カメラ1にて撮影された映像が、地図情報が重畳された
状態で、モニタTV27に表示されるようになっている。
このような状態で、まず、対象物を探索する場合には、
空中で出来る限り広角レンズでカメラ1を360度回転
させて撮影する。対象物に取り付けたロケータ20からそ
の位置データが基地局へ送られているので、カメラ1の
撮影領域に対象物が存在すれば、その対象物に取り付け
たロケータ20の位置と属性情報とが基地局のモニタTV
27上に表示される。次に、モニタTV27に表示されたロ
ケータ20の方向へ飛行体を移動させてズームアップすれ
ば、目標とする対象物を、モニタTV27に表示される地
図情報が重畳された実写映像の中で、発見することがで
きる。
Next, the operation will be described. 1st, 2nd
As described in the first embodiment, the video taken by the camera 1 mounted on the flying object is displayed on the monitor TV 27 in a state where the map information is superimposed.
In such a state, first, when searching for an object,
The camera 1 is rotated 360 degrees with a wide-angle lens as much as possible in the air to take a picture. Since the position data is sent from the locator 20 attached to the target to the base station, if the target exists in the shooting area of the camera 1, the position and attribute information of the locator 20 attached to the target are stored in the base station. Station monitor TV
Appears on 27. Next, if the flying object is moved in the direction of the locator 20 displayed on the monitor TV 27 and zoomed up, the target object can be displayed in the photographed video on which the map information displayed on the monitor TV 27 is superimposed. Can be found.

【0063】このようにして対象物を探索して発見した
後は、ロケータ20の位置を見失わないように、飛行体の
移動及びカメラの操作を行っていけば、地図情報が重畳
された実写映像の中で対象物を視認しながら、移動する
対象物を追尾していくことが可能である。
After searching for and finding the object in this way, if the user moves the flying object and operates the camera so that the position of the locator 20 is not lost, a photographed image on which map information is superimposed can be obtained. It is possible to track a moving object while visually recognizing the object in the space.

【0064】また、このような対象物に対する探索,追
尾処理における実写映像データと撮影条件のパラメータ
データ(XYZ,HPB,FV)及びDR・DTデータ
とを、記録装置25によりビデオテープ等に記録する。こ
のようにしておくと、対象物の移動の解析処理の情報源
として利用できる。
Further, the actual photographed video data, the parameter data (XYZ, HPB, FV) and DR / DT data of the photographing conditions in the search and tracking processing for such an object are recorded on a video tape or the like by the recording device 25. . By doing so, it can be used as an information source for the analysis processing of the movement of the object.

【0065】図9は、第3の実施の形態の映像提示シス
テムの変形の構成例を示す模式図である。この変形例で
は、第1の実施の形態と同様に、飛行体内にもモニタT
V10を搭載しておき、飛行体内のモニタTV10でも地上
のモニタTV27と同様に、ロケータ20の位置と属性情報
との表示及び対象物の表示を行えるようにしている。
FIG. 9 is a schematic diagram showing a configuration example of a modification of the video presentation system according to the third embodiment. In this modification, similarly to the first embodiment, the monitor T
The V10 is mounted, and the monitor TV 10 in the flying body can display the position and attribute information of the locator 20 and the target object similarly to the monitor TV 27 on the ground.

【0066】上述した説明では1つの移動する対象物を
トラッキングすることとしたが、第3の実施の形態によ
り複数の対象物を同時にトラッキングすることも可能で
ある。
In the above description, one moving object is tracked. However, according to the third embodiment, a plurality of objects can be tracked simultaneously.

【0067】なお、上述した各実施の形態では空中での
撮影映像に地図情報を重畳して表示するようにしたが、
前述のカメラ1,ジャイロセンサ2,画角検出用エンコ
ーダ3及びGPS装置6を防水仕様としておけば、上述
した各実施の形態と同様に、水中で得られる撮影映像に
ついてもそれに地図情報を重畳して表示するようにでき
ることは勿論である。
In each of the above-described embodiments, the map information is superimposed on the photographed video in the air and displayed.
If the camera 1, the gyro sensor 2, the angle-of-view detection encoder 3 and the GPS device 6 are waterproof, the map information is superimposed on the captured image obtained underwater, similarly to the above-described embodiments. Needless to say, it can be displayed.

【0068】また、上述した各実施の形態では撮影映像
に地図情報を重畳して表示するようにしたが、表示画面
を分割し、一方の画面領域には撮影映像を、他方の画面
領域には地図情報を表示するようにしても良い。
Further, in each of the above-described embodiments, the map information is superimposed and displayed on the photographed image. However, the display screen is divided, and the photographed image is displayed on one screen area, and the other screen area is displayed. Map information may be displayed.

【0069】ところで、本発明の情報提示システムで
は、撮影映像に重畳する地図情報として、市町村境界、
交通網、公共施設、主要建築物、ランドマーク、山頂・
河川名等のような基本データに加えて、ユーザの目的に
合わせて、ガス,水道,電気,高速道路等の都市設備、
観光コース、マラソンコース、建設計画、地下埋設物、
歴史的遺跡等のようなオプションデータをユーザの使用
用途に応じて準備しておく。このように多種類の地図情
報を準備しておくことにより、本発明の情報提示システ
ムの利用範囲を大幅に拡大できる。
By the way, in the information presentation system of the present invention, the map information to be superimposed on the photographed image includes
Transportation network, public facilities, major buildings, landmarks,
In addition to basic data such as river names, etc., city facilities such as gas, water, electricity, highways, etc.
Sightseeing courses, marathon courses, construction plans, underground buried objects,
Optional data such as historical sites are prepared in accordance with the intended use of the user. By preparing various types of map information in this way, the range of use of the information presentation system of the present invention can be greatly expanded.

【0070】以下、本発明の利用分野について説明す
る。本発明のシステムのユーザとしては、個人,事業
所,公共機関が対象である。本発明のシステムの第1の
利用分野は、上述の第1または第2実施例の構成を用い
て、空中または水中での撮影映像の情報価値を高める利
用である。種々の地図情報を実写の撮影映像にリアルタ
イムに重畳できるので、現行の空中または水中での撮影
映像あるいは定点カメラ映像の情報価値を飛躍的に高め
ることができる。つまり、映像と共にその映像に関する
地図情報が重畳された画面は、価値がある情報をユーザ
に伝えることができ、単なる映像サービス手段としての
TVを映像を含む情報サービス手段としてのTV(Augm
ented TV)へと変化させることが可能である。
Hereinafter, the fields of application of the present invention will be described. The users of the system of the present invention are individuals, businesses, and public institutions. A first field of application of the system of the present invention is to use the configuration of the above-described first or second embodiment to increase the information value of a video taken in the air or underwater. Since various types of map information can be superimposed in real time on the photographed image of the actual photograph, the information value of the current airborne or underwater photographed image or fixed-point camera image can be dramatically increased. In other words, the screen on which the map information related to the video is superimposed together with the video can transmit valuable information to the user, and the TV (Augm.
ented TV).

【0071】このような第1の利用分野の具体例として
は、災害(特に地域的広がりがある地震,水害,土石
流,山火事等の災害)の情報収集,監視及び解析に加え
て、TV放送での利用(災害時等の中継報道番組・マラ
ソン,ヨットレース等のスポーツ中継番組・観光地探訪
等の趣味番組等)、埋設されたガス,水道等の設備の表
示及び維持管理、大規模な建設計画における利用(計画
施設のリアルタイムプレゼンテーション等)等があり、
幅広い利用が可能である。
As a specific example of such a first application field, in addition to information gathering, monitoring and analysis of disasters (particularly disasters such as earthquakes, floods, debris flows, and wildfires having a regional spread), TV broadcasting Display (maintenance broadcast program at the time of disaster, sports broadcast program such as marathon, yacht race, hobby program such as sightseeing spots etc.), display and maintenance of buried gas and water facilities, large-scale Use in construction planning (real-time presentation of planned facilities, etc.)
Wide use is possible.

【0072】また、本発明のシステムの第2の利用分野
は、上述の第3実施例の構成を用いて、視覚的なトラッ
キングを行う利用である。トラッキング対象の移動体が
ロケータを有しておれば、地図情報が重畳されたTV映
像上で視覚的にその移動体の探索,追尾,位置確認を行
える。このような第2の利用分野の具体例としては、車
両,船舶の運行管理、山岳,海上での人間の遭難救助、
ヨットレース,自動車ラリー等のスポーツイベント管
理、鳥獣の行動の学術研究等があり、この第2の利用分
野にあっても幅広い利用が可能である。
A second field of use of the system of the present invention is to perform visual tracking using the configuration of the third embodiment. If the mobile object to be tracked has a locator, it is possible to visually search, track, and confirm the position of the mobile object on the TV video on which the map information is superimposed. Specific examples of the second field of use include operation management of vehicles and ships, rescue and rescue of humans in mountains and seas,
There are sport event management such as yacht racing and car rallies, as well as academic research on bird and beast behavior, etc., and even in this second field of application, wide use is possible.

【0073】[0073]

【発明の効果】以上のように本発明の映像表示システム
では、カメラによる実写の映像に地図情報を重畳させた
映像を提示できるので、カメラでの撮影映像の情報価値
を高めることができる。また、移動する物体の正確なト
ラッキングを行うことができる。また、撮影映像データ
及びカメラの撮影条件を記録しておくので、後の撮影映
像の解析時にこれらの情報を有効に利用できる。
As described above, in the image display system of the present invention, an image in which map information is superimposed on an image of an actual photographed image by a camera can be presented, so that the information value of an image captured by the camera can be enhanced. Further, accurate tracking of a moving object can be performed. Further, since the photographed video data and the photographing conditions of the camera are recorded, these information can be used effectively when the photographed video is analyzed later.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の映像提示システムの概要を示す模式図
である。
FIG. 1 is a schematic diagram showing an outline of a video presentation system of the present invention.

【図2】本発明の映像提示システムの一例の構成を示す
模式図である。
FIG. 2 is a schematic diagram showing a configuration of an example of a video presentation system of the present invention.

【図3】飛行体に搭載されたモニタTVでの画像の表示
例を示す模式図である。
FIG. 3 is a schematic diagram showing a display example of an image on a monitor TV mounted on a flying object.

【図4】家庭用のテレビジョンでの画像の表示例を示す
模式図である。
FIG. 4 is a schematic diagram showing a display example of an image on a home television.

【図5】本発明の映像提示システムにおけるソフトウェ
アの処理動作(初期設定動作)を示すフローチャートで
ある。
FIG. 5 is a flowchart showing a software processing operation (initial setting operation) in the video presentation system of the present invention.

【図6】本発明の映像提示システムにおけるソフトウェ
アの処理動作(地図データの描画処理動作)を示すフロ
ーチャートである。
FIG. 6 is a flowchart showing a software processing operation (map data drawing processing operation) in the video presentation system of the present invention.

【図7】本発明の映像提示システムの他の例の構成を示
す模式図である。
FIG. 7 is a schematic diagram showing a configuration of another example of the video presentation system of the present invention.

【図8】本発明の映像提示システムの更に他の例の構成
を示す模式図である。
FIG. 8 is a schematic diagram showing a configuration of still another example of the video presentation system of the present invention.

【図9】本発明の映像提示システムの更に他の例の構成
を示す模式図である。
FIG. 9 is a schematic diagram showing a configuration of still another example of the video presentation system of the present invention.

【符号の説明】[Explanation of symbols]

1 カメラ 2 ジャイロセンサ 3 画角検出用エンコーダ 6 GPS装置 9 制御用コンピュータ 10 モニタTV 12 送信装置 18 GPS装置 19 送信機 20 ロケータ 21 受信装置 23 ホストコンピュータ 24 記憶媒体 25 記録装置 26 映像編集装置 27 モニタTV DESCRIPTION OF SYMBOLS 1 Camera 2 Gyro sensor 3 Encoder for angle of view detection 6 GPS device 9 Control computer 10 Monitor TV 12 Transmitting device 18 GPS device 19 Transmitter 20 Locator 21 Receiving device 23 Host computer 24 Storage medium 25 Recording device 26 Video editor 27 Monitor TV

───────────────────────────────────────────────────── フロントページの続き (72)発明者 澤井 健 大阪府吹田市山田北15番1−515号 ──────────────────────────────────────────────────続 き Continued on the front page (72) Inventor Ken Sawai 151-1515 Yamadakita, Suita-shi, Osaka

Claims (8)

【特許請求の範囲】[Claims] 【請求項1】 カメラで撮影した映像を提示するシステ
ムにおいて、撮影を行うカメラの3次元位置,3次元姿
勢及び画角を検出する検出手段と、3次元の地図データ
を格納している格納手段と、該格納手段に格納されてい
る3次元の地図データを前記検出手段の検出結果に基づ
き透視変換して、撮影映像に応じた地図データを獲得す
る手段と、獲得した地図データを前記カメラでの撮影映
像と共に表示する手段とを備えることを特徴とする映像
提示システム。
1. A system for presenting an image captured by a camera, a detecting unit for detecting a three-dimensional position, a three-dimensional posture, and an angle of view of the camera to be captured, and a storage unit for storing three-dimensional map data. Means for perspective-transforming the three-dimensional map data stored in the storage means based on the detection result of the detection means to obtain map data corresponding to the photographed video; and obtaining the obtained map data by the camera. Means for displaying the captured image together with the captured image.
【請求項2】 飛行体に備えられるカメラと、該飛行体
に備えられ、該カメラの3次元位置,3次元姿勢及び画
角を検出する検出手段と、前記飛行体に備えられ、3次
元の地図データを格納している格納手段と、前記飛行体
に備えられ、該格納手段に格納されている3次元の地図
データを前記検出手段の検出結果に基づき透視変換し
て、前記カメラでの撮影映像に応じた地図データを獲得
する手段と、前記飛行体に備えられ、獲得した地図デー
タを前記カメラでの撮影映像と共に表示する手段とを備
えることを特徴とする映像提示システム。
2. A camera provided on the flying object, detection means provided on the flying object for detecting a three-dimensional position, a three-dimensional attitude and an angle of view of the camera, and a three-dimensional camera provided on the flying object Storage means for storing map data, and perspective conversion of three-dimensional map data provided in the flying object and stored in the storage means based on the detection result of the detection means, and photographing with the camera An image presentation system, comprising: means for acquiring map data according to an image; and means provided on the flying object and displaying the acquired map data together with an image captured by the camera.
【請求項3】 飛行体に備えられるカメラと、該飛行体
に備えられ、該カメラの3次元位置,3次元姿勢及び画
角を検出する検出手段と、前記飛行体に備えられ、前記
カメラでの撮影映像のデータ及び前記検出手段の検出結
果のデータを地上に送信する送信手段と、該送信手段か
らの送信データを受信する受信手段と、3次元の地図デ
ータを格納している格納手段と、該格納手段に格納され
ている3次元の地図データを前記検出手段の検出結果に
基づき透視変換して、前記カメラでの撮影映像に応じた
地図データを獲得する手段と、獲得した地図データを前
記カメラでの撮影映像と共に表示する手段とを備えるこ
とを特徴とする映像提示システム。
3. A camera provided on the flying object, detection means provided on the flying object and detecting a three-dimensional position, a three-dimensional attitude and an angle of view of the camera, and a camera provided on the flying object and provided with the camera Transmitting means for transmitting, to the ground, data of the photographed video and data of the detection result of the detecting means, receiving means for receiving transmission data from the transmitting means, and storing means for storing three-dimensional map data; Means for perspective-transforming the three-dimensional map data stored in the storage means based on the detection result of the detection means to obtain map data corresponding to a video taken by the camera; Means for displaying the image together with the image captured by the camera.
【請求項4】 定位置に回転自在に設けられるカメラ
と、該カメラの3次元姿勢及び画角を検出する検出手段
と、3次元の地図データを格納している格納手段と、該
格納手段に格納されている3次元の地図データを前記検
出手段の検出結果に基づき透視変換して、前記カメラで
の撮影映像に応じた地図データを獲得する手段と、獲得
した地図データを前記カメラでの撮影映像と共に表示す
る手段とを備えることを特徴とする映像提示システム。
4. A camera rotatably provided at a fixed position, detection means for detecting a three-dimensional posture and an angle of view of the camera, storage means for storing three-dimensional map data, and Means for performing perspective transformation of the stored three-dimensional map data based on the detection result of the detection means to obtain map data corresponding to a video taken by the camera, and capturing the obtained map data by the camera Means for displaying the image together with the image.
【請求項5】 移動する対象物を含んでカメラで撮影し
た映像を提示するシステムにおいて、前記対象物に取り
付けられてその対象物の3次元位置を同定する位置同定
手段と、得られた位置同定情報を発信する発信手段と、
撮影を行うカメラの3次元位置,3次元姿勢及び画角を
検出する検出手段と、3次元の地図データを格納してい
る格納手段と、該格納手段に格納されている3次元の地
図データを前記検出手段の検出結果に基づき透視変換し
て、撮影映像に応じた地図データを獲得する手段と、獲
得した地図データを前記カメラでの前記対象物を含む撮
影映像と共に表示する手段とを備えることを特徴とする
映像提示システム。
5. A system for presenting an image captured by a camera including a moving object, a position identification means attached to the object to identify a three-dimensional position of the object, and the obtained position identification. Transmitting means for transmitting information;
Detecting means for detecting the three-dimensional position, three-dimensional attitude, and angle of view of a camera that performs shooting, storage means for storing three-dimensional map data, and three-dimensional map data stored in the storage means Means for obtaining map data according to the captured image by performing a perspective transformation based on the detection result of the detection means, and means for displaying the obtained map data together with the captured image including the object by the camera. A video presentation system characterized by the following.
【請求項6】 前記カメラは、空中撮影を行うカメラで
あることを特徴とする請求項1,4または5の何れかに
記載の映像提示システム。
6. The image presentation system according to claim 1, wherein the camera is a camera that performs aerial photography.
【請求項7】 前記カメラは、水中撮影を行うカメラで
あることを特徴とする請求項1,4または5の何れかに
記載の映像提示システム。
7. The video presentation system according to claim 1, wherein the camera is a camera that performs underwater photography.
【請求項8】 前記検出手段の検出結果のデータと前記
カメラでの撮影映像のデータとを記録する手段を更に備
えることを特徴とする請求項1〜7の何れかに記載の映
像提示システム。
8. The video presentation system according to claim 1, further comprising a unit that records data of a detection result of the detection unit and data of a video image captured by the camera.
JP10216097A 1996-04-23 1997-04-18 Video presentation system Expired - Fee Related JP3225434B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP10216097A JP3225434B2 (en) 1996-04-23 1997-04-18 Video presentation system

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP8-101230 1996-04-23
JP10123096 1996-04-23
JP10216097A JP3225434B2 (en) 1996-04-23 1997-04-18 Video presentation system

Publications (2)

Publication Number Publication Date
JPH1042282A true JPH1042282A (en) 1998-02-13
JP3225434B2 JP3225434B2 (en) 2001-11-05

Family

ID=26442134

Family Applications (1)

Application Number Title Priority Date Filing Date
JP10216097A Expired - Fee Related JP3225434B2 (en) 1996-04-23 1997-04-18 Video presentation system

Country Status (1)

Country Link
JP (1) JP3225434B2 (en)

Cited By (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11211993A (en) * 1998-01-28 1999-08-06 Hitachi Ltd Information display device
JPH11341487A (en) * 1998-05-27 1999-12-10 Kaiyo Sogo Kaihatsu Kk Monitoring camera device
JP2000181346A (en) * 1998-12-15 2000-06-30 Fujitsu Ltd Video-map cooperation system
JP2001189888A (en) * 1999-12-28 2001-07-10 Ntt Data Corp Device and method for indicating photographing and recording medium
KR100310433B1 (en) * 1999-06-12 2001-10-17 김대군 a wireless movie camera system
JP2001309233A (en) * 2000-04-19 2001-11-02 Japan Aviation Electronics Industry Ltd Remote controlling system of photographing apparatus
JP2002094952A (en) * 2000-07-13 2002-03-29 Sony Corp Digital broadcast signal processing unit and digital broadcast signal transmission method
JP2002262277A (en) * 2001-03-06 2002-09-13 Natl Inst For Land & Infrastructure Management Mlit Matching system between sensor detection position and road linearity
JP2003078589A (en) * 2001-09-05 2003-03-14 Aruze Corp Communication equipment
JP2003110981A (en) * 2001-09-28 2003-04-11 Hiroboo Kk Aerial video image processing system and wireless small- sized unmanned flying body
JP2003157426A (en) * 2001-10-30 2003-05-30 Eastman Kodak Co Method for superimposing graphic representation of ground location onto ground location image after detection of failure
JP2004056664A (en) * 2002-07-23 2004-02-19 Ntt Data Corp Cooperative photography system
KR20040035892A (en) * 2002-10-12 2004-04-30 한국전자통신연구원 Space modeling device of vehicle with the laser scanners and method for controlling laser scanner
JP2004349749A (en) * 2003-05-20 2004-12-09 Nippon Hoso Kyokai <Nhk> Camera video image monitoring apparatus and camera video image monitoring method
JP2009060664A (en) * 2008-10-27 2009-03-19 Sony Corp Imaging apparatus, and program producing method
GB2455195A (en) * 2007-11-28 2009-06-03 Boeing Co Predicting vehicle movement when a vehicle is not in the field of view of a camera.
US7801927B2 (en) 2005-12-05 2010-09-21 Fujitsu Limited Video metadata correction apparatus and method
US7800645B2 (en) * 2003-06-20 2010-09-21 Mitsubishi Denki Kabushiki Kaisha Image display method and image display apparatus
US8225370B2 (en) 2000-07-13 2012-07-17 Sony Corporation Digital broadcast signal processing apparatus and digital broadcast signal processing method
WO2014173454A1 (en) * 2013-04-26 2014-10-30 Geas Gesellschaft Für Die Entwicklung Von Anwendungen Satellitengeschützter Navigationssysteme Mbh Method, system and computer for providing information in real time on a screen of a user relating to at least one human and/or hardware participant in an event
JP2016011018A (en) * 2014-06-27 2016-01-21 株式会社エスアイ Radio-controlled balloon kite
JP2016178390A (en) * 2015-03-19 2016-10-06 三菱電機株式会社 Facility name superposing device
WO2018150492A1 (en) * 2017-02-15 2018-08-23 エスゼット ディージェイアイ テクノロジー カンパニー リミテッド Image display method, image display system, flying object, program, and recording medium
JPWO2017131194A1 (en) * 2016-01-29 2018-11-15 住友建機株式会社 Autonomous vehicle flying around a shovel and shovel
US10558218B2 (en) 2016-01-28 2020-02-11 Fujitsu Ten Limited Vehicle surroundings monitoring apparatus, monitoring system, remote monitoring apparatus, and monitoring method

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07152984A (en) * 1993-11-30 1995-06-16 Mitsubishi Electric Corp Method and device for monitoring plant

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07152984A (en) * 1993-11-30 1995-06-16 Mitsubishi Electric Corp Method and device for monitoring plant

Cited By (31)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11211993A (en) * 1998-01-28 1999-08-06 Hitachi Ltd Information display device
JPH11341487A (en) * 1998-05-27 1999-12-10 Kaiyo Sogo Kaihatsu Kk Monitoring camera device
JP2000181346A (en) * 1998-12-15 2000-06-30 Fujitsu Ltd Video-map cooperation system
KR100310433B1 (en) * 1999-06-12 2001-10-17 김대군 a wireless movie camera system
JP2001189888A (en) * 1999-12-28 2001-07-10 Ntt Data Corp Device and method for indicating photographing and recording medium
JP2001309233A (en) * 2000-04-19 2001-11-02 Japan Aviation Electronics Industry Ltd Remote controlling system of photographing apparatus
JP2002094952A (en) * 2000-07-13 2002-03-29 Sony Corp Digital broadcast signal processing unit and digital broadcast signal transmission method
US8225370B2 (en) 2000-07-13 2012-07-17 Sony Corporation Digital broadcast signal processing apparatus and digital broadcast signal processing method
JP2002262277A (en) * 2001-03-06 2002-09-13 Natl Inst For Land & Infrastructure Management Mlit Matching system between sensor detection position and road linearity
JP2003078589A (en) * 2001-09-05 2003-03-14 Aruze Corp Communication equipment
JP2003110981A (en) * 2001-09-28 2003-04-11 Hiroboo Kk Aerial video image processing system and wireless small- sized unmanned flying body
JP2003157426A (en) * 2001-10-30 2003-05-30 Eastman Kodak Co Method for superimposing graphic representation of ground location onto ground location image after detection of failure
JP2004056664A (en) * 2002-07-23 2004-02-19 Ntt Data Corp Cooperative photography system
KR20040035892A (en) * 2002-10-12 2004-04-30 한국전자통신연구원 Space modeling device of vehicle with the laser scanners and method for controlling laser scanner
JP2004349749A (en) * 2003-05-20 2004-12-09 Nippon Hoso Kyokai <Nhk> Camera video image monitoring apparatus and camera video image monitoring method
US7800645B2 (en) * 2003-06-20 2010-09-21 Mitsubishi Denki Kabushiki Kaisha Image display method and image display apparatus
US7801927B2 (en) 2005-12-05 2010-09-21 Fujitsu Limited Video metadata correction apparatus and method
GB2455195A (en) * 2007-11-28 2009-06-03 Boeing Co Predicting vehicle movement when a vehicle is not in the field of view of a camera.
GB2455195B (en) * 2007-11-28 2010-09-08 Boeing Co System and method for tracking traffic moving behind an obstruction
US8321122B2 (en) 2007-11-28 2012-11-27 The Boeing Company System and method for evidential reasoning for transportation scenarios
JP2009060664A (en) * 2008-10-27 2009-03-19 Sony Corp Imaging apparatus, and program producing method
WO2014173454A1 (en) * 2013-04-26 2014-10-30 Geas Gesellschaft Für Die Entwicklung Von Anwendungen Satellitengeschützter Navigationssysteme Mbh Method, system and computer for providing information in real time on a screen of a user relating to at least one human and/or hardware participant in an event
JP2016011018A (en) * 2014-06-27 2016-01-21 株式会社エスアイ Radio-controlled balloon kite
JP2016178390A (en) * 2015-03-19 2016-10-06 三菱電機株式会社 Facility name superposing device
US10558218B2 (en) 2016-01-28 2020-02-11 Fujitsu Ten Limited Vehicle surroundings monitoring apparatus, monitoring system, remote monitoring apparatus, and monitoring method
JPWO2017131194A1 (en) * 2016-01-29 2018-11-15 住友建機株式会社 Autonomous vehicle flying around a shovel and shovel
JP2022000570A (en) * 2016-01-29 2022-01-04 住友建機株式会社 Excavator and autonomous flying vehicle
WO2018150492A1 (en) * 2017-02-15 2018-08-23 エスゼット ディージェイアイ テクノロジー カンパニー リミテッド Image display method, image display system, flying object, program, and recording medium
CN110249625A (en) * 2017-02-15 2019-09-17 深圳市大疆创新科技有限公司 Image display method, image display system, flying body, program and recording medium
JPWO2018150492A1 (en) * 2017-02-15 2019-12-19 エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd Image display method, image display system, flying object, program, and recording medium
US11082639B2 (en) 2017-02-15 2021-08-03 SZ DJI Technology Co., Ltd. Image display method, image display system, flying object, program, and recording medium

Also Published As

Publication number Publication date
JP3225434B2 (en) 2001-11-05

Similar Documents

Publication Publication Date Title
JP3225434B2 (en) Video presentation system
US11483518B2 (en) Real-time moving platform management system
US6501501B1 (en) Construction and civil engineering database generator and display
CN111540059A (en) Enhanced video system providing enhanced environmental perception
JP2008527542A (en) Navigation and inspection system
JP2005265699A (en) System and method for inspecting power transmission line using unmanned flying body
KR20060082872A (en) System and method for geolocation using imaging techniques
JP3718579B2 (en) Video surveillance system
JP2695393B2 (en) Position specifying method and device
CN109068098B (en) Unmanned aerial vehicle video monitoring system for enhancing picture display
KR100390600B1 (en) Apparatus for monitoring woodfire and position pursuit and a method for operating the same
RU2667793C1 (en) Geoinformation system in 4d format
JPH10285583A (en) Fire position and video display transmission system
JPH06318231A (en) Information adding device for image
CN112085638B (en) Emergency command interaction method, system and equipment for sudden geological disasters
US20230237796A1 (en) Geo-spatial context for full-motion video
Muhammad et al. Maintenance of the photovolatic plants using uav equipped with low-cost gnss rtk receiver
WO2023147376A1 (en) Geo-spatial context for full-motion video
RU2002133076A (en) METHOD FOR LOCAL AEROMONITORING OF GEOTECHNICAL SYSTEMS AND ON-BOARD COMPLEX FOR ITS IMPLEMENTATION
Muhammad et al. 2 Proposed Solution
Laka-Iñurrategi et al. AUGMENTING LIVE AERIAL VIDEO IMAGES WITH GIS INFORMATION TO ENHANCE DECISION MAKING PROCESS DURING EMERGENCIES
Bachnak et al. Software development for airborne imaging system

Legal Events

Date Code Title Description
LAPS Cancellation because of no payment of annual fees