JP3569627B2 - Image interpretation device - Google Patents

Image interpretation device Download PDF

Info

Publication number
JP3569627B2
JP3569627B2 JP13340398A JP13340398A JP3569627B2 JP 3569627 B2 JP3569627 B2 JP 3569627B2 JP 13340398 A JP13340398 A JP 13340398A JP 13340398 A JP13340398 A JP 13340398A JP 3569627 B2 JP3569627 B2 JP 3569627B2
Authority
JP
Japan
Prior art keywords
image
map
camera
television
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP13340398A
Other languages
Japanese (ja)
Other versions
JPH11331831A (en
Inventor
誠司 堀
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to JP13340398A priority Critical patent/JP3569627B2/en
Publication of JPH11331831A publication Critical patent/JPH11331831A/en
Application granted granted Critical
Publication of JP3569627B2 publication Critical patent/JP3569627B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Images

Landscapes

  • Instructional Devices (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Studio Devices (AREA)
  • Position Fixing By Use Of Radio Waves (AREA)

Description

【0001】
【発明の属する技術分野】
この発明は、ヘリコプタなどの航空機に搭載したテレビカメラから取得した画像上で確認された災害地点を、同じく搭載したGPSから取得した位置情報と組み合わせて、地図上にシンボル等を表示することで被害地点の特定を行う、画像上の位置判読システムに関するものである。
【0002】
【従来の技術】
火災や交通事故等の災害の発生時に、これらの事象がどの地点で発生したのかを地図上で把握することは、災害の総括管理、例えば救援対策をたてるなどの上で必要不可欠なことである。
災害発生地点に関する最初の情報は、ヘリコプタに搭載したテレビカメラによって、もたらされる場合が多いので、この画像から、すみやかに地点を特定することが必要であり、かつ、それは寸秒を争う作業となる。
【0003】
災害の例として、火災を自動監視するか再発見システムが特開平5−46887号公報に示されている。しかし、これはカメラが地上に設置されているものであるから監視範囲は限定される。
また、特開平8−324499号公報にはヘリコプタに搭載した赤外線カメラにより確認した火災位置に確実に消化剤を投下するための消化剤投下装置が開示されている。
また、特開平4−363989号公報には、ヘリコプタ上のビデオカメラの信号を地上に伝送する技術が開示されている。
従来のヘリコプタ搭載の災害地点の特定システムとして、これら公知の技術を容易に組合わせし得る範囲で組合わせたものについて説明する。
【0004】
図11は災害発生時に、発生地点の特定を行う位置判読システムの基本構成を示した図である。図において、1は地上を撮影するカメラ21とGPS22を搭載したヘリコプタ、2はヘリコプタ1から無線電送25によって送られてくる動画像32と、一秒間毎の位置情報を含む静止画像34(これら情報を合わせて情報20という)を受信する装置、3は受信装置2から送られてきた情報20を保管(記憶)する装置、4は動画像と静止画像の表示、及びそれらを撮影したヘリコプタ1の位置の地図上への表示を行い、また、災害発生位置の入力を、画像を見ながら人が行う被害情報判読装置である。なお、データ受信装置2以後の装置は地上に設置されている。
図12は図11のものの動作を説明するための図である。
図において32はテレビカメラ21が撮影した動画像(例えば上がヘリコプタの前方方向)、34は静止画像、34Aは位置データ、35は位置データ34Aをもとに図示しないCDROMデータから得られた地図画像でこれは上が北方向の図である。13は災実発生例として説明のために火災を示すものである。
【0005】
次に従来のシステムにおける動作について説明する。ヘリコプタ1が飛行することで、これに搭載されたカメラ21によって撮影された動画像32と、GPS22による位置情報を含んだ1秒間隔の静止画像34からなる情報20がデータ受信装置2、データ保管装置3を中継して位置判読システム4に送られてくる。 位置判読システム4では、画面上に受信した動画像32をリアルタイムに表示し、それと同時に、静止画像34に付加されたヘリコプタ1の位置情報をもとに、地図35を表示するとともにこの地図35上にヘリコプタ1の現在位置を表すシンボルを表示する。ユーザーは動画像32を一通り見終わってから静止画像34を一通りチェックするか、動画像32を見ている間に発見した被害発生地点を周囲の風景等をもとに覚えておく等の方法によって、呼び出した被害発生地点の静止画像と、同地点周辺の地図とを見比べながらその上に図示しないマウスカーソル等によって被害発生地点をシンボル53として登録する。
【0006】
上記の従来例では、1人で作業するので、動画像32を受信、表示し、これを見ている間は被害情報の入力を行うことは出来ない。動画像32と地図35とは方位も、縮尺も一致しているわけではないから、慣れていないと、動画像上の位置を地図上に求めることは、容易な作業ではない。
【0007】
【発明が解決しようとする課題】
従来のヘリコプタ、テレビを用いた画像上の位置判読システムは以上のように構成され、動作しているため、被害位置を地図上に登録するためには、ヘリコプタから送られてくる情報を一通り全て受信し終るまで待つか、あるいはデータ保管装置(ビデオ再生装置)を使ってその都度一時停止させながら作業しなければならない。
ヘリコプタの飛行中にリアルタイムに受信、表示される動画像上で被害地点を発見した場合には、ユーザーがそれが地図上のどの辺りなのかということをある程度覚えておく必要がある。このため、情報をすべて受信し終わった後の被害位置登録の段階で被害地点を地図上に探し当てるためには、動画像を見た時に覚えておいた場所付近の静止画像を順次チェックしなければならず、必要以上数の静止画像をチェックする必要が生じて作業に時間がかかり、疲労がはげしいとか、チェック漏れが発生する可能性があるなどの問題があった。
【0008】
災害発生時においては迅速な状況把握と対応が重要であり、以上のような問題は情報のリアルタイム性を損なっているという点、情報漏れが発生する可能性があるという点で見逃すことは出来ない。
【0009】
この発明は上記のような問題点を解消するためになされたもので、ヘリコプタのカメラからの映像(動画像)を見ながら、リアルタイムに被害地点の判読登録ができ、状況が迅速に把握できる位置判読システムを得ることを目的とする。
【0010】
【課題を解決するための手段】
この発明による画像上の位置判読装置は、航空機に搭載され常に鉛直下方を撮影してテレビ画像情報を出力する赤外線テレビカメラと、この航空機に搭載され前記赤外線テレビカメラの撮影に同期してこの航空機の高度、向きを含む位置情報を出力するGPSと、前記テレビ画像情報と前記位置情報を受信して前記テレビ画像の表示と、前記位置情報をもとにあらかじめ記憶している地図データから現在位置を含む地図データの選択、地図画像の表示とを行う画像表示手段とを有する画像上の位置判読装置であって、赤外線画像上で高温部を識別し、その高温位置を指定入力する高温位置自動指定手段と、前記テレビカメラの画角にもとづく前記地図画像上の画枠を計算し、前記地図画像上に前記指定入力された高温位置とともに、この画枠をリアルタイムに表示する画枠計算手段とを有するものである。
【0011】
また、航空機に搭載され常に鉛直下方を撮影してテレビ画像情報を出力するテレビカメラと、この航空機に搭載され前記テレビカメラの撮影に同期してこの航空機の高度、向きを含む位置情報を出力するGPSと、前記テレビ画像情報と前記位置情報を受信して前記テレビ画像の表示と、前記位置情報をもとにあらかじめ記憶している地図データから現在位置を含む地図データの選択、地図画像の表示とを行う画像表示手段とを有する画像上の位置判読装置であって、前記テレビ画像上で任意地点を指定する位置入力手段と、前記テレビカメラの画角にもとづく前記地図画像上の画枠を前記航空機に搭載されているレーダ高度計、又はカメラの焦点距離計により求められたカメラの高度データに基づいて計算し、前記地図画像上に前記入力された任意地点とともに、この画枠をリアルタイムに表示する画枠計算手段とを有するものである。
【0012】
下、この発明の基礎となる画像上の位置判読システムについて、図1にその構成ブロック図を用いて、又、図2に画像を示す図を用いて説明する。
以下の図面に於て、従来の部分と同一又は相当する部分は、同符号を用いてその詳細な説明は省略する。
【0013】
図1において、1は地上を撮影してテレビ画像情報を出力するテレビカメラ21(以後カメラと言う)とGPS22を搭載したヘリコプタ、2はヘリコプタ1から無線電送25によって送られてくる動画像32や、GPS22の位置情報(情報20)を受信する受信装置、3は受信装置2から送られてきた情報20を保管する装置、41はこの発明による動画像と静止画像(動画像を一時停止したもの)の表示及び、それらを撮影したヘリコプタ1の位置の地図上への表示を行い、また、被害発生位置の情報の入力を行う被害情報判読装置であり、47は画像表示手段、43は画枠計算手段でそれらの詳細は後述する。
48は地図データ(CDROM)、49は位置入力手段でありオペレータ(人間)が行う主な作業内容を表している。
【0014】
ここでカメラ21はヘリコプタ1の姿勢や加速度に関係なく、常に鉛直下方を撮影できるように、ジャイロを内蔵するジンバル装置内に設置されている。
ただし、撮影した画面の上方は常にヘリコプタ1の前方に向いている。又、GPS22はこのヘリコプタ1の高度と向きを含む位置情報(経度、緯度)をカメラ21の撮影する画面フレーム1枚毎に同期して出力するものである。
【0015】
図2は図1の動作を説明するための図である。
図において32は動画像、32Aはこれに対応する位置データ、35は位置データ32Aをもとに地図データ(CDROMデータ)48から得られた地図画像である。
12はカメラの撮影範囲(角度)を表した説明補助線、13は災害発生例として説明のために火災を示すものである。32はヘリコプタ1のカメラ21で撮影された動画像を画面上に表示したイメージ、矢印42はマウスカーソルである。33はマウスカーソル42で出火場所を指示(クリック)した時の、画枠内でのx座標、y座標をそれぞれ点線で表し、画枠内での位置を説明の都合上わかりやすく示したものである。
【0016】
35はヘリコプタ1の位置を中心に、上が北として表示された地図、51は33のテレビ画面の画枠を地図35の上に投影したもの、52は33の座標線を画枠51内に投影したもの、53は出火位置を示すシンボルである。以下の説明においてカメラ21はヘリコプタ1の姿勢及び加速度がどうあろうとも常に鉛直下方を向いているものとする。
【0017】
次に動作について説明する。
まず、ヘリコプタ1が飛行すると、画面上にはカメラ21で撮影された地表面の動画像32がリアルタイムに表示される。動画像32上にて被害箇所が発見された場合、ユーザーはマウス42によって動画像32上でその部分13をクリックする。このクリックしたポイントは画枠33の中で31の位置にあたる。動画32に付加された位置データ32Aをもとに地図35が刻々と更新表示されている。そしてヘリコプタ1の緯度・経度、高度、向き、カメラの画角から計算して、地図35上にカメラ21の画枠51を表示する。
【0018】
図3を用いて、ヘリコプタ1の緯度・経度、高度、向き、カメラの画角θから地図上に画枠を投影する方法について述べる。図3の21はヘリコプタ1搭載のカメラ、51はカメラの画枠、133は画枠51の中心(映像の中心)、134は画枠51の頂点の内、ヘリコプタ1の進行方向右前方(45°)に位置するもの、135はヘリコプタの前向き方向、136は北の方角(地図を管理する上での基準となる方向)をそれぞれ表す。
【0019】
地図35上に画枠51を投影するためには、画枠51の4頂点の位置を知る必要がある。画枠51の中心座標を(0,0)、y軸の+方向を北とし、画枠の頂点134の座標を(x1,y1)とする。
まず、画枠の中心133から頂点134までの距離をLとすると、Lはヘリコプタの高度hとカメラの画角θを用いて、
L=h・tanθ
と表すことが出来る。次にx1とy1を、このLと、北を0°として計ったヘリコプタ1の進行方向(方位角)θ2を用いてそれぞれ表すと、
x1=L・sin(θ2+π/4)
y1=−L・cos(θ2+π/4)
となる。同様にして他の3頂点を求めることで、地図35上への画枠51の投影が行える。上記の一連の動作は図1の画枠計算手段43によって実行される。
【0020】
ここで、動画像32の画枠と地図35上の画枠51の位置は一致するので、これらの対比により地図35上での被害地点(図2のポイント31)を算出して、その位置に被害箇所を示すシンボル53を表示することができる。
このように、ヘリコプタ搭載のカメラ21の映像とGPS22による位置情報から、動画像上の点と地図上の点との対応をリアルタイムに算出することによって、ヘリコプタの飛行中に動画像データを見ながら被害箇所のチェックがリアルタイムに行える。これにより、被害地点の特定、地図上への被害情報登録などの時間が大幅に短縮される。
上記作業を行う場合、地上のオペレータは地図35を見る必要は全くなく、動画像32さえ見ておれば作業ができる。
【0021】
なお、上記説明ではGPS22で得た高度h(基本的に海抜高度)をそのまま用いるとして説明したが、地図情報に含まれている地表面の高さ(H)を減じて計算を行う方が正確であることは言うまでもない。
【0022】
上記の形態説明では、リアルタイムに作業できるとはいうものの刻々と変る動画像32をオペレータが注視し続けなければならず、見逃すことはゆるされないので、作業は苦痛をともなうものとなりかねない。
そこで、この点を改善するため図4に示すようにオペレータが特定のキー入力62を行うことにより、動画32を一時的に停止させ(データ保管装置3からのデータ出力を停止させ)災害の確認、位置入力を容易とすることもできる。動画の再スタートは、再度キー入力を行ってもよいし、一定時間後に自動的にスタートさせてもよい。
【0023】
又、キー入力62の代りに、例えば数秒間隔で静止するようにして、オペレータは静止画34のみを見て作業するようにしてもよい。
あるいは又、動画像32上にマーク42を付した時のみ、確認のため静止画34が得られるようにしてもよい。
【0024】
【発明の実施の形態】
実施の形態
以下、この発明の実施の形態について説明する。上記の各形態説明では、動画像32の表示中にユーザー(オペレータ)が画面を見ながら被害地点をマウスでクリックする必要があり、オペレータが必要な有人作業であった。この発明はこれを無人化するため災害が火災である場合には、ヘリコプタ1に赤外線カメラ61を搭載し、その映像を用いて地表面の温度を監視し、高温部を被害(火災)発生地点であると自動判別することによって、自動的に位置入力を行い無人化するようにしたものである
【0025】
図5に実施の形態の構成を示す。1は赤外線カメラ61とGPS22を搭載したヘリコプタ、44は赤外線カメラ61の画像情報中から高温(即ち火災が生じている点)部を自動的に抽出して、その画面上の位置データを画枠計算手段43に伝える高温位置自動指定手段である。
【0026】
図6は動作を説明するための画像図で、12はカメラの撮影範囲(角度)を表した線、13は出火した建物である。36は赤外線カメラ61によって撮影された映像のイメージである。60は火災らしき高熱が確認された部分、62は60を通るx座標線、63は60を通るy座標線である。35はヘリコプタ1の位置を中心にした地図、51は画枠、52は座標線63に対応する座標線、53は出火位置を示すシンボルである。
【0027】
次に動作について説明する。ヘリコプタ1が飛行すると、画面上には赤外線カメラ61で撮影された地表面の赤外線動画像36がリアルタイムに表示され、それと同時に、高温位置指定手段44によりこの赤外線映像36の画面温度のチェックを行い、画面中に一定の温度よりも高温の部分60が発見された場合には被害発生箇所と判断され、その座標値が取り出される。後は図1、図2と同様に地図35上に投影され、被害地点にシンボルが描かれる。
このように、ユーザーが特に指示を与えなくても、自動的に被害地点のチェックとシンボルの登録が行われるため、無人化(少なくともオペレータ負担の軽減)を図ることが出来る。
【0028】
実施の形態
前述の実施の形態1では、ヘリコプタ1の高度は、GPSから得られた海抜高度をそのまま利用するというように述べたが、ヘリコプタ搭載の高度計又は高度レーダ、あるいはカメラの焦点距離(いずれも図示していない)を利用することによって、ヘリコプタの地表からの高度を求める事ができる。これにより、より正確な画枠の位置を算出することができ、結果として、動画像上にてマウスでクリックした場所の地図上での位置をより正確に求める事ができる。
【0029】
図7に実施の形態の構成を示す。図7において静止画像34の画枠を地図35の中に投影する際に高度補正を行う。具体的には図8に示すように、GPS22から得られる海抜高度71の代わりに、高度レーダの測定高度72、すなわちカメラから地表面までの実際の距離を用いるわけである。この高度をh’として、上述した計算式に当てはめることで地図上の座標系に対応する画枠の位置をより正確に算出することが出来る。
【0030】
GPS22から得られる高度の情報は海抜高度である。災害発生時に飛行するヘリコプタの海抜高度に対し、カメラで撮影される地上面の海抜高度は無視できる程低くはない。このように、ヘリコプタの高度としてGPS22の情報の代わりに高度測定値を用いることで、より正確な被害地点の算出が可能となる。
【0031】
上記の説明では画像上の位置判読装置の高度補正を行うものであるが、実施の形態のものに同様の高度補正を行うことでより正確に被害箇所の自動判別を行うことが可能となる。
【0032】
即ち、図9において赤外線映像36の画枠を、地図35の中に投影する際に補正を行う。具体的には、図8に示したように、GPS22から得られる海抜高度71の代わりに、高度レーダによる測定72、すなわちカメラから地表面までの実際の距離を用いるわけである。この高度をh’として、上述した計算式に当てはめることで地図上の座標系に対応する画枠51の位置を、より正確に算出することが出来る。
【0033】
このように赤外線映像と高度レーダ情報を用いることで、ユーザーの手をわずらわせることなく、自動で、かつ、より正確な被害地点の特定と、地図への情報の登録を行うことが出来る。
【0034】
実施の形態
施の形態1、2では、被害地点のチェックを手で行うか自動で行うかの違いはあるものの、シンボルの登録に関しては全て画枠51内の比率計算から自動的に行っているが、従来のように人の判断により直接地図上にマークする方法も(例えば、火災と単なる焚火との区別が出来るなど)信頼性の点では優れている。そこで、図10に示すような方法で、シンボルの登録をユーザーが行うようにすれば、従来と同様な信頼あるマーキングが、より容易に実行でき、正確な位置にシンボルを置くことが出来る。
【0035】
図10に実施の形態の構成を示し、その動作について説明する。
ヘリコプタ1が飛行すると、画面上にはカメラ21で撮影された地表面の動画像2がリアルタイムに表示される。ここで、画面上に被害地点が発見されたら、画面上の任意の点をマウスでクリックする(あるいはあらかじめ定めた適当なキー入力を行う)ことでその時点での静止画像がスナップショット74としてGPSデータとともに保存される。ヘリコプタ1の飛行あるいは撮影が終了した後、それまでに保存したスナップショット74ならびにGPSデータと、それに対応する位置の地図35を順次呼び出して双方を見比べ、地図35上の被害地点に当たる部分にシンボル53を登録して行く。
【0036】
このように、被害地点を発見した際に、その地点をチェックするのではなく、近傍の静止画像そのものを取り込むために、狭い区域に被害地点が点在する場合などにも対応可能であり、従来の場合のように画像と地図とが向きや縮尺の点ででたらめであると言うことがないので、作業は楽となり、シンボル登録部分を人間の判断に委ねることによって、シンボルの登録位置の信頼性が増す他、登録間違いの可能性も確実に減る等の効果が得られる。
【0037】
ここで、実施の形態に説明した技術を用いる、即ちカメラ21の代りに赤外線カメラ61を用いるようにし、スナップショット74は赤外画像であるものとして、シンボルの登録作業を自動化することができる。更にGPS22によって得た高度情報を地図情報で修正したり、あるいはヘリコプタ1に搭載した高度計の情報で修正することでより正確な画像位置の補正が行えることは言うまでもない。
【0038】
上記説明では、航空機としてヘリコプタを用いるとして説明したが飛行機、飛行船、気球であっても同様効果が得られる。航空機は勿論模型のものでもカメラなどが積載できれば良い
特に低速飛行又は静止することができるヘリコプタ、飛行船、気球による場合は、より安定した位置の判読が可能となる。
又、地上設備として説明した部分が全て機上に設けられていてもよい。
テレビカメラの代りに電子式スチールカメラが利用できることは自明である。
【0039】
【発明の効果】
以上のように、この発明によれば、災害発生時の災害位置の特定及び地図上へのシンボルの登録の際に、ユーザーがヘリコプタの飛行が終るまで待つ必要が無いため、位置の確定が素早く行えるとともに、オペレータの疲労が軽くなって、情報の見落しが減少し、情報漏れが発生することが少くなる。
【0040】
又、赤外線カメラを用いた場合には、火災の発見とその位置の特定が全く無人で行えると言う効果が得られる。
【図面の簡単な説明】
【図1】この発明の基礎となる画像上の位置判読装置の構成図である。
【図2】図1の動作を説明するための図である。
【図3】図1画角の計算方法の説明図である。
【図4】他の形態による画像上の位置判読装置の動作説明図である。
【図5】この発明の実施の形態による画像上の位置判読装置の構成図である。
【図6】図5の動作説明図である。
【図7】実施の形態による画像上の位置判読装置の動作説明図である。
【図8】高度補正計算の説明図である。
【図9】実施の形態の図7を変形した適用例である。
【図10】実施の形態の画像上の位置判読装置の動作説明図である。
【図11】従来の災害地点の特定を行う位置判読装置の構成図である。
【図12】図11の動作を説明するための図である。
【符号の説明】
1 航空機(ヘリコプタ)、 21 テレビカメラ、
22 GPS、 32 動画像、
32A、34A 位置情報、 34 静止画像、
35 地図画像、 43 画枠計算手段、
44 高温位置自動指定手段、 47 画像表示手段、
49 位置入力手段、 51 画枠、
θ 画角、 61 赤外線カメラ、
[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention displays a symbol or the like on a map by combining a disaster point identified on an image obtained from a television camera mounted on an aircraft such as a helicopter with position information obtained from a GPS mounted on the map and displaying a symbol or the like on the map. The present invention relates to a system for interpreting a position on an image for specifying a point.
[0002]
[Prior art]
In the event of a disaster such as a fire or a traffic accident, it is indispensable to grasp where these events occurred on a map in order to manage disasters comprehensively, for example, take rescue measures. is there.
The initial information about the disaster location is often provided by a helicopter-mounted TV camera, so it is necessary to quickly identify the location from this image, which is a matter of seconds. .
[0003]
As an example of a disaster, JP-A-5-46887 discloses a system for automatically monitoring or rediscovering a fire. However, since the camera is installed on the ground, the monitoring range is limited.
Japanese Patent Application Laid-Open No. 8-324499 discloses a fire extinguisher dropping device for reliably dropping a fire extinguisher at a fire position confirmed by an infrared camera mounted on a helicopter.
Japanese Patent Application Laid-Open No. 4-3638989 discloses a technique for transmitting a signal from a video camera on a helicopter to the ground.
A description will be given of a conventional helicopter-mounted disaster spot identification system that combines these known technologies within a range that can be easily combined.
[0004]
FIG. 11 is a diagram showing a basic configuration of a position interpretation system for specifying an occurrence point when a disaster occurs. In the figure, 1 is a helicopter equipped with a camera 21 and a GPS 22 for photographing the ground, 2 is a moving image 32 sent from the helicopter 1 by wireless transmission 25, and a still image 34 containing positional information every second (these information is shown). , A device for storing (storing) the information 20 transmitted from the receiving device 2, a display of a moving image and a still image, and a display of the helicopter 1 that has captured them. This is a damage information reading device that displays a position on a map and inputs a disaster occurrence position by looking at an image by a person. The devices after the data receiving device 2 are installed on the ground.
FIG. 12 is a diagram for explaining the operation of the device shown in FIG.
In the figure, reference numeral 32 denotes a moving image taken by the television camera 21 (for example, the upper side is in front of the helicopter), 34 denotes a still image, 34A denotes position data, and 35 denotes a map obtained from CDROM data (not shown) based on the position data 34A. In the image, this is a northward view. Reference numeral 13 denotes a fire as an example of a disaster occurrence for the sake of explanation.
[0005]
Next, the operation of the conventional system will be described. When the helicopter 1 flies, information 20 including a moving image 32 captured by a camera 21 mounted on the helicopter 1 and a still image 34 at one-second intervals including positional information from the GPS 22 is stored in the data receiving device 2 and the data storage device. It is sent to the position reading system 4 via the device 3. The position interpretation system 4 displays the received moving image 32 on the screen in real time, and at the same time, displays a map 35 based on the position information of the helicopter 1 added to the still image 34 and displays the map 35 on the map 35. A symbol representing the current position of the helicopter 1 is displayed. The user checks the still image 34 after watching the moving image 32, or remembers the damage occurrence point discovered while viewing the moving image 32 based on the surrounding scenery and the like. According to the method, the damage occurrence point is registered as a symbol 53 by a mouse cursor or the like (not shown) while comparing the still image of the called damage occurrence point with a map around the same point.
[0006]
In the above-mentioned conventional example, since the work is performed by one person, it is not possible to input the damage information while receiving and displaying the moving image 32 and viewing it. Since the moving image 32 and the map 35 do not have the same orientation and scale, finding the position on the moving image on the map is not an easy task if you are not used to it.
[0007]
[Problems to be solved by the invention]
The conventional helicopter and TV position interpretation system using images are configured and operating as described above.To register the damage position on the map, the information sent from the helicopter must be completely transmitted. Either wait until all data has been received, or use a data storage device (video playback device) to pause each time.
If a spot is found on a moving image that is received and displayed in real time during the flight of the helicopter, the user needs to remember to some extent the location on the map. Therefore, in order to locate the damage point on the map at the stage of damage location registration after receiving all the information, it is necessary to sequentially check the still images near the place memorized when watching the moving image In addition, it is necessary to check more than necessary still images, and it takes a long time to perform the operation, and there is a problem that fatigue is intense and a check may be omitted.
[0008]
In the event of a disaster, it is important to quickly understand and respond to the situation, and these issues cannot be overlooked in that the real-time nature of the information is impaired and that information leakage may occur. .
[0009]
The present invention has been made in order to solve the above-described problems, and it is possible to read and register a damage point in real time while watching a video (moving image) from a helicopter camera, and to obtain a position where a situation can be quickly grasped. The aim is to obtain a reading system.
[0010]
[Means for Solving the Problems]
A position reading device on an image according to the present invention is mounted on an aircraft and constantly outputs a television image information by photographing a vertically downward position, and an infrared television camera mounted on the aircraft and synchronizing with the imaging of the infrared television camera. GPS that outputs position information including altitude and direction of the vehicle, receiving the TV image information and the position information, displaying the TV image, and determining the current position from map data stored in advance based on the position information. A position reading device on an image having image display means for selecting map data including and displaying a map image , wherein the high-temperature position automatic device identifies a high-temperature portion on an infrared image and designates and inputs the high-temperature position. designating means, the image frame on the map image based on the angle of view of the television camera are calculated, the with the specified input hot position on the map image, the image frame Those having a picture frame calculation means for displaying in real time.
[0011]
Also, a television camera mounted on the aircraft and constantly shooting vertically downward to output television image information, and a positional information including the altitude and orientation of the aircraft output in synchronization with the imaging of the television camera mounted on the aircraft. Receiving the GPS, the television image information and the position information, displaying the television image, selecting map data including the current position from map data stored in advance based on the position information, and displaying the map image And an image display means for performing position reading on an image, comprising: a position input means for designating an arbitrary point on the television image; and an image frame on the map image based on an angle of view of the television camera. Calculated based on the altitude data of the camera obtained by the radar altimeter mounted on the aircraft or the focal length meter of the camera, and the calculated data is input on the map image. With any point was, and has a picture frame calculation means for displaying the image frame in real time.
[0012]
Below, the position read system on an image that is a basis of the present invention, by using the block diagram in FIG. 1, also be described with reference to diagram showing an image in Figure 2.
In the following drawings, parts that are the same as or correspond to those in the related art are denoted by the same reference numerals, and detailed description thereof is omitted.
[0013]
In FIG. 1, reference numeral 1 denotes a helicopter equipped with a television camera 21 (hereinafter referred to as a camera) for photographing the ground and outputting television image information, and a GPS 22. Reference numeral 2 denotes a moving image 32 transmitted from the helicopter 1 by wireless transmission 25; , A receiving device for receiving the positional information (information 20) of the GPS 22, a device for storing the information 20 sent from the receiving device 2, a moving image 41 and a still image (moving image is temporarily stopped) according to the present invention. ) And a damage information reading device for displaying the position of the helicopter 1 where the images were taken on the map, and inputting information on the damage occurrence position, 47 is an image display means, and 43 is an image frame. Details of the calculation means will be described later.
Reference numeral 48 denotes map data (CDROM), and reference numeral 49 denotes position input means, which represents main contents of work performed by an operator (human).
[0014]
Here, the camera 21 is installed in a gimbal device having a built-in gyro so that the camera 21 can always photograph vertically below regardless of the attitude and acceleration of the helicopter 1.
However, the upper side of the captured screen always faces the front of the helicopter 1. The GPS 22 synchronizes and outputs position information (longitude and latitude) including the altitude and direction of the helicopter 1 for each screen frame captured by the camera 21.
[0015]
FIG. 2 is a diagram for explaining the operation of FIG.
In the figure, 32 is a moving image, 32A is corresponding position data, and 35 is a map image obtained from map data (CDROM data) 48 based on the position data 32A.
Reference numeral 12 denotes an auxiliary explanation line indicating the photographing range (angle) of the camera, and reference numeral 13 denotes a fire for explanation as an example of a disaster occurrence. Reference numeral 32 denotes an image of a moving image captured by the camera 21 of the helicopter 1 displayed on a screen, and an arrow 42 denotes a mouse cursor. Reference numeral 33 denotes the x-coordinate and y-coordinate in the image frame when the fire place is indicated (clicked) with the mouse cursor 42 by dotted lines, and indicates the position in the image frame for easy understanding for convenience of explanation. is there.
[0016]
35 is a map in which the position of the helicopter 1 is centered and north is displayed at the top, 51 is a projection of the image frame of the 33 television screen on the map 35, and 52 is a coordinate line of 33 in the image frame 51. The projection 53 is a symbol indicating the fire position. In the following description, it is assumed that the camera 21 always faces vertically downward regardless of the attitude and acceleration of the helicopter 1.
[0017]
Next, the operation will be described.
First, when the helicopter 1 flies, a moving image 32 of the ground surface captured by the camera 21 is displayed on the screen in real time. When a damaged part is found on the moving image 32, the user clicks the portion 13 on the moving image 32 with the mouse 42. The clicked point corresponds to the position 31 in the image frame 33. The map 35 is updated and displayed every moment based on the position data 32A added to the moving image 32. Then, the image frame 51 of the camera 21 is displayed on the map 35 by calculating from the latitude / longitude, altitude, direction, and angle of view of the helicopter 1.
[0018]
With reference to FIG. 3, a method of projecting an image frame on a map from the latitude / longitude, altitude, orientation, and angle of view θ of the helicopter 1 will be described. 3, reference numeral 21 denotes a camera mounted on the helicopter 1, reference numeral 51 denotes a frame of the camera, reference numeral 133 denotes a center of the frame 51 (the center of the image), and reference numeral 134 denotes a vertex of the frame 51, which is right forward (45) in the traveling direction of the helicopter 1. °), 135 indicates the forward direction of the helicopter, and 136 indicates the north direction (the direction that serves as a reference in managing the map).
[0019]
In order to project the image frame 51 on the map 35, it is necessary to know the positions of the four vertices of the image frame 51. The center coordinates of the image frame 51 are (0, 0), the + direction of the y-axis is north, and the coordinates of the vertex 134 of the image frame are (x1, y1).
First, assuming that the distance from the center 133 of the image frame to the vertex 134 is L, L is calculated using the altitude h of the helicopter and the angle of view θ of the camera.
L = h · tan θ
It can be expressed as Next, when x1 and y1 are expressed using this L and the traveling direction (azimuth) θ2 of the helicopter 1 measured with the north taken as 0 °,
x1 = L · sin (θ2 + π / 4)
y1 = −L · cos (θ2 + π / 4)
It becomes. Similarly, by calculating the other three vertices, the image frame 51 can be projected on the map 35. The above series of operations is executed by the image frame calculation means 43 of FIG.
[0020]
Here, since the position of the image frame of the moving image 32 coincides with the position of the image frame 51 on the map 35, a damage point (point 31 in FIG. 2) on the map 35 is calculated based on these comparisons. A symbol 53 indicating a damaged part can be displayed.
As described above, the correspondence between the points on the moving image and the points on the map is calculated in real time from the image of the camera 21 mounted on the helicopter and the position information from the GPS 22 so that the moving image data can be viewed during the flight of the helicopter. Damage points can be checked in real time. As a result, the time required to specify a damage point and register damage information on a map is greatly reduced.
In performing the above operation, the operator on the ground does not need to look at the map 35 at all, and can perform the operation only by watching the moving image 32.
[0021]
In the above description, the altitude h (basically, altitude above sea level) obtained by the GPS 22 is used as it is. However, it is more accurate to calculate by reducing the ground surface height (H) included in the map information. Needless to say,
[0022]
In the above description of the embodiment , the operator must keep an eye on the ever-changing moving image 32, although it is possible to work in real time, and he / she cannot be overlooked, so the work may be painful.
Therefore, in order to improve this point, the operator performs a specific key input 62 as shown in FIG. 4 to temporarily stop the moving image 32 (stop data output from the data storage device 3) and confirm the disaster. Also, the position input can be facilitated. The restart of the moving image may be performed by key input again, or may be automatically started after a predetermined time.
[0023]
Further, instead of the key input 62, the operator may stop at intervals of several seconds, for example, and the operator may work while viewing only the still image 34.
Alternatively, only when the mark 42 is added to the moving image 32, the still image 34 may be obtained for confirmation.
[0024]
BEST MODE FOR CARRYING OUT THE INVENTION
Embodiment 1 FIG.
Hereinafter, embodiments of the present invention will be described. In the above embodiments , the user (operator) needs to click the damage point with the mouse while viewing the moving image 32 while viewing the screen, which is a manned operation required by the operator. According to the present invention , when a disaster is a fire, the infrared camera 61 is mounted on the helicopter 1 and the temperature of the ground surface is monitored using the image of the fire. by automatically determining that it is obtained by such that unmanned automatically performs position input.
[0025]
FIG. 5 shows the configuration of the first embodiment. Reference numeral 1 denotes a helicopter equipped with an infrared camera 61 and a GPS 22. Reference numeral 44 automatically extracts a high temperature (that is, a point where a fire has occurred) from image information of the infrared camera 61, and displays position data on the screen as an image frame. This is a high-temperature position automatic designation means to be transmitted to the calculation means 43.
[0026]
FIG. 6 is an image diagram for explaining the operation, in which 12 is a line representing the shooting range (angle) of the camera, and 13 is a building where a fire has started. Reference numeral 36 denotes a video image captured by the infrared camera 61. Reference numeral 60 denotes a portion where a high heat like a fire is confirmed, 62 denotes an x coordinate line passing through 60, and 63 denotes a y coordinate line passing through 60. 35 is a map centered on the position of the helicopter 1, 51 is an image frame, 52 is a coordinate line corresponding to a coordinate line 63, and 53 is a symbol indicating a fire position.
[0027]
Next, the operation will be described. When the helicopter 1 flies, an infrared moving image 36 of the ground surface taken by the infrared camera 61 is displayed on the screen in real time, and at the same time, the screen temperature of the infrared image 36 is checked by the high-temperature position specifying means 44. If a portion 60 having a temperature higher than a certain temperature is found in the screen, it is determined that a damage has occurred, and the coordinate value thereof is extracted. The rest is projected onto the map 35 as in FIGS. 1 and 2, and a symbol is drawn at the point of damage.
As described above, even if the user does not give any particular instruction, the check of the damage point and the registration of the symbol are automatically performed, so that it is possible to achieve unmanned operation (at least a reduction in the burden on the operator).
[0028]
Embodiment 2 FIG.
In the first embodiment, the altitude of the helicopter 1 is described as using the altitude obtained from the GPS as it is, but the altimeter or altitude radar mounted on the helicopter, or the focal length of the camera (all shown in the figure). Can be used to determine the altitude of the helicopter above the ground. As a result, the position of the image frame can be calculated more accurately, and as a result, the position on the map at the position clicked with the mouse on the moving image can be more accurately obtained.
[0029]
FIG. 7 shows the configuration of the second embodiment. In FIG. 7, altitude correction is performed when the image frame of the still image 34 is projected on the map 35. Specifically, as shown in FIG. 8, the measured altitude 72 of the altitude radar, that is, the actual distance from the camera to the ground surface is used instead of the sea level altitude 71 obtained from the GPS 22. By setting this altitude as h 'and applying the altitude to the above formula, the position of the image frame corresponding to the coordinate system on the map can be calculated more accurately.
[0030]
The altitude information obtained from the GPS 22 is the altitude above sea level. The altitude above the ground, which is captured by a camera, is not negligibly lower than the altitude of a helicopter flying during a disaster. In this way, by using the altitude measurement value instead of the information of the GPS 22 as the altitude of the helicopter, it is possible to calculate the damage point more accurately.
[0031]
Although the above description is intended for advanced correction of the position reading device on the images, it can be performed more accurately automatic determination of the damage portion by performing the same altitude correction to those of the first embodiment It becomes.
[0032]
That is, the correction is performed when the image frame of the infrared image 36 is projected on the map 35 in FIG. Specifically, as shown in FIG. 8, instead of the altitude 71 obtained from the GPS 22, the altitude radar measurement 72, that is, the actual distance from the camera to the ground surface is used. By applying this altitude as h ′ and applying the above-described formula to the above formula, the position of the image frame 51 corresponding to the coordinate system on the map can be calculated more accurately.
[0033]
By using the infrared image and the altitude radar information in this way, it is possible to automatically and more accurately identify a damage point and register information on a map without bothering the user. .
[0034]
Embodiment 3 FIG.
In the implementation of Embodiment 1, 2, although of differences performed automatically or by hand to check the damage point it is, is performed automatically in the ratio calculation of all image frame 51 with respect to registration of the symbol, Conventionally, a method of directly marking on a map by human judgment (for example, it is possible to distinguish between a fire and a simple bonfire) is also excellent in reliability. Therefore, if the user registers a symbol by a method as shown in FIG. 10, a reliable marking similar to the conventional one can be more easily performed, and the symbol can be placed at an accurate position.
[0035]
FIG. 10 shows the configuration of the third embodiment, and its operation will be described.
When the helicopter 1 flies, a moving image 2 of the ground surface captured by the camera 21 is displayed on the screen in real time. Here, when a damage point is found on the screen, an arbitrary point on the screen is clicked with a mouse (or a predetermined appropriate key input is performed), and the still image at that time is taken as a snapshot 74 by the GPS. Stored with the data. After the flight or shooting of the helicopter 1 is completed, the snapshot 74 and the GPS data saved up to that time are called up sequentially and the map 35 at the corresponding position is compared and compared, and the symbol 53 is displayed at the portion corresponding to the damage point on the map 35. Register and go.
[0036]
In this way, when a damaged point is found, instead of checking that point, the nearby still image itself is captured, so it is possible to deal with cases where the damaged point is scattered in a small area, etc. Since the image and the map are not random in terms of orientation and scale as in the case of, the work becomes easier, and the reliability of the registration position of the symbol is improved by leaving the symbol registration part to human judgment. And the likelihood of registration errors being reduced.
[0037]
Here, the technique described in the first embodiment is used, that is, the infrared camera 61 is used instead of the camera 21, and the symbol registration operation can be automated assuming that the snapshot 74 is an infrared image. . Further, it is needless to say that the image position can be corrected more accurately by correcting the altitude information obtained by the GPS 22 with the map information or the altimeter mounted on the helicopter 1.
[0038]
In the above description, a helicopter is used as an aircraft, but the same effect can be obtained with an airplane, an airship, and a balloon. It is sufficient if a camera or the like can be loaded as well as a model as well as an aircraft. Particularly, in the case of a helicopter, an airship, or a balloon capable of flying at a low speed or stopping, a more stable position can be read.
Further, all the parts described as the ground equipment may be provided on the machine.
Obviously, electronic still cameras can be used instead of television cameras.
[0039]
【The invention's effect】
As described above, according to the present invention, it is not necessary for the user to wait until the helicopter has finished flying when identifying a disaster position and registering a symbol on a map at the time of occurrence of a disaster, so that the position can be determined quickly. In addition to being able to do so, operator fatigue is reduced, information oversight is reduced, and information leakage is less likely to occur.
[0040]
In addition, when an infrared camera is used, an effect is obtained that a fire can be found and its position can be specified completely unattended.
[Brief description of the drawings]
FIG. 1 is a configuration diagram of a position reading device on an image on which the present invention is based .
FIG. 2 is a diagram for explaining the operation of FIG. 1;
FIG. 3 is an explanatory diagram of a method of calculating an angle of view in FIG. 1;
FIG. 4 is an explanatory diagram illustrating an operation of a position reading device on an image according to another embodiment .
FIG. 5 is a configuration diagram of an apparatus for reading a position on an image according to the first embodiment of the present invention ;
FIG. 6 is an operation explanatory diagram of FIG. 5;
FIG. 7 is an explanatory diagram of an operation of the apparatus for reading a position on an image according to the second embodiment.
FIG. 8 is an explanatory diagram of an altitude correction calculation.
FIG. 9 is an application example obtained by modifying FIG. 7 of the second embodiment.
FIG. 10 is an explanatory diagram of an operation of the position reading device on an image according to the third embodiment.
FIG. 11 is a configuration diagram of a conventional position reading device that specifies a disaster point.
FIG. 12 is a diagram for explaining the operation of FIG. 11;
[Explanation of symbols]
1 aircraft (helicopter), 21 TV camera,
22 GPS, 32 moving images,
32A, 34A position information, 34 still images,
35 map images, 43 image frame calculation means,
44 high temperature position automatic designation means, 47 image display means,
49 position input means, 51 picture frame,
θ angle of view, 61 infrared camera,

Claims (2)

航空機に搭載され常に鉛直下方を撮影してテレビ画像情報を出力する赤外線テレビカメラと、
この航空機に搭載され前記赤外線テレビカメラの撮影に同期してこの航空機の高度、向きを含む位置情報を出力するGPSと、
前記テレビ画像情報と前記位置情報を受信して前記テレビ画像の表示と、前記位置情報をもとにあらかじめ記憶している地図データから現在位置を含む地図データの選択、地図画像の表示とを行う画像表示手段とを有する画像上の位置判読装置であって、
赤外線画像上で高温部を識別し、その高温位置を指定入力する高温位置自動指定手段と、
前記テレビカメラの画角にもとづく前記地図画像上の画枠を計算し、前記地図画像上に前記指定入力された高温位置とともに、この画枠をリアルタイムに表示する画枠計算手段とを有することを特徴とする画像上の位置判読装置。
An infrared television camera mounted on an aircraft that constantly shoots vertically below and outputs television image information;
A GPS mounted on the aircraft and outputting position information including the altitude and orientation of the aircraft in synchronization with shooting by the infrared television camera;
Receiving the television image information and the position information, displaying the television image, selecting map data including a current position from map data stored in advance based on the position information, and displaying a map image. A position reading device on an image having image display means,
A high-temperature position automatic specifying means for identifying a high-temperature portion on the infrared image and specifying and inputting the high-temperature position;
Image frame calculating means for calculating an image frame on the map image based on the angle of view of the television camera, and displaying the image frame in real time together with the designated and input high-temperature position on the map image. Characteristic position reading device on the image.
航空機に搭載され常に鉛直下方を撮影してテレビ画像情報を出力するテレビカメラと、
この航空機に搭載され前記テレビカメラの撮影に同期してこの航空機の高度、向きを含む位置情報を出力するGPSと、
前記テレビ画像情報と前記位置情報を受信して前記テレビ画像の表示と、前記位置情報をもとにあらかじめ記憶している地図データから現在位置を含む地図データの選択、地図画像の表示とを行う画像表示手段とを有する画像上の位置判読装置であって、
前記テレビ画像上で任意地点を指定する位置入力手段と、
前記テレビカメラの画角にもとづく前記地図画像上の画枠を前記航空機に搭載されているレーダ高度計、又はカメラの焦点距離計により求められたカメラの高度データに基づいて計算し、前記地図画像上に前記入力された任意地点とともに、この画枠をリアルタイムに表示する画枠計算手段とを有することを特徴とする画像上の位置判読装置。
A TV camera mounted on an aircraft that always shoots vertically below and outputs TV image information;
A GPS mounted on the aircraft and outputting position information including the altitude and orientation of the aircraft in synchronization with shooting by the television camera;
Receiving the television image information and the position information, displaying the television image, selecting map data including a current position from map data stored in advance based on the position information, and displaying a map image. A position reading device on an image having image display means,
Position input means for specifying an arbitrary point on the television image,
An image frame on the map image based on the angle of view of the television camera is calculated based on the altitude data of the camera obtained by a radar altimeter mounted on the aircraft or a focal length meter of the camera, and is calculated on the map image. And an image frame calculating means for displaying the image frame in real time together with the input arbitrary point .
JP13340398A 1998-05-15 1998-05-15 Image interpretation device Expired - Lifetime JP3569627B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP13340398A JP3569627B2 (en) 1998-05-15 1998-05-15 Image interpretation device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP13340398A JP3569627B2 (en) 1998-05-15 1998-05-15 Image interpretation device

Publications (2)

Publication Number Publication Date
JPH11331831A JPH11331831A (en) 1999-11-30
JP3569627B2 true JP3569627B2 (en) 2004-09-22

Family

ID=15103945

Family Applications (1)

Application Number Title Priority Date Filing Date
JP13340398A Expired - Lifetime JP3569627B2 (en) 1998-05-15 1998-05-15 Image interpretation device

Country Status (1)

Country Link
JP (1) JP3569627B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102218120B1 (en) * 2020-09-21 2021-02-22 주식회사 폴라리스쓰리디 Autonomous navigating module, mobile robot including the same and method for estimating its position

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3527160B2 (en) * 1999-12-28 2004-05-17 株式会社エヌ・ティ・ティ・データ Imaging instruction system, imaging instruction method, and recording medium
JP3946593B2 (en) * 2002-07-23 2007-07-18 株式会社エヌ・ティ・ティ・データ Joint shooting system
JP3740533B2 (en) * 2002-10-30 2006-02-01 独立行政法人産業技術総合研究所 Aerial photo map generator
JP4080302B2 (en) * 2002-11-07 2008-04-23 三菱電機株式会社 Position interpretation device
AU2003244321B8 (en) * 2003-06-20 2008-02-21 Mitsubishi Denki Kabushiki Kaisha Picked-up image display method
JP4502793B2 (en) * 2004-12-14 2010-07-14 三菱電機株式会社 Shooting video processing system
JP4246195B2 (en) * 2005-11-01 2009-04-02 パナソニック株式会社 Car navigation system
JP2007241085A (en) * 2006-03-10 2007-09-20 Mitsubishi Electric Corp Photographed image processing system and photographed image processing device, and photographed image display method
JP4975003B2 (en) * 2008-11-20 2012-07-11 三菱電機株式会社 Target position specifying apparatus and target position specifying method
JP4560128B1 (en) 2009-08-13 2010-10-13 株式会社パスコ Map image integrated database generation system and map image integrated database generation program
JP6412971B2 (en) * 2017-03-17 2018-10-24 西日本電信電話株式会社 POSITION INFORMATION CALCULATION DEVICE, POSITION INFORMATION CALCULATION METHOD, AND POSITION INFORMATION CALCULATION PROGRAM
CN109218637A (en) * 2018-03-19 2019-01-15 崔连臣 A kind of cloud computing system of positioning sandstorm invasion
JP6690839B2 (en) * 2018-03-23 2020-04-28 Necプラットフォームズ株式会社 Monitoring device, monitoring system, monitoring method, and program

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102218120B1 (en) * 2020-09-21 2021-02-22 주식회사 폴라리스쓰리디 Autonomous navigating module, mobile robot including the same and method for estimating its position

Also Published As

Publication number Publication date
JPH11331831A (en) 1999-11-30

Similar Documents

Publication Publication Date Title
JP3569627B2 (en) Image interpretation device
US7800645B2 (en) Image display method and image display apparatus
US9325969B2 (en) Image capture environment calibration method and information processing apparatus
JP6896688B2 (en) Position calculation device, position calculation program, position calculation method, and content addition system
CN106062510A (en) Information processing device, information processing method, and computer program
CN106197377A (en) A kind of unmanned plane targeted surveillance over the ground and the display system of two dimension three-dimensional linkage
US20030218675A1 (en) Video picture processing method
US20220026208A1 (en) Surveying system, surveying method, and surveying program
JP6001914B2 (en) Target position specifying device, target position specifying system, and target position specifying method
JP2014220604A (en) Photographing position information display device
WO2021250914A1 (en) Information processing device, movement device, information processing system, method, and program
WO2014003698A1 (en) An aircraft vision system
KR20160082886A (en) Method and system for mapping using UAV and multi-sensor
JP2009140402A (en) Information display device, information display method, information display program, and recording medium with recorded information display program
JP2011169658A (en) Device and method for pinpointing photographed position
JP3860945B2 (en) Imaging instruction apparatus, imaging instruction method, and recording medium
EP4343498A1 (en) System and method for conformal head worn display (hwd) headtracker alignment
JPH08285590A (en) Method and apparatus for specifying position
JP3919994B2 (en) Shooting system
CN107490866A (en) A kind of method of the wearable display system of pilot and its positioning head posture
JP2007241085A (en) Photographed image processing system and photographed image processing device, and photographed image display method
JP2003316259A (en) Photography image processing method and system thereof
WO2021212499A1 (en) Target calibration method, apparatus, and system, and remote control terminal of movable platform
JPH1114354A (en) Photographing apparatus
KR100745105B1 (en) Image display method and image display apparatus

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20040305

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20040309

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20040416

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20040420

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20040608

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20040621

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080625

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080625

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090625

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100625

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100625

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110625

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120625

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130625

Year of fee payment: 9

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

EXPY Cancellation because of completion of term