JP3919994B2 - Shooting system - Google Patents

Shooting system Download PDF

Info

Publication number
JP3919994B2
JP3919994B2 JP2000004863A JP2000004863A JP3919994B2 JP 3919994 B2 JP3919994 B2 JP 3919994B2 JP 2000004863 A JP2000004863 A JP 2000004863A JP 2000004863 A JP2000004863 A JP 2000004863A JP 3919994 B2 JP3919994 B2 JP 3919994B2
Authority
JP
Japan
Prior art keywords
camera
displayed
information
video
shooting
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2000004863A
Other languages
Japanese (ja)
Other versions
JP2001197481A (en
Inventor
重彦 渡部
正光 斉藤
俊明 筒井
信治 蒲原
哲二 直井
潮 井上
耕治 宮島
初夫 木村
敏次 勝又
智 西山
行男 田中
明徳 小迫
良和 納本
広義 植野
章夫 小宮
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NTT Data Corp
Mitsubishi Electric Corp
Original Assignee
NTT Data Corp
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NTT Data Corp, Mitsubishi Electric Corp filed Critical NTT Data Corp
Priority to JP2000004863A priority Critical patent/JP3919994B2/en
Publication of JP2001197481A publication Critical patent/JP2001197481A/en
Application granted granted Critical
Publication of JP3919994B2 publication Critical patent/JP3919994B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Closed-Circuit Television Systems (AREA)
  • Studio Devices (AREA)

Description

【0001】
【発明の属する技術分野】
この発明は、目標物を空中から撮影する場合に、周囲の視界状況に拘わらず、その目標物を正確に撮影する撮影システムに関するものである。
【0002】
【従来の技術】
ヘリコプターを使用して目標物を撮影する場合、ヘリコプターの飛行前に、パイロットと撮影者との間で、目標物の位置、撮影範囲、カメラの種類、飛行ルート、撮影計画等について詳細打ち合わせを実施する。そして、決定した飛行ルートで目標物の近くの上空までヘリコプターを移動させ、撮影者が目標物を目視で探して、カメラが捕らえている映像をモニタしながら、カメラを目標物の中心に向け、予定された範囲を撮影するために、ヘリコプターから目標物までの距離に応じて、カメラのズーム比を調整しながら目標物の撮影を実施している。
【0003】
目標物を撮影する過程において、上空からカメラが撮影している映像位置を2次元地図上で特定したい場合に、その映像位置を精度良く特定するのは困難である。そこで、この課題を解決するものとして、特許第2695393号公報(特開平8−285590号公報)に示された「位置特定方法および装置」がある。
【0004】
図5は上記公報に示された位置特定方法の原理を説明する図である。飛行するヘリコプター51に搭載されたカメラ部61により撮影している映像位置71を2次元地図上で特定するときに、映像位置71が2次元平面73から高度Hの高さの地表面72上に存在する場合には、映像位置71の2次元地図上の位置を、映像位置71を2次元平面73に投影した投影位置75と判断せずに、カメラ部61から映像位置71までの直線Lを2次元平面73まで延長した延長交点74と判断してしまい、投影位置75と延長交点74との距離の差Eだけの誤差が生じてしまう。しかし、この位置特定方法では、映像位置71の高度Hの情報を使用して、映像位置71の2次元地図上の位置を投影位置75と正確に特定している。
【0005】
図6は上記公報に開示されている従来の撮影システムの構成を示すブロック図である。この撮影システムはヘリコプター51に搭載されるものであり、カメラ部61は、ジャイロを内蔵するジンバル61bと、ジンバル61bに取り付けられたカメラ61aにより構成される。カメラ制御/ビデオ処理部62は、カメラ部61を制御すると共に撮影した映像信号の処理を行う。処理された映像信号はVTR63に記録されモニタ64に表示される。システム制御部65は、カメラ制御/ビデオ処理部62を介して、カメラ部61のカメラ61aの焦点制御やジンバル61bの方向制御を行う。
【0006】
3次元地図データ部66は、地表面72についての高度情報を含む地図データを記憶している。位置検出部67は、GPS(Global Positioning System)衛星からの電波により、ヘリコプター51の現在位置を3次元的に測定すると共に、3次元地図データ部66の記憶内容を読み出して地図画像を生成する。また、位置検出部67は、ヘリコプター51の機首方向や撮影日付、撮影時間を出力し、さらに、映像位置71の表示やその補正も行う。
【0007】
データ処理部68は、位置検出部67から出力されるヘリコプター51の3次元的な位置と、ヘリコプター51の機首方向と、3次元地図データ部66の記憶内容と、カメラ制御/ビデオ処理部62からのジンバル61bの制御情報から、図5の原理に従って映像位置71の3次元的な位置を計算し、2次元表示を行うための画像データの処理を行う。
【0008】
図7は、データ処理部68が計算した映像位置71を、モニタ64の2次元地図上に画像表示している状態を示す図である。図において、71はカメラ61aが撮影している映像位置、76はカメラ61aの視野(映像範囲)、77はカメラ61aの方向を示している。以上のようにして、映像位置71を2次元的に特定すると共に、図7に示すように、特定された映像位置71を2次元地図上に表示している。
【0009】
【発明が解決しようとする課題】
従来の撮影システムは以上のように構成されているので、カメラ61aが撮影している映像位置71を2次元地図上で正確に把握できるが、映像位置71が実際に目標物を撮影しているかは目視で確認しなければならず、遠方から目標物を撮影せざるを得ない場合や、撮影者が目標物付近の地勢を知らない場合や、霧や煙又は夜間のために目標物付近の視界が悪い場合には、目標物を認識するのが一般的に困難であるという課題があった。
【0010】
また、目標物を目視で捕らえて、カメラ61aからの映像をモニタ64で監視できたとしても、周囲の風景を全体的に認識できないモニタ64では、ヘリコプター51の飛行に伴い、モニタ64を見ながらカメラ61aを正確に目標物に向けている状態を保持するためには、撮影者の高度の撮影技術と忍耐が必要になるという課題があった。
【0011】
この発明は上記のような課題を解決するためになされたもので、目標物を上空から撮影する場合に、周囲の視界状況に拘わらず、目標物を正確に撮影することができる撮影システムを得ることを目的とする。
【0012】
また、ヘリコプター51の飛行に伴い、カメラ61aを正確に目標物に向けている状態を容易に保持できる撮影システムを得ることを目的とする。
【0013】
【課題を解決するための手段】
この発明に係る撮影システムは、目標物が存在する撮影対象位置と、その周辺の撮影対象範囲を撮影する飛行体に搭載されたものにおいて、保有している2次元地図データにより2次元地図を表示し、予め設定された上記撮影対象位置の位置情報により、上記撮影対象位置を上記2次元地図上に表示し、予め設定された上記撮影対象範囲を示す情報により、上記撮影対象範囲を上記2次元地図上に表示し、飛行に伴い検出している上記飛行体の位置情報と、飛行に伴い検出している上記飛行体の姿勢情報及び撮影しているカメラの方向制御情報から得られる上記カメラの視軸方向情報と、保有している3次元地図データから得られる上記視軸方向と地表面との交点の位置情報により、上記2次元地図上に上記カメラが捕らえている映像位置を表示し、上記映像位置と上記カメラの撮影範囲を決めるズーム比により、表示されている上記2次元地図上に、上記カメラが捕らえている映像範囲を所定の形状で表示し、上記映像位置は、撮影指示部の操作により、表示されている上記2次元地図上で任意の位置に移動可能とし、表示されている上記2次元地図上で、上記映像位置を上記2次元地図上の任意の位置に移動させる操作又は上記撮影対象位置に重ね合わせる操作をしたときの2次元の変化情報を求め、求めた上記2次元の変化情報と、飛行に伴い検出している上記飛行体の位置情報に基づき、上記カメラの視軸方向を制御して上記2次元地図上の任意の位置又は上記目標物を撮影するものである。
【0014】
この発明に係る撮影システムは、表示されている2次元地図上で、映像位置を上記2次元地図上の任意の位置に移動させるとき又は撮影対象位置に重ね合わせるときに、撮影対象範囲に対応してカメラのズーム比を制御するものである。
【0015】
この発明に係る撮影システムは、制御されたカメラのズーム比に基づき、表示されている映像範囲を示す所定の形状を変化させるものである。
【0016】
この発明に係る撮影システムは、予め設定された撮影対象位置の位置情報と、飛行に伴い検出している飛行体の位置情報及び姿勢情報に基づき、撮影しているカメラの視軸方向を上記撮影対象位置に保持するものである。
【0017】
この発明に係る撮影システムは、カメラの視軸方向を撮影対象位置に保持しているときに、飛行に伴い検出している飛行体の位置情報と、保有している2次元地図データにより、上記飛行体から撮影対象位置までの直線距離を管理し、設定されている撮影対象範囲に基づき、上記カメラのズーム比を制御するものである。
【0018】
この発明に係る撮影システムは、撮影しているカメラの視軸方向を撮影対象位置に保持しているときに、映像範囲を示す所定の形状を明滅させるものである。
【0019】
この発明に係る撮影システムは、撮影しているカメラの種類に対応して、映像範囲を示す所定の形状の色を変化させるものである。
【0020】
この発明に係る撮影システムは、飛行に伴い検出している飛行体の位置情報により、表示している2次元地図上に、上記飛行体の位置/方向を表示するものである。
【0021】
この発明に係る撮影システムは、飛行に伴い検出している飛行体の位置情報を記憶しておき、表示している2次元地図上に、上記飛行体の飛行経路を表示するものである。
【0022】
この発明に係る撮影システムは、カメラが撮影している動画映像を、2次元地図と共に表示するものである。
【0023】
この発明に係る撮影システムは、表示している動画映像の映像幅を、保有している2次元地図データにより実距離で表示するものである。
【0024】
この発明に係る撮影システムは、保有している2次元地図データにより、表示されている2次元地図の縮尺と、飛行に伴い検出している飛行体の位置から撮影対象位置までの水平距離を、2次元地図と共に表示するものである。
【0025】
この発明に係る撮影システムは、予め設定された撮影対象位置の位置情報と、飛行に伴い検出している飛行体の位置情報及び姿勢情報に基づき、撮影しているカメラの視軸方向を上記撮影対象位置に保持するタイミング、又は所望のタイミングで、撮影している動画映像に静止画を抽出するための静止画マークを付加するものである。
【0026】
この発明に係る撮影システムは、撮影している動画映像とその付帯情報を、飛行体で記録するものである。
【0027】
この発明に係る撮影システムは、撮影している動画映像と、飛行体で表示している撮影対象位置、撮影対象範囲、映像位置、映像範囲等の表示情報を含む付帯情報とを、基地局に送信し、上記基地局で表示された2次元地図上で、上記映像位置を上記撮影対象位置に重ね合わせることにより得られた2次元の変化情報を上記飛行体に送信し、送信された上記2次元の変化情報と、飛行に伴い検出している上記飛行体の位置情報に基づき、カメラの視軸方向を制御して目標物を撮影するものである。
【0028】
【発明の実施の形態】
以下、この発明の実施の一形態を説明する。
実施の形態1.
図1はこの発明の実施の形態1による撮影システムの構成を示す図である。この実施の形態でも、従来の図5に示す原理を使用して、カメラが現在撮影している映像位置を2次元地図上で特定している。図1において、51はヘリコプター(飛行体)、52は地上等に設置された基地局である。1は、カメラ1aとジンバル1bを備え、撮影するためのカメラ制御情報を入力し、入力したカメラ制御情報に対応して目標物を撮影し、撮影した映像信号を出力するカメラ部であり、例えば、可視光線カメラや赤外線カメラ等のように、複数種類のカメラ1aが設置されている。
【0029】
また、図1において、2は、カメラ部1の種類選択、撮影方向、ズーム比(画角)、映像位置の固定(ロック機能)や解除等のカメラ条件を出力するカメラ制御部であり、3は撮影者とのマンマシーンインタフェースで、目標物が存在する撮影対象位置やカメラ部1が撮影している映像位置等を2次元地図上に表示し、撮影者からの指示を入力する撮影指示部である。30は撮影指示部3に設置されている表示部である。
【0030】
さらに、図1において、4は2次元地図データを保有している2次元地図データ部、5はヘリコプター51のピッチ、ロール等の姿勢情報を検出する姿勢検出部、6は、GPSにより、ヘリコプター51の位置、高度、方向、速度等の位置情報を検出する位置検出部、7は地表面の高さ情報も含んだ3次元地図データを保有している3次元地図データ部である。
【0031】
さらに、図1において、8は、カメラ部1,カメラ制御部2,撮影指示部3,2次元地図データ部4,姿勢検出部5,位置検出部6,3次元地図データ部7からの各種情報を処理する主制御部、9は、撮影した映像信号やその付帯情報、ヘリコプター51と基地局52との交信等を記録する記録部、10は、撮影した映像信号を基地局52に付帯情報と共に送信したり、ヘリコプター51と基地局52の交信を送受信する送受信部である。
【0032】
カメラ部1,カメラ制御部2,撮影指示部3,2次元地図データ部4,姿勢検出部5,位置検出部6,3次元地図データ部7,主制御部8,記録部9,送受信部10は、ヘリコプター51に搭載されている。
【0033】
さらに、図1において、11はヘリコプター51に搭載された送受信部10と交信する基地局52に設置された送受信部、12は、ヘリコプター51から送信された映像信号をモニタしたり記録すると共に、ヘリコプター51のパイロットや撮影者に各種の指示を出したり、送信された付帯情報により撮影者に代行して目標物を撮影する基地局52に設置された操作卓である。
【0034】
次に動作について説明する。
図1において、ヘリコプター51が飛行する前に予め決定されている撮影計画に従い、主制御部8には、目標物が存在する撮影対象位置の緯度、経度と、撮影対象範囲を示す撮影対象位置を中心とした円の半径が設定されている。この撮影対象位置及び撮影対象範囲の主制御部8への設定方法としては、撮影者が撮影指示部3のキーボートから直接入力することにより設定しても良いし、基地局52で予め記録したFD(フレキシブルディスク)等を、撮影者が撮影指示部3に読み込ませることにより設定しても良いし、ヘリコプター51が飛行中に、基地局52の操作員が操作卓12から無線チャネルを使用して設定しても良い。
【0035】
図2は図1に示す撮影指示部3に設置されている表示部30の表示例を示す図である。図において、31は表示部30に表示された2次元地図であり、2次元地図データ部4から主制御部8を介して入力された2次元地図データに基づき、表示部30上で、上側が真北になるよう表示される。32は目標物が存在する撮影対象位置であり、主制御部8に予め設定されている撮影対象位置の緯度、経度に基づき表示される。33は目標物が含まれている撮影対象範囲であり、主制御部8に予め設定されている、撮影対象位置を中心とした円の半径に基づき表示される。
【0036】
また、図2において、71は、カメラ1aが現在撮影している場所の2次元地図31上の位置を示す映像位置であり、上記特許第2695393号公報に開示された図5に示す位置特定方法により求められる。すなわち、主制御部8は、姿勢検出部5から得られるその時点のヘリコプター51の姿勢情報とカメラ制御部2によるジンバル1bの制御結果から、カメラ1aの3次元の空間的な向きを示すカメラ1aの視軸方向を求めて、求めた視軸方向情報を3次元地図データ部7に出力する。
【0037】
3次元地図データ部7は、与えられた視軸方向情報と、位置検出部6が検出したヘリコプター51の位置情報を示す緯度、経度、高度と、自ら保有している地表面の高度を含む3次元地図データから、図5に示す視軸方向の延長線Lと地表面72との交点、すなわち映像位置71の高度を求めて、映像位置71の緯度、経度、高度の位置情報を主制御部8に出力する。主制御部8は、3次元地図データ部7が求めた位置情報により、撮影指示部3に対して2次元地図上に映像位置71を表示するよう制御する。
【0038】
さらに、図2において、35はカメラ1aが映像位置71を撮影しているときの範囲を示す映像範囲であり、主制御部8が、カメラ制御部2により制御されているカメラ1aのズーム比に基づき求めて、撮影指示部3に出力している。
【0039】
さらに、図2において、36はヘリコプター51が現在飛行している位置/方向であり、位置検出部6から3次元地図データ部7と主制御部8を経由して定期的に得られるヘリコプター51が位置する緯度、経度とそのときの飛行方向に基づき、2次元地図31上にシンボル表示される。また、位置/方向36は常に表示部30の中心に表示される。37は過去のヘリコプター51の飛行軌跡で、過去のヘリコプター51の位置を記憶しておき、2次元地図31上にシンボル表示したものである。
【0040】
41はカメラ部1から主制御部8を経由して撮影指示部3に入力された映像信号により表示される動画映像であり、42は主制御部8が管理している動画映像の映像幅を示すコメントであり、地表面72での横幅を実距離で表示したものである。43は、主制御部8が管理している現在のヘリコプター51の位置から撮影対象位置32までの水平距離と、2次元地図31の縮尺を表示したコメントである。
【0041】
ここで、2次元地図31は、主制御部8により、ヘリコプター51の位置/方向36と撮影対象位置32との水平距離に応じて表示される縮尺が制御される。すなわち、主制御部8は、水平距離が大きい場合には、縮尺の大きな2次元地図データを2次元地図データ部4から読み出し、水平距離が小さい場合には、縮尺の小さい2次元地図データを読み出すことにより、常に表示部30上に、ヘリコプター51の位置/方向36及び撮影対象位置32が表示されるよう制御する。そして、主制御部8は、ヘリコプター51の位置/方向36が、表示部30の中心に表示されるよう制御する。
【0042】
ヘリコプター51が飛行中には、ヘリコプター51に搭載されている送受信部10と基地局52に設置されている送受信部11との無線チャネルが設定され、図2に示すような表示部30に表示されている各種の表示情報が、ヘリコプター51の送受信部10から基地局52の送受信部11に付帯情報として送信され、操作卓12の表示部分に表示される。
【0043】
図3は、図2の映像位置71を撮影対象位置32に重ね合わせることにより、目標物を正確に撮影するよう指示する手順を説明するための表示部30の表示例を示す図である。図3において、71a,71bは、最終的な映像位置71cに至る過程のそれぞれの映像位置であり、35a,35b,35cは、それぞれ映像位置71a,71b,71cにおける映像範囲である。表示されている映像位置71は、一般的にパーソナルコンピュータの表示で使用されているカーソルと同様な機能を有しており、撮影指示部3のキーを操作することにより、表示部30上で映像位置71を上下左右に移動させる。
【0044】
図4は撮影指示部3のキーを操作したときの2次元的な変化情報を説明する図である。図3において、撮影指示部3のキーを操作することにより、映像位置71aを映像位置71bに移動させた場合、図4に示すように、撮影指示部3は、経度に対する変化情報xと、緯度に対する変化情報yを主制御部8に伝える。主制御部8は、伝えられた変化情報x,変化情報y,及びそのときのヘリコプター51の緯度、経度、高度の位置情報に基づきジンバル1bを制御して、2次元地図31上の映像位置71aに向けられていたカメラ1aの視軸方向を映像位置71bに向ける。
【0045】
また、主制御部8は、カメラ1aの3次元空間における視軸方向情報を3次元地図データ部7に送り、3次元地図データ部7から映像位置71bに相当する地点の緯度、経度、高度の位置情報を得て、カメラ1aから映像位置71bに相当する地点までの距離を求めて、映像範囲35bが映像範囲35aと等しくなるよう、カメラ1aのズーム比を制御する。このとき、上記ズーム制御をせずに、ズーム比を一定に保持するようにしても良い。
【0046】
そして、主制御部8は、撮影指示部3に対して、映像範囲35bを表示するよう指示すると共に、映像位置71a,映像範囲32aの表示を消すように指示する。
【0047】
なお、撮影指示部3からの映像位置71の移動ではなく、基地局52の操作卓12から映像位置71を移動させる場合には、操作卓12のキーの操作により、上記変化情報xと変化情報yとを、送受信部11,送受信部10を経由して主制御部8に送ることにより、上記一連の処理が実行される。この場合、映像範囲35bの表示の指示や、映像位置71a,映像範囲35aの消去の指示は、主制御部8から送受信部10,送受信部11を経由して操作卓12に送信される。
【0048】
このようにして、表示されている2次元地図31上の映像位置71を、任意の位置に移動させ、カメラ1aの視軸方向を移動した映像位置の方向に向けることができる。図3において、映像位置71は、最初は、映像位置71aに表示されているが、撮影指示部3からのキーの操作による2次元的な変化情報により、映像位置71bと移動させ、最終的に目標物が存在する撮影対象位置32に映像位置71cとして重ね合わせる。そして、主制御部8は、撮影指示部3からキー操作による2次元的な変化情報を受け取り、カメラ1aの視軸方向を撮影対象位置32に向けて、目標物を正確に撮影することができる。
【0049】
このとき、主制御部8は、2次元地図31上に表示されている映像範囲35cを示す線分を、撮影対象範囲33に接するように拡大又は縮小する。そして、主制御部8は、拡大又は縮小した情報に基づきカメラ1aのズーム比を調整する。映像範囲35cを示す線分を拡大又は縮小して表示することにより、撮影者が、撮影対象範囲33に対してカメラ1aのズーム比が正確に制御されていることを確認することができる。
【0050】
ここで、映像範囲35の線分は、選択されているカメラ種類に対応して線分の色を変化させることにより、撮影者が選択したカメラ種類の確認を行い易くしている。例えば、赤外線カメラの場合は赤い線で表示し、可視光線カメラの場合は緑の線で表示する。
【0051】
ヘリコプター51を移動させつつ、カメラ制御部2を操作せずに、撮影対象位置32に映像位置71cを重ね合わせた状態を保持するためには、撮影指示部3のロックキーを押すことにより可能となる。また、撮影指示部3のロック解除キーを押すことでロック解除が行われる。なお、撮影者がロック中であることを確認できるように、ロック中は、映像範囲35を示す線分をブリンク(明滅)させて表示する。
【0052】
次にこのロック制御について説明する。
主制御部8は、まず、撮影指示部3からロック指示を受け取る。このときの映像位置71cの緯度、経度、高度の位置情報と、カメラ部1のズーム比と、視軸方向は、主制御部8に記憶されている。ロック指示を受け取った後に、主制御部8は、ヘリコプター51の移動に伴って変化するヘリコプター51の位置/方向36を2次元地図31上に表示させたり、コメント43として撮影対象位置32までの新たな距離を表示させるための情報を撮影指示部3に出力する。
【0053】
これと並行して、主制御部8は、映像位置71cに係る情報と、位置検出部6から3次元地図データ部7を介して定期的に得られるヘリコプター51の緯度、経度、高度の位置情報から、時間経過に伴い変化するカメラ部1と映像位置71cの3次元空間での位置関係を管理し、姿勢検出部5から得られるヘリコプター51の姿勢情報をもとに、カメラ部1の視軸方向を制御して映像位置71cに保持することで、3次元空間でのロック機能を実現している。
【0054】
また、主制御部8は、映像範囲35cを一定に保持するために、カメラ部1と映像位置71cとの直線距離を管理し、カメラ部1のズーム比を制御している。さらに、ロック指示を映像位置71bで行うことで、2次元地図31の表示範囲の任意の地点にロックすることもできる。また、ロックした後、映像範囲35bの大きさを変更することも容易である。
【0055】
記録部9は、カメラ部1が撮影した映像信号や、パイロット、撮影者、基地局52の操作員間の会話を記録すると共に、撮影した映像信号と時間的に関連づけた付帯情報も記録している。付帯情報としては、2次元地図31の縮尺、ヘリコプター51の位置/方向36,映像位置71の緯度、経度と映像範囲35の線分による形状と大きさ、コメント42,43の内容、撮影対象位置32の緯度、経度、撮影対象範囲33の半径等をJISコード等で表現した表示情報である。なお、記録部9がNTSC方式に対応したアナログVTRであれば、付帯情報は垂直帰線時間帯等に記録される。
【0056】
また、主制御部8は、送受信部10,11を介して無線チャネルで、記録部9に記録する映像信号や付帯情報を基地局52に送信している。これにより、基地局52の操作卓12にヘリコプター51上の2次元地図データ部4と同じものを装備し、図3に示す表示部30の表示内容を、操作卓12でも表示させることにより、操作卓12の操作員が、ヘリコプター51に搭乗する撮影者に代行して、映像位置71の移動等の操作を行うことができる。
【0057】
なお、付帯情報には、撮影している動画映像から静止画を抽出するための静止画マークが含まれている。撮影者が撮影指示部3のロックキーを押したタイミング、すなわち、撮影対象位置32に映像位置71cを重ね合わせた状態を保持したタイミングで、主制御部8が動画映像に付帯情報の一部として静止画マークを付加し、動画映像と共に記録部9に記録し、送受信部10から基地局52に送信する。また、カメラ制御部2の静止画を取得するための静止画キーを押すことにより、任意のタイミングで動画映像に静止画マークを付加することができる。
【0058】
基地局52の操作卓12は、送信された動画映像から静止画マークを検出し、そのときの動画映像を静止画化処理して静止画を抽出し、同時に得られる他の付帯情報と共に記録する。このようにして、動画映像から所望のタイミングにおける静止画を抽出することができる。
【0059】
以上のように、この実施の形態1によれば、表示部30に表示されている2次元地図31上の映像位置71を、撮影対象位置32に重ね合わせることにより、撮影対象位置32にある目標物を目で探すことなく、周囲の視界状況に拘わらず、空中から目標物の映像を容易に取得することができるという効果が得られる。
【0060】
また、この実施の形態1によれば、撮影対象範囲33も表示部30に表示していることにより、映像位置71を撮影対象位置32に重ね合わせるときに、撮影対象範囲33を十分含むようにカメラ部1のズーム比を制御して、映像範囲35を調整することで、表示されている動画映像41に頼らず、目標物を目で探すことなく、周囲の視界状況に拘わらず、撮影対象位置32を中心とした撮影対象範囲33の映像を、正確かつ容易に取得することができるという効果が得られる。
【0061】
さらに、この実施の形態1によれば、制御されたカメラ1aのズーム比に基づき、表示されている映像範囲35を示す所定の形状を変化させることにより、撮影者が撮影対象範囲33に対してカメラ1aのズーム比が正確に制御されていることを確認することができるという効果が得られる。
【0062】
さらに、この実施の形態1によれば、予め設定された撮影対象位置32の位置情報と、飛行に伴い検出しているヘリコプター51の位置情報及び姿勢情報に基づき、撮影しているカメラ1aの視軸方向を撮影対象位置32に保持することにより、撮影者は、煩わしいカメラ操作から開放されると共に、カメラ1aが捕らえている撮影対象範囲33の周辺を含む広い領域の状況を目視で観察し、その様子を音声等で基地局52に報告する余裕ができるという効果が得られる。
【0063】
さらに、この実施の形態1によれば、カメラ1aの視軸方向を撮影対象位置32に保持しているときに、ヘリコプター51の位置情報と、2次元地図データにより、ヘリコプター51から撮影対象位置32までの直線距離を管理し、設定されている撮影対象範囲33に基づき、カメラ1aのズーム比を制御することにより、撮影者は、煩わしいカメラ操作から開放されるという効果が得られる。
【0064】
さらに、この実施の形態1によれば、撮影しているカメラ1aの視軸方向を撮影対象位置32に保持しているときに、映像範囲35を示す所定の形状を明滅させることにより、撮影者は、カメラ1aの視軸方向を撮影対象位置32に保持していることを確認できるという効果が得られる。
【0065】
さらに、この実施の形態1によれば、撮影しているカメラ1aの種類に対応して、映像範囲35を示す所定の形状の色を変化させることにより、撮影者は撮影しているカメラ1aの種類を確認することができるという効果が得られる。
【0066】
さらに、この実施の形態1によれば、ヘリコプター51の位置情報により、表示している2次元地図31上に、ヘリコプター51の位置/方向36を表示することにより、パイロットと撮影者が、ヘリコプター51の位置と方向を確認できるという効果が得られる。
【0067】
さらに、この実施の形態1によれば、ヘリコプター51の位置情報を記憶しておき、表示している2次元地図31上に、ヘリコプター51の飛行経路37を表示することにより、パイロットと撮影者が、ヘリコプター51の飛行経路を確認することができるという効果が得られる。
【0068】
さらに、この実施の形態1によれば、カメラ1aが撮影している動画映像41を、2次元地図31と共に表示することにより、撮影者が、撮影している動画映像を確認することができるという効果が得られる。
【0069】
さらに、この実施の形態1によれば、表示している動画映像41の映像幅を、2次元地図データにより実距離で表示することにより、撮影者が動画映像41の実距離を確認することができるという効果が得られる。
【0070】
さらに、この実施の形態1によれば、2次元地図データにより、表示されている2次元地図31の縮尺と、ヘリコプター51の位置から撮影対象位置32までの水平距離を、2次元地図31と共に表示することにより、パイロットと撮影者が、ヘリコプター51の位置と撮影対象位置32との位置関係を迅速に把握することができるという効果が得られる。
【0071】
さらに、この実施の形態1によれば、予め設定された撮影対象位置32の位置情報と、ヘリコプター51の位置情報及び姿勢情報に基づき、撮影しているカメラ1aの視軸方向を撮影対象位置32に保持するタイミング、又は所望のタイミングで、撮影している動画映像に静止画を抽出するための静止画マークを付加することにより、目標物を撮影した静止画又は所望のタイミングにおける静止画を抽出することができるという効果が得られる。
【0072】
さらに、この実施の形態1によれば、撮影している動画映像41とその付帯情報を、記録部9で記録することにより、基地局52との無線チャネルが使用できない地域の情報を記憶することができるという効果が得られる。
【0073】
さらに、この実施の形態1によれば、撮影している動画映像41と、表示している撮影対象位置32,撮影対象範囲33,映像位置71,映像範囲35等の表示情報を含む付帯情報とを、基地局52に送信し、基地局52で表示された2次元地図31上で、映像位置71を撮影対象位置32に重ね合わせることにより得られた2次元の変化情報をヘリコプター51の主制御部8に送信し、送信された2次元の変化情報と、ヘリコプター51の位置情報に基づき、カメラ1aの視軸方向を制御して目標物を撮影することにより、基地局52から撮影に関する指示を的確に行えるという効果が得られる。
【0074】
さらに、この実施の形態1によれば、他地域からの要請に対しても、要請された地域の2次元地図データ、3次元地図データがヘリコプター51に搭載されていれば、撮影者が要請された地域の地勢を知らなくとも、要請元が指定した撮影対象位置32にある目標物の映像を、正確かつ容易に取得することができるという効果が得られる。
【0075】
さらに、この実施の形態1によれば、ヘリコプター51が飛行開始する前に決められた撮影対象位置32に加え、撮影中に撮影者又は基地局52の操作員の判断により、新たな撮影対象位置32を定義することができるため、広域の撮影が必要な場合に、柔軟な運用性を確保することができるという効果が得られる。
【0076】
【発明の効果】
以上のように、この発明によれば、飛行に伴い検出している飛行体の位置情報と、飛行に伴い検出している飛行体の姿勢情報及び撮影しているカメラの方向制御情報から得られるカメラの視軸方向情報と、保有している3次元地図データから得られる視軸方向と地表面との交点の位置情報により、2次元地図上にカメラが捕らえている映像位置を表示し、映像位置とカメラの撮影範囲を決めるズーム比により、表示されている2次元地図上に、カメラが捕らえている映像範囲を所定の形状で表示し、映像位置は、撮影指示部の操作により、表示されている2次元地図上で任意の位置に移動可能とし、表示されている2次元地図上で、映像位置を2次元地図上の任意の位置に移動させる操作又は撮影対象位置に重ね合わせる操作をしたときの2次元の変化情報を求め、求めた2次元の変化情報と、飛行に伴い検出している飛行体の位置情報に基づき、カメラの視軸方向を制御して2次元地図上の任意の位置又は目標物を撮影することにより、撮影対象位置にある目標物を目で探すことなく、周囲の視界状況に拘わらず、飛行体から目標物の映像を容易に取得することができるという効果がある。
【0077】
この発明によれば、表示されている2次元地図上で、映像位置を2次元地図上の任意の位置に移動させるとき又は撮影対象位置に重ね合わせるときに、撮影対象範囲に対応してカメラのズーム比を制御することにより、周囲の視界状況に拘わらず、撮影対象位置を中心とした撮影対象範囲の映像を、正確かつ容易に取得することができるという効果がある。
【0078】
この発明によれば、制御されたカメラのズーム比に基づき、表示されている映像範囲を示す所定の形状を変化させることにより、撮影者が撮影対象範囲に対してカメラのズーム比が正確に制御されていることを確認することができるという効果がある。
【0079】
この発明によれば、予め設定された撮影対象位置の位置情報と、飛行に伴い検出している飛行体の位置情報及び姿勢情報に基づき、撮影しているカメラの視軸方向を撮影対象位置に保持することにより、撮影者は、煩わしいカメラ操作から開放されるという効果がある。
【0080】
この発明によれば、カメラの視軸方向を撮影対象位置に保持しているときに、飛行に伴い検出している飛行体の位置情報と、保有している2次元地図データにより、飛行体から撮影対象位置までの直線距離を管理し、設定されている撮影対象範囲に基づき、カメラのズーム比を制御することにより、撮影者は、煩わしいカメラ操作から開放されるという効果が得られる。
【0081】
この発明によれば、撮影しているカメラの視軸方向を撮影対象位置に保持しているときに、映像範囲を示す所定の形状を明滅させることにより、撮影者は、カメラの視軸方向を撮影対象位置に保持していることを確認できるという効果がある。
【0082】
この発明によれば、撮影しているカメラの種類に対応して、映像範囲を示す所定の形状の色を変化させることにより、撮影者は撮影しているカメラの種類を確認することができるという効果がある。
【0083】
この発明によれば、飛行に伴い検出している飛行体の位置情報により、表示している2次元地図上に、飛行体の位置/方向を表示することにより、飛行体のパイロットと撮影者が、飛行体の位置と方向を確認できるという効果がある。
【0084】
この発明によれば、飛行に伴い検出している飛行体の位置情報を記憶しておき、表示している2次元地図上に、飛行体の飛行経路を表示することにより、パイロットと撮影者が、飛行経路を確認することができるという効果がある。
【0085】
この発明によれば、カメラが撮影している動画映像を、2次元地図と共に表示することにより、撮影者が、撮影している動画映像を確認することができるという効果がある。
【0086】
この発明によれば、表示している動画映像の映像幅を、保有している2次元地図データにより実距離で表示することにより、撮影者が動画映像の実距離を確認することができるという効果がある。
【0087】
この発明によれば、保有している2次元地図データにより、表示されている2次元地図の縮尺と、飛行に伴い検出している飛行体の位置から撮影対象位置までの水平距離を、2次元地図と共に表示することにより、飛行体のパイロットと撮影者が、飛行体の位置と撮影対象位置との位置関係を迅速に把握することができるという効果がある。
【0088】
この発明によれば、予め設定された撮影対象位置の位置情報と、飛行に伴い検出している飛行体の位置情報及び姿勢情報に基づき、撮影しているカメラの視軸方向を上記撮影対象位置に保持するタイミング、又は所望のタイミングで、撮影している動画映像に静止画を抽出するための静止画マークを付加することにより、目標物を撮影した静止画又は所望のタイミングにおける静止画を抽出することができるという効果がある。
【0089】
この発明によれば、撮影している動画映像とその付帯情報を、飛行体で記録することにより、基地局との無線チャネルが使用できない地域の情報を記憶することができるという効果がある。
【0090】
この発明によれば、撮影している動画映像と、飛行体で表示している撮影対象位置、撮影対象範囲、映像位置、映像範囲等の表示情報を含む付帯情報とを、基地局に送信し、基地局で表示された2次元地図上で、映像位置を撮影対象位置に重ね合わせることにより得られた2次元の変化情報を飛行体に送信し、送信された2次元の変化情報と、飛行に伴い検出している飛行体の位置情報に基づき、カメラの視軸方向を制御して目標物を撮影することにより、基地局から撮影に関する指示を的確に行えるという効果がある。
【図面の簡単な説明】
【図1】 この発明の実施の形態1による撮影システムの構成を示すブロック図である。
【図2】 この発明の実施の形態1による撮影指示部における表示部の表示例を示す図である。
【図3】 この発明の実施の形態1による目標物を正確に撮影する手順を説明するための表示部の表示例を示す図である。
【図4】 撮影指示部のキーを操作したときの2次元的な変化情報を説明する図である。
【図5】 従来の位置特定方法の原理を説明する図である。
【図6】 従来の撮影システムの構成を示すブロック図である。
【図7】 従来の目標物の位置を2次元地図上に画像表示している状態を示す図である。
【符号の説明】
1 カメラ部、1a カメラ、1b ジンバル、2 カメラ制御部、3 撮影指示部、4 2次元地図データ部、5 姿勢検出部、6 位置検出部、7 3次元地図データ部、8 主制御部、9 記録部、10,11 送受信部、12 操作卓、30 表示部、31 2次元地図、32 撮影対象位置、33 撮影対象範囲、35,35a,35b,35c 映像範囲、36 位置/方向、37 飛行軌跡、41 動画映像、42,43 コメント、51 ヘリコプター、52 基地局、71,71a,71b,71c 映像位置、72 地表面、73 2次元平面、74 延長交点、75 投影位置。
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a photographing system for photographing a target accurately even when the target is photographed from the air, regardless of surrounding visual field conditions.
[0002]
[Prior art]
When shooting a target using a helicopter, a detailed meeting is held between the pilot and the photographer regarding the position of the target, shooting range, camera type, flight route, shooting plan, etc. before the flight of the helicopter To do. Then, move the helicopter to the sky near the target on the determined flight route, the photographer looks for the target visually, monitors the image captured by the camera, points the camera toward the center of the target, In order to photograph the planned range, the target is photographed while adjusting the zoom ratio of the camera according to the distance from the helicopter to the target.
[0003]
In the process of shooting the target, when it is desired to specify the video position being shot by the camera from above, on the two-dimensional map, it is difficult to specify the video position with high accuracy. In order to solve this problem, there is a “position specifying method and apparatus” disclosed in Japanese Patent No. 2695393 (Japanese Patent Laid-Open No. 8-285590).
[0004]
FIG. 5 is a diagram for explaining the principle of the position specifying method disclosed in the above publication. When the image position 71 photographed by the camera unit 61 mounted on the flying helicopter 51 is specified on the two-dimensional map, the image position 71 is on the ground surface 72 at the height H from the two-dimensional plane 73. If it exists, the straight line L from the camera unit 61 to the video position 71 is determined without determining the position of the video position 71 on the two-dimensional map as the projection position 75 obtained by projecting the video position 71 onto the two-dimensional plane 73. It is determined that the extended intersection point 74 extends to the two-dimensional plane 73, and an error corresponding to the difference E between the projection position 75 and the extended intersection point 74 is generated. However, in this position specifying method, the information on the altitude H of the video position 71 is used to accurately specify the position of the video position 71 on the two-dimensional map as the projection position 75.
[0005]
FIG. 6 is a block diagram showing a configuration of a conventional photographing system disclosed in the above publication. This photographing system is mounted on the helicopter 51, and the camera unit 61 includes a gimbal 61b that incorporates a gyro and a camera 61a attached to the gimbal 61b. The camera control / video processing unit 62 controls the camera unit 61 and processes the captured video signal. The processed video signal is recorded on the VTR 63 and displayed on the monitor 64. The system control unit 65 performs focus control of the camera 61a of the camera unit 61 and direction control of the gimbal 61b via the camera control / video processing unit 62.
[0006]
The three-dimensional map data unit 66 stores map data including altitude information about the ground surface 72. The position detection unit 67 measures the current position of the helicopter 51 three-dimensionally using radio waves from a GPS (Global Positioning System) satellite and reads out the stored contents of the three-dimensional map data unit 66 to generate a map image. In addition, the position detection unit 67 outputs the nose direction, shooting date, and shooting time of the helicopter 51, and further displays and corrects the video position 71.
[0007]
The data processing unit 68 includes the three-dimensional position of the helicopter 51 output from the position detection unit 67, the nose direction of the helicopter 51, the stored contents of the three-dimensional map data unit 66, and the camera control / video processing unit 62. From the control information of the gimbal 61b, the three-dimensional position of the video position 71 is calculated according to the principle of FIG. 5, and the image data for two-dimensional display is processed.
[0008]
FIG. 7 is a diagram showing a state in which the video position 71 calculated by the data processing unit 68 is displayed as an image on the two-dimensional map of the monitor 64. In the figure, 71 indicates the video position taken by the camera 61a, 76 indicates the field of view (video range) of the camera 61a, and 77 indicates the direction of the camera 61a. As described above, the video position 71 is specified two-dimensionally, and the specified video position 71 is displayed on the two-dimensional map as shown in FIG.
[0009]
[Problems to be solved by the invention]
Since the conventional photographing system is configured as described above, it is possible to accurately grasp the video position 71 photographed by the camera 61a on the two-dimensional map, but is the video position 71 actually photographing the target? Must be confirmed visually, if the subject must be photographed from a distance, or if the photographer does not know the topography near the target, or if the subject is near the target due to fog, smoke or nighttime When visibility is poor, there is a problem that it is generally difficult to recognize a target.
[0010]
Further, even if the target can be caught visually and the image from the camera 61a can be monitored by the monitor 64, the monitor 64 that cannot recognize the surrounding scenery as a whole is watching the monitor 64 as the helicopter 51 flies. In order to maintain the state in which the camera 61a is accurately pointed at the target, there has been a problem that a photographer's advanced photographing technique and patience are required.
[0011]
The present invention has been made to solve the above-described problems, and provides a photographing system that can accurately photograph a target regardless of surrounding visual field conditions when the target is photographed from the sky. For the purpose.
[0012]
It is another object of the present invention to obtain an imaging system that can easily maintain a state in which the camera 61a is accurately directed to a target as the helicopter 51 flies.
[0013]
[Means for Solving the Problems]
An imaging system according to the present invention displays a two-dimensional map using two-dimensional map data held in an object mounted on a flying object that captures an imaging target position where a target exists and a peripheral imaging target range. The shooting target position is displayed on the two-dimensional map based on the position information of the shooting target position set in advance, and the shooting target range is set to the two-dimensional map based on the information indicating the preset shooting target range. The position information of the flying object displayed on the map and detected with the flight, the attitude information of the flying object detected with the flight, and the direction control information of the camera being photographed. The video position captured by the camera on the two-dimensional map is determined based on the visual axis direction information and the position information of the intersection of the visual axis direction and the ground surface obtained from the stored three-dimensional map data. Shows, the zoom ratio that determines the shooting range of the image position and the camera, on the two-dimensional map displayed, to display the image range of the camera is captured in a predetermined shape, The video position can be moved to an arbitrary position on the displayed two-dimensional map by operating the shooting instruction unit. The video position on the displayed 2D map Up Arbitrary position on 2D map To move to or Superimpose on the shooting target position When you operated Two-dimensional change information is obtained, and based on the obtained two-dimensional change information and the position information of the flying object detected with the flight, the visual axis direction of the camera is controlled and the two-dimensional map is displayed. Any position Or The target is photographed.
[0014]
In the photographing system according to the present invention, an image position is displayed on an arbitrary position on the two-dimensional map on the displayed two-dimensional map. When moving to When superimposing on the shooting target position, the zoom ratio of the camera is controlled corresponding to the shooting target range.
[0015]
The photographing system according to the present invention changes a predetermined shape indicating a displayed video range based on a controlled zoom ratio of the camera.
[0016]
The imaging system according to the present invention is configured to capture the visual axis direction of the camera that is imaging based on the position information of the imaging target position set in advance and the position information and attitude information of the flying object detected along with the flight. It is held at the target position.
[0017]
The imaging system according to the present invention is based on the position information of the flying object detected along with the flight and holding the two-dimensional map data when the visual axis direction of the camera is held at the imaging target position. A linear distance from the flying object to the shooting target position is managed, and the zoom ratio of the camera is controlled based on the set shooting target range.
[0018]
The photographing system according to the present invention blinks a predetermined shape indicating the video range when the visual axis direction of the camera that is photographing is held at the photographing target position.
[0019]
The photographing system according to the present invention changes the color of a predetermined shape indicating the video range corresponding to the type of camera that is photographing.
[0020]
The imaging system according to the present invention displays the position / direction of the flying object on the displayed two-dimensional map based on the position information of the flying object detected along with the flight.
[0021]
The imaging system according to the present invention stores position information of a flying object detected with flight, and displays the flight path of the flying object on a displayed two-dimensional map.
[0022]
The imaging system according to the present invention displays a moving image captured by a camera together with a two-dimensional map.
[0023]
The photographing system according to the present invention displays the video width of the displayed moving image at an actual distance by the two-dimensional map data that is held.
[0024]
The imaging system according to the present invention uses the stored 2D map data to determine the scale of the displayed 2D map and the horizontal distance from the position of the flying object detected with the flight to the imaging target position, It is displayed with a two-dimensional map.
[0025]
The imaging system according to the present invention is configured to capture the visual axis direction of the camera that is imaging based on the position information of the imaging target position set in advance and the position information and attitude information of the flying object detected along with the flight. A still image mark for extracting a still image is added to a moving image being captured at a timing held at a target position or a desired timing.
[0026]
The photographing system according to the present invention records a moving image being photographed and its incidental information with a flying object.
[0027]
An imaging system according to the present invention provides a base station with moving picture images being captured and supplementary information including display information such as a shooting target position, a shooting target range, a video position, and a video range displayed on a flying object. The two-dimensional change information obtained by superimposing the video position on the shooting target position on the two-dimensional map displayed on the base station is transmitted to the flying object and transmitted. Based on the dimensional change information and the position information of the flying object detected along with the flight, the visual axis direction of the camera is controlled to photograph the target.
[0028]
DETAILED DESCRIPTION OF THE INVENTION
An embodiment of the present invention will be described below.
Embodiment 1 FIG.
FIG. 1 is a diagram showing the configuration of an imaging system according to Embodiment 1 of the present invention. Also in this embodiment, the image position currently captured by the camera is specified on the two-dimensional map using the principle shown in FIG. In FIG. 1, 51 is a helicopter (aircraft), and 52 is a base station installed on the ground or the like. Reference numeral 1 denotes a camera unit that includes a camera 1a and a gimbal 1b, inputs camera control information for shooting, captures a target corresponding to the input camera control information, and outputs a captured video signal. A plurality of types of cameras 1a are installed such as a visible light camera and an infrared camera.
[0029]
In FIG. 1, reference numeral 2 denotes a camera control unit that outputs camera conditions such as type selection of the camera unit 1, shooting direction, zoom ratio (angle of view), video position fixing (lock function), and release. Is a man-machine interface with the photographer, and displays a photographing target position where the target is present, a video position photographed by the camera unit 1 on a two-dimensional map, and inputs an instruction from the photographer. It is. Reference numeral 30 denotes a display unit installed in the photographing instruction unit 3.
[0030]
Further, in FIG. 1, 4 is a two-dimensional map data unit that holds two-dimensional map data, 5 is a posture detection unit that detects posture information such as the pitch and roll of the helicopter 51, and 6 is a helicopter 51 by GPS. A position detector 7 for detecting position information such as the position, altitude, direction, speed, etc., is a 3D map data section that holds 3D map data including the height information of the ground surface.
[0031]
Further, in FIG. 1, reference numeral 8 denotes various information from the camera unit 1, camera control unit 2, shooting instruction unit 3, 2D map data unit 4, posture detection unit 5, position detection unit 6, and 3D map data unit 7. The main control unit 9 for processing the recorded video signal and its accompanying information, the recording unit for recording the communication between the helicopter 51 and the base station 52, and the like 10, the captured video signal to the base station 52 together with the accompanying information This is a transmission / reception unit that transmits and transmits / receives communication between the helicopter 51 and the base station 52.
[0032]
Camera unit 1, camera control unit 2, shooting instruction unit 3, 2D map data unit 4, posture detection unit 5, position detection unit 6, 3D map data unit 7, main control unit 8, recording unit 9, transmission / reception unit 10 Is mounted on the helicopter 51.
[0033]
Further, in FIG. 1, reference numeral 11 denotes a transmission / reception unit installed in a base station 52 that communicates with the transmission / reception unit 10 mounted on the helicopter 51. Reference numeral 12 denotes a helicopter that monitors and records video signals transmitted from the helicopter 51. It is an operation console installed in the base station 52 that gives various instructions to 51 pilots and photographers, or photographs a target on behalf of the photographer on the basis of transmitted supplementary information.
[0034]
Next, the operation will be described.
In FIG. 1, according to a shooting plan that is determined in advance before the helicopter 51 flies, the main control unit 8 has the shooting target position indicating the shooting target position indicating the latitude and longitude of the shooting target position where the target is present. The radius of the circle at the center is set. As a method for setting the shooting target position and the shooting target range to the main control unit 8, the shooting person may directly set the shooting target position and the shooting target range from the keyboard of the shooting instruction unit 3, or the FD recorded in advance by the base station 52. (Flexible disk) or the like may be set by allowing the photographer to read the photographing instruction unit 3, or the operator of the base station 52 uses the wireless channel from the console 12 while the helicopter 51 is flying. May be set.
[0035]
FIG. 2 is a diagram showing a display example of the display unit 30 installed in the photographing instruction unit 3 shown in FIG. In the figure, reference numeral 31 denotes a two-dimensional map displayed on the display unit 30. Based on the two-dimensional map data input from the two-dimensional map data unit 4 via the main control unit 8, the upper side is displayed on the display unit 30. Displayed to be true north. Reference numeral 32 denotes an imaging target position where the target is present, and is displayed based on the latitude and longitude of the imaging target position preset in the main control unit 8. Reference numeral 33 denotes a shooting target range including the target, which is displayed based on a radius of a circle centered on the shooting target position, which is preset in the main control unit 8.
[0036]
In FIG. 2, reference numeral 71 denotes a video position indicating a position on the two-dimensional map 31 of a place where the camera 1 a is currently shooting, and the position specifying method shown in FIG. 5 disclosed in the above-mentioned Japanese Patent No. 2695393. Is required. That is, the main control unit 8 uses the attitude information of the helicopter 51 at that time obtained from the attitude detection unit 5 and the control result of the gimbal 1b by the camera control unit 2 to indicate the camera 1a indicating the three-dimensional spatial orientation of the camera 1a. Is obtained, and the obtained visual axis direction information is output to the three-dimensional map data unit 7.
[0037]
The three-dimensional map data unit 7 includes given visual axis direction information, latitude, longitude, altitude indicating the position information of the helicopter 51 detected by the position detection unit 6, and the altitude of the ground surface held by itself 3 The intersection between the extension line L in the visual axis direction shown in FIG. 5 and the ground surface 72 shown in FIG. 5, that is, the altitude of the video position 71 is obtained from the three-dimensional map data, and the latitude, longitude, and altitude position information of the video position 71 is obtained as the main control unit. 8 is output. The main control unit 8 controls the photographing instruction unit 3 to display the video position 71 on the two-dimensional map according to the position information obtained by the three-dimensional map data unit 7.
[0038]
Further, in FIG. 2, reference numeral 35 denotes a video range indicating a range when the camera 1 a is shooting the video position 71, and the main control unit 8 sets the zoom ratio of the camera 1 a controlled by the camera control unit 2. Based on this, the image is output to the imaging instruction unit 3.
[0039]
Further, in FIG. 2, reference numeral 36 denotes a position / direction in which the helicopter 51 is currently flying, and the helicopter 51 that is periodically obtained from the position detection unit 6 via the three-dimensional map data unit 7 and the main control unit 8. A symbol is displayed on the two-dimensional map 31 based on the latitude and longitude of the position and the flight direction at that time. The position / direction 36 is always displayed at the center of the display unit 30. Reference numeral 37 denotes a flight trajectory of the past helicopter 51, which stores the position of the past helicopter 51 and is displayed as a symbol on the two-dimensional map 31.
[0040]
Reference numeral 41 denotes a moving image displayed by a video signal input from the camera unit 1 to the shooting instruction unit 3 via the main control unit 8. Reference numeral 42 denotes a video width of the moving image managed by the main control unit 8. The horizontal width on the ground surface 72 is displayed as an actual distance. 43 is a comment displaying the horizontal distance from the current position of the helicopter 51 managed by the main control unit 8 to the shooting target position 32 and the scale of the two-dimensional map 31.
[0041]
Here, the scale displayed on the two-dimensional map 31 is controlled by the main control unit 8 according to the horizontal distance between the position / direction 36 of the helicopter 51 and the imaging target position 32. That is, the main control unit 8 reads the large-scale 2D map data from the 2D map data unit 4 when the horizontal distance is large, and reads the small-scale 2D map data when the horizontal distance is small. Thus, control is performed so that the position / direction 36 of the helicopter 51 and the photographing target position 32 are always displayed on the display unit 30. Then, the main control unit 8 performs control so that the position / direction 36 of the helicopter 51 is displayed at the center of the display unit 30.
[0042]
During the flight of the helicopter 51, the radio channel between the transmission / reception unit 10 installed in the helicopter 51 and the transmission / reception unit 11 installed in the base station 52 is set and displayed on the display unit 30 as shown in FIG. The various display information is transmitted as incidental information from the transmission / reception unit 10 of the helicopter 51 to the transmission / reception unit 11 of the base station 52 and displayed on the display part of the console 12.
[0043]
FIG. 3 is a diagram illustrating a display example of the display unit 30 for explaining a procedure for instructing to accurately photograph the target by superimposing the video position 71 of FIG. 2 on the photographing target position 32. In FIG. 3, 71a and 71b are video positions in the process of reaching the final video position 71c, and 35a, 35b and 35c are video ranges at the video positions 71a, 71b and 71c, respectively. The displayed video position 71 has a function similar to that of a cursor generally used for display on a personal computer, and the video on the display unit 30 is operated by operating a key of the shooting instruction unit 3. The position 71 is moved vertically and horizontally.
[0044]
FIG. 4 is a diagram for explaining two-dimensional change information when a key of the photographing instruction unit 3 is operated. In FIG. 3, when the video position 71a is moved to the video position 71b by operating the key of the shooting instruction unit 3, as shown in FIG. 4, the shooting instruction unit 3 displays the change information x with respect to the longitude and the latitude. Is transmitted to the main control unit 8. The main control unit 8 controls the gimbal 1b based on the transmitted change information x, change information y, and the latitude, longitude, and altitude position information of the helicopter 51 at that time, thereby controlling the video position 71a on the two-dimensional map 31. The visual axis direction of the camera 1a that is directed to is directed to the video position 71b.
[0045]
Further, the main control unit 8 sends the visual axis direction information of the camera 1a in the three-dimensional space to the three-dimensional map data unit 7, and the latitude, longitude, altitude of the point corresponding to the video position 71b from the three-dimensional map data unit 7 is sent. The position information is obtained, the distance from the camera 1a to the point corresponding to the video position 71b is obtained, and the zoom ratio of the camera 1a is controlled so that the video range 35b is equal to the video range 35a. At this time, the zoom ratio may be kept constant without performing the zoom control.
[0046]
Then, the main control unit 8 instructs the photographing instruction unit 3 to display the video range 35b and to turn off the display of the video position 71a and the video range 32a.
[0047]
When the video position 71 is moved from the console 12 of the base station 52 instead of moving the video position 71 from the shooting instruction unit 3, the change information x and the change information are changed by operating the keys of the console 12. By sending y to the main control unit 8 via the transmission / reception unit 11 and the transmission / reception unit 10, the above series of processing is executed. In this case, an instruction to display the video range 35 b and an instruction to delete the video position 71 a and the video range 35 a are transmitted from the main control unit 8 to the console 12 via the transmission / reception unit 10 and the transmission / reception unit 11.
[0048]
In this way, the video position 71 on the displayed two-dimensional map 31 can be moved to an arbitrary position, and the visual axis direction of the camera 1a can be directed to the moved video position. In FIG. 3, the video position 71 is initially displayed at the video position 71a. However, the video position 71 is moved to the video position 71b by the two-dimensional change information by the key operation from the shooting instruction unit 3, and finally. The image position 71c is superimposed on the shooting target position 32 where the target is present. Then, the main control unit 8 can receive the two-dimensional change information by the key operation from the imaging instruction unit 3, and can accurately image the target with the visual axis direction of the camera 1a directed to the imaging target position 32. .
[0049]
At this time, the main control unit 8 enlarges or reduces the line segment indicating the video range 35 c displayed on the two-dimensional map 31 so as to contact the imaging target range 33. The main control unit 8 adjusts the zoom ratio of the camera 1a based on the enlarged or reduced information. The photographer can confirm that the zoom ratio of the camera 1a is accurately controlled with respect to the photographing target range 33 by displaying the line segment indicating the video range 35c in an enlarged or reduced manner.
[0050]
Here, the line segment of the video range 35 makes it easy to confirm the camera type selected by the photographer by changing the color of the line segment corresponding to the selected camera type. For example, a red line is displayed for an infrared camera, and a green line is displayed for a visible light camera.
[0051]
In order to maintain the state in which the video position 71c is superimposed on the shooting target position 32 without moving the helicopter 51 and operating the camera control unit 2, it is possible to press the lock key of the shooting instruction unit 3. Become. Further, the lock release is performed by pressing the lock release key of the photographing instruction unit 3. In order to confirm that the photographer is locked, the line segment indicating the video range 35 is blinked and displayed during locking.
[0052]
Next, this lock control will be described.
The main control unit 8 first receives a lock instruction from the imaging instruction unit 3. The latitude, longitude, altitude position information of the video position 71c at this time, the zoom ratio of the camera unit 1, and the visual axis direction are stored in the main control unit 8. After receiving the lock instruction, the main control unit 8 displays the position / direction 36 of the helicopter 51 that changes with the movement of the helicopter 51 on the two-dimensional map 31, or adds a new comment 43 to the shooting target position 32. Information for displaying a proper distance is output to the photographing instruction unit 3.
[0053]
In parallel with this, the main control unit 8 obtains information on the video position 71c and the position information of the latitude, longitude, and altitude of the helicopter 51 periodically obtained from the position detection unit 6 via the three-dimensional map data unit 7. From the position information of the helicopter 51 obtained from the attitude detection unit 5, the positional relationship between the camera unit 1 and the video position 71c, which change with time, is managed in the three-dimensional space. A lock function in a three-dimensional space is realized by controlling the direction and holding it at the image position 71c.
[0054]
Further, the main control unit 8 manages the linear distance between the camera unit 1 and the image position 71c and controls the zoom ratio of the camera unit 1 in order to keep the image range 35c constant. Furthermore, it is possible to lock to an arbitrary point in the display range of the two-dimensional map 31 by issuing a lock instruction at the video position 71b. It is also easy to change the size of the video range 35b after locking.
[0055]
The recording unit 9 records the video signal captured by the camera unit 1 and the conversation between the pilot, the photographer, and the operator of the base station 52, and also records incidental information associated with the captured video signal in time. Yes. The accompanying information includes the scale of the two-dimensional map 31, the position / direction 36 of the helicopter 51, the latitude and longitude of the video position 71, the shape and size of the line segment of the video range 35, the contents of the comments 42 and 43, and the shooting target position. This is display information in which the latitude and longitude of 32, the radius of the imaging target range 33, and the like are expressed by a JIS code or the like. If the recording unit 9 is an analog VTR compatible with the NTSC system, the accompanying information is recorded in a vertical blanking time zone or the like.
[0056]
Further, the main control unit 8 transmits video signals and incidental information to be recorded in the recording unit 9 to the base station 52 through the transmission / reception units 10 and 11 through a wireless channel. Thus, the console 12 of the base station 52 is equipped with the same two-dimensional map data unit 4 on the helicopter 51, and the display content of the display unit 30 shown in FIG. An operator of the table 12 can perform operations such as moving the video position 71 on behalf of a photographer who is boarding the helicopter 51.
[0057]
Note that the incidental information includes a still image mark for extracting a still image from the moving image being shot. At the timing when the photographer presses the lock key of the shooting instruction unit 3, that is, when the video position 71c is superimposed on the shooting target position 32, the main control unit 8 adds a part of the incidental information to the moving image. A still image mark is added, recorded together with the moving image in the recording unit 9, and transmitted from the transmission / reception unit 10 to the base station 52. Further, by pressing a still image key for acquiring a still image of the camera control unit 2, a still image mark can be added to the moving image at an arbitrary timing.
[0058]
The console 12 of the base station 52 detects a still image mark from the transmitted moving image, extracts the still image by processing the moving image at that time, and records it together with other incidental information obtained at the same time. . In this manner, a still image at a desired timing can be extracted from the moving image.
[0059]
As described above, according to the first embodiment, the video position 71 on the two-dimensional map 31 displayed on the display unit 30 is overlapped with the shooting target position 32, so that the target at the shooting target position 32 is obtained. There is an effect that it is possible to easily acquire an image of a target from the air without searching for an object with the eyes, regardless of surrounding visual field conditions.
[0060]
Further, according to the first embodiment, since the shooting target range 33 is also displayed on the display unit 30, when the video position 71 is superimposed on the shooting target position 32, the shooting target range 33 is sufficiently included. By controlling the zoom ratio of the camera unit 1 and adjusting the image range 35, the subject to be photographed is not relied on the displayed moving image 41, the target is not searched for with the eyes, and the surrounding visual field situation is determined. An effect is obtained that an image of the shooting target range 33 centered on the position 32 can be acquired accurately and easily.
[0061]
Further, according to the first embodiment, the photographer changes the predetermined shape indicating the displayed video range 35 based on the controlled zoom ratio of the camera 1 a, so that the photographer can An effect is obtained that it is possible to confirm that the zoom ratio of the camera 1a is accurately controlled.
[0062]
Further, according to the first embodiment, based on the position information of the photographing target position 32 set in advance and the position information and posture information of the helicopter 51 detected along with the flight, By holding the axial direction at the shooting target position 32, the photographer is released from troublesome camera operation and visually observes the situation of a wide area including the periphery of the shooting target range 33 captured by the camera 1a. There is an effect that it is possible to afford to report the state to the base station 52 by voice or the like.
[0063]
Furthermore, according to the first embodiment, when the visual axis direction of the camera 1a is held at the shooting target position 32, the shooting target position 32 is determined from the helicopter 51 by the position information of the helicopter 51 and the two-dimensional map data. By controlling the straight-line distance up to and controlling the zoom ratio of the camera 1a based on the set shooting target range 33, the photographer can be freed from troublesome camera operations.
[0064]
Further, according to the first embodiment, when the visual axis direction of the camera 1a being photographed is held at the photographing target position 32, the photographer is made to blink by flashing a predetermined shape indicating the video range 35. The effect that it can be confirmed that the visual axis direction of the camera 1a is held at the photographing target position 32 is obtained.
[0065]
Further, according to the first embodiment, the photographer changes the color of the predetermined shape indicating the video range 35 in accordance with the type of the camera 1a that is photographing, so that the photographer The effect that the type can be confirmed is obtained.
[0066]
Further, according to the first embodiment, the position / direction 36 of the helicopter 51 is displayed on the displayed two-dimensional map 31 based on the position information of the helicopter 51, so that the pilot and the photographer can select the helicopter 51. The effect that the position and direction of can be confirmed is obtained.
[0067]
Further, according to the first embodiment, the position information of the helicopter 51 is stored, and the flight path 37 of the helicopter 51 is displayed on the displayed two-dimensional map 31, so that the pilot and the photographer can The effect that the flight path of the helicopter 51 can be confirmed is obtained.
[0068]
Furthermore, according to the first embodiment, by displaying the moving image 41 captured by the camera 1a together with the two-dimensional map 31, the photographer can check the moving image being captured. An effect is obtained.
[0069]
Further, according to the first embodiment, the photographer can confirm the actual distance of the moving image 41 by displaying the image width of the displayed moving image 41 at the actual distance using the two-dimensional map data. The effect that it can be obtained.
[0070]
Further, according to the first embodiment, the scale of the displayed two-dimensional map 31 and the horizontal distance from the position of the helicopter 51 to the photographing target position 32 are displayed together with the two-dimensional map 31 by using the two-dimensional map data. By doing so, an effect is obtained that the pilot and the photographer can quickly grasp the positional relationship between the position of the helicopter 51 and the photographing target position 32.
[0071]
Furthermore, according to the first embodiment, the visual axis direction of the camera 1a that is photographing is determined based on the preset position information of the photographing target position 32 and the position information and posture information of the helicopter 51. A still image that captures a target or a still image at a desired timing is extracted by adding a still image mark for extracting a still image to a moving image that is being captured at a desired timing or at a desired timing. The effect that it can do is acquired.
[0072]
Further, according to the first embodiment, by recording the moving image 41 and the incidental information thereof being recorded by the recording unit 9, information on the area where the radio channel with the base station 52 cannot be stored is stored. The effect of being able to be obtained.
[0073]
Further, according to the first embodiment, the moving image 41 being photographed and the accompanying information including display information such as the photographing target position 32, the photographing target range 33, the video position 71, the video range 35, and the like are displayed. Is transmitted to the base station 52, and the two-dimensional change information obtained by superimposing the video position 71 on the photographing target position 32 on the two-dimensional map 31 displayed on the base station 52 is used as the main control of the helicopter 51. The base station 52 issues a shooting instruction by controlling the visual axis direction of the camera 1a based on the transmitted two-dimensional change information and the position information of the helicopter 51. The effect that it can be performed accurately is obtained.
[0074]
Further, according to the first embodiment, even if a request is made from another area, if the 2D map data and 3D map data of the requested area are mounted on the helicopter 51, the photographer is requested. Even without knowing the geographical features of the area, it is possible to obtain an image of the target at the photographing target position 32 designated by the requester accurately and easily.
[0075]
Further, according to the first embodiment, in addition to the shooting target position 32 determined before the helicopter 51 starts to fly, a new shooting target position is determined by the photographer or the operator of the base station 52 during the shooting. Since 32 can be defined, an effect that flexible operability can be ensured when wide-area shooting is required is obtained.
[0076]
【The invention's effect】
As described above, according to the present invention, it is obtained from the position information of the flying object detected with the flight, the attitude information of the flying object detected with the flight, and the direction control information of the shooting camera. Display the video position captured by the camera on the two-dimensional map based on the camera's visual axis direction information and the position information of the intersection of the visual axis direction obtained from the 3D map data and the ground surface. With the zoom ratio that determines the position and the shooting range of the camera, the image range captured by the camera is displayed in a predetermined shape on the displayed two-dimensional map, The video position can be moved to any position on the displayed two-dimensional map by operating the shooting instruction unit. Video position on the displayed 2D map 2 Arbitrary location on the 3D map To move to or Superimpose on the shooting target position When you operated 2D change information is obtained, and the camera's visual axis direction is controlled based on the obtained 2D change information and the position information of the flying object detected with the flight, and an arbitrary position on the 2D map. Or By shooting the target, there is an effect that an image of the target can be easily acquired from the flying object without searching for the target at the shooting target position with the eyes regardless of the surrounding visual field situation.
[0077]
According to the present invention, on the displayed two-dimensional map, the video position is set to an arbitrary position on the two-dimensional map. When moving to When superimposing on the shooting target position, by controlling the zoom ratio of the camera corresponding to the shooting target range, the video of the shooting target range centered on the shooting target position can be accurately and regardless of the surrounding visual field situation. There is an effect that it can be easily acquired.
[0078]
According to the present invention, the photographer can accurately control the zoom ratio of the camera with respect to the shooting target range by changing the predetermined shape indicating the displayed video range based on the controlled zoom ratio of the camera. There is an effect that it can be confirmed.
[0079]
According to the present invention, based on the position information of the shooting target position set in advance and the position information and posture information of the flying object detected with the flight, the visual axis direction of the camera that is shooting is set as the shooting target position. By holding, there is an effect that the photographer is free from troublesome camera operation.
[0080]
According to the present invention, when the visual axis direction of the camera is held at the photographing target position, the position information of the flying object detected with the flight and the two-dimensional map data held from the flying object. By managing the linear distance to the shooting target position and controlling the zoom ratio of the camera based on the set shooting target range, the photographer is freed from troublesome camera operations.
[0081]
According to the present invention, the photographer changes the visual axis direction of the camera by blinking the predetermined shape indicating the video range when the visual axis direction of the camera that is photographing is held at the photographing target position. There is an effect that it can be confirmed that the object is held at the photographing target position.
[0082]
According to the present invention, the photographer can confirm the type of the camera being photographed by changing the color of the predetermined shape indicating the video range corresponding to the type of the camera being photographed. effective.
[0083]
According to the present invention, by displaying the position / direction of the flying object on the displayed two-dimensional map based on the position information of the flying object detected with the flight, the pilot of the flying object and the photographer can There is an effect that the position and direction of the flying object can be confirmed.
[0084]
According to the present invention, the position information of the flying object detected with the flight is stored, and the flight path of the flying object is displayed on the displayed two-dimensional map, so that the pilot and the photographer can The flight path can be confirmed.
[0085]
According to the present invention, by displaying the moving image captured by the camera together with the two-dimensional map, there is an effect that the photographer can check the moving image captured.
[0086]
According to the present invention, the photographer can confirm the actual distance of the moving image by displaying the image width of the displayed moving image at the actual distance using the stored two-dimensional map data. There is.
[0087]
According to the present invention, the scale of the displayed two-dimensional map and the horizontal distance from the position of the flying object detected with the flight to the shooting target position are calculated in two dimensions using the stored two-dimensional map data. By displaying together with the map, there is an effect that the pilot of the flying object and the photographer can quickly grasp the positional relationship between the position of the flying object and the position to be imaged.
[0088]
According to the present invention, based on the position information of the photographing target position set in advance and the position information and posture information of the flying object detected with the flight, the visual axis direction of the camera that is photographing is determined as the photographing target position. A still image that captures a target or a still image at a desired timing is extracted by adding a still image mark for extracting a still image to a moving image that is being captured at a desired timing or at a desired timing. There is an effect that can be done.
[0089]
According to the present invention, it is possible to store information on a region where a radio channel with a base station cannot be used by recording the moving image and the accompanying information recorded by the flying object.
[0090]
According to the present invention, the moving image being shot and the incidental information including display information such as the shooting target position, shooting target range, video position, and video range displayed on the flying object are transmitted to the base station. The two-dimensional change information obtained by superimposing the video position on the shooting target position on the two-dimensional map displayed at the base station is transmitted to the flying object, and the transmitted two-dimensional change information and the flight Accordingly, there is an effect that an instruction regarding imaging can be accurately performed from the base station by controlling the visual axis direction of the camera based on the detected position information of the flying object and imaging the target.
[Brief description of the drawings]
FIG. 1 is a block diagram showing a configuration of a photographing system according to Embodiment 1 of the present invention.
FIG. 2 is a diagram showing a display example of a display unit in a photographing instruction unit according to Embodiment 1 of the present invention.
FIG. 3 is a diagram showing a display example of a display unit for explaining a procedure for accurately photographing a target according to Embodiment 1 of the present invention;
FIG. 4 is a diagram for describing two-dimensional change information when a key of a photographing instruction unit is operated.
FIG. 5 is a diagram illustrating the principle of a conventional position specifying method.
FIG. 6 is a block diagram illustrating a configuration of a conventional imaging system.
FIG. 7 is a diagram illustrating a state in which the position of a conventional target is displayed as an image on a two-dimensional map.
[Explanation of symbols]
1 camera unit, 1a camera, 1b gimbal, 2 camera control unit, 3 shooting instruction unit, 4 2D map data unit, 5 attitude detection unit, 6 position detection unit, 7 3D map data unit, 8 main control unit, 9 Recording unit 10, 11 Transmission / reception unit, 12 console, 30 display unit, 31 2D map, 32 shooting target position, 33 shooting target range, 35, 35a, 35b, 35c video range, 36 position / direction, 37 flight trajectory , 41 Video image, 42, 43 Comment, 51 Helicopter, 52 Base station, 71, 71a, 71b, 71c Image position, 72 Ground surface, 73 Two-dimensional plane, 74 Extension intersection, 75 Projection position.

Claims (15)

目標物が存在する撮影対象位置と、その周辺の撮影対象範囲を撮影する飛行体に搭載された撮影システムにおいて、
保有している2次元地図データにより2次元地図を表示し、
予め設定された上記撮影対象位置の位置情報により、上記撮影対象位置を上記2次元地図上に表示し、
予め設定された上記撮影対象範囲を示す情報により、上記撮影対象範囲を上記2次元地図上に表示し、
飛行に伴い検出している上記飛行体の位置情報と、飛行に伴い検出している上記飛行体の姿勢情報及び撮影しているカメラの方向制御情報から得られる上記カメラの視軸方向情報と、保有している3次元地図データから得られる上記視軸方向と地表面との交点の位置情報により、上記2次元地図上に上記カメラが捕らえている映像位置を表示し、
上記映像位置と上記カメラの撮影範囲を決めるズーム比により、表示されている上記2次元地図上に、上記カメラが捕らえている映像範囲を所定の形状で表示し、
上記映像位置は、撮影指示部の操作により、表示されている上記2次元地図上で任意の位置に移動可能とし、
表示されている上記2次元地図上で、上記映像位置を上記2次元地図上の任意の位置に移動させる操作又は上記撮影対象位置に重ね合わせる操作をしたときの2次元の変化情報を求め、
求めた上記2次元の変化情報と、飛行に伴い検出している上記飛行体の位置情報に基づき、上記カメラの視軸方向を制御して上記2次元地図上の任意の位置又は上記目標物を撮影する
ことを特徴とする撮影システム。
In the shooting system mounted on the flying object shooting the shooting target position where the target is present and the shooting target range around it,
Display the 2D map with the 2D map data you have,
Based on the position information of the shooting target position set in advance, the shooting target position is displayed on the two-dimensional map,
With the information indicating the preset photographing target range, the photographing target range is displayed on the two-dimensional map,
The position information of the flying object detected with the flight, the attitude information of the flying object detected with the flight, and the visual axis direction information of the camera obtained from the direction control information of the camera being photographed; Based on the position information of the intersection of the visual axis direction and the ground surface obtained from the held 3D map data, the video position captured by the camera on the 2D map is displayed.
The image range captured by the camera is displayed in a predetermined shape on the displayed two-dimensional map according to the zoom ratio that determines the image position and the shooting range of the camera.
The video position can be moved to an arbitrary position on the displayed two-dimensional map by operating the shooting instruction unit.
On the two-dimensional map displayed, it obtains a two-dimensional change information when the operation of superimposing the operation is moved to an arbitrary position or the imaging target position on the upper Symbol 2-dimensional map of the video position,
Based on the obtained two-dimensional change information and the position information of the flying object detected along with the flight, the visual axis direction of the camera is controlled and an arbitrary position on the two-dimensional map or the target is A shooting system characterized by shooting.
表示されている2次元地図上で、映像位置を上記2次元地図上の任意の位置に移動させるとき又は撮影対象位置に重ね合わせるときに、撮影対象範囲に対応してカメラのズーム比を制御する
ことを特徴とする請求項1記載の撮影システム。
When the video position is moved to an arbitrary position on the two-dimensional map on the displayed two-dimensional map or is superimposed on the photographing target position, the zoom ratio of the camera is controlled in accordance with the photographing target range. The imaging system according to claim 1.
制御されたカメラのズーム比に基づき、表示されている映像範囲を示す所定の形状を変化させる
ことを特徴とする請求項2記載の撮影システム。
The imaging system according to claim 2, wherein a predetermined shape indicating a displayed video range is changed based on a controlled zoom ratio of the camera.
予め設定された撮影対象位置の位置情報と、飛行に伴い検出している飛行体の位置情報及び姿勢情報に基づき、撮影しているカメラの視軸方向を上記撮影対象位置に保持する
ことを特徴とする請求項1記載の撮影システム。
The visual axis direction of the camera that is shooting is held at the shooting target position based on the position information of the shooting target position set in advance and the position information and attitude information of the flying object detected during the flight. The imaging system according to claim 1.
カメラの視軸方向を撮影対象位置に保持しているときに、飛行に伴い検出している飛行体の位置情報と、保有している2次元地図データにより、上記飛行体から撮影対象位置までの直線距離を管理し、設定されている撮影対象範囲に基づき、上記カメラのズーム比を制御する
ことを特徴とする請求項4記載の撮影システム。
When the direction of the visual axis of the camera is held at the shooting target position, the position information of the flying object detected with the flight and the two-dimensional map data held from the flying object to the shooting target position. The photographing system according to claim 4, wherein a linear distance is managed, and a zoom ratio of the camera is controlled based on a set photographing target range.
撮影しているカメラの視軸方向を撮影対象位置に保持しているときに、映像範囲を示す所定の形状を明滅させる
ことを特徴とする請求項4記載の撮影システム。
The imaging system according to claim 4, wherein the predetermined shape indicating the video range is blinked when the visual axis direction of the camera that is imaging is held at the imaging target position.
撮影しているカメラの種類に対応して、映像範囲を示す所定の形状の色を変化させる
ことを特徴とする請求項1記載の撮影システム。
The photographing system according to claim 1, wherein the color of a predetermined shape indicating the video range is changed in accordance with the type of the camera that is photographing.
飛行に伴い検出している飛行体の位置情報により、表示している2次元地図上に、上記飛行体の位置/方向を表示する
ことを特徴とする請求項1記載の撮影システム。
The imaging system according to claim 1, wherein the position / direction of the flying object is displayed on the displayed two-dimensional map based on the position information of the flying object detected with the flight.
飛行に伴い検出している飛行体の位置情報を記憶しておき、表示している2次元地図上に、上記飛行体の飛行経路を表示する
ことを特徴とする請求項1記載の撮影システム。
The imaging system according to claim 1, wherein position information of the flying object detected with the flight is stored, and a flight path of the flying object is displayed on the displayed two-dimensional map.
カメラが撮影している動画映像を、2次元地図と共に表示する
ことを特徴とする請求項1記載の撮影システム。
The imaging system according to claim 1, wherein a moving image captured by the camera is displayed together with a two-dimensional map.
表示している動画映像の映像幅を、保有している2次元地図データにより実距離で表示する
ことを特徴とする請求項1記載の撮影システム。
The imaging system according to claim 1, wherein the video width of the displayed moving image is displayed at an actual distance using the two-dimensional map data held.
保有している2次元地図データにより、表示されている2次元地図の縮尺と、飛行に伴い検出している飛行体の位置から撮影対象位置までの水平距離を、2次元地図と共に表示する
ことを特徴とする請求項1記載の撮影システム。
The scale of the displayed 2D map and the horizontal distance from the position of the flying object detected with the flight to the shooting target position are displayed together with the 2D map using the 2D map data we have. The imaging system according to claim 1, wherein:
予め設定された撮影対象位置の位置情報と、飛行に伴い検出している飛行体の位置情報及び姿勢情報に基づき、撮影しているカメラの視軸方向を上記撮影対象位置に保持するタイミング、又は所望のタイミングで、撮影している動画映像に静止画を抽出するための静止画マークを付加する
ことを特徴とする請求項1記載の撮影システム。
Timing for holding the visual axis direction of the camera being photographed at the photographing object position based on the position information of the photographing object position set in advance and the position information and posture information of the flying object detected with the flight, or 2. The photographing system according to claim 1, wherein a still image mark for extracting a still image is added to the moving image being photographed at a desired timing.
撮影している動画映像とその付帯情報を、飛行体で記録する
ことをする請求項1記載の撮影システム。
The imaging system according to claim 1, wherein the moving image and the incidental information being recorded are recorded by a flying object.
撮影している動画映像と、飛行体で表示している撮影対象位置、撮影対象範囲、映像位置、映像範囲等の表示情報を含む付帯情報とを、基地局に送信し、
上記基地局で表示された2次元地図上で、上記映像位置を上記撮影対象位置に重ね合わせることにより得られた2次元の変化情報を上記飛行体に送信し、
送信された上記2次元の変化情報と、飛行に伴い検出している上記飛行体の位置情報に基づき、カメラの視軸方向を制御して目標物を撮影する
ことをする請求項1記載の撮影システム。
Sending the video image being captured and the incidental information including display information such as the shooting target position, shooting target range, video position, and video range displayed on the flying object to the base station,
On the two-dimensional map displayed at the base station, two-dimensional change information obtained by superimposing the video position on the shooting target position is transmitted to the flying object,
The imaging according to claim 1, wherein the target is imaged by controlling the visual axis direction of the camera based on the transmitted two-dimensional change information and the position information of the flying object detected with the flight. system.
JP2000004863A 2000-01-13 2000-01-13 Shooting system Expired - Fee Related JP3919994B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2000004863A JP3919994B2 (en) 2000-01-13 2000-01-13 Shooting system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2000004863A JP3919994B2 (en) 2000-01-13 2000-01-13 Shooting system

Publications (2)

Publication Number Publication Date
JP2001197481A JP2001197481A (en) 2001-07-19
JP3919994B2 true JP3919994B2 (en) 2007-05-30

Family

ID=18533598

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000004863A Expired - Fee Related JP3919994B2 (en) 2000-01-13 2000-01-13 Shooting system

Country Status (1)

Country Link
JP (1) JP3919994B2 (en)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003110981A (en) * 2001-09-28 2003-04-11 Hiroboo Kk Aerial video image processing system and wireless small- sized unmanned flying body
US6744397B1 (en) * 2003-06-11 2004-06-01 Honeywell International, Inc. Systems and methods for target location
JP4449587B2 (en) * 2004-06-09 2010-04-14 富士フイルム株式会社 Image mapping method and image mapping program
JP2007272085A (en) * 2006-03-31 2007-10-18 Pioneer Electronic Corp Information display device, information display method, and program for information display
JP5107582B2 (en) * 2007-01-15 2012-12-26 三菱電機株式会社 Aircraft navigation calculation program with image sensor
JP4999647B2 (en) * 2007-11-09 2012-08-15 四国航空株式会社 Aerial photography system and image correction method for aerial photography
JP5086824B2 (en) * 2008-01-28 2012-11-28 三菱重工業株式会社 TRACKING DEVICE AND TRACKING METHOD
JP2014220604A (en) * 2013-05-07 2014-11-20 三菱電機株式会社 Photographing position information display device
WO2018072082A1 (en) * 2016-10-18 2018-04-26 XDynamics Limited Ground station for unmanned aerial vehicle (uav)
JP6544542B2 (en) * 2016-12-21 2019-07-17 エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd Control device, imaging device, unmanned aerial vehicle, control method, and program
JP6788094B2 (en) 2017-02-15 2020-11-18 エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd Image display methods, image display systems, flying objects, programs, and recording media

Also Published As

Publication number Publication date
JP2001197481A (en) 2001-07-19

Similar Documents

Publication Publication Date Title
AU2007252840B2 (en) Methods and system for communication and displaying points-of-interest
JP5618840B2 (en) Aircraft flight control system
US20140267775A1 (en) Camera in a Headframe for Object Tracking
EP3629309A2 (en) Drone real-time interactive communications system
CN107065894B (en) Unmanned aerial vehicle, flying height control device, method, and computer-readable recording medium
JP3919994B2 (en) Shooting system
EP1168830A1 (en) Computer aided image capturing system
US11122209B2 (en) Three-dimensional shape estimation method, three-dimensional shape estimation system, flying object, program and recording medium
EP3152900B1 (en) System and method for remote monitoring at least one observation area
JP6001914B2 (en) Target position specifying device, target position specifying system, and target position specifying method
WO2017169841A1 (en) Display device and display control method
JP2004056664A (en) Cooperative photography system
KR20030070553A (en) Video picture processing method
WO2019230604A1 (en) Inspection system
JP2017169170A (en) Imaging apparatus, moving apparatus, imaging system, imaging method, and program
JP6482855B2 (en) Monitoring system
JP2011169658A (en) Device and method for pinpointing photographed position
JP2019135605A (en) Video image display device and video image display method
US10778899B2 (en) Camera control apparatus
JP6482856B2 (en) Monitoring system
CN111818270B (en) Automatic control method and system for multi-camera shooting
JP3527160B2 (en) Imaging instruction system, imaging instruction method, and recording medium
KR20110121426A (en) System for observation moving objects
JP2003316259A (en) Photography image processing method and system thereof
JP2007241085A (en) Photographed image processing system and photographed image processing device, and photographed image display method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20030715

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20051003

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20051011

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20051205

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20060110

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060221

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060221

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20060324

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20060414

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20061221

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20070214

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100223

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110223

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120223

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130223

Year of fee payment: 6

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313117

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130223

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140223

Year of fee payment: 7

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees