JP2005123750A - 映像・地図連動システム及びその連動方法 - Google Patents

映像・地図連動システム及びその連動方法 Download PDF

Info

Publication number
JP2005123750A
JP2005123750A JP2003354302A JP2003354302A JP2005123750A JP 2005123750 A JP2005123750 A JP 2005123750A JP 2003354302 A JP2003354302 A JP 2003354302A JP 2003354302 A JP2003354302 A JP 2003354302A JP 2005123750 A JP2005123750 A JP 2005123750A
Authority
JP
Japan
Prior art keywords
map
video
data
camera
shooting
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2003354302A
Other languages
English (en)
Inventor
Fumihiko Kotabe
文彦 小田部
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
TSUKUBA MULTIMEDIA KK
Tsukuba Multimedia Corp
Original Assignee
TSUKUBA MULTIMEDIA KK
Tsukuba Multimedia Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by TSUKUBA MULTIMEDIA KK, Tsukuba Multimedia Corp filed Critical TSUKUBA MULTIMEDIA KK
Priority to JP2003354302A priority Critical patent/JP2005123750A/ja
Publication of JP2005123750A publication Critical patent/JP2005123750A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Instructional Devices (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

【課題】 遠隔地のカメラで撮影される撮影映像と、対応する地図とを、利用端末画面上で連動させて表示すると共に、撮影映像を地図上で容易に特定する。
【解決手段】 映像・地図連動システムは、利用端末51と、遠隔地に設けられたカメラ31と、利用端末51及びカメラ31に通信ネットワークを介して接続される映像・地図情報処理サーバー41と、を備え、映像・地図情報処理サーバー41は、操作認識部21と、映像・地図同期処理部14と、地図・映像位置データ記憶部13と、を含み、映像・地図同期処理部14は、映像又は地図についての操作入力信号に基づき、カメラ31で撮影される撮影対象物を含む映像データを取得すると共に、地図・映像位置データ記憶部13から映像データに対応する地図データを取得し、撮影対象物を含む映像データに関する撮影情報を地図データ上に反映させる。
【選択図】図1

Description

この発明は、インターネット等の通信回線を利用する、映像と地図とを連動させて表示するシステム及びその連動方法に関し、より詳細には、利用端末における画面上に、遠隔地で取得される映像の撮影方向や撮影の倍率等に対応して、映像と地図とを連動させて表示する映像・地図連動システム及びその連動方法に関する。
近年、インターネット等の通信回線の発達に伴い、インターネットを通じてニュースや音楽、買い物・観光等の情報を映像で配信することが行われている。また、防犯や災害対策等のために、監視する目的で監視対象となる映像をインターネットを通じて配信することも行われている。これらに伴い、インターネット上で遠隔地に設置された定点カメラ等のカメラにより撮影される映像と、このカメラが設置される地点周辺の地図とを、利用端末上に表示させるシステムが開発されている。
上記に関連する従来技術として、下記の特許文献1には、監視地点が選択されると、選択された監視地点の局域地図と共に、選択された監視地点の監視カメラから撮像動画を受信して、その映像を画面表示する監視システムが開示されている。
特開平11−102495号公報(第1頁、第6図)
しかしながら、従来のシステムでは、撮影の方向や、撮影の倍率にもとづいて決定される視野の範囲等の撮影情報を地図上に反映させたり、このような撮影情報を反映させた地図と撮影される映像とを連動させて表示することは出来ない。このため、利用端末の画面に表示される撮影映像を見ている者は、その画面に撮影映像として映っている風景や撮影の対象物等が具体的に何かを特定することは難しく、撮影映像についての情報を容易に把握することが出来ないという問題があった。
即ち、従来のように、カメラが設置される地点周辺の地図を利用端末の画面上に表示するのみでは、カメラにより撮影された映像(撮影映像)が表示されている画面を見た者は、その撮影映像が、具体的に地図上のどの方向の風景を示しているのか、又はどの対象物を示しているのか等の情報を容易に把握することはできない。
また、防犯や災害対策等のために監視する目的においても、画面に表示される映像(撮影映像)について具体的に特定できることが要望される。
本発明は、遠隔地に設置されたカメラにより撮影される映像と、この映像に対応する地図とを、利用端末における画面上で連動させて表示することができると共に、撮影された映像について、地図上で容易に特定することができる映像・地図連動システム及びその連動方法を実現することを課題とするものである。
また、利用端末の画面上において、遠隔地に設置されたカメラで撮影される映像と連動して表示される地図を基に、容易に所望とする映像を表示させることができる映像・地図連動システム及びその連動方法を実現することを課題とするものである。
本発明は上記課題を解決するために、一つ又は複数の利用端末と、遠隔地に設けられた少なくとも1つのカメラと、前記利用端末及び前記カメラに通信ネットワークを介して接続される映像・地図情報処理サーバーと、を備えた映像・地図連動システムであって、前記映像・地図情報処理サーバーは、操作認識部と、映像・地図同期処理部と、地図・映像位置データ記憶部と、を含んでおり、前記操作認識部は、前記利用端末からの入力に基づき、映像又は地図についての操作入力信号を前記映像・地図同期処理部に送り、前記地図・映像位置データ記憶部は、地図データと、該地図データに対応させて、少なくとも前記カメラの位置データを記憶し、前記映像・地図同期処理部は、前記映像又は地図についての操作入力信号に基づき、前記カメラで撮影される撮影対象物を含む映像データを取得すると共に、前記地図・映像位置データ記憶部から前記映像データに対応する地図データを取得し、前記撮影対象物を含む前記映像データに関する撮影情報を前記地図データ上に反映させることを特徴とする映像・地図連動システムを提供する。
前記映像・地図同期処理部は、前記カメラの位置から前記カメラで撮影される撮影対象物の位置までの平面上における距離を算出して、前記地図データ上における前記撮影対象物の位置を特定することにより、前記撮影対象物を含む前記映像データに関する撮影情報を前記地図データ上に反映させることが好ましい。
前記撮影対象物を含む前記映像データに関する撮影情報には、少なくとも前記カメラの撮影方向、撮影の視野範囲、撮影の倍率、前記撮影対象物の位置、及び、前記撮影対象物についての情報が含まれていることが好ましい。
前記撮影情報のうち少なくとも前記撮影対象物についての情報を、音声により伝達することにしてもよい。
また本発明は、一つ又は複数の利用端末と、遠隔地に設けられた少なくとも1つのカメラとに、通信ネットワークを介して映像・地図情報処理サーバーを接続し、前記カメラで撮影される映像を、地図と共に前記利用端末に表示させる映像・地図連動方法であって、前記利用端末からの入力に基づき、前記カメラで撮影される撮影対象物を含む映像データを取得すると共に、該映像データに対応する地図データを取得し、前記カメラの位置から前記撮影対象物の位置までの平面上における距離を算出することにより、前記地図データ上における前記撮影対象物の位置を特定し、特定された前記撮影対象物の位置を基に、前記撮影対象物を含む前記映像データに関する撮影情報を前記地図データ上に反映させることを特徴とする映像・地図連動方法を提供する。
前記撮影対象物を含む前記映像データに関する撮影情報には、少なくとも前記カメラの撮影方向、撮影の視野範囲、撮影の倍率、前記撮影対象物の位置、及び、前記撮影対象物についての情報が含まれていることが好ましい。
前記撮影情報のうち少なくとも前記撮影対象物についての情報を、音声により伝達することにしてもよい。
以上の構成から成る本発明に係る映像・地図連動システム及びその連動方法によると、遠隔地に設置されたカメラにより撮影される所望の撮影映像と、この撮影映像に対応する地図とを、利用端末における画面上で連動させて表示することができると共に、撮影された所望の映像について、地図上で容易に特定することができる。
また、利用端末の画面上において、遠隔地に設置されたカメラで撮影される映像と連動して表示される地図を基にして、容易に所望とする撮影映像を表示させることができる。
本発明に係る映像・地図連動システム及びその連動方法を実施するための最良の形態を実施例に基づいて図面を参照して説明する。
図1は、本発明の実施例1に係る映像・地図連動システムの全体構成を示す図である。この映像・地図連動システムは、複数の利用端末51と、少なくとも一つのカメラ31と、利用端末51及びカメラ31に、通信ネットワークを介して接続された映像・地図情報処理サーバー41とを備える。なお、図1では、複数の利用端末51のうち一つの利用端末51のみが図示されている。また、利用端末51は一つであってもよい。
利用端末51は、入出力インターフェイス、CPU(中央演算処理装置)、記憶装置等(以上、特に図示せず)を備えており、入力部19及び表示部20が設けられた通常のパーソナルコンピューター(パソコン)である。
図2は、利用端末51の画面52の一例を具体的に示した図である。利用端末51の画面52には、表示部20として、映像表示部20aと地図表示部20bとが並んで示されている。映像表示部20aはカメラ31で撮影された映像を表示し、地図表示部20bは、この映像に対応した(連動した)地図を表示する。
本発明の特徴の一つは、撮影された映像と対応して表示させた地図上に、撮影の方向、撮影の視野範囲等、この映像(映像データ)に関する撮影情報を地図(地図データ)上に反映させていることである。
具体的には、地図表示部20bでは、地図上における(表示された)カメラ31’の位置を中心にして扇形の撮影の視野範囲37’が表示されている。カメラ31’の位置から撮影された映像の焦点、言い換えれば、地図上における撮影対象物の位置までが矢印36で表されている。つまり、カメラ31’の位置から延びる矢印36の先端にこの撮影対象物が位置している。矢印36の長さl(エル)は、カメラ31’の位置から撮影対象物の位置までの、この地図上における距離を表す。
画面52上には、表示部20と共に、入力部19が示されている。入力部19は、映像表示部20aに表示された映像を拡大又は縮小する倍率変更についての操作入力ボタン19aと、映像表示部20aに表示された映像の方向を操作する操作入力ボタン19bと、地図表示部20bに表示された地図を拡大又は縮小する倍率変更についての操作入力ボタン19cと、地図表示部20bに表示された地図の方向を操作する操作入力ボタン19dとを有する。
操作入力ボタン19a、19cのうち、+の印が付けられた操作入力ボタンは、それぞれ映像又は地図を拡大するときに操作し、−の印が付けられた操作入力ボタンは、それぞれ映像又は地図を縮小するときに操作する。操作入力ボタン19bのうち、図2の紙面に向かって右側の操作入力ボタンは、映像表示部20aに表示されている映像を基準にして、さらに右方向の映像を見たい場合に操作し、図2の紙面に向かって左側の操作入力ボタンは、さらに左方向の映像を見たい場合に操作する。
一方、操作入力ボタン19dのうち、図2の紙面に向かって右側の操作入力ボタンは、地図表示部20bに表示されている地図上のカメラ31’の視野範囲37’を基準にして、この視野範囲37’よりもさらに右周り方向にある視野範囲(映像表示部20aで表示されている映像のさらに右方向の映像に対応する)を見たい場合に操作する。同様に、操作入力ボタン19dのうち、図2の紙面に向かって左側の操作入力ボタンは、地図上に示されているカメラ31’の視野範囲37’よりもさらに左周り方向にある視野範囲(映像表示部20aで表示されている映像のさらに左方向の映像に対応する)を見たい場合に操作する。
なお、本実施例では、入力部19として利用端末51の画面52上に操作入力ボタン19a〜19dを設けているが、同様の操作を利用端末51に接続される例えばキーボードから入力することにしてもよい。
再び、図1を参照して、カメラ31は、遠隔地に設けられる定点カメラ(ライブカメラ)である。カメラ31は、例えば、ニュースや音楽、買い物・観光等の情報を映像で配信するためや、防犯、災害対策等の監視カメラとして利用され得る。なお、実施例1ではカメラ31として、例えば自動焦点機能を有するカメラを用いている。また、カメラ31は、パン、PAN機能(左右方向にカメラが首振り状に回る機能)及びチルト、TILT機能(上下方向にカメラが首振り状に動く機能)を有する。
なお、カメラとして、自動焦点機能を有さずに、360度全方位において映像データの取得を可能とする全方位撮影型のカメラ(後述する実施例2参照)を用いても良い。また、実施例1の自動焦点機能を有する(全方位型でない)カメラ31と、後述する実施例2の全方位撮影型のカメラとを組合わせて複数用いてもよい。
自動焦点機能を有する実施例1の31カメラは、信号入力部7と、受信された信号を制御する制御部5と、映像撮影部1と、映像出力部6と、信号出力部8と、を備える。そして、映像撮影部1は、焦点計測部2、方向計測部3、及び角度計測部4を有する。
信号入力部7は、例えば通信ネットワークを介してカメラ31と接続された映像・地図情報処理サーバー41からの信号を受信する。制御部5は、受信された信号に基づき映像撮影部1を制御する。映像撮影部1は、この信号に基づき所望の映像を撮影する。撮影の際には、映像撮影部1において、焦点計測部2、方向計測部3、角度計測部4は、それぞれ、カメラ31で撮影される撮影対象物までの焦点距離、方向、角度を計測する。映像出力部6は、撮影された撮影対象物を含む映像データを映像・地図情報処理サーバー41に通信ネットワークを介して送信する。信号出力部8は、撮影対象物について計測された、これらの焦点距離、方向、角度についての計測値のデータを、映像データに関する撮影情報として、同様に映像・地図情報処理サーバー41に通信ネットワークを介して送信する。
映像・地図情報処理サーバー41は、映像入力部9と、信号出力部10と、信号入力部11と、映像変換(処理)部12と、地図・映像位置データ記憶部13と、映像・地図同期処理部14と、映像・地図出力部15と、操作認識部21と、を備える。
操作認識部21は、利用端末51からの入力に基づき映像又は地図についての操作入力信号を映像・地図同期処理部14に送る。具体的には、操作認識部21は、倍率変更認識部16と、カメラ方向変更認識部17と、地図方向変更(操作)認識部18と、を有する。
倍率変更認識部16は、利用端末51の入力部19から入力される、映像データ又は地図データを拡大又は縮小する倍率変更についての指示に基づき、その操作入力信号を映像・地図同期処理部14に送る。具体的には、図2に示されるように、映像表示部20aに表示された映像を参照して映像データの拡大又は縮小についての指示、もしくは地図表示部20bに表示された地図を参照して地図の拡大又は縮小についての指示が、それぞれ操作入力ボタン19a、19cにより行われる。すると、この操作入力ボタン19a、19cにより行われた拡大又は縮小の倍率変更についての指示入力量が定量化(数値データ化)されて操作入力信号として映像・地図同期処理部14に送られる。
カメラ方向変更認識部17は、利用端末51の入力部19から入力される、映像データの方向についての指示に基づき、その操作入力信号を映像・地図同期処理部14に送る。具体的には、図2に示されるように、映像表示部20aに表示された映像を基に、見たい方向についての指示入力が操作入力ボタン19bにより行われる。すると、操作入力ボタン19bにより行われた入力量が定量化(数値データ化)されて操作入力信号として映像・地図同期処理部14に送られる。
地図方向変更(操作)認識部18は、利用端末51の入力部19から入力される、地図についての操作入力信号を映像・地図同期処理部14に送る。具体的には、地図表示部20bに表示された視野範囲37’を基に、さらに見たい視野範囲の方向についての指示が、操作入力ボタン19dにより行われる。すると、操作入力ボタン19dにより行われた入力量が、上記と同様にして定量化(数値データ化)されて操作入力信号として映像・地図同期処理部14に送られる。
利用端末51から送られてきたこれらの操作入力信号はそれぞれ、映像・地図同期処理部14で映像を撮影するための信号に変換された後、信号出力部10から、通信ネットワークを介してカメラ31内に送信される。
映像入力部9は、カメラ31で撮影された映像データを、通信ネットワークを介してデジタル信号として受信する。映像変換(処理)部12は、このデジタル信号を映像入力部9から受け取り映像データに変換した後、映像・地図同期処理部14へ送る。
信号入力部11は、カメラ31で撮影された映像データに関する撮影情報、具体的には例えば、カメラ31内の信号出力部8から送信される、撮影の際の映像についての焦点距離の計測値、方向の計測値、及び、角度の計測値についてのデータを受信し、映像・地図同期処理部14に送る。
一方、地図・映像位置データ記憶部13は、少なくとも、設置されているカメラ31の位置データ(カメラ31の位置についてのデータ、例えばカメラ31の位置座標データ)を、地図データに対応させて記憶している。つまり、カメラ31の位置データと、地図データ上におけるカメラ31’の位置データとを対応させて記憶している。
さらには、地図・映像位置データ記憶部13に、カメラ31で撮影される撮影対象物の地図データ上における位置(撮影対象物の位置データ、例えば撮影対象物の位置座標データ)と、この撮影対象物の位置データに対応させて、その撮影対象物についての情報を記憶させておいてもよい。地図データ上における撮影対象物についての情報としては、例えば、その撮影対象物が建物の場合、建物の名称、建物の所在地の住所、建物が有しているホームページのアドレス等の建物についての情報が挙げられる。また、その撮影対象物が山等の景色の場合であっても、同様に、その山の名称、その山の所在地の住所、その山への行き方、その山についての情報が掲載されているホームページのアドレス等の情報が挙げられる。
なお、またさらに、地図・映像位置データ記憶部13に、カメラ31で撮影される撮影対象物の撮影画面上における位置データ、つまり、カメラ31の映像撮影部1の撮影画面を座標に見立て、この座標に見立てた撮影画面上における撮影対象物の位置データと、地図データ上における撮影対象物の位置データとを予め対応づけて記憶させておくことにしてもよい。
映像・地図同期処理部14では、映像変換(処理)部12から送られてきた映像データと、地図・映像位置データ記憶部13に記憶されている地図データとを連動させる。つまり、映像・地図同期処理部14は、カメラ31で撮影された撮影対象物を含む映像データを、映像変換(処理)部12を経て取得すると共に、この映像データに対応する地図データを地図・映像位置データ記憶部13から取得する。それと同時に、信号入力部11から送られてきた撮影方向、撮影の視野範囲、撮影の中心点、撮影の倍率等の映像データに関する撮影情報を取得した地図データに反映させる。このような映像・地図同期処理部14の構成及び動作については、さらに詳しく後述する。
映像・地図出力部15は、映像・地図同期処理部14から送られてきた上記の映像データと、この映像データに連動する地図データとを受け取り、利用端末51に出力送信する。
上述した映像・地図同期処理部14において、映像データと地図データとを連動させる方法(要するに、取得した映像データに関する撮影情報を、映像データと対応して取得した地図データ上に反映させる方法、映像・地図連動方法)として、例えば以下の方法がある。その方法は、少なくとも、カメラ31の位置からカメラ31で撮影される撮影対象物の位置までの平面上(水平面上)における距離を、カメラ31の位置に基づいて算出し、この算出された平面上における距離から、地図データ上におけるカメラの位置に基づいて撮影対象物の位置を特定する映像・地図連動方法である。つまり、この映像・地図連動方法では、カメラ31の位置に基づいてカメラ31の位置から撮影対象物の位置までの平面上における距離を算出する。この算出された平面上における距離に対応して、地図データ上におけるカメラの位置からの距離が求められる。地図データ上において、カメラの位置からの距離が求められことにより、その距離の先端に位置する撮影対象物の位置が特定されるのである。そして、特定された地図データ上における撮影対象物の位置を基に、撮影対象物を含む映像データに関する撮影情報を地図データ上に反映させる(表示、図示する)。
実施例1では、図1に示される映像・地図同期処理部14の構成、及び、上記映像・地図連動方法を用いた映像・地図同期システムの動作を以下に詳しく説明する。映像・地図同期処理部14は、視野算出部14aと、カメラ倍率算出部14bと、地図倍率算出部14cと、カメラ方向算出部14dと、地図方向算出部14eと、地図再生処理部14fと、映像・地図同期部14gと、を有する。
カメラ倍率算出部14bは、倍率変更認識部16から受け取った映像又は地図を拡大又は縮小する倍率変更についての操作入力信号を基に、この倍率変更率を数値データ化する。
地図倍率算出部14cは、カメラ倍率算出部14bで数値データ化された地図の倍率変更率に基づいて、地図・映像位置データ記憶部13から所望の倍率の地図データを取得する。
カメラ方向算出部14dは、カメラ方向認識部17から受け取った映像の方向についての操作入力信号を基に、カメラ31を実際に動かす(映像を撮影する)ためのデータ(信号)に変換して信号出力部10に送る。また、この変換された映像を撮影するためのデータは、対応する数値データ化された地図上の視野範囲の方向変更率に変換され、地図方向算出部14eに送られる。
地図方向算出部14eは、地図方向変更(操作)認識部18から受け取った地図についての操作入力信号(地図上における撮影対象物の方向変更についての操作入力信号)を基に、この方向変更率を数値データ化する。また、この数値データ化された方向変更率は、カメラ方向算出部14dに送られる。カメラ方向算出部14dでは、送られてきた撮影対象物の方向変更率に対応して、映像を撮影するためのデータに変換される。
視野算出部14aは、カメラ31内の焦点計測部2及び角度計測部4において計測された数値データより、カメラ31の位置から映像の焦点Fとなる撮影対象物32までの地上の平面上における距離Lを算出する(後述する図3参照)。さらに、視野算出部14aは、算出された距離Lと、カメラ倍率算出部14bで数値データ化された映像(カメラ)の倍率変更率とから、距離Lに対応する地図上における距離l(エル)を算出する。さらに、視野算出部14aは、この距離l(エル)や、カメラ倍率算出部14bで数値データ化された倍率変更率や、地図方向算出部14eで数値データ化された方向変更率から、視野の範囲を導き出す(視野の範囲を規定する新たな境界線を算出する)。
地図再生処理部14fは、地図倍率算出部14cにより地図・映像データ記憶部13から倍率変更率に応じて取得された地図データに、視野算出部14aで算出された地図上に表示すべき、距離lを有し撮影対象物を示す矢印や、視野の範囲を規定する新たな境界線を図示する。即ち、地図再生処理部14fでは、撮影方向、視野の範囲、撮影対象物(撮影の中心点、映像の焦点)、撮影の倍率等の撮影データに関する撮影情報が反映された地図データが再生される。
映像・地図同期部14gは、地図再生処理部14fで再生された撮影情報が反映された地図データと、映像変換部12から送られてきた映像データとを同期させる。同期された映像データと地図データとは、映像・地図出力部15から出力され、利用端末51に送信され、表示部20に表示される。
上述した映像データと地図データとを連動させる映像・地図連動方法について、以下にさらに詳述する。図3(a)は、視野算出部14aにおいて、カメラ31の位置から映像の焦点Fとなる撮影対象物32の位置までの地上の平面上における距離Lを算出する原理を示す図であり、図3(b)は、撮影された映像データと連動して地図データが表示された地図表示部20bを示す図である。
ここで、図3(a)に示されるように、地上の平面をXY平面とし、初期状態として所定の倍率に設定された撮影条件において、カメラ31の位置から撮影対象物32の位置までの焦点距離をf、焦点距離fとXY平面とが成す角度をθとする。すると、視野算出部14aでは、カメラ31の位置から撮影対象物32の位置までのXY平面上における距離Lは、L=f×cosθとして算出される。算出された距離Lに対応して、初期状態において設定されカメラ倍率算出部14bで数値データ化された倍率(倍率変更率)を基に、地図データ上におけるカメラ31’の位置から撮影対象物32’の位置までの距離l(エル)が設定(算出)される。つまり、地図データ上における撮影対象物32’の位置が特定されるのである。なお、設定された距離lは、図3(b)の地図表示部20bでは、地図上においてカメラ31’の位置から撮影対象物32’の位置に向かう長さ(距離)lを有する矢印36として表示される。
さらに視野算出部14aは、地図表示部20bにおいて表示されるべき視野の範囲を設定する(導き出す)。つまり、既に述べたように、算出された距離lと、例えば初期状態において設定され地図方向算出部14eで数値データ化された方向(方向変更率)とから、地図上の視野の範囲37’を規定する境界線が算出(設定)される。つまり、視野範囲37’は、図3(b)に示されるように、視野の境界線33、34と円弧35とで囲まれた円弧状図形(扇形図形)である。ここで、視野の境界線33、34が成す角をαとする。なお、円弧35の中心には、撮影の中心点、つまり地図上において映像の焦点F’となる撮影対象物32’が位置している。
上記のように視野算出部14aで算出された地図上に図示すべき距離l(エル)や視野範囲37’、撮影の中心点(撮影対象物の位置)32’、撮影の倍率等の映像データに関する撮影情報は、地図再生処理部14fにおいて地図データに反映される。さらに、地図データ上において特定された撮影対象物32’の位置(位置データ)を基に、撮影対象物32’の名称や住所等といった撮影対象物32’についての情報を含む映像データに関する撮影情報が、地図データ上に表示させることができる。撮影情報が反映された地図データは、地図・映像同期部14gで対応する映像データと同期され、同期された映像データと地図データとは、映像・地図出力部15を介して利用端末51に送信され、表示部20に表示される。
なお、少なくとも撮影対象物についての情報を含む映像データに関する撮影情報は、地図データ上に反映(表示)させると共に、利用端末51から音声出力させることにしてもよい。
次に、利用端末51から例えば映像を拡大又は縮小する倍率変更についての新たな操作入力、続いて、地図上における撮影の視野範囲(撮影対象物の方向)を変更する新たな操作入力が行われたとする。この場合、まず、カメラ倍率算出部14bは、倍率変更認識部16から受け取った映像データを拡大又は縮小する倍率変更率についての操作入力信号を基に、この映像の倍率変更率を数値データ化する。そして、カメラ倍率算出部14bは、映像についての数値データ化された倍率変更率と対応する地図についての倍率変更率を算出する。
なお、本実施例では、対応する地図についての倍率変更率の算出を、カメラ倍率算出部14bで行っているが、地図倍率算出部14cが、カメラ倍率算出部14bで算出された映像についての倍率変更率を基に、地図についての倍率変更率を算出することにしてもよい。
一方、地図方向算出部14eは、地図方向変更(操作)認識部18から受け取った地図上における撮影の視野範囲(例えば撮影対象物の方向)を変更する新たな操作入力信号を基に、撮影対象物の方向変更率を数値データ化する。言い換えれば、地図方向算出部14eは、数値データ化した方向変更率(図2に示した矢印36の方向についての移動量)を算出し、視野算出部14aに送る。
地図倍率算出部14cは、カメラ倍率算出部14bで算出された地図についての倍率変更率に基づいて、地図・映像位置データ記憶部13からこの倍率変更率に対応する地図データを取得する。そして、視野算出部14aは、カメラ倍率算出部14bで算出された地図についての倍率変更率や地図方向算出部14eで算出された撮影対象物の方向変更率を基に、利用端末51の画面52上に表示する地図データ上の視野範囲を規定する新たな境界線を算出するのである。
ここで、地図データ上の視野範囲を規定する新たな境界線を算出する原理について具体的に以下に説明する。倍率が変更された新たな地図データを地図・映像位置データ記憶部13から取得する場合、その倍率の変化率をpとする。すると、地図再生処理部14fは、倍率変更率pに対応して拡大又は縮小された(倍率を変更した)地図を地図・映像位置データ記憶部13から取得する。なお、倍率変更されると、実際の映像において、カメラ31の位置から焦点Fとなる撮影対象物の位置までの平面上における距離Lは変化するが、上記のように倍率変更率pに対応して拡大又は縮小された地図を取得するので、地図上に距離lとして表示される矢印36の長さ自体は変化しない。(同様に、地図上に表示される視野の境界線33、34の長さ自体も、変化しない。)
倍率変更されて取得された地図上において、新たな視野の境界線33a、34aが成す角度をα’とすると、角度α’は、以下の式(1)で表される。
α’=α/p (1)
式(1)より、新たに規定される視野の境界線33a、34aが成す角度α’が求められる。図3(c)に、新たに規定される視野の範囲、つまり、視野の境界線33a、34a及び視野の境界線33a、34aが成す角度α’が表示される模式的な図を示す。
さらに、地図データ上における撮影の方向(撮影対象物の方向)が変更されると、新たな撮影の方向についての視野範囲が地図データ上に反映(図示)される。具体的には、地図方向変更認識部18から送られてくる方向についての操作入力信号に基づいて、地図方向算出部14eで算出された矢印36の方向についての移動量(数値データ化された方向変更率)を基に、視野算出部14aにおいて、視野の境界線33a、34a及び矢印36の方向が変更された新たな視野の範囲(視野範囲)が算出される。
新たに算出された視野範囲は、地図再生処理部14fにおいて、地図倍率算出部14cから送られてきた地図データ上に反映される(図示される)。その後、映像・地図同期部14gにおいて、新たな視野範囲等が反映された地図データと、カメラ31から送られてきた映像データとが同期される。同期された地図データと映像データとは、映像地図出力部15を介して送信され、利用端末51の表示部20に表示される。
このように、本発明の映像・地図連動システムによれば、遠隔地に設置されたカメラ31により、撮影される所望の映像と、この映像に対応して、この映像に関する撮影情報を反映させた地図とを、利用端末51の表示部20上で連動させて表示等させることができる。そして、撮影情報としては、上述したように、カメラ31の撮影方向、撮影の視野範囲、撮影の倍率、撮影対象物の位置、及び、撮影対象物についての情報が、少なくとも含まれる。
(作用)
次に、図1及び図4を参照しつつ、実施例1の映像・地図連動システムの作用(映像・地図連動方法)について説明する。図4は、実施例1に係る映像・地図連動システムの作用(映像・地図連動方法)を説明するフローチャートである。
ステップS1で本実施例の映像・地図連動システムの動作を開始すると、撮影倍率、撮影方向等について初期状態に設定された撮影条件下で、カメラ31で撮影された映像データは、例えば通信ネットワークを介して映像・地図情報処理サーバー41に送信される。そして、この映像データは、映像・地図情報処理サーバー41の映像入力部9でデジタル信号として受信された後、映像変換(処理)部12で映像データに変換され(ステップS2)、映像・地図同期処理部14に送られる。同時に、この映像データに含まれる撮影対象物について計測された焦点距離f、撮影方向等の撮影情報の元となる計測データが、映像・地図情報処理サーバー41の信号入力部11で受信され、映像・地図同期処理部14内に送られる。映像・地図同期処理部14の視野算出部14aで、視野範囲や、カメラ31の位置から撮影対象物の位置までの平面上における距離L等が算出される。(ステップS3)。算出された視野範囲等は、地図上に表示すべき映像データに関する撮影情報となる。
一方、初期状態に設定された撮影倍率についての数値データは、カメラ倍率算出部14bから地図倍率算出部14cへと送られ、撮影倍率に対応した地図倍率を有する地図データが取得される。そして、地図再生処理部14fにおいて、この地図データに、視野算出部14aで算出された映像データに関する撮影情報が図示される(表示される。反映される)。
ステップS4で、この映像データに関する撮影情報(撮影方向、撮影の視野範囲、撮影の中心点、撮影の倍率等)が反映された地図データとカメラ31から映像入力部9及び映像変換部12を介して送られてきた映像データとが、映像・地図同期部14gにおいて同期される。このようにして、地図データと映像データとが連動される。
同期された映像データと地図データとは、映像・地図出力部15から利用端末51に出力送信され、利用端末51の表示部20に表示される(ステップS5)。
ステップS6では、利用端末51から入力する操作の種類が次のように選択される。映像の倍率変更についての操作入力が行われた場合には、この操作入力についての信号は通信ネットワークを介して地図・映像情報処理サーバー41に送信され、倍率変更認識部16を介してこの操作入力量を定量化した操作入力信号が映像・地図同期処理部14に送られる。この操作入力信号を基に、映像・地図同期処理部14のカメラ倍率算出部14bにおいてカメラの倍率変更率が算出される(ステップS7)。カメラ倍率算出部14bは、算出されたカメラの倍率変更率に対応して地図の倍率変更率を算出する(ステップS8)。
ステップS6で、地図の倍率変更についての操作入力が行われた場合には、同様にして、カメラ倍率算出部14bは、地図の倍率変更率を算出する(ステップS9)。さらに、カメラ倍率算出部14bは、算出された地図の倍率変更率に対応してカメラの倍率変更率を算出する(ステップS10)。
算出されたカメラの倍率変更率は、さらには、実際に映像を撮影するための信号に変換され、信号出力部10からカメラ31に送信される。この映像を撮影するための信号に基づきカメラ31の制御が行われる(ステップS11)。つまり、カメラ31内の信号入力部7で受信された映像を撮影するための信号は制御部5に送られ、この信号に基づいて制御部5が撮影映像部1を制御し、所望の映像が撮影される。倍率変更されて撮影された新たな映像データは、映像出力部6から映像・地図情報処理サーバー41に送信される。この新たな映像データは、映像・地図情報処理サーバー41の映像入力部9で受信され、映像変換部12を経て、映像・地図同期処理部14に送られる。
映像・地図同期処理部14では、信号入力部11から送られてきた新たな撮影データに含まれる撮影対象物に関する撮影情報となる計測データ(具体的にはカメラ31の焦点計測部2や角度計測部4で計測された数値データ)に基づいて、既に述べた映像・地図連動方法(取得した映像データに関する撮影情報を、映像データと対応して取得した地図データ上に反映させる、つまり、表示・図示する方法)を用いることにより、受信した映像データと地図データとを連動させる。
具体的には、視野算出部14aは、カメラ31から送られてきた上記撮影情報となる計測データに基づき、カメラ31の位置から撮影対象物32の位置までの平面上における距離Lを算出する(ステップS12)。さらに、視野算出部14aは、算出した距離Lと、カメラ倍率算出部14bで算出された(数値データ化された)カメラの倍率変更率とから、地図上において距離Lと対応する距離l(エル)や、地図上に表示すべき視野の範囲を導き出す(視野の範囲規定する新たな境界線を算出する)(ステップS13)。この距離l(エル)が導き出される(算出される)ことにより、地図(地図データ)上における撮影対象物32’の位置が特定されることとなる。つまり、撮影対象物32’は、地図上において距離l(エル)を有する矢印36の先端に位置するものとして特定される(図3(b)参照)。
一方、ステップS8又はステップS9でカメラ倍率算出部14bにおいて算出された地図の倍率変更率を基に、地図倍率算出部14cは、地図・映像データ記憶部13から所望の倍率の地図データを取得する(ステップS14)。
次に、地図再生処理部14fは、視野算出部14aで導き出された距離l(エル)、言い換えれば、距離l(エル)により特定された地図データ上における撮影対象物32’の位置を基に、カメラの撮影方向、撮影の視野範囲、撮影の倍率、撮影対象物32’の位置、撮影対象物32’についての情報(例えば、撮影対象物32’の名称、住所、行き方、ホームページアドレス等の情報)等の映像データに関する撮影情報を、地図倍率算出部14cにより取得された地図データに反映させる(表示する。図示する)。このようにして、撮影情報を反映させた地図データが再生される(ステップS15)。そして、映像・地図同期部14gにおいて、上記のようにして新たに倍率変更されて撮影された映像データと撮影情報を反映させた地図データとが同期され(ステップS16)、映像・地図出力部15から出力される(ステップS17)。
ステップS6で、映像の方向(撮影対象物の方向)変更についての操作入力が行われた場合には、この操作入力に基づく信号が、ネットワーク通信を介して映像・地図情報処理サーバー41に送信され、カメラ方向認識部17により映像データの方向についての操作入力信号に変えられて映像・地図同期処理部14に送られる。
ステップS19で、カメラ方向算出部14dは、受け取った映像データの方向についての操作入力信号を基に、カメラ31を実際に動かす(映像を撮影する)ための信号に変換する(カメラ方向を算出する)(ステップS19)。さらに、カメラ方向算出部14dは、カメラ方向の算出に対応して、地図上における撮影対象物の方向変更率、つまり、図2の地図上に示される矢印36の方向についての移動量を算出する(ステップS20)。
同様にして、ステップS6で、地図上における撮影対象物(撮影)の方向を変更する操作入力が行われた場合には、この操作入力に基づく信号が、映像・地図処理サーバー41に送信された後、地図方向操作(変更)認識部18で地図上における撮影対象物の方向についての操作入力信号に変えられる。この操作入力信号を基に、地図方向算出部14eで、地図上における撮影対象物の(地図についての)方向変更率が算出される(ステップS21)。算出された方向変更率は、カメラ方向算出部14dに送られ、カメラ方向算出部14dにおいて、対応するカメラ方向が算出される(ステップS22)。
算出されたカメラ方向についての信号、つまり、カメラ31を実際に動かすための信号は、信号出力部10を介してカメラ31に送信され、この送信された信号に基づいてカメラ制御が行われる(ステップS23)。そして、所望の方向について映像が撮影される。
一方、ステップS20又はステップS21において算出された地図上における撮影対象物についての(地図についての)方向変更率を基に、視野算出部14aにおいて、方向変更された新たな視野範囲が算出される。つまり、地図上に図示されるべき新たな撮影対象物の方向についての矢印と視野範囲とが導き出され、方向変更された後の地図上における撮影対象物の位置が特定される。そして、特定された撮影対象物の位置を基に、この撮影対象物についての情報や導き出された視野範囲等の撮影対象物を含む映像データに関する撮影情報は、地図再生処理部14fにおいて、地図データに反映される(表示、図示される)(ステップS24)。
カメラ31から送られてきた所望の方向についての映像データと、地図再生処理部14fで撮影情報が反映された地図データとは、映像・地図同期部14gで同期され(ステップS16)、映像・地図出力部15を介して出力される(ステップS17)。上記のようにして、所望の方向について撮影される映像データと地図データとが連動される。
出力された映像データと地図データとは、映像・地図出力部15からネットワーク通信を介して利用端末51に送信され、利用端末51の表示部20に表示される。なお、このとき、少なくとも撮影対象物32’についての情報を、利用端末51に設けられるスピーカ(図示せず)を介して音声により出力する(伝達する)ことにしてもよい。
図5、図6は、上述した本発明に係る映像・地図連動システムにより得られた映像データと地図データとが、それぞれ利用端末51の映像表示部20aと地図表示部20bとに表示された例である。
図5は、撮影の倍率(撮影の視野範囲、視野の範囲)を変更して表示された映像及び地図の例である。図5(a)では、初期状態に設定された(基本の)撮影の倍率(視野の範囲)で撮影された映像と、この映像に連動した地図とが示される。図5(b)では、図5(a)で撮影された映像について遠方を拡大したとき(望遠時)の映像とそれに連動した地図とが示される。図5(c)では、図5(a)で撮影された映像について近方を拡大したとき(近方拡大時)の映像とそれに連動した地図とが示される。
図6は、撮影された映像についての倍率、視野の範囲等の撮影情報を地図上に反映させる表示形態の例を示す。図6(a)では、映像表示部20aで示される映像に対応して、図3で既に説明したように、地図上のカメラ31’の位置を基点として視野の範囲の境界線33b、34bと円弧35bとで囲まれた視野の範囲、及び、カメラ31’の位置から撮影の対象物の位置までの方向と距離とを表す矢印36bが地図表示部20bに示されている。図6(b)には、撮影された映像(撮影対象となる映像)の中心点32cが例えば星印で地図表示部20bに示されている。撮影の中心点、つまり、撮影される映像の焦点となる対象物は、地図上においてこの中心点32cに位置する。
上記のように、カメラで撮影された映像と地図とを連動させる。つまり、カメラで撮影された映像に対応する地図が表示されると共に、カメラの撮影の方向、撮影の視野範囲、撮影の倍率、撮影対象物の位置(撮影の中心点)といった映像データに関する撮影情報を地図上に反映させる(表示、図示する)。したがって、このような地図及び撮影された映像を見比べることにより、画面52を見ている者は、映像中の撮影対象物は何か(どの対象物を見ているのか)、また、どの方向を見ているのか、さらにはどの撮影範囲を見ているのか等を容易に理解することができる。よって、撮影の対象物を容易に特定することができ、また、撮影された映像についての情報を把握することができる。
さらに、映像データに関する撮影情報として、撮影対象物についての情報(例えば、撮影対象物の名称、住所、行き方、ホームページアドレス等の情報)も上記映像データに関する撮影情報と共に、表示する及び/又は音声により出力することにより、一層撮影対象物の特定や情報把握が容易となり、利便性を高めることができる。
図7は、本発明の実施例2に係る映像・地図連動システムの全体構成を示す図である。実施例2の映像・地図連動システムは、実施例1の映像・地図連動システムに類似し、同一の構成部分には、同一の参照符号を付して説明を省略する。
実施例2が実施例1と異なるのは、映像・地図連動システムを構成するカメラとして、360度全方位において映像データの取得を可能とする全方位撮影型のカメラ131が用いられていることである。したがって、実施例2の映像・地図連動システムでは、全方位撮影型のカメラ131に対応した構成を有すると共にこのカメラ131に対応した処理を行う。以下に、実施例1と異なる点について、実施例2の映像・地図連動システムの構成を簡単に説明する。
実施例2の映像・地図連動システムは、実施例1と同様の利用端末51の他、全方位撮影型のカメラ131と、カメラ131に対応した処理を行う映像・地図情報処理サーバー141とを備える。全方位撮影型のカメラ131では、予め定められた倍率の下で、全方位、つまり360度に渡る全ての方向についての映像データが撮影される。したがって、カメラ131の位置から撮影対象物の位置までの距離Lは、例えば予め算出されている。撮影された全方位についての映像データは、映像・地図情報処理サーバー141に通信ネットワークを介して送信される。
映像・地図情報処理サーバー141内には、実施例1のカメラ方向変更認識部17(図1参照)に代えて、映像方向変更認識部117が設けられている。また、映像・地図情報処理サーバー141は、所望の映像データと地図データとを連動させる映像・地図同期処理部114を有する。映像・地図同期処理部114は、映像方向算出部114dと、映像倍率算出部114bと、地図内表示視野算出部114aと、映像データ処理部114hと、を含む。
映像方向算出部114dは、映像方向変更認識部117から送られてくる映像の所望の方向についての操作入力信号に基づき、取得すべき映像データの方向についての信号(映像の方向データ)を算出する。映像倍率算出部114bは、倍率変更認識部16から送られてくる所望の映像又は地図の倍率についての操作入力信号を基づき、映像及び地図それぞれの倍率変更率を算出する。地図内表示視野算出部114aは、映像倍率算出部114bで算出される倍率変更率と、地図方向算出部14eで算出される地図方向データ、つまり、地図上に示される矢印36の方向(図2参照)についての移動量を基に、地図内に表示すべき視野の範囲を導く。この視野の範囲等の撮影情報は、実施例1と同様にして、地図倍率算出部14cにより地図・映像位置データ記憶部13から取得された所望の倍率の地図上に、地図再生処理部14fにおいて図示される(反映される)。
映像データ処理部114hは、映像方向算出部114dで算出された映像方向データ、及び映像倍率算出部114bで算出された倍率変更率を基に、カメラ131から送られてきた全方位についての映像データのうち所望の方向の映像データを取得すると共に、所望の倍率にする処理を行う。
このようにして得られた所望の映像データと、この映像データに関する撮影情報が反映された地図データとは、実施例1と同様に、映像・地図同期部14gで同期され、映像・地図出力部15を介して出力され、利用端末51の表示部20に表示される。本実施例においても、撮影対象物についての情報を含む映像データに関する撮影情報を、利用端末51において音声出力することができる。その他、本実施例においても、実施例1と同様の効果が得られる。
(作用)
次に、図7、図8を参照しつつ、上述した実施例2に係る映像・地図連動システムの作用(映像・地図連動方法)について説明する。図8は、実施例2に係る映像・地図連動システムの作用(映像・地図連動方法)を説明するフローチャートである。
ステップS101で、実施例2の映像・地図連動システムの動作を開始すると、予め定められた撮影倍率の下で、カメラ131で撮影された全方位についての映像データは、映像・地図情報処理サーバー141に送信される。
この全方位についての映像データは、映像・地図情報処理サーバー141の映像入力部9で、デジタル信号として受信された後、映像変換部12で映像データに変換され(ステップS102)、映像・地図同期処理部114内に送られる。
映像・地図同期処理部114では、映像方向算出部114dは、初期状態において取得すべき映像の方向データ、つまり、全方位の映像データのうちどの方向の映像データを初期状態において取得するかについてのデータを算出している。この映像の方向データに基づいて、映像データ処理部114hは、予め定められた倍率を有する全方位についての映像データから初期状態における方向の映像データを取得する(ステップS103)。
さらに、映像方向算出部114dでは、算出された映像の方向データに対応して地図の方向データを算出している。この地図の方向データは地図方向算出部14eを介して地図内表示視野算出部114aに送られる。地図内表示視野算出部114aにおいて、カメラ131の位置から対象物の位置までの距離Lに対応する地図上での距離l(エル)(この距離lにより、地図上における撮影対象物の位置が特定される)、地図上に表示すべき視野の範囲等の撮影データに関する撮影情報が算出される。算出された撮影データに関する撮影情報は、地図再生処理部14fに送られる。
一方、予め定められた撮影倍率についての数値データは、映像倍率算出部114bから地図倍率算出部14cへと送られ、地図倍率算出部14cで撮影倍率に対応した地図倍率を有する地図データが地図・映像位置データ記憶部13から取得される。取得された地図データは、地図再生処理部14fに送られ、地図再生処理部14fにおいて、この地図データに、地図内表示視野算出部114aで算出された撮影データに関する撮影情報が反映される(表示、図示される)。
ステップS104で、この撮影データに関する撮影情報が反映された地図データと、ステップS103で取得された映像データとは、映像・地図同期部14gで同期される。同期された映像データと地図データとは、映像・地図出力部15を介して利用端末51に送信され、表示部20に表示される(ステップS105)。
ステップS106では、利用端末51から入力する操作の種類が次のように選択される。映像の倍率変更についての新たな操作入力が行われた場合には、この操作入力についての信号は通信ネットワークを介して地図・映像情報処理サーバー141に送信され、倍率変更認識部16を介してこの操作入力量を定量化した操作入力信号が映像・地図同期処理部114に送られる。この操作入力信号を基に、映像・地図同期処理部114の映像倍率算出部114bにおいて映像の倍率変更率が算出される(ステップS107)。映像倍率算出部114bは、算出された映像の倍率変更率に対応して地図の倍率変更率を算出する(ステップS108)。算出された地図の倍率変更率は、地図倍率算出部14cに送られる。
ステップS106で、地図の倍率変更についての新たな操作入力が行われた場合には、同様にして、映像倍率算出部114bは、地図の倍率変更率を算出する(ステップS109)。さらに、映像倍率算出部114bは、算出された地図の倍率変更率に対応して映像の倍率変更率を算出する(ステップS110)。算出された映像の倍率変更率は、映像データ処理部114hに送られる。
映像データ処理部114hでは、全方位の映像データから初期状態の倍率及び方向で取得されている映像データについて、ステップS110で新たに算出された倍率変更率に基づき、拡大又は縮小の倍率変更についての処理が行われ、新たな映像データが生成される(ステップS111)。
一方、ステップS108又はステップS109で映像倍率算出部114bにおいて算出された地図の倍率変更率を基に、地図倍率算出部14cは、地図・映像データ記憶部13から所望の倍率の地図データを取得する(ステップS112)取得された所望の倍率の地図データは、地図再生処理部14fに送られる。
次に、地図再生処理部14fは、地図倍率算出部14cで取得された地図データに、地図内視野算出部114aで算出された視野の範囲等の映像データに関する撮影情報を反映させる(表示、図示する)。このようにして、映像データに関する撮影情報を反映させた地図データが再生される(ステップS113)。上記のように、新たに倍率変更された映像データと、この映像データについての撮影情報を反映させた地図データとは、映像・地図同期部14gで同期され(ステップS114)、映像・地図出力部15から出力される(ステップS115)。
ステップS106で、映像の方向変更についての新たな操作入力が行われた場合には、この操作入力に基づく信号が、ネットワーク通信を介して映像・地図情報処理サーバー41に送信され、映像方向変更認識部117により映像データの方向についての操作入力信号に変えられて映像・地図同期処理部114に送られる。
ステップS116で、映像方向算出部114dは、受け取った映像データの方向についての操作入力信号を基に、映像の方向データ、つまり、全方位の映像データのうちどの方向の映像データを取得するかについてのデータに変換する。(映像方向を算出する)(ステップS116)。この映像の方向データに対応して、地図方向算出部14eは、地図の方向データ、つまり、地図上に示される矢印36の方向(図2参照)についての移動量を算出する(地図方向を算出する)(ステップS117)。
同様にして、ステップS106で、地図の方向変更についての新たな操作入力が行われた場合には、この操作入力に基づく信号が、映像・地図処理サーバー141に送信された後、地図方向変更認識部18で地図の方向についての操作入力信号に変えられ、この操作入力信号を基に、地図方向算出部14eで地図の方向データが算出される(ステップS118)。そして、この地図の方向データに対応して、映像方向算出部114dは、映像の方向データを算出する(ステップS119)。算出された映像の方向データは、映像データ処理部114hに送られる。
算出された映像の方向データに基づき、映像データ処理部114hでは、予め定められた倍率を有する全方位についての映像データから所望の方向についての映像データを取得する。こうして、新たな映像データが生成される(ステップS120)。
一方、ステップS117又はステップS118において算出された地図の方向データは、地図内表示視野算出部114aに送られ、地図内視野算出部114aにおいて、方向変更された視野範囲が算出される。つまり、地図上に図示されるべき新たな方向についての矢印と視野の範囲とが導き出される。そして、導き出された視野範囲等についての映像データに関する撮影情報は、地図再生処理部14fに送られ、地図再生処理部14fにおいて、地図データに反映される(図示される)(ステップS121)。
ステップ120で生成された映像データと、ステップ121でこの映像データに関する撮影情報が反映された地図データとは、映像・地図同期部14gで同期され(ステップS114)、映像・地図出力部15を介して出力される(ステップS115)。上記のようにして、所望の方向についての映像データと地図データとが連動される。
出力された映像データと地図データとは、映像・地図出力部15からネットワーク通信を介して利用端末51に送信され、利用端末51の表示部20に表示される。本実施例においても、実施例1と同様に、少なくとも撮影対象物についての情報を利用端末51のスピーカから音声により出力(伝達)することにしてもよい。
図9(a)は、実施例2の映像・地図連動システムにより全方位についての映像から所望の方向の映像を取得する様子を示す。所望の方向について取得された映像は、利用端末51の映像表示部20aに表示される(映像表示部20aについては図2参照)。また、図9(b)は、図9(a)で取得された映像(映像データ)に連動して利用端末51の地図表示部20bに表示される地図を示す。
図9(a)で取得される映像の端の点A、Bはそれぞれ、図9(b)で地図上に表示される視野範囲137’の両端を表す点A、Bに対応している。なお、地図上の矢印136は、地図上におけるカメラ131’の位置からの撮影の方向(撮影対象となる中心方向)を示している。以上説明したように、本実施例においても、実施例1と同様の効果が得られる。
なお、上記各実施例、特に実施例1では、映像・地図連動方法として、カメラ31の位置データからカメラ31で撮影される撮影対象物までの平面上(水平面上)における距離を、カメラ31に基づいて算出し、地図データ上における撮影対象物の位置を特定する方法を用いた。しかし、上記映像・地図連動方法には限られず、他の映像・地図連動方法として、地図・映像位置データ記憶部13に予め対応づけて記憶させておいた撮影画面上における撮影対象物の位置データを基にして、地図データ上における撮影対象物の位置を特定する方法を用いてもよい。
以上、本発明に係る映像・地図連動システム及びその連動方法の最良の形態を実施例に基づいて説明したが、本発明は特にこのような実施例に限定されることなく、特許請求の範囲記載の技術的事項の範囲内でいろいろな実施例があることはいうまでもない。
本発明の活用例として、インターネットを通じてのニュースや音楽、買い物・観光等の情報を映像で配信するシステムとしての利用、さらには、防犯や災害対策等のために、監視する目的で監視対象となる映像をインターネットを通じて配信するシステムとしての利用が挙げられる。
本発明の実施例1に係る映像・地図連動システムの全体構成を示すブロック図である。 利用端末の画面の一例を具体的に示した図である。 図3(a)は、視野算出部において、カメラの位置から映像の焦点Fとなる対象物(撮影対象とされる映像)の位置までの地上における距離Lを算出する原理を示す図であり、図3(b)は、撮影された映像データと連動して地図データが表示された地図表示部を示す図であり、図3(c)は、新たに規定される視野の境界線及び視野の境界線が成す角度α’が表示される模式的な図を示す。 実施例1に係る映像・地図連動システムの操作を説明するフローチャートである。 撮影の倍率(視野の範囲)を変更して表示された映像及び地図の例である。 撮影された映像についての倍率、視野の範囲等の撮影情報を地図上に反映させる表示形態の例を示す。 本発明の実施例2に係る映像・地図連動システムの全体構成を示すブロック図である。 実施例2に係る映像・地図連動システムの作用を説明するフローチャートである。 図9(a)は、実施例2の映像・地図連動システムにより全方位についての映像から所望の方向の映像を取得する様子を示す図であり、図9(b)は、図9(a)で取得された映像(映像データ)に連動して利用端末の地図表示部に表示される地図を示す図である。
符号の説明
1 映像撮影部
2 焦点計測部
3 方向計測部
4 角度計測部
5 制御部
6 映像出力部
7、11 信号入力部
8、10 信号出力部
9 映像入力部
12 映像変換(処理)部
13地図・映像位置データ記憶部
14、114 映像・地図同期処理部
14a 視野算出部
14b カメラ倍率算出部
14c 地図倍率算出部
14d カメラ方向算出部
14e 地図方向算出部
14f 地図再生処理部
14g 映像・地図同期部
15 映像・地図出力部
16 倍率変更認識部
17 カメラ方向変更認識部
18 地図方向操作(変更)認識部
19 入力部
19a、19b、19c、19d 操作入力ボタン
20 表示部
20a 映像表示部
20b 地図表示部
21 操作認識部
31、31’、131、131’ カメラ
32、32’ 撮影対象物
33、34 境界線
35 円弧
36、136 矢印
37’137’ 視野範囲
41、141 映像・地図情報処理サーバー
51 利用端末
52 画面
114a 地図内視野算出部
114b 映像倍率算出部
114d 映像方向算出部
114h 映像データ処理部

Claims (7)

  1. 一つ又は複数の利用端末と、遠隔地に設けられた少なくとも1つのカメラと、前記利用端末及び前記カメラに通信ネットワークを介して接続される映像・地図情報処理サーバーと、を備えた映像・地図連動システムであって、
    前記映像・地図情報処理サーバーは、操作認識部と、映像・地図同期処理部と、地図・映像位置データ記憶部と、を含んでおり、
    前記操作認識部は、前記利用端末からの入力に基づき、映像又は地図についての操作入力信号を前記映像・地図同期処理部に送り、
    前記地図・映像位置データ記憶部は、地図データと、該地図データに対応させて、少なくとも前記カメラの位置データを記憶し、
    前記映像・地図同期処理部は、前記映像又は地図についての操作入力信号に基づき、前記カメラで撮影される撮影対象物を含む映像データを取得すると共に、前記地図・映像位置データ記憶部から前記映像データに対応する地図データを取得し、前記撮影対象物を含む前記映像データに関する撮影情報を前記地図データ上に反映させることを特徴とする映像・地図連動システム。
  2. 前記映像・地図同期処理部は、前記カメラの位置から前記カメラで撮影される撮影対象物の位置までの平面上における距離を算出して、前記地図データ上における前記撮影対象物の位置を特定することにより、前記撮影対象物を含む前記映像データに関する撮影情報を前記地図データ上に反映させることを特徴とする請求項1記載の映像・地図連動システム。
  3. 前記撮影対象物を含む前記映像データに関する撮影情報には、少なくとも前記カメラの撮影方向、撮影の視野範囲、撮影の倍率、前記撮影対象物の位置、及び、前記撮影対象物についての情報が含まれていることを特徴とする請求項1又は2に記載の映像・地図連動システム。
  4. 前記撮影情報のうち少なくとも前記撮影対象物についての情報を、音声により伝達することを特徴とする請求項3に記載の映像・地図連動システム。
  5. 一つ又は複数の利用端末と、遠隔地に設けられた少なくとも1つのカメラとに、通信ネットワークを介して映像・地図情報処理サーバーを接続し、前記カメラで撮影される映像を、地図と共に前記利用端末に表示させる映像・地図連動方法であって、
    前記利用端末からの入力に基づき、前記カメラで撮影される撮影対象物を含む映像データを取得すると共に、該映像データに対応する地図データを取得し、
    前記カメラの位置から前記撮影対象物の位置までの平面上における距離を算出することにより、前記地図データ上における前記撮影対象物の位置を特定し、
    特定された前記撮影対象物の位置を基に、前記撮影対象物を含む前記映像データに関する撮影情報を前記地図データ上に反映させることを特徴とする映像・地図連動方法。
  6. 前記撮影対象物を含む前記映像データに関する撮影情報には、少なくとも前記カメラの撮影方向、撮影の視野範囲、撮影の倍率、前記撮影対象物の位置、及び、前記撮影対象物についての情報が含まれていることを特徴とする請求項5に記載の映像・地図連動方法。
  7. 前記撮影情報のうち少なくとも前記撮影対象物についての情報を、音声により伝達することを特徴とする請求項6に記載の映像・地図連動方法。
JP2003354302A 2003-10-14 2003-10-14 映像・地図連動システム及びその連動方法 Pending JP2005123750A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003354302A JP2005123750A (ja) 2003-10-14 2003-10-14 映像・地図連動システム及びその連動方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003354302A JP2005123750A (ja) 2003-10-14 2003-10-14 映像・地図連動システム及びその連動方法

Publications (1)

Publication Number Publication Date
JP2005123750A true JP2005123750A (ja) 2005-05-12

Family

ID=34612293

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003354302A Pending JP2005123750A (ja) 2003-10-14 2003-10-14 映像・地図連動システム及びその連動方法

Country Status (1)

Country Link
JP (1) JP2005123750A (ja)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008154188A (ja) * 2006-12-20 2008-07-03 Sony Corp 画像伝送システム及び画像伝送方法
WO2013168387A1 (ja) * 2012-05-08 2013-11-14 パナソニック株式会社 表示映像形成装置及び表示映像形成方法
JP2016146186A (ja) * 2016-02-12 2016-08-12 日立マクセル株式会社 情報処理装置、情報処理方法、及び、プログラム
KR101750390B1 (ko) * 2016-10-05 2017-06-23 주식회사 알에프코리아 탐지대상물 실시간 추적감시장치 및 그 방법
JP2018107587A (ja) * 2016-12-26 2018-07-05 株式会社日立国際電気 監視システム
CN115225944A (zh) * 2022-09-20 2022-10-21 深圳比特微电子科技有限公司 视频处理方法、装置、电子设备和计算机可读存储介质

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008154188A (ja) * 2006-12-20 2008-07-03 Sony Corp 画像伝送システム及び画像伝送方法
WO2013168387A1 (ja) * 2012-05-08 2013-11-14 パナソニック株式会社 表示映像形成装置及び表示映像形成方法
JP2013236215A (ja) * 2012-05-08 2013-11-21 Panasonic Corp 表示映像形成装置及び表示映像形成方法
CN104272726A (zh) * 2012-05-08 2015-01-07 松下电器产业株式会社 显示影像形成装置及显示影像形成方法
US20150109452A1 (en) 2012-05-08 2015-04-23 Panasonic Corporation Display image formation device and display image formation method
CN104272726B (zh) * 2012-05-08 2017-10-24 松下电器产业株式会社 显示影像形成装置及显示影像形成方法
US10051244B2 (en) 2012-05-08 2018-08-14 Panasonic Intellectual Property Management Co., Ltd. Display image formation device and display image formation method
JP2016146186A (ja) * 2016-02-12 2016-08-12 日立マクセル株式会社 情報処理装置、情報処理方法、及び、プログラム
KR101750390B1 (ko) * 2016-10-05 2017-06-23 주식회사 알에프코리아 탐지대상물 실시간 추적감시장치 및 그 방법
JP2018107587A (ja) * 2016-12-26 2018-07-05 株式会社日立国際電気 監視システム
CN115225944A (zh) * 2022-09-20 2022-10-21 深圳比特微电子科技有限公司 视频处理方法、装置、电子设备和计算机可读存储介质

Similar Documents

Publication Publication Date Title
JP4098808B2 (ja) 遠隔映像表示方法、映像取得装置及びその方法とそのプログラム
KR101231518B1 (ko) 카메라 제어 장치, 카메라 시스템, 전자 회의 시스템 및카메라 제어 방법
JP4195991B2 (ja) 監視映像モニタリングシステム、監視映像生成方法、および監視映像モニタリングサーバ
JP5233926B2 (ja) 魚眼監視システム
US20110063457A1 (en) Arrangement for controlling networked PTZ cameras
JP2016144089A (ja) 画像処理装置およびその制御方法
JP2004318823A (ja) 情報表示システム、情報処理装置、ポインティング装置および情報表示システムにおけるポインタマーク表示方法
JP2011147109A (ja) 撮像装置及び画像処理装置
JP2006333133A (ja) 撮像装置、撮像方法、プログラム、プログラム記録媒体並びに撮像システム
JP4414708B2 (ja) 動画表示用パーソナルコンピュータ、データ表示システム、動画表示方法、動画表示プログラムおよび記録媒体
WO2012049941A1 (ja) 動画像配信システム、及び動画像配信方法
JP2019054369A (ja) 撮像装置、撮像装置の制御方法及びプログラム
JP5963006B2 (ja) 画像変換装置、カメラ、映像システム、画像変換方法およびプログラムを記録した記録媒体
JP4872396B2 (ja) 画像編集装置、画像編集方法および画像編集プログラム
JP2018117312A (ja) 映像配信システム、ユーザ端末装置および映像配信方法
JP2005123750A (ja) 映像・地図連動システム及びその連動方法
JP7467262B2 (ja) 画像情報生成装置、方法およびプログラム
JP6952456B2 (ja) 情報処理装置、制御方法、及びプログラム
JP2008042702A (ja) 被写体撮影装置、被写体表示装置、被写体表示システム及びプログラム
JP2008182321A (ja) 画像表示システム
JP5509986B2 (ja) 画像処理装置、画像処理システム、及び画像処理プログラム
JP7439398B2 (ja) 情報処理装置、プログラム及び情報処理システム
KR100736565B1 (ko) 파노라마 영상 촬영 방법 및 이를 수행하기 위한이동통신단말기
JP6836306B2 (ja) 撮像制御装置、その制御方法、プログラム及び記録媒体
JP2008154188A (ja) 画像伝送システム及び画像伝送方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050930

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060831

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20080104

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080115

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20080520