JP2009003609A - 立体画像構築システムおよび立体画像構築方法 - Google Patents

立体画像構築システムおよび立体画像構築方法 Download PDF

Info

Publication number
JP2009003609A
JP2009003609A JP2007162314A JP2007162314A JP2009003609A JP 2009003609 A JP2009003609 A JP 2009003609A JP 2007162314 A JP2007162314 A JP 2007162314A JP 2007162314 A JP2007162314 A JP 2007162314A JP 2009003609 A JP2009003609 A JP 2009003609A
Authority
JP
Japan
Prior art keywords
information
subject
video data
stereoscopic image
spatial information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2007162314A
Other languages
English (en)
Inventor
Mami Toyoshima
真美 豊嶋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Priority to JP2007162314A priority Critical patent/JP2009003609A/ja
Publication of JP2009003609A publication Critical patent/JP2009003609A/ja
Pending legal-status Critical Current

Links

Landscapes

  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Stereoscopic And Panoramic Photography (AREA)
  • Processing Or Creating Images (AREA)

Abstract

【課題】撮影位置および撮影方位を予め決めておかずに撮影しても被写体の立体映像を構築することのできる立体画像構築システムを提供する。
【解決手段】撮影装置1は、被写体を撮影するとき位置および方位を測定し、測定した位置を示す位置情報と、測定した方位を示す方位情報と、撮影した映像データとを関連付け、空間情報として記録する。画像処理装置2は、撮影装置1によって記録された複数の空間情報の中から、含まれている映像データに互いに視差のある複数の空間情報を抽出し、抽出した複数の空間情報に含まれている映像データ、位置情報、および方位情報に基づいて被写体の立体映像を構築する。
【選択図】図1

Description

本発明は、仮想空間に被写体の立体映像を構築する立体画像構築システムに関する。
撮影装置例えばビデオカメラなどで撮影された映像データは幅広い分野で活用されている。例えば、災害が発生したときにビデオカメラで撮影された映像データを仮想空間に投影し立体映像として構築することにより、災害の規模や被害の状況をより詳細に把握することができる。
しかし、一般的なビデオカメラで撮影された映像データは人間の視覚においてあたかも立体的に表示されるが、位置関係、例えば被写体の位置を示す位置情報や被写体の方向を示す方位情報が考慮されておらず、映像データを仮想空間に投影し立体映像として構成することができなかった。
そのため、ユーザは、ビデオカメラと被写体との位置関係を、位置関係を測定するための計測機器により規定しなければならず、ビデオカメラで撮影された映像データと計測機器で測定された位置関係との連携を図るための工夫を行なっていた。
これに対して、映像データを仮想空間に投影し立体映像として構築することを容易にする立体画像構築システムが開示されている(特許文献1参照)。図5は特許文献1における立体画像構築システムの構成を示すブロック図である。本画像収集システムは複数の撮影装置90i(i=1〜n)と制御装置91を有している。
制御装置91は、ネットワーク4を介して複数の撮影装置90i(i=1〜n)と接続しており、それぞれの撮影装置90iに撮影条件情報を送信する。撮影条件情報とは、被写体を撮影するときの位置や方位を指示する情報である。
撮影装置90iは、被写体を撮影するためのカメラ、自身の位置を検出するための位置測定部、および被写体の方位を検出するための方位測定部を備えており、またネットワーク4を介して制御装置91と接続している。
撮影装置90iは、制御装置91から撮影条件情報を受信すると、受信した撮影条件情報に含まれる位置および方位を撮影装置90iのユーザに表示する。ユーザは、撮影装置90iで位置および方位が表示されると、表示されている位置に移動し、表示されている方位で被写体を撮影する。撮影装置90iは、ユーザにより被写体が撮影されると、撮影したときの位置情報および方位情報を測定し、被写体の映像データと位置情報と方位情報を空間情報として制御装置90に送信する。
制御装置91は、撮影装置90iから空間情報を受信すると、受信した空間情報の映像データを空間情報の位置情報と方位情報に基づき仮想空間に投影し立体映像として構築する。
特開2003−47026号公報
特許文献1では、制御装置91と複数の撮影装置90iとがネットワーク4を介して接続しており、制御装置91は、それぞれの撮影装置90iに被写体の撮影の位置と方位を指示し、その指示により撮影された被写体の映像データを用いて立体映像を構築している。
それ故、被写体の立体画像を構築するために撮影位置と撮影方向を予め決定してから撮影する必要があり、撮影前の準備が煩雑であった。また、撮影装置90iを用いて被写体を撮影する撮影者は指示通りに自身を位置決めし、指示通りに方位を決めて被写体を撮影しなければならず、実際の撮影も煩雑であった。また、障害物などがあって指示通りの位置に移動できなかったり、そこから被写体を撮影することができなかったりする可能性があった。その場合には、再度、各撮影装置90iの位置と方位を決めて制御装置91から各撮影装置90iに指示をしなおす必要があった。
本発明の目的は、撮影位置および撮影方位を予め決めておかずに撮影しても被写体の立体映像を構築することのできる立体画像構築システムを提供することにある。
上記目的を達成するために、本発明の立体画像構築システムは、
仮想空間に被写体の立体映像を構築する立体画像構築システムであって、
撮影時に自身の位置と撮影している方位を測定する機能を備えており、前記被写体を撮影するとき位置および方位を測定し、測定した位置を示す位置情報と、測定した方位を示す方位情報と、撮影した映像データとを関連付け、空間情報として記録する撮影装置と、
前記撮影装置によって記録された複数の空間情報の中から、含まれている映像データに互いに視差のある複数の空間情報を抽出し、抽出した複数の前記空間情報に含まれている前記映像データ、前記位置情報、および前記方位情報に基づいて前記被写体の立体映像を構築する画像処理装置と、を有している。
本発明によれば、撮影位置および撮影方位を予め決めておかずに撮影しても被写体の立体映像を構築することができる。
本発明を実施するための形態について図面を参照して詳細に説明する。図1は本実施形態における立体画像構築システムの構成を示すブロック図である。本立体画像構築システムは、ビデオカメラ1およびコンピュータ2を有している。
ビデオカメラ1は、カメラ機能を内蔵している。ビデオカメラ1は、被写体を撮影すると、撮影した被写体を映像データとして記録する。
ビデオカメラ1は、GPS(Global Positioning System)機能を内蔵している。ビデオカメラ1は、複数のGPS衛星(不図示)から電波を受信しており、被写体を撮影するとき、ビデオカメラ1の位置情報を検出する。位置情報とは、ビデオカメラ1の撮影が行なわれた位置の情報であり、例えば緯度と経度である。ビデオカメラ1は、位置情報を検出すると、位置情報を映像データと関連付けて記録する。
また、ビデオカメラ1は、ジャイロコンパス機能を内蔵している。ビデオカメラ1は、地磁気を感知しており、被写体を撮影するとき、感知している地磁気によりビデオカメラ1の方位情報を検出する。方位情報とは、被写体の方向の情報であり、例えば南北や東西の向きである。ビデオカメラ1は、方位情報を検出すると、方位情報を映像データと関連付けて記録する。
また、ビデオカメラ1は、ズーム機能およびフォーカス機能を内蔵している。ビデオカメラ1は、被写体を撮影するとき、撮影したときのズーム情報および焦点距離を撮影情報として映像データと関連付けて記録する。
ビデオカメラ1には、位置情報と方位情報と撮影情報と関連付けられた映像データが空間情報として記録される。なお、空間情報のフォーマットは、GEOTIFFまたはNITFなど地理的な情報が付加した画像の汎用的なフォーマットとしてもよい。これによれば、一般に市販されている画像ソフトウェアで処理することができる。
また、ビデオカメラ1は、コンピュータ2と接続可能であり、コンピュータ2と接続すると、記録している空間情報がコンピュータ2により読み込まれる。ビデオカメラ1とコンピュータ2との接続は、USB(Universal Serial Bus)による接続であってもよいし、無線LAN(Local Area Network)または有線LANによる接続であってもよい。
なお、ビデオカメラ1が空間情報をメモリーカードに記録している場合に、ビデオカメラ1とコンピュータ2とを接続しなくても、ビデオカメラ1からメモリーカードを抜き出し、そのメモリーカードをコンピュータ2に差し込むようにしてもよい。この場合、コンピュータ2は、差し込まれたメモリーカードに記録された空間情報を読み取る。
コンピュータ2は、空間情報のフォーマットを読み取り可能な画像ソフトウェアを実装しており、ユーザから画像ソフトウェアを起動するよう要求されると、画像ソフトウェアを起動する。
コンピュータ2は、ビデオカメラ1と接続可能であり、画像ソフトウェア起動後に、ビデオカメラ1と接続すると、ビデオカメラ1に記録されている空間情報を自動的に読み込む。コンピュータ2は、ビデオカメラ1から空間情報を読み込むと、空間情報を記録していく。
コンピュータ2は、ビデオカメラ1からの空間情報の読み込みが完了すると、記録された複数の空間情報から視差がある2つの空間情報を抽出する。
なお、コンピュータ2は、被写体の画像を含む互いに対応する画素の領域のある複数の映像データが、互いに視差のある映像データであると判断するようにしてもよい。
この場合、コンピュータ2は、記録された複数の空間情報の中の2つの空間情報(以下、「第1の空間情報」および「第2の空間情報」という)に対して、第1の空間情報の画素と第2の空間情報の画素を面積相関の計算により、第1の空間情報の画像の全ての画素について、第2の空間情報の画像のどの画素に対応するかを求める。そして、コンピュータ2は、対応している画素の領域があれば、視差があると判断する。
コンピュータ2は、視差がある2つの空間情報を抽出すると、抽出した2つの空間情報の視差から被写体までの距離と被写体の高さを算出する。コンピュータ2は、被写体までの距離と被写体の高さを算出すると、算出した距離と高さを空間情報に付加してステレオ画像を生成する。コンピュータ2は、視差がある全ての空間情報についてステレオ画像を生成し、生成したステレオ画像の映像データをステレオ画像の方位、距離、高さで仮想空間に投影して立体映像として構築する。
図2を参照して、2つの空間情報の視差から被写体の高さを算出する方法について説明する。図2Aは現実世界で被写体を撮影するときのビデオカメラ1と被写体との位置関係を示す図である。図2Bは撮影ポイント(A)で被写体を撮影したときの被写体の画像を示す図である。図2Cは撮影ポイント(B)で被写体を撮影したときの被写体の画像を示す図である。図2Dは被写体を撮影するときに得られる情報を垂直平面に投影した図である。
まず、図2Aを参照して、現実世界で被写体を撮影するときのビデオカメラ1と被写体との位置関係について説明する。
被写体の中の基準となる箇所をそれぞれ被写体ポイント(G)と被写体ポイント(X)とする。
ユーザはビデオカメラ1により高さがHである被写体を、撮影ポイント(A)から撮影ポイント(B)までの間、撮影している。撮影ポイント(A)から被写体ポイント(G)までの距離を距離(Ra)とし、撮影ポイント(B)から被写体ポイント(G)までの距離を距離(Rb)とする。また、撮影ポイント(A)と撮影ポイント(B)の視差角はθとする。
次に、図2Bおよび図2Cを参照して、異なる撮影ポイントで被写体を撮影したときに、撮影した位置からの被写体の高さについて説明する。
撮影ポイント(A)のときの被写体ポイント(G)から被写体ポイント(X)までの画面上の距離を測定し、測定した距離を高さ(Ha)とする(図2B参照)。また、撮影ポイント(B)のときの被写体ポイント(G)から被写体ポイントXまでの画面上の距離を測定し、測定した距離を高さ(Hb)とする(図2C参照)。
次に、図2Dを参照して、実際に被写体の高さを算出する方法を説明する。
被写体の高さを算出する際に、被写体の高さを算出する基準となる基準点を被写体ポイント(G)とすると、撮影ポイント(A)および撮影ポイント(B)はX軸上にプロットされることになる。
撮影ポイント(A)における撮影画像投影面と撮影ポイント(B)における撮影画像投影面は平行である。
視差角θvは、視差角θの垂直成分である。
距離Raは、撮影ポイント(A)の位置情報および方位情報から、例えば三角測量により算出される。また、距離Rbは、撮影ポイント(B)の位置情報および方位情報から、例えば三角測量により算出される。
撮影ポイント(A)と撮影画像投影面との距離Laは、撮影情報の焦点距離およびズーム情報から算出される。また、撮影ポイント(B)と投影画像投影面との距離Lbは、撮影情報の焦点距離およびズーム情報から算出される。
これらの関係を数式に示すと、以下のように表される。
H・tanθb=Rb (1)
H・tan(θb+θv)=Ra (2)
Hb・tanθb=Lb (3)
Ha・tan(θb+θv)=La (4)
高さHを求めるために、まず、式(3)に、算出された撮影ポイントBでの高さHbと距離Lbをそれぞれ代入して、角度θbを算出する。そして、算出した角度θbと距離Rbを式(1)に代入すると、被写体の高さHが求められる。
同様に、式(4)および式(2)から被写体の高さHが求められるので、それぞれ求められた高さが一致するか否かを確認することができる。
図3は本実施形態における立体画像構築システムの動作を示すフローチャートである。本立体画像構築システムの処理は、ビデオカメラ1が被写体を撮影する処理と、コンピュータ2が撮影した被写体を仮想空間に投影し立体映像として構築する処理からなる。まず、ビデオカメラ1が被写体を撮影する処理について説明する。
ビデオカメラ1は、ユーザの操作により被写体を撮影するとき(ステップ100)、位置情報、方位情報、ズーム情報、および焦点距離を検出する(ステップ101)。ビデオカメラ1は、撮影した被写体の映像データに位置情報、方位情報、ズーム情報、および焦点距離を関連付けて空間情報として記録する(ステップ102)。
次に、コンピュータ2が撮影した被写体を仮想空間に投影し立体映像として構築する処理について説明する。
コンピュータ2は、ビデオカメラ1と接続すると(ステップ103)、ビデオカメラ1に記録されている空間情報を読み込む(ステップ104)。コンピュータ2は、ビデオカメラ1から空間情報を読み込むと、空間情報を記録していく(ステップ105)。
コンピュータ2は、空間情報の読み込みが完了すると、記録した複数の空間情報の中から、被写体の画像に視差がある2つの空間情報を抽出する(ステップ106)。コンピュータ2は、2つの空間情報を抽出すると、被写体までの距離と被写体の高さを算出してステレオ画像を生成する(ステップ107)。コンピュータ2は、生成したステレオ画像の映像データを方位情報の方位、測定した距離と高さで仮想空間に投影し立体映像を構築する(ステップ108)。
図4は本実施形態におけるビデオカメラ1の構成を示すブロック図である。本ビデオカメラ1は、GPSモジュール10、ジャイロモジュール11、カメラ12、記憶部13、および制御部14を有している。
GPSモジュール10は、複数のGPS衛星(不図示)から電波を受信しており、被写体を撮影するとき、複数のGPS衛星からの電波によりビデオカメラ1の位置情報を検出する。
ジャイロモジュール11は、地磁気を感知しており、被写体を撮影するとき、感知した地磁気によりビデオカメラ1の撮影方向を示す方位情報を検出する。
カメラ12はユーザの所望のズーム値および焦点距離で被写体を撮影する。
制御部14は、GPSモジュール10により位置情報が検出されると、位置情報を映像データと関連付けて記憶部13に記録するとともに、ジャイロモジュール11により方位情報が検出されると、方位情報を映像データと関連付けて記憶部13に記録する。また、制御部14は、ユーザにより被写体の撮影がなされるとき、カメラ12のズーム値および焦点距離を撮影情報として映像データと関連付けて記憶部13に記録する。
記憶部13には、被写体の映像データ、位置情報、方位情報、および撮影情報が空間情報として記録される。
以上説明したように、本実施形態によれば、撮影装置であるビデオカメラ1が被写体を撮影するとき、撮影した被写体の映像データに位置情報、方位情報、および撮影情報を関連付けて空間情報として記録する。画像処理装置である例えばコンピュータ2は、ビデオカメラ1に記録されている空間情報を読み取り、空間情報の中から、互いに視差のある複数の空間情報を抽出する。そして、コンピュータ2は、抽出した空間情報に含まれている映像データ、位置情報、方位情報に基づいて仮想空間に被写体の立体映像を構築する。これによれば、撮影位置および撮影方位を予め決めておかずに撮影しても被写体の立体映像を構築することができる。
なお、本発明は、軍事目標の詳細把握にも広く適用することができる。テロとの戦いは、都市部における市外戦の実施されるようになっている。そのため、ビデオカメラにより、テロリストの潜伏場所やテロリスト自身の配備状況などを遠方から撮影し、撮影した映像データに基づいて作戦計画を立案する際の情報にするケースも想定される。
このような場合に、例えば、街中に設置している防犯用のビデオカメラにGPS機能とジャイロコンパス機能とが内蔵されている場合、テロリストに察知されずにテロリストの潜伏場所や配備状況を立体映像として構築することができる。
また、街中に設定している防犯用のビデオカメラだけではなく、高層ビルの一角から望遠カメラにGPS機能およびジャイロ機能が内蔵されていれば、望遠カメラにより撮影された複数の映像データからも同様の効果を得ることができる。
本実施形態における立体画像構築システムの構成を示すブロック図である。 現実世界で被写体を撮影するときのビデオカメラ1と被写体の位置関係を示す図である。 撮影ポイントAで被写体を撮影したときの被写体の画像を示す図である。 撮影ポイントBで被写体を撮影したときの被写体の画像を示す図である。 被写体を撮影するときに得られる情報を垂直平面に投影した図である。 本実施形態における立体画像構築システムの動作を示すフローチャートである。 本実施形態におけるビデオカメラ1の構成を示すブロック図である。 特許文献1における立体画像構築システムの構成を示すブロック図である。
符号の説明
1 ビデオカメラ
2 コンピュータ
10 GPSモジュール
11 ジャイロモジュール
12 カメラ
13 記憶部
14 制御部
100〜108 ステップ

Claims (6)

  1. 仮想空間に被写体の立体映像を構築する立体画像構築システムであって、
    撮影時に自身の位置と撮影している方位を測定する機能を備えており、前記被写体を撮影するとき位置および方位を測定し、測定した位置を示す位置情報と、測定した方位を示す方位情報と、撮影した映像データとを関連付け、空間情報として記録する撮影装置と、
    前記撮影装置によって記録された複数の空間情報の中から、含まれている映像データに互いに視差のある複数の空間情報を抽出し、抽出した複数の前記空間情報に含まれている前記映像データ、前記位置情報、および前記方位情報に基づいて前記被写体の立体映像を構築する画像処理装置と、を有する立体画像構築システム。
  2. 前記画像処理装置は、前記被写体の画像を含む互いに対応する画素の領域のある複数の映像データが、互いに視差のある映像データであると判断する、請求項1に記載の立体画像構築システム。
  3. 前記空間情報のフォーマットは、地理的な情報を付加した画像の汎用的なフォーマットとする、請求項1または2に記載の立体画像構築システム。
  4. 仮想空間に被写体の立体映像を構築するための立体画像構築方法であって、
    撮影装置は、撮影時に自身の位置と撮影している方位を測定する機能を備えており、前記被写体を撮影するとき位置および方位を測定し、測定した位置を示す位置情報と、測定した方位を示す方位情報と、撮影した映像データとを関連付け、空間情報として記録し、
    画像処理装置は、前記撮影装置によって記録された複数の空間情報の中から、含まれている映像データに互いに視差のある複数の空間情報を抽出し、抽出した複数の前記空間情報に含まれている前記映像データ、前記位置情報、および前記方位情報に基づいて前記被写体の立体映像を構築する、立体画像構築方法。
  5. 前記画像処理装置は、前記被写体の画像を含む互いに対応する画素の領域のある複数の映像データが、互いに視差のある映像データであると判断する、請求項4に記載の立体画像構築方法。
  6. 前記空間情報のフォーマットは、地理的な情報を付加した画像の汎用的なフォーマットとする、請求項4または5に記載の立体画像構築方法。
JP2007162314A 2007-06-20 2007-06-20 立体画像構築システムおよび立体画像構築方法 Pending JP2009003609A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007162314A JP2009003609A (ja) 2007-06-20 2007-06-20 立体画像構築システムおよび立体画像構築方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007162314A JP2009003609A (ja) 2007-06-20 2007-06-20 立体画像構築システムおよび立体画像構築方法

Publications (1)

Publication Number Publication Date
JP2009003609A true JP2009003609A (ja) 2009-01-08

Family

ID=40319950

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007162314A Pending JP2009003609A (ja) 2007-06-20 2007-06-20 立体画像構築システムおよび立体画像構築方法

Country Status (1)

Country Link
JP (1) JP2009003609A (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103069819A (zh) * 2010-08-24 2013-04-24 富士胶片株式会社 摄像装置及其动作控制方法

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103069819A (zh) * 2010-08-24 2013-04-24 富士胶片株式会社 摄像装置及其动作控制方法

Similar Documents

Publication Publication Date Title
JP4600515B2 (ja) 情報提示装置及び情報提示方法、撮像装置、並びにコンピュータ・プログラム
CN105391910B (zh) 多摄像机激光扫描仪
US20120154599A1 (en) Zooming factor computation
JP5738657B2 (ja) 撮像装置
JP2009008655A (ja) 自律車両ナビゲーションのための三次元障害物マップ作成の方法及びシステム
JP5510238B2 (ja) 画像処理装置、撮像装置、および画像処理方法、並びにプログラム
JP2002503893A (ja) 仮想現実カメラ
JP2012068380A (ja) 画像処理装置、撮像装置、および画像処理方法、並びにプログラム
CN110706447B (zh) 灾情位置的确定方法、装置、存储介质及电子装置
CN102831816B (zh) 一种提供实时场景地图的装置
KR101574636B1 (ko) 면형방식 디지털 항공카메라로 촬영한 시계열 항공사진을 입체시하여 좌표를 연동하고 변화지역을 판독하는 시스템
JP2020153873A (ja) 診断処理装置、診断システム、診断処理方法、及びプログラム
US20100142802A1 (en) Apparatus for calculating 3d spatial coordinates of digital images and method thereof
JP2015231101A (ja) 撮影条件推定装置及び方法、端末装置、コンピュータプログラム並びに記録媒体
JP2019110434A (ja) 画像処理装置、画像処理システムおよびプログラム
JP2010198104A (ja) 映像表示システム、携帯端末システム、携帯端末装置及びサーバ並びにその映像表示方法
JP2019101563A (ja) 情報処理装置、情報処理システム、情報処理方法及びプログラム
KR101963449B1 (ko) 360°비디오 생성 시스템 및 방법
JP2009003609A (ja) 立体画像構築システムおよび立体画像構築方法
WO2021115192A1 (zh) 图像处理装置、图像处理方法、程序及记录介质
JP6714819B2 (ja) 画像表示システム、情報処理装置、画像表示方法及び画像表示プログラム
JP7439398B2 (ja) 情報処理装置、プログラム及び情報処理システム
JP7415496B2 (ja) 画像処理装置、プログラム及び画像処理システム
JP2017184025A (ja) 通信端末、画像通信システム、画像送信方法、画像表示方法、及びプログラム
JP2016219980A (ja) 対象物情報表示装置