JP2013211818A - 画像処理装置、画像処理方法及び画像処理プログラム - Google Patents

画像処理装置、画像処理方法及び画像処理プログラム Download PDF

Info

Publication number
JP2013211818A
JP2013211818A JP2012219198A JP2012219198A JP2013211818A JP 2013211818 A JP2013211818 A JP 2013211818A JP 2012219198 A JP2012219198 A JP 2012219198A JP 2012219198 A JP2012219198 A JP 2012219198A JP 2013211818 A JP2013211818 A JP 2013211818A
Authority
JP
Japan
Prior art keywords
image
camera
unit
dimensional
dimensional model
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2012219198A
Other languages
English (en)
Other versions
JP5920152B2 (ja
Inventor
Satoshi Michiyama
怜史 道山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
JVCKenwood Corp
Original Assignee
JVCKenwood Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by JVCKenwood Corp filed Critical JVCKenwood Corp
Priority to JP2012219198A priority Critical patent/JP5920152B2/ja
Priority to PCT/JP2013/054027 priority patent/WO2013129187A1/ja
Publication of JP2013211818A publication Critical patent/JP2013211818A/ja
Priority to US14/472,242 priority patent/US9851877B2/en
Application granted granted Critical
Publication of JP5920152B2 publication Critical patent/JP5920152B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Studio Devices (AREA)
  • Processing Or Creating Images (AREA)

Abstract

【課題】カメラによって撮像されている領域を直感的に把握することを課題とする。
【解決手段】画像処理装置は、3次元領域の3次元モデルを示す3次元モデルデータと、前記3次元領域に配置されるカメラの位置を前記3次元モデルにおけるカメラ位置として記憶する3次元モデル記憶部を有する。画像処理装置は、カメラによって撮像された撮像画像及び撮像時の撮像方向を取得する。そして、画像処理装置は、カメラ位置に応じて3次元モデルに対する視点を決定し、決定した視点及び撮像方向に応じて、3次元モデルを2次元面に投影した2次元投影画像を生成し、生成した2次元投影画像上の所定領域に、撮像画像を合成することにより合成画像を生成する。また、画像処理装置は、生成した合成画像を出力する。
【選択図】図3

Description

本発明は、画像処理装置、画像処理方法及び画像処理プログラムに関する。
従来、カメラによって撮像された対象物のモデルを、表示の際の視点位置及び視線方向が設定された3次元モデルの対応する位置に合成して表示する技術がある(例えば、特許文献1等)。特許文献1では、ある事象が発生した領域のカメラ画像を、上述した3次元モデルとともに表示する技術が開示されている。
特開2000−331279号公報
しかしながら、従来技術では、カメラによって撮像されている領域を直感的に把握することが困難であるという問題がある。従来技術は、3次元モデルにおける視点位置及び視線方向と、実際のカメラ画像における視点位置及び視線方向とが一致したものではないため、カメラによって撮像されている領域を直感的に把握することが困難である。本発明は、上記に鑑みてなされたものであって、カメラによって撮像されている領域を直感的に把握することが可能である画像処理装置、画像処理方法及び画像処理プログラムを提供することを目的とする。
上記の課題を解決するために、本発明は以下の装置、方法、プログラムを提供するものである。
1)3次元領域の3次元モデルを示す3次元モデルデータと、3次元領域に配置されるカメラの位置を3次元モデルにおけるカメラ位置として記憶する3次元モデル記憶部と、カメラによって撮像された撮像画像及び撮像時の撮像方向を取得する取得部と、カメラ位置に応じて3次元モデルに対する視点を決定し、決定した視点及び撮像方向に応じて、3次元モデルを2次元面に投影した2次元投影画像を生成して、生成した2次元投影画像上の所定領域に、撮像画像を合成することにより合成画像を生成する合成部と、合成画像を出力する出力部とを有することを特徴とする画像処理装置。
2)3次元領域のモデルを示す3次元モデルデータと、3次元領域に配置されるカメラの位置を3次元モデルにおけるカメラ位置として記憶する3次元モデル記憶ステップと、カメラによって撮像された撮像画像及び撮像時の撮像方向を取得する取得ステップと、カメラ位置に応じて3次元モデルに対する視点を決定し、決定した視点及び撮像方向に応じて、3次元モデルを2次元面に投影した2次元投影画像を生成して、生成した2次元投影画像上の所定領域に、撮像画像を合成することにより合成画像を生成する合成ステップと、合成画像を出力する出力ステップとを含むことを特徴とする画像処理方法。
3)3次元領域のモデルを示す3次元モデルデータと、3次元モデル領域に配置されるカメラの位置を3次元モデルにおけるカメラ位置として記憶部に記憶させる3次元モデル記憶機能と、カメラによって撮像された撮像画像及び撮像時の撮像方向を取得する取得機能と、カメラ位置に応じて3次元モデルに対する視点を決定し、決定した視点及び撮像方向に応じて、3次元モデルを2次元面に投影した2次元投影画像を生成して、生成した2次元投影画像上の所定領域に、撮像画像を合成することにより合成画像を生成する合成機能と、合成画像を出力する出力機能とをコンピュータに実現させることを特徴とする画像処理プログラム。
本発明の一つの様態によれば、カメラによって撮像されている領域を直感的に把握することができるという効果を奏する。
図1は、実施の形態1に係る監視システムの構成例を示す図である。 図2は、実施の形態1に係る撮像装置の構成例を示す図である。 図3は、実施の形態1に係る画像処理装置の構成例を示す図である。 図4は、3次元モデル記憶部によって記憶される情報例を示す図である。 図5は、3次元モデルデータを説明するための図である。 図6は、視点情報記憶部に記憶される情報例を示す図である。 図7は、実施の形態1に係る全体処理の流れの例を示すフローチャートである。 図8は、実施の形態1に係る初期画像生成処理の流れの例を示すフローチャートである。 図9は、初期画像の例を示す図である。 図10は、実施の形態1に係る画像処理の流れの例を示すフローチャートである。 図11は、2次元投影画像の例を示す図である。 図12は、合成画像の例を示す図である。 図13は、所定領域の位置を変更する例を示す図である。 図14Aは、所定物を透過させる前の2次元投影画像の例を示す図である。 図14Bは、所定物を透過させた後の2次元投影画像の例を示す図である。 図15Aは、ポップアップの大きさを調整する前の2次元投影画像の例を示す図である。 図15Bは、ポップアップの大きさを調整した後の2次元投影画像の例を示す図である。 図16は、実施の形態4に係る画像処理装置の構成例を示す図である。 図17Aは、ドラッグ操作が行なわれる前の合成画像の例を示す図である。 図17Bは、左方向にドラッグ操作が行なわれた場合の合成画像の例を示す図である。 図17Cは、下方向にドラッグ操作が行なわれた場合の合成画像の例を示す図である。 図18は、実施の形態4に係る全体処理の流れの例を示すフローチャートである。 図19は、実施の形態4に係る画像処理の流れの例を示すフローチャートである。 図20は、実施の形態4の変形例に係る画像処理の流れの例を示すフローチャートである。 図21は、実施の形態5に係る画像処理の流れの例を示すフローチャートである。 図22は、実施の形態6に係る基点を決定する例を示すイメージ図である。 図23は、実施の形態6に係るドラッグ距離に応じたカメラ動作速度を設定する例を示すイメージ図である。 図24は、実施の形態6に係る画像処理の流れの例を示すフローチャートである。 図25は、実施の形態7に係る基点を決定する例を示すイメージ図である。 図26は、実施の形態7に係るドラッグ速度に応じたカメラ動作速度を設定する例を示すイメージ図である。 図27は、実施の形態7に係る画像処理の流れの例を示すフローチャートである。 図28は、3次元モデル記憶部に記憶される情報例を示す図である。 図29は、監視エリアの階層構造の説明図である。 図30は、視点情報記憶部に記憶される情報例を示す図である。 図31は、選択画像から選択可能な監視エリアまたはカメラアイコンを示す説明図である。 図32は、実施の形態8に係る全体処理の流れの例を示すフローチャートである。 図33は、実施の形態8に係る選択画像生成処理の流れの例を示すフローチャートである。 図34は、実施の形態9にかかる画像処理装置の処理を説明するための図である。 図35は、3次元モデル記憶部に記憶される情報例を示す図である。 図36Aは、視点位置が変更された場合に描画される2次元投影画像を示す図である。 図36Bは、視点位置が変更された場合に描画される2次元投影画像を示す図である。 図36Cは、視点位置が変更された場合に描画される2次元投影画像を示す図である。 図37は、全監視エリアに対するy軸を回転軸とする視点範囲を説明するための図である。 図38Aは、視点位置が変更された場合に描画される2次元投影画像を示す図である。 図38Bは、視点位置が変更された場合に描画される2次元投影画像を示す図である。 図39は、画像処理装置のフローチャートである。 図40は、実施の形態10に係る画像処理装置の構成例を示す図である。 図41は、図40に示す画像記憶部が保持する撮像画像管理テーブルの一例を示す図である。 図42は、実施の形態1〜11に係るセンサの構成例を示す図である。 図43は、図40に示すイベント記憶部が保持するイベント管理テーブルの一例を示す図である。 図44は、実施の形態10において3次元モデル記憶部が管理するセンサ管理テーブルの一例を示す図である。 図45は、実施の形態10に係る制御部の録画動作を示すフローチャートである。 図46は、実施の形態10に係る制御部のイベント記録動作を示すフローチャートである。 図47は、実施の形態10に係る制御部による録画再生動作の一例を示すフローチャートである。 図48は、実施の形態10に係る合成画像の一例を示す図である。 図49は、図48に示す操作画面の一例を示す図である。 図50は、実施の形態11に係る合成画像の一例を示す図である。 図51は、画像処理プログラムがコンピュータを用いて実現されることを示す図である。
以下に添付図面を参照して、本発明に係る画像処理装置、画像処理方法及び画像処理プログラムの実施の形態を説明する。なお、以下の実施の形態により本発明が限定されるものではない。また、各実施の形態は、内容を矛盾させない範囲で適宜組み合わせることができる。
(実施の形態1)
[実施の形態1に係る監視システムの構成]
図1を用いて、実施の形態1に係る監視システムの構成を説明する。図1は、実施の形態1に係る監視システムの構成例を示す図である。
図1に示すように、監視システム1には、画像処理装置10と、撮像装置20a1と、センサ40a1と、撮像装置20b1と、センサ40b1とがネットワーク30に接続されている。かかる監視システム1は、所定のエリアを監視するために利用される。画像処理装置10は、例えば、店舗内の管理室や警備会社の警備室等に設置されることがある。以下では、監視システム1による監視の監視対象となるエリア全体を「全監視エリア」と呼ぶ場合がある。
また、撮像装置20a1とセンサ40a1とは、全監視エリアの一部であるエリア50aに配置される。同様に、撮像装置20b1と、センサ40b1とは、全監視エリアの一部であるエリア50bに配置される。エリア50aには、撮像装置20a1やセンサ40a1の他にも、複数の撮像装置やセンサが配置される場合がある。また、エリア50bには、撮像装置20b1やセンサ40b1の他にも、複数の撮像装置やセンサが配置される場合がある。以下では、撮像装置20a1や撮像装置20b1を、「撮像装置20」と呼ぶ場合がある。また、以下では、センサ40a1やセンサ40b1を、「センサ40」と呼ぶ場合がある。また、以下では、エリア50a1やエリア50b1を、「エリア50」と呼ぶ場合がある。
これらのうち、撮像装置20は、エリア50に含まれる撮像可能範囲の被写体を撮像するカメラを有する。そして、撮像装置20は、カメラによって撮像した画像を圧縮した撮像画像を画像処理装置10に送信する。このとき、撮像装置20は、撮像時のカメラにおけるズームレンズの焦点距離の情報であるズーム(zoom)情報や撮像方向情報も合わせて画像処理装置10に送信する。かかる撮像方向情報とは、例えば、撮像方向の水平方向の角度であるパン(pan)情報及び撮像方向の垂直方向の角度であるチルト(tilt)情報である。
画像処理装置10は、全監視エリアの3次元モデルを表現する3次元モデルデータを記憶する。かかる3次元モデルデータは、全監視エリア内の建物等の物体(オブジェクト)の形状やサイズやレイアウト(位置情報)を示す情報である。3次元モデルデータは、例えば、撮像装置20による撮像で得られた物の形状や視点等の情報を利用し、レンダリングされることにより予め生成される。あるいは、全監視エリアの見取り図等から生成しても良い。加えて、画像処理装置10は、全監視エリア内に配置されたカメラ(撮像装置20に相当)の3次元モデル内の位置であるカメラ位置を記憶する。
そして、画像処理装置10は、撮像装置20によって撮像された撮像画像や、撮像時のズームレンズの焦点距離、撮像方向等を該撮像装置20から取得する。続いて、画像処理装置10は、カメラ位置に基づいて3次元モデルから2次元画像を生成する際の視点を決定し、決定した視点、撮像方向及びズームレンズの焦点距離に応じた2次元投影画像を生成する。その後、画像処理装置10は、生成した2次元投影画像上の所定領域に、撮像画像を合成することにより合成画像を生成し、生成した合成画像を出力する。
センサ40は、例えば、エリア50に適宜配置され、人物や扉の開閉等を検知してアラームを発呼する人感センサや開閉センサ等であり、画像処理装置10に対して検出データを送信する。
つまり、画像処理装置10は、撮像装置20の撮像方向等に応じて生成した2次元投影画像の所定領域に、撮像装置20によって撮像された撮像画像を合成して出力するので、合成画像の閲覧者は、カメラによって撮像されている領域が全監視エリア内のいずれの領域であるかを直感的に把握することができる。なお、画像処理装置10や撮像装置20の詳細な構成については後述する。
[実施の形態1に係る撮像装置の構成]
次に、図2を用いて、実施の形態1に係る撮像装置20の構成を説明する。図2は、実施の形態1に係る撮像装置20の構成例を示す図である。
図2に示すように、撮像装置20は、撮像部201と、圧縮部202と、通信処理部203と、制御部204と、雲台駆動部205と、角度センサ206と、ズーム駆動部207と、ズームセンサ208とを有する。また、撮像装置20は、ネットワーク30を介して、画像処理装置10と接続されるネットワークカメラであり、ネットワーク30を介して受信した制御信号にしたがってその撮像方向を変更することが可能である。
撮像部201は、撮像可能範囲の被写体を撮像し、撮像した撮像画像を圧縮部202に出力する。撮像画像は、静止画であってもよく、動画であってもよい。圧縮部202は、撮像部201によって撮像された撮像画像をJPEG(Joint Photographic Experts Group)やMPEG−4(Moving Picture Experts Group phase 4)等の規格で圧縮し、圧縮したディジタル画像を撮像画像として通信処理部203に出力する。また、圧縮部202は、制御部204からパン情報、チルト情報およびズーム情報を受け付けて、撮像画像のヘッダまたはフッタ等に付加する。これにより、パン情報、チルト情報及びズーム情報が付加された撮像画像が通信処理部203へ送られる。
通信処理部203は、圧縮部202によって出力されたパン情報、チルト情報及びズーム情報が付加された撮像画像を、ネットワーク30を介して画像処理装置10に送信する。また、通信処理部203は、外部装置から受信した制御信号を制御部204に出力する。かかる制御信号は、例えば、パン、チルト及びズームに関する制御信号である。すなわち、通信処理部203は、一般のネットワークカメラと同様、カメラ制御を行なうために、外部装置から制御信号を受信する。本実施の形態にかかる通信処理部203は、画像処理装置10から制御信号を受信する。
制御部204は、雲台駆動部205にパンやチルトを行なわせたり、ズーム駆動部207にズームレンズのズームを行なわせたりする制御を行なう。この制御は、通信処理部203を介して入力された制御信号に基づくものである。また、他の例としては、制御部204は、予め設定されたアルゴリズムにしたがい上記制御を行ってもよい。また、制御部204は、角度センサ206で検知されたパンやチルトの角度を受け付けて、圧縮部202へ送る。また、制御部204は、ズームセンサ208で検知されたズームレンズの焦点距離を受け付けて、圧縮部202へ送る。
雲台駆動部205は、例えば、制御部204からの制御にしたがって、撮像部201の撮像方向を変更する。この雲台駆動部205には、パン方向やチルト方向の角度を検出する角度センサ206が設けられている。角度センサ206は、例えば、パンやチルトの角度を検知して制御部204に出力する。ズーム駆動部207は、撮像部201のズームレンズに取り付けられている。ズーム駆動部207は、例えば、制御部204によって指示されたズームレンズの焦点距離に応じて、ズームレンズの焦点距離を変更する。ズームレンズには、ズームレンズの焦点距離を検知するズームセンサ208が設けられている。ズームセンサ208は、例えば、ズームレンズの焦点距離を検知して制御部204に出力する。制御部204は、角度センサ206およびズームセンサ208の検出結果に基づいて、適宜撮像部201の撮像方向やズームレンズの焦点距離を確認しつつ、これらを制御する。
[実施の形態1に係る画像処理装置の構成]
次に、図3を用いて、実施の形態1に係る画像処理装置10の構成を説明する。図3は、実施の形態1に係る画像処理装置10の構成例を示す図である。
画像処理装置10は、3次元モデル記憶部111と、視点情報記憶部112と、操作部121と、通信処理部122と、取得部123と、制御部124と、合成部125と、出力部126とを有する。画像処理装置10は、ネットワーク30を介して、撮像装置20等のネットワークカメラやセンサ40に接続されたPC(Personal Computer)等の情報処理装置である。
3次元モデル記憶部111は、3次元モデルデータ等を記憶する。図4は、3次元モデル記憶部111に記憶される情報例を示す図である。図4に示すように、3次元モデル記憶部111は、全監視エリアの3次元モデルを表現する3次元モデルデータと、デバイスID(identifier)と、アイコン種類IDと、アイコン位置とを対応付けて記憶する。ここで、デバイスIDとは、3次元モデルデータで表現される3次元モデル内に配置されるデバイスを識別する、デバイス固有の識別情報である。アイコン種類IDとは、3次元モデル内でデバイスを表現するアイコンの種類である。本実施の形態にかかる画像処理装置10においては、デバイスの種類毎に異なる種類のアイコンが割り当てられており、アイコン種類IDは、このアイコンの種類を識別する情報である。アイコン位置は、3次元モ
デルにおいてアイコンが配置される位置(座標)である。
例を挙げると、3次元モデル記憶部111は、図4に示すように、3次元モデルデータ「全監視エリア」と、カメラ1を示すデバイスID「#01」と、アイコン種類としてカメラを示すアイコン種類ID「A001」と、アイコン位置「(x1,y1,z1)」とを対応付けて記憶する。したがって、3次元モデル記憶部111を参照することにより、各デバイスの配置位置を特定することができる。例えば、図4に示す例においては、「カメラ1」、「カメラ2」及び「センサ1」の配置位置として、それぞれ「全監視エリア」の3次元モデルにおける座標「(x1,y1,z1)」、「(x2,y2,z2)」、「(x3,y3,z3)」を特定することができる。
さらに、3次元モデル記憶部111は、図4に示すように、アイコン種類IDに対応付けて、各種アイコンの3次元パーツモデルを記憶する。なお、撮像装置20に対応するアイコンの3次元パーツモデルは、レンズに相当する部位を有している。3次元モデル中に撮像装置20の3次元パーツモデルを配置する際には、撮像装置20の3次元パーツモデルのレンズの向きを実際の撮像装置20のレンズの向き(撮像方向)に合わせて配置することができる。
図5は、3次元モデルデータを説明するための図である。なお、図5には、3次元モデルの斜め上方の視点から観察される3次元モデルの俯瞰図を示している。図5に示すように、3次元モデルは、全監視エリア内の建物、地面、樹木等の物体がそれぞれのサイズに応じてレイアウトされたモデルであり、3次元モデルデータは、これらの物体の形状やサイズや位置等を示すデータである。なお、3次元モデルデータに対し、視点、注視点および画角を定めることにより、図5に示す俯瞰図のように、3次元モデルを2次元面に投影した2次元画像である2次元投影画像を生成することができる。
視点情報記憶部112は、後述する合成部125が3次元モデルデータから2次元投影画像を生成する際に利用する視点位置を記憶する。図6は、視点情報記憶部112に記憶される情報例を示す図である。視点情報記憶部112は、具体的には、全監視エリアの2次元投影画像を生成する際に利用される視点位置と、カメラの配置位置から観察されるエリアの2次元投影画像を生成する際に利用される視点位置とを、視点位置を識別する視点位置IDに対応付けて記憶する。
例を挙げると、図6に示すように、視点情報記憶部112は、全監視エリアを示す視点位置ID「B001」と、視点位置「(x10,y10,z10)」とを対応付けて記憶する。また、視点情報記憶部112は、カメラ1を示す視点位置ID「B011」と、視点位置「(x11,y11,z11)」とを対応付けて記憶する。ここで、カメラを示す視点位置IDに対応付けられている視点位置は、カメラ位置である。なお、カメラ位置を示す視点位置の視点位置IDは、カメラのデバイスID(以下、カメラIDという)と同一の値であってもよい。これにより、カメラIDから直接視点位置を特定することができる。
操作部121は、マウスやタッチパネル等の入力装置を有し、監視システム1のユーザのユーザ操作によって各種指示を受け付ける。例えば、操作部121は、ユーザからのカメラ選択指示を受け付ける。また、操作部121は、ユーザ操作によって所定のカメラ(撮像装置20)が選択されると、選択された撮像装置20の撮像画像を出力する指示を受け付ける。また、操作部121は、ユーザ操作によって所定の撮像装置20に対するパン、チルト及びズームの設定指示を受け付ける。なお、パン、チルト及びズームの設定指示は、上述したパン、チルト及びズームに関する制御信号として、制御部124及び通信処理部122を介して撮像装置20に送信される。
通信処理部122は、ネットワーク30を介して接続される撮像装置20やセンサ40との通信を制御する。例えば、通信処理部122は、撮像画像と、パン情報、チルト情報及びズーム情報とを撮像装置20から受信する。また、通信処理部122は、操作部121によって受け付けられたパン、チルト及びズームの設定指示を、パン、チルト及びズームに関する制御信号として撮像装置20に対して送信する。
取得部123は、撮像画像や撮像方向としてのパン情報、チルト情報や、ズーム情報を、通信処理部122を介して撮像装置20から取得する。また、取得部123は、センサ40から検出データを取得する。なお、検出データには、センサ40の検出方向等に関する情報(パン情報、チルト情報等)が含まれていてもよい。
制御部124は、画像処理装置10を全体制御する。例えば、制御部124は、操作部121によって受け付けられた指示に応じて、取得部123によって取得された撮像画像、撮像時のパン情報、チルト情報及びズーム情報を合成部125に出力する。制御部124はまた、操作部121が受け付けた指示に応じて、3次元モデルと、視点位置とを3次元モデル記憶部111から取得し、これらを合成部125に出力する。
このとき、制御部124は、各撮像装置20に相当するカメラアイコンやセンサ40に対応するセンサアイコンのイメージ、およびこれらアイコンのアイコン位置も3次元モデル記憶部111から取得し、取得したアイコンと該アイコンのアイコン位置とを合成部125に出力する。また、制御部124は、ユーザによって選択されたカメラアイコンに相当する撮像装置20により撮像された撮像画像だけでなく、カメラアイコンそれぞれに対応する撮像画像を取得部123から受け付けており、各撮像画像も合成部125に出力する。
合成部125は、3次元モデルの視点及び撮像方向に基づいて、2次元投影画像を生成し、生成した2次元投影画像上の所定領域に撮像装置20によって撮像された2次元画像である撮像画像を合成する。なお、所定領域は、2次元投影画像上の所定の位置に設定された所定のサイズの領域である。例えば、合成部125は、制御部124が3次元モデル記憶部111から読み出した視点位置と、合成対象となる撮像画像を撮像する撮像装置20のパン、チルト、ズームに応じて2次元投影画像を生成する。続いて、合成部125は、生成した2次元投影画像の中央付近等の所定領域に、制御部124から出力された撮像画像を合成することにより、合成画像を生成する。
このとき、合成部125は、制御部124によって出力されたカメラアイコンやセンサアイコン等のアイコンもアイコン位置をもとに2次元投影画像に配置する。さらに、合成部125は、各撮像装置20に対応する各カメラアイコン付近にそれぞれ設定された領域(例えば、ポップアップ)に、それぞれの撮像装置20で撮像された撮像画像を合成する。なお、各カメラアイコンに対してポップアップ表示される画像は撮像画像のサムネイルであってもよい。各カメラアイコン付近に設定された領域は、例えば、上述した所定領域よりも小さい領域とする。このように、合成部125は、各カメラアイコン付近に設定された領域に撮像画像をポップアップ表示するために、所定領域に対応する撮像画像だけでなく、撮像装置20によって撮像された撮像画像それぞれを制御部124から受け付ける。また、本実施の形態や他の実施の形態において、3次元モデル記憶部111にカメラの番号や名称、撮像する場所などのコメントを記憶させておき、ポップアップに表示する撮像画像にコメントを重畳させたり、コメントのみをポップアップとして表示させても良い。
出力部126は、合成画像を出力する。例えば、出力部126は、合成部125によって2次元投影画像に合成されたアイコン、カメラアイコン付近の領域に合成された撮像画像、又は、2次元投影画像の所定領域に合成された撮像画像等を含む合成画像を出力する。なお、出力部126は、合成画像を表示する表示装置であっても良いし、画像処理装置10に接続された表示装置に合成画像を出力しても良い。
[実施の形態1に係る全体処理フロー]
次に、図7を用いて、実施の形態1に係る全体処理の流れについて説明する。図7は、実施の形態1に係る全体処理の流れの例を示すフローチャートである。
例えば、図7に示すように、画像処理装置10の操作部121が、初期画像の表示指示を受け付けた場合に(ステップS101肯定)、合成部125は、初期画像を生成する(ステップS102)。そして、出力部126は、合成部125により生成された初期画像を表示画面に表示する(ステップS103)。一方、操作部121が初期画像の表示指示を受け付けていない場合には(ステップS101否定)、初期画像の表示指示待ちの状態となる。
図9は、初期画像の例を示す図である。図9に示すように、初期画像は、全監視エリアの2次元投影画像である。かかる初期画像には、3次元モデル記憶部111に全監視エリアの3次元モデルデータに対応付けて記憶されている各種デバイスのアイコンが含まれている。図9に示す2次元投影画像には、デバイスとしての各撮像装置20に相当するカメラアイコンが含まれている。さらに、図9に示す2次元投影画像には、各撮像装置20によって撮像された撮像画像が該カメラアイコン付近にポップアップで表示されている。また、図9では、各カメラアイコンが空中に配置されたものとなっているが、カメラは、実際には地上数メートルの高さのポール等に取り付けられている。また、監視が建物内である場合、カメラは、実際には天井等の高所に取り付けられている。すなわち、初期画像等の2次元投影画像においてカメラアイコンを空中に配置することで、建物等の遮蔽物によりカメラアイコンの表示が隠れてしまうことを抑制しており、これにより、カメラアイコンを選択するための操作性を向上している。なお、図9には図示されていないが、センサ40等のカメラ以外の各種デバイスのアイコンが含まれている場合には該センサ40等のアイコンも表示される。
図7に戻り、画像処理装置10は、ユーザ操作により、初期画像においてカメラアイコンが選択され、操作部121が選択指示を受け付けた場合に(ステップS104肯定)、合成部125は、選択されたカメラアイコンの配置位置を視点とする2次元投影画像に、選択されたカメラアイコンに対応する撮像装置20の撮像画像を合成した合成画像を生成する(ステップS105)。そして、出力部126は、合成画像を表示画面に表示する(ステップS106)。一方、操作部121が初期画面においてカメラアイコンが選択されていない場合に(ステップS104否定)、該カメラアイコンの選択待ちの状態となる。
[実施の形態1に係る初期画像生成処理フロー]
次に、図8を用いて、実施の形態1に係る初期画像生成処理の流れについて説明する。図8は、実施の形態1に係る初期画像生成処理の流れの例を示すフローチャートである。なお、実施の形態1に係る初期画像生成処理とは、ステップS102における処理を指す。
図8に示すように、画像処理装置10の合成部125は、全監視エリアの3次元モデルデータを3次元モデル記憶部111から取得する(ステップS201)。そして、合成部125は、3次元モデル記憶部111において全監視エリアの3次元モデルに対応付けられている各デバイスの配置位置、すなわち各アイコンと該各アイコンのアイコン位置とを3次元モデル記憶部111から取得する(ステップS202)。続いて、合成部125は、各撮像装置20によって送信された撮像方向を、通信処理部122、取得部123および制御部124を介して取得する(ステップS203)。
その後、合成部125は、取得した撮像方向から、各カメラアイコンの向きを特定する(ステップS204)。そして、合成部125は、3次元モデルの各アイコン位置に、各デバイスのアイコンを合成する(ステップS205)。このとき、合成部125は、カメラアイコンについては、ステップS204において特定した向きにカメラアイコンのレンズを向けた状態で、3次元モデル内にカメラアイコンを配置する。但し、センサ40等の向きを持たないデバイスに関しては、その向きが特に考慮されることなく3次元モデル内の該当するアイコン位置に、アイコンが合成される。
そして、合成部125は、視点情報記憶部112から、全監視エリアの視点位置IDに対応付けられている視点位置を取得する(ステップS206)。続いて、合成部125は、取得した視点位置と、予め設定された注視点および画角に基づいて3次元モデルを投影面に投影する等、任意の手法でレンダリングを行なうことにより、2次元投影画像を生成し、生成した2次元投影画像を初期画像とする(ステップS207)。なお、かかる初期画像には、図9に示すように、2次元投影画像中の各カメラアイコン付近に設定されたポップアップ領域に、各カメラアイコンに対応する撮像装置20によって撮像された撮像画像が合成されている。
[実施の形態1に係る画像処理フロー]
次に、図10を用いて、実施の形態1に係る画像処理の流れについて説明する。図10は、実施の形態1に係る画像処理の流れの例を示すフローチャートである。なお、実施の形態1に係る画像処理とは、ステップS105における処理を指す。
例えば、操作部121におけるユーザ操作により、初期画像においてカメラアイコンが選択された場合に、取得部123は、該カメラアイコンに相当する撮像装置20によって撮像された撮像画像と、撮像時の撮像方向(パン情報、チルト情報)及びズーム情報とを取得する(ステップS301)。また、合成部125は、制御部124を介して、取得部123によって取得された撮像画像、パン情報、チルト情報及びズーム情報を取得するとともに、3次元モデル、アイコン、アイコン位置(カメラ位置)を3次元モデル記憶部111から取得する。そして、合成部125は、カメラ位置、パン情報、チルト情報およびズーム情報に基づいて3次元モデルの視点、注視点及び画角を決定する。そして、合成部125は、決定した視点、注視点および画角に基づいて、3次元モデルデータから2次元投影画像を生成する(ステップS302)。このとき、合成部125は、アイコン位置をもとに各アイコンを2次元投影画像に配置するとともに、カメラアイコン付近に設定されたポップアップに、カメラアイコンに相当する撮像装置20によって撮像された撮像画像を合成する。
図11は、ステップS302の処理により生成された2次元投影画像の例を示す図である。このように、2次元投影画像には、3次元モデル中に配置されたカメラアイコンと、カメラアイコンに相当する撮像装置20により撮像された画像とが含まれている。
図10に戻り、合成部125は、ステップS302において生成した2次元投影画像上の所定領域に撮像画像を合成することにより、合成画像を生成する(ステップS303)。
図12は、ステップS303の処理により生成された合成画像の例を示す図である。このように、合成画像においては、2次元投影画像上に撮像装置20により実際に撮像された撮像画像が重畳されている。ここで、図12を参照しつつ、ステップS303における処理について詳述する。合成部125は、2次元投影画像上に撮像画像を合成する際、撮像画像の中心位置と、2次元投影画像の注視点とが一致するように、2次元投影画像上に撮像画像を重畳する。図12に示す例においては、撮像画像の中心位置および2次元投影画像の注視点はいずれも合成画像の中心位置に一致している。
さらに、図12に示す合成画像においては、合成画像中において、撮像画像と2次元投影画像が同一の倍率で表示されている。このように、合成部125は、撮像画像と2次元投影画像が同一倍率で表示されるように、ズーム情報に応じて2次元投影画像を生成する際の画角を調整する。これにより、合成画像の閲覧者は、合成画像中の撮像画像が監視エリア全体におけるいずれのエリアを撮像したものであるかを直感的に把握することができる。
なお、本実施の形態においては、合成部125は、合成画像中において、撮像画像の中心位置と2次元投影画像の注視点を一致させ、さらに撮像画像と2次元投影画像が同一倍率で表示されるように2次元投影画像の画角を調整することとしたが、少なくとも撮像画像の撮像方向と2次元投影画像の視点と注視点を結ぶ方向(観察方向)とが一致していればよい。すなわち、他の例としては、合成部125は、撮像画像の中心位置と2次元投影画像の注視点とが一致しない合成画像を生成してもよい。例えば、図12に示す合成画像においては、撮像画像は、合成画像の中心に配置されたが、これにかえてより右下の位置に配置されてもよい。また、撮像画像と2次元投影画像の倍率は異なっていてもよい。このように、撮像方向と観察方向とが一致していれば、撮像画像の撮像方向と2次元投影画像の注視点とが一致していない場合や、撮像画像と2次元投影画像の倍率が異なっていても、閲覧者は、撮像画像と2次元投影画像との対応関係を直感的に把握することができる。
図12に示す合成画像の左下には、さらにボタン状の画像(ボタン画像)が表示されている。このボタン画像は、「一つ前の画像に戻る」ためのものであり、ユーザ操作により該ボタン状の画像が選択された場合に、初期画像等の選択画面に戻るようになっている。
なお、本実施の形態にかかる取得部123は、カメラアイコンが選択される度に、選択されたカメラアイコンに相当する撮像装置20から撮像方向およびズーム情報を取得するが、他の例としては、取得部123は、撮像装置20において、カメラの方向またはズームが変更される度に、撮像装置20から変更後の撮像方向またはズーム情報を取得し、これを記憶しておくこととしてもよい。この場合には、取得部123は常に実際の撮像装置20の状態に対応する撮像方向およびズーム情報を記憶しているので、ステップS302においては、取得部123が記憶している撮像方向およびズーム情報を用いることとする。
上述したように、画像処理装置10は、撮像装置20における撮像画像と、撮像時の撮像方向とを取得し、3次元モデルの視点及び撮像方向に基づいて2次元投影画像を生成し、生成した2次元投影画像の所定領域に撮像画像を合成して出力する。この結果、合成画像の閲覧者は、カメラによって撮像されている領域を直感的に把握することができる。換言すると、画像処理装置10は、撮像装置20によって実際に撮像されている撮像画像と、撮像時の撮像方向に合わせて2次元投影画像を生成し、2次元投影画像の所定領域に撮像画像を合成するので、3次元モデルにおける視点位置及び視線方向と、実際のカメラ画像における視点位置及び視線方向とが一致していない従来技術と比較して、合成画像の閲覧者は、カメラによって撮像されている領域を直感的に把握することができる。
[実施の形態1の変形例]
上記実施の形態1では、所定領域を2次元投影画像の中央付近に重畳する場合を説明したが、かかる所定領域の位置は任意に変更することができる。図13は、所定領域の位置を変更する例を示す図である。例えば、図13に示すように、2次元投影画像上の所定領域の位置は、画面右下の位置に配置するようにしても良い。このように、所定領域を中央付近とは異なる場所に配置することにより、対応するカメラアイコンが出現し、そのカメラの向きもわかるため、カメラによって撮像されている領域を直感的に把握することができる効果も維持できる。
(実施の形態2)
[所定物を透過]
実施の形態1では、2次元投影画像に、建物や樹木のモデル、各種デバイスのアイコン、所定領域の撮像画像、ポップアップ等を合成して表示する場合を説明したが、これらのうち、所定物を透過させて表示しても良い。
図14Aは、所定物を透過させる前の2次元投影画像の例を示す図である。図14Bは、所定物を透過させた後の2次元投影画像の例を示す図である。例えば、図14Aに示す2次元投影画像では、中央付近に位置する建物の裏にカメラアイコン「カメラ4」や該カメラアイコンのポップアップが隠れている。このような状態では、ユーザがアイコンを選択する場合に、選択しづらい、さらには選択すらできない可能性がある。
そこで、図14Bに示すように、合成部125は、建物、樹木、地面等の選択することのないモデルを透過させ、カメラアイコン「カメラ4」の選択を容易にする。また、所定物の透過は、初期画像においても行なわれていても良い。また、透過の対象となるものは、上記のものに限られるわけではなく、例えば、ポップアップや2次元投影画像上の所定領域を透過させても良い。これらにより、建物や所定領域等に隠れることがあるアイコンやポップアップ等の視認性を向上し、カメラアイコンの選択操作の操作性を向上することができる。
(実施の形態3)
[ポップアップの大きさを調整]
実施の形態1では、各アイコンのアイコン位置に応じて各アイコンを2次元投影画像に合成する場合を説明したが、アイコン位置に応じて2次元投影画像に合成されたアイコン付近に設定されたポップアップの大きさを調整しても良い。具体的には、アイコンやポップアップは、アイコンのアイコン位置に応じて2次元投影画像に合成されるため、その大きさは、2次元投影画像の奥に位置するアイコン及びポップアップほど小さくなるので、小さいアイコンやポップアップでは視認性や操作性が低下する場合がある。そこで、アイコン位置に応じて2次元投影画像に合成されたアイコン付近に設定されたポップアップの大きさを調整する。
図15Aは、ポップアップの大きさを調整する前の2次元投影画像の例を示す図である。また、図15Bは、ポップアップの大きさを調整した後の2次元投影画像の例を示す図である。例えば、図15Aに示す2次元投影画像では、アイコン位置に応じて2次元投影画像に各アイコンが合成されるため、カメラアイコン「カメラ3」のポップアップが特に小さく表示されることになる。かかるポップアップには、「カメラ3」に相当する撮像装置20における撮像画像が表示されるものの、あまりに小さい表示になると視認性の点で好ましくない。
そこで、図15Bに示すように、合成部125は、カメラアイコン「カメラ3」や「カメラ4」のポップアップの大きさを、カメラアイコン「カメラ1」のポップアップに合わせて調整する等、ある程度の視認性を担保できる大きさに調整する。この他、ポップアップの大きさは、2次元投影画像において最も手前に位置するポップアップの大きさに合わせて調整したり、表示画面サイズに応じて適宜決められた大きさに合わせて調整したりすれば良い。また、ポップアップの大きさの調整は、初期画像においても行なわれていても良い。なお、カメラアイコンの大きさも調整しても良いが、2次元投影画像におけるカメラの位置関係がわかるように、カメラアイコンについては調整することを要しない。これらにより、ポップアップの視認性を向上することができる。
(実施の形態4)
実施の形態1では、撮像装置20によって撮像されている撮像画像と撮像方向とに基づき合成画像を生成する場合を説明したが、合成画像上での所定ユーザ操作に応じて撮像装置20の撮像方向を指示し、指示に応じて受信された、撮像装置20によって撮像されている撮像画像と撮像方向とに基づき合成画像を生成することもできる。そこで、実施の形態4では、合成画像での所定ユーザ操作に応じて撮像装置20の撮像方向を指示し、指示に応じて受信された、撮像装置20によって撮像されている撮像画像と撮像方向とに基づき合成画像を生成する場合を説明する。
[実施の形態4に係る画像処理装置の構成]
図16を用いて、実施の形態4に係る画像処理装置の構成を説明する。図16は、実施の形態4に係る画像処理装置の構成例を示す図である。なお、図16では、実施の形態1に係る画像処理装置10と同様の機能を有する構成についてはその詳細な説明を省略する場合がある。
例えば、図16に示すように、画像処理装置10は、3次元モデル記憶部111と、視点情報記憶部112と、操作部121と、通信処理部122と、取得部123と、制御部124と、合成部125と、出力部126と、切替指示部127とを有する。
切替指示部127は、合成画像上での所定ユーザ操作に応じて、撮像方向又はズームレンズの焦点距離を算出し、算出した撮像方向又はズームレンズの焦点距離に切り替える指示を撮像装置20に対して行なう。ここで、切替指示部127による処理を説明するために、切替指示部127による処理に関連する操作部121や制御部124による処理を含めて説明する。
操作部121は、ユーザ操作によりカメラアイコンが選択された状態、すなわち合成画像が表示された状態において、マウスやタッチパネルによりドラッグ操作を受け付ける。
例えば、ドラッグ操作は、2次元投影画像や該2次元投影画像の所定領域の任意の位置からの、ポインティングデバイスとしてのマウスによるドラッグ操作及びマウスホイールによるホイール操作を指す。若しくは、ドラッグ操作は、2次元投影画像や該2次元投影画像の所定領域の任意の位置からの、タッチパネルのドラッグ操作、ピンチ操作を指す。また、制御部124は、操作部121によって受け付けられたドラッグ操作の方向と距離とを切替指示部127に出力する。
切替指示部127は、制御部124によって出力されたドラッグ操作の方向と距離とに基づき、選択されているカメラアイコンに相当する撮像装置20のズームレンズの焦点距離と、撮像方向の移動方向及び移動角度とを算出する。撮像方向の移動方向は、合成画像上におけるドラッグ操作の方向とする。また、ズームレンズの焦点距離は、合成画像上におけるホイール操作又はピンチ操作をズームレンズの焦点距離に換算したものとする。また、撮像方向の移動角度は、合成画像上におけるドラッグ操作の距離(ピクセル)を撮像方向の移動角度(度)に換算したものとする。例を挙げると、撮像方向の移動角度は、合成画像の1ピクセルを撮像方向の移動角度に換算すると、0.05度となる。
そして、切替指示部127は、算出したズームレンズの焦点距離と、撮像方向の移動方向及び移動角度に応じて切り替える旨の指示を、通信処理部122を介して、選択されているカメラアイコンに相当する撮像装置20に対して行なう。切替指示部127による指示の後、実施の形態1と同様に、撮像装置20から受信されたパン情報、チルト情報及びズーム情報に応じた2次元投影画像が生成され、2次元投影画像の所定領域に撮像画像が合成されることにより、合成画像が生成されることになる。
[実施の形態4に係る画面遷移]
次に、図17A〜図17Cを用いて、実施の形態4に係るドラッグ操作による画面遷移について説明する。図17Aは、ドラッグ操作が行なわれる前の合成画像の例を示す図である。また、図17Bは、右方向にドラッグ操作が行なわれた場合の合成画像の例を示す図である。また、図17Cは、上方向にドラッグ操作が行なわれた場合の合成画像の例を示す図である。
例えば、図17Aに示すように、ドラッグ操作が行なわれる前の合成画像は、実施の形態1で説明したカメラアイコン「カメラ2」に相当する撮像装置20によって撮像された撮像画像が2次元投影画像の所定領域に合成されたものである。以下、図17Aに示す合成画像において、ユーザ操作により右方向にドラッグ操作された場合の画面遷移を図17Bに示し、ユーザ操作により上方向にドラッグ操作された場合の画面遷移を図17Cに示す。
図17Aにおいて、右方向にドラッグ操作された場合に、切替指示部127は、ドラッグ操作の方向(右方向)と距離とに基づき、カメラアイコン「カメラ2」に相当する撮像装置20のズームレンズの焦点距離と、撮像方向の移動方向及び移動角度とを算出し、カメラのズームレンズの焦点距離、カメラの向きを左方向にする旨、移動角度等を該撮像装置20に対して指示する。ズームレンズの焦点距離や移動方向、移動角度については、上述したように、ドラッグ操作の方向や距離、ホイール操作又はピンチ操作をそれぞれ換算して求められる。ドラッグ操作の方向とカメラの移動方向とは反対の方向とする。この後、合成部125は、撮像装置20から受信された新たなパン情報、チルト情報及びズーム情報に応じた2次元投影画像を生成し、生成した2次元投影画像の所定領域に、このときの撮像画像を合成することにより、図17Bに示す合成画像を生成する。
また、図17Aにおいて、上方向にドラッグ操作された場合に、切替指示部127は、ドラッグ操作の方向(上方向)と距離とに基づき、カメラアイコン「カメラ2」に相当する撮像装置20の撮像方向の移動方向及び移動角度を算出し、カメラの向きを下方向にする旨、移動角度等を該撮像装置20に対して指示する。この場合はズームレンズの焦点距離に関する操作はないので、ズームレンズの焦点距離の変更の指示は行なわれない。移動方向や移動角度については、上述したように、ドラッグ操作の方向や距離、ホイール操作又はピンチ操作をそれぞれ換算して求められる。この後、合成部125は、撮像装置20から受信された新たなパン情報、チルト情報及びズーム情報に応じた2次元投影画像を生成し、生成した2次元投影画像の所定領域に、このときの撮像画像を合成することにより、図17Cに示す合成画像を生成する。
[実施の形態4に係る全体処理フロー]
次に、図18を用いて、実施の形態4に係る全体処理の流れについて説明する。図18は、実施の形態4に係る全体処理の流れの例を示すフローチャートである。なお、図18では、図7に示した実施の形態1に係る全体処理と同様の処理についてはその説明を省略する場合がある。具体的には、ステップS401〜ステップS406における処理は、ステップS101〜ステップS106における処理と同様である。
例えば、図18に示すように、画像処理装置10の操作部121が、合成画像上でカメラの撮像方向等を切り替える操作を受け付けた場合に(ステップS407肯定)、ドラッグ操作に応じて切替指示部127によって算出された撮像方向の移動方向、ズームレンズの焦点距離及び撮像方向の移動角度が撮像装置20に送信された後、合成部125は、該撮像装置20から受信したパン情報、チルト情報及びズーム情報に基づいて2次元投影画像を生成し、生成した2次元画像の所定領域に、選択されているカメラアイコンに対応する撮像装置20の撮像画像を合成した合成画像を生成する(ステップS408)。そして、出力部126は、合成画像を表示画面に表示する(ステップS409)。一方、操作部121が合成画像上でカメラの撮像方向等を切り替える操作を受け付けていない場合に(ステップS407否定)、処理が終了される。
[実施の形態4に係る画像処理フロー]
次に、図19を用いて、実施の形態4に係る画像処理の流れについて説明する。図19は、実施の形態4に係る画像処理の流れの例を示すフローチャートである。なお、実施の形態4に係る画像処理とは、主にステップS408における処理を指す。
例えば、図19に示すように、操作部121におけるユーザ操作により、カメラアイコンが選択された状態において、ドラッグ操作又はピンチ操作(ホイール操作)が受け付けられると、切替指示部127は、ドラッグ操作であるか否かを判定する(ステップS501)。このとき、ドラッグ操作である場合に(ステップS501肯定)、切替指示部127は、合成画像上でのドラッグ距離に応じた撮像装置20に対する撮像方向の移動方向及び移動角度を算出する(ステップS502)。一方、ピンチ操作である場合に(ステップS501否定)、切替指示部127は、合成画像上でのピンチ距離に応じた撮像装置20に対するズームレンズの焦点距離を算出する(ステップS503)。撮像方向の移動方向はドラッグ操作の方向と反対方向とする。撮像方向の移動角度は、一つの様態として、ドラッグ操作の距離(ピクセル)を撮像方向の移動角度(度)に換算することで求められる。また、ズームレンズの焦点距離は、一つの様態として、ピンチ操作又はホイール操作をズームレンズの焦点距離に換算することで求められる。
そして、切替指示部127は、通信処理部122を介して、ズームレンズの焦点距離と撮像方向の移動方向及び移動角度等を制御信号として撮像装置20に対して送信することにより、ズームレンズの焦点距離と撮像方向とを切り替える指示を該撮像装置20に対して行なう(ステップS504)。この後、通信処理部122によって、選択されているカメラアイコンに相当する撮像装置20から撮像画像、パン情報、チルト情報及びズーム情報が受信された場合に(ステップS505肯定)、合成部125は、制御部124を介して、取得部123によって取得された撮像画像、パン情報、チルト情報及びズーム情報を取得するとともに、3次元モデル、アイコン、アイコン位置(カメラ位置)を3次元モデル記憶部111から取得する。一方、通信処理部122は、撮像装置20から撮像画像、パン情報、チルト情報及びズーム情報が受信されない場合に(ステップS505否定)、これら撮像画像、パン情報、チルト情報及びズーム情報の受信待ちの状態となる。
そして、合成部125は、カメラ位置、パン情報、チルト情報及びズーム情報に基づいて3次元モデルに対する視点、注視点及び画角を決定する。続いて、合成部125は、決定した視点、注視点及び画角に基づいて、3次元モデルデータから2次元投影画像を生成する(ステップS506)。このとき、合成部125は、アイコン位置をもとに各アイコンを2次元投影画像に配置するとともに、カメラアイコン付近に設定されたポップアップに、カメラアイコンに相当する撮像装置20によって撮像された撮像画像を合成する。その後、合成部125は、生成した2次元投影画像上の所定領域に撮像画像を合成することにより、合成画像を生成する(ステップS507)。
上述したように、画像処理装置10は、合成画像上でのユーザによるドラッグ操作によって撮像装置20のズームレンズの焦点距離や撮像方向を指示し、指示に応じた撮像装置20による撮像のズームレンズの焦点距離や撮像方向に応じた2次元投影画像を生成し、生成した2次元投影画像の所定領域に撮像画像を合成して出力する。この結果、合成画像の閲覧者は、簡単なユーザ操作により撮像装置20のカメラ切り替えを行なうことができるとともに、カメラによって撮像されている領域を直感的に把握することができる。
[実施の形態4の変形例]
実施の形態4では、合成画像上でのユーザによるドラッグ操作に応じて撮像装置20の撮像方向等を指示し、撮像装置20から受信された撮像方向等をもとに合成画像を生成する場合を説明したが、合成画像上でのユーザによるドラッグ操作に応じて2次元投影画像を生成し、撮像装置20から撮像方向等が受信されるよりも先に表示しておくこともできる。具体的には、合成画像上でのユーザによるドラッグ操作に応じて2次元投影画像を生成し、生成した2次元投影画像を表示しておき、その後、撮像装置20から受信された撮像方向等に応じて生成した2次元投影画像の所定領域に撮像画像を合成して表示する。
図20は、実施の形態4の変形例に係る画像処理の流れの例を示すフローチャートである。例えば、図20に示すように、操作部121におけるユーザ操作により、カメラアイコンが選択された状態において、ドラッグ操作又はピンチ操作(ホイール操作)が受け付けられると、切替指示部127は、ドラッグ操作であるか否かを判定する(ステップS601)。このとき、ドラッグ操作である場合に(ステップS601肯定)、切替指示部127は、合成画像上でのドラッグ距離に応じた撮像装置20に対する撮像方向の移動方向と移動角度とを算出する(ステップS602)。一方、ピンチ操作である場合に(ステップS601否定)、切替指示部127は、合成画像上でのピンチ距離に応じた撮像装置20に対するズームレンズの焦点距離を算出する(ステップS603)。撮像方向の移動方向はドラッグ操作の方向と反対方向とする。撮像方向の距離は、一つの様態として、ドラッグ操作の距離(ピクセル)を撮像方向の移動角度(度)に換算することで求められる。また、ズームレンズの焦点距離は、一つの様態として、ピンチ操作又はホイール操作をズームレンズの焦点距離に換算することで求められる。
ここで、切替指示部127は、算出したズームレンズの焦点距離と、撮像方向の移動方向及び移動角度に応じた2次元投影画像を生成する指示を合成部125に対して行なう。これにより、合成部125は、ズームレンズの焦点距離と、撮像方向の移動方向及び移動角度とに応じた2次元投影画像を生成する(ステップS604)。この時点で、合成部125によって生成された2次元投影画像は、出力部126によって画面に表示される。
そして、切替指示部127は、通信処理部122を介して、ズームレンズの焦点距離と撮像方向の移動方向及び移動角度等を制御信号として撮像装置20に対して送信することにより、撮像方向とズームレンズの焦点距離とを切り替える指示を該撮像装置20に対して行なう(ステップS605)。また、操作部121でのユーザ操作において、所定時間の間、ドラッグ操作又はピンチ操作がされなかった場合に(ステップS606肯定)、切替指示部127は、通信処理部122を介し、撮像装置20に対して撮像画像、パン情報、チルト情報及びズーム情報を送信する要求を行なう(ステップS607)。一方、操作部121でのユーザ操作(ドラッグ操作又はピンチ操作)が、所定時間内に行なわれた場合に(ステップS606否定)、再度ステップS601の処理が行なわれる。ユーザによるドラッグ操作又はピンチ操作等のユーザ操作では、微調整が行なわれる場合があるため、所定時間を経過してもドラッグ操作が連続して行なわれない場合には、その時点での調整が確定したこととして、後段の処理を実行する。換言すると、ドラッグ操作又はピンチ操作のユーザ操作が行なわれている間は、ユーザがどの方向から監視したいかが定まっていないことになるため、所定時間が経過したときにユーザ操作が行なわれていなければ、ユーザが現在の方向から監視したいと考えているとみなして、後段の処理を実行する。
続いて、切替指示部127は、撮像画像、パン情報、チルト情報及びズーム情報の送信要求を、選択されているカメラアイコンに相当する撮像装置20に対して行なう(ステップS607)。この時点では、撮像装置20は、ステップS605において送信された情報をもとに動作している。この後、通信処理部122によって、選択されているカメラアイコンに相当する撮像装置20から撮像画像、パン情報、チルト情報及びズーム情報が受信された場合に(ステップS608肯定)、合成部125は、制御部124を介して、取得部123によって取得された撮像画像、パン情報、チルト情報及びズーム情報を取得するとともに、3次元モデル、アイコン、アイコン位置(カメラ位置)を3次元モデル記憶部111から取得する。一方、通信処理部122は、撮像装置20から撮像画像、パン情報、チルト情報及びズーム情報が受信されない場合に(ステップS608否定)、これら撮像画像、パン情報、チルト情報及びズーム情報の受信待ちの状態となる。
そして、合成部125は、カメラ位置、パン情報、チルト情報及びズーム情報に基づいて3次元モデルの視点、注視点及び画角を決定する。続いて、合成部125は、決定した視点、注視点及び画角に基づいて、3次元モデルデータから2次元投影画像を生成する(ステップS609)。このとき、合成部125は、アイコン位置をもとに各アイコンを2次元投影画像に配置するとともに、カメラアイコン付近に設定されたポップアップに、カメラアイコンに相当する撮像装置20によって撮像された撮像画像を合成する。その後、合成部125は、生成した2次元投影画像上の所定領域に撮像画像を合成することにより、合成画像を生成する(ステップS610)。
つまり、画像処理装置10は、撮像装置20からの情報をもとにして2次元投影画像を生成するよりも先に、合成画像上でのユーザによるドラッグ操作に応じた2次元投影画像を生成及び表示するので、撮像装置20のカメラの切り替え位置をある程度ユーザが所望する位置に一致させることができるとともに、カメラの切り替えに係る操作性を向上することができる。
(実施の形態5)
実施の形態2では、所定物を透過させることで建物等の裏に隠れてしまうカメラアイコン等の選択を可能とする場合を説明したが、カメラアイコンが選択された状態において、選択されているカメラアイコンを軸とし、合成画像を回転させることにより出現するカメラアイコン等を選択可能とすることもできる。そこで、実施の形態5では、カメラアイコンが選択された状態において、選択されているカメラアイコンを軸とし、合成画像を回転させることにより出現するカメラアイコン等を選択可能とする場合を説明する。
[実施の形態5に係る画像処理フロー]
図21は、実施の形態5に係る画像処理の流れの例を示すフローチャートである。なお、実施の形態5に係る画像処理とは、主にステップS408における処理を指す。
例えば、図21に示すように、合成部125は、選択されているカメラアイコンを軸として、操作部121におけるユーザのドラッグ操作に応じて合成画像を回転させる(ステップS701)。但し、合成画像の回転範囲は、制限が設けられる場合がある。また、回転する合成画像は、ドラッグの方向やドラッグ距離等に応じて適宜生成及び表示される。また、操作部121でのユーザ操作において、所定時間内に現在選択されているカメラアイコンとは異なる他のカメラアイコンが選択されなかった場合に(ステップS702否定)、切替指示部127は、合成画像上でのドラッグ距離に応じた撮像装置20に対する撮像方向の距離を算出する。また、切替指示部127は、ピンチ操作(ホイール操作)が行なわれた場合にも、合成画像上でのピンチ距離に応じた撮像装置20に対するズームレンズの焦点距離を算出する。撮像方向の距離やズームレンズの焦点距離の算出は、実施の形態4と同様に行なわれれば良いため、ここではその詳細な説明を省略する。但し、撮像方向の距離やズームレンズの焦点距離等は、実際のカメラ(撮像装置20)では制限があるため、制限に応じて好適な値に変更される。
そして、切替指示部127は、通信処理部122を介して、ズームレンズの焦点距離と、撮像方向の移動方向及び移動角度等を制御信号として撮像装置20に対して送信することにより、撮像方向とズームレンズの焦点距離とを切り替える指示を該撮像装置20に対して行なう(ステップS703)。一方、操作部121において、所定時間内に現在選択されているカメラアイコンとは異なる他のカメラアイコンが選択された場合に(ステップS702肯定)、再度ステップS701の処理を実行する。
この後、通信処理部122によって、選択されているカメラアイコンに相当する撮像装置20から撮像画像、パン情報、チルト情報及びズーム情報が受信された場合に(ステップS704肯定)、合成部125は、制御部124を介して、取得部123によって取得された撮像画像、パン情報、チルト情報及びズーム情報を取得するとともに、3次元モデル、アイコン、アイコン位置(カメラ位置)を3次元モデル記憶部111から取得する。一方、通信処理部122は、撮像装置20から撮像画像、パン情報、チルト情報及びズーム情報が受信されない場合に(ステップS704否定)、これら撮像画像、パン情報、チルト情報及びズーム情報の受信待ちの状態となる。
そして、合成部125は、カメラ位置、パン情報、チルト情報及びズーム情報に基づいて3次元モデルの視点、注視点及び画角を決定する。続いて、合成部125は、決定した視点、注視点及び画角に基づいて、3次元モデルデータから2次元投影画像を生成する(ステップS705)。このとき、合成部125は、アイコン位置をもとに各アイコンを2次元投影画像に配置するとともに、カメラアイコン付近に設定されたポップアップに、カメラアイコンに相当する撮像装置20によって撮像された撮像画像を合成する。その後、合成部125は、生成した2次元投影画像上の所定領域に撮像画像を合成することにより、合成画像を生成する(ステップS706)。
上述したように、画像処理装置10は、合成画像上のカメラアイコンを軸として、ドラッグ操作に応じて回転させるので、合成画像の閲覧者は、回転前に合成画像に現れていないカメラアイコンの選択を容易に行なうことができる。また、画像処理装置10は、合成画像の回転において、所定時間が経過しても他のカメラアイコンが選択されなかった場合に、実施の形態4と同様に、カメラの撮像方向及びズームレンズの焦点距離の切り替えを指示するので、合成画像の閲覧者は、カメラによって撮像されている領域を直感的に把握することができる。
(実施の形態6)
実施の形態4では、ドラッグ操作によって撮像装置20の撮像方向やズームレンズの焦点距離を設定する場合を説明したが、ドラッグ距離に応じた速度で撮像方向に向けたカメラの動作速度をさらに設定することもできる。そこで、実施の形態6では、ドラッグ距離に応じた速度で撮像方向に向けたカメラの動作速度をさらに設定する場合を説明する。
[実施の形態6に係る画面遷移]
図22及び図23を用いて、実施の形態6に係る画面遷移について説明する。図22は、実施の形態6に係る基点を決定する例を示すイメージ図である。図23は、実施の形態6に係るドラッグ距離に応じたカメラ動作速度を設定する例を示すイメージ図である。
図22に示すように、操作部121でのユーザ操作において、合成画像上でマウスダウン又はタッチダウンされた場合に、切替指示部127は、マウスダウン又はタッチダウンされた合成画像上の位置を基点として決定する。マウスダウン又はタッチダウンの後、操作部121でのユーザ操作においてドラッグ操作された場合に、図23に示すように、切替指示部127は、ドラッグ方向と反対方向を撮像方向の移動方向とし、撮像方向の移動方向にカメラを動作させるときの移動速度を、ドラッグ距離に応じた速度に設定する。
例えば、図23に示すように、基点からの距離に応じて、カメラのパン、チルト動作が段階的に速くなる範囲を予め設定しておく。そして、切替指示部127は、マウスダウン又はタッチダウンにより決定された基点から、ドラッグ距離に応じて段階的に設定された速度に基づき、撮像方向の移動方向にカメラを動作させるときの移動速度を設定する。図23に示す例において、設定される移動速度の範囲は、基点に近傍の範囲であれば動かさないように設定され、近傍の範囲を抜けてから段階的に「低速」、「中速」、「高速」となるように設定されている。「低速」、「中速」、「高速」それぞれに応じたカメラの移動速度は、任意に設定されれば良い。また、図23に示す速度の範囲は、任意に変更することが可能であり、その表示をさせなくても良い。
[実施の形態6に係る画像処理フロー]
次に、図24を用いて、実施の形態6に係る画像処理の流れについて説明する。図24は、実施の形態6に係る画像処理の流れの例を示すフローチャートである。なお、実施の形態6に係る画像処理とは、主にステップS408における処理を指す。
例えば、図24に示すように、操作部121におけるユーザ操作により、合成画面上でマウスダウン又はダッチダウンされた場合に、切替指示部127は、マウスダウン又はタッチダウンされた合成画像上の位置を基点として決定する(ステップS801)。そして、操作部121においてドラッグ操作が行なわれると、切替指示部127は、決定した基点からのドラッグ距離に応じた移動速度を決定する(ステップS802)。
ここで、切替指示部127は、決定した撮像方向の移動方向と移動速度と、撮像装置20に対して現在行なわれている指示とが異なるか否かを判定する(ステップS803)。このとき、切替指示部127は、決定した撮像方向の移動方向及び移動速度と、現在行なわれている指示とが異なると判定した場合に(ステップS803肯定)、通信処理部122を介して、決定した撮像方向の移動方向と移動速度とを送信することにより、撮像装置20に対して撮像方向を切り替える指示を行なう(ステップS804)。一方、切替指示部127は、決定した撮像方向の移動方向及び移動速度と、現在行なわれている指示とが同じであると判定した場合に(ステップS803否定)、再度ステップS802の処理を実行する。
この後、通信処理部122によって、選択されているカメラアイコンに相当する撮像装置20から撮像画像、パン情報及びチルト情報が受信された場合に(ステップS805肯定)、合成部125は、制御部124を介して、取得部123によって取得された撮像画像、パン情報、チルト情報を取得するとともに、3次元モデル、アイコン、アイコン位置(カメラ位置)を3次元モデル記憶部111から取得する。一方、通信処理部122は、撮像装置20から撮像画像及び撮像方向が受信されない場合に(ステップS805否定)、これら撮像画像及び撮像方向の受信待ちの状態となる。
そして、合成部125は、カメラ位置、パン情報及びチルト情報に基づいて3次元モデルの視点及び注視点を決定する。続いて、合成部125は、決定した視点、注視点及び予め設定された画角に基づいて、3次元モデルデータから2次元投影画像を生成する(ステップS806)。このとき、合成部125は、アイコン位置をもとに各アイコンを2次元投影画像に配置するとともに、カメラアイコン付近に設定されたポップアップに、カメラアイコンに相当する撮像装置20によって撮像された撮像画像を合成する。その後、合成部125は、生成した2次元投影画像上の所定領域に撮像画像を合成することにより、合成画像を生成する(ステップS807)。
上述したように、画像処理装置10は、合成画像上でのユーザによるドラッグ操作によって撮像装置20の撮像方向やカメラ動作の速度を指示し、指示に応じた撮像装置20による撮像の撮像方向に応じた2次元投影画像を生成し、生成した2次元投影画像の所定領域に撮像画像を合成して出力する。この結果、合成画像の閲覧者は、簡単なユーザ操作により撮像装置20のカメラ切り替えを行なうことができるとともに、カメラによって撮像されている領域を直感的に把握することができる。
(実施の形態7)
実施の形態4では、ドラッグ操作によって撮像装置20のズームレンズの焦点距離や撮像方向の移動方向及び移動速度を設定する場合を説明したが、ドラッグ速度に応じた速度で撮像方向の移動方向に向けたカメラの移動速度をさらに設定することもできる。そこで、実施の形態7では、ドラッグ速度に応じて撮像方向の移動方向に向けたカメラの移動速度をさらに設定する場合を説明する。
[実施の形態7に係る画像処理]
図25及び図26を用いて、実施の形態7に係る画像処理について説明する。図25は、実施の形態7に係る基点を決定する例を示すイメージ図である。図26は、実施の形態7に係るドラッグ速度に応じたカメラ動作速度を設定する例を示すイメージ図である。
図25に示すように、操作部121でのユーザ操作において、合成画像上でマウスダウン又はタッチダウンされた場合に、切替指示部127は、マウスダウン又はタッチダウンされた合成画像上の位置を基点として決定する。マウスダウン又はタッチダウンの後、操作部121でのユーザ操作においてドラッグ操作された場合に、切替指示部127は、ドラッグ方向と反対方向を撮像方向の移動方向とし、撮像方向の移動方向にカメラを動作させるときの移動速度を、ドラッグの速度に応じた速度に設定する。例えば、図26に示すように、矢印のようなドラッグが行なわれた場合、ドラッグ操作の「基点」、「基準点」、「現在点」を図26に示すように設定する。ドラッグ操作された場合に、切替指示部127は、基点から現在点までの方向に基づき撮像方向の移動方向を設定し、基準点から現在点までの距離から算出したドラッグの速度とに基づき、撮像方向の移動方向にカメラを動作させるときの移動速度を設定する。
[実施の形態7に係る画像処理フロー]
次に、図27を用いて、実施の形態7に係る画像処理の流れについて説明する。図27は、実施の形態7に係る画像処理の流れの例を示すフローチャートである。なお、実施の形態7に係る画像処理とは、主にステップS408における処理を指す。
例えば、図27に示すように、操作部121におけるユーザ操作により、合成画面上でマウスダウン又はタッチダウンされた場合に、切替指示部127は、マウスダウン又はタッチダウンされた合成画像上の位置を基点として決定する(ステップS901)。また、切替指示部127は、所定の時間ごとに合成画像上の位置を算出し、最新の位置を現在点、ひとつ前の位置を基準点として設定する。そして、切替指示部127は、基点から現在点までの方向に応じて、撮像方向の移動方向を決定する。さらに、基準点と現在点との距離を所定の時間で割ることで、ドラッグの速度を算出し、ドラッグの速度に応じて移動速度を設定する(ステップS902)。
ここで、切替指示部127は、決定した撮像方向の移動方向及び移動速度と、撮像装置20に対して現在行なわれている指示とが異なるか否かを判定する(ステップS903)。このとき、切替指示部127は、設定した撮像方向の移動方向及び移動速度と、現在行なわれている指示とが異なると判定した場合に(ステップS903肯定)、通信処理部122を介して、設定した撮像方向の移動方向及び移動速度を送信することにより、撮像装置20に対して撮像方向の切り替えの指示を行なう(ステップS904)。一方、切替指示部127は、設定した撮像方向の移動方向及び移動速度と、現在行なわれている指示とが同じであると判定した場合に(ステップS903否定)、再度ステップS902の処理を実行する。
この後、通信処理部122によって、選択されているカメラアイコンに相当する撮像装置20から撮像画像、パン情報及びチルト情報が受信された場合に(ステップS905肯定)、合成部125は、制御部124を介して、取得部123によって取得された撮像画像、パン情報、チルト情報を取得するとともに、3次元モデル、アイコン、アイコン位置(カメラ位置)を3次元モデル記憶部111から取得する。一方、通信処理部122は、撮像装置20から撮像画像、パン情報及びチルト情報が受信されない場合に(ステップS905否定)、これら撮像画像、パン情報及びチルト情報の受信待ちの状態となる。
そして、合成部125は、カメラ位置、パン情報及びチルト情報に基づいて3次元モデルの視点及び注視点を決定する。続いて、合成部125は、決定した視点、注視点及び予め設定された画角に基づいて、3次元モデルデータから2次元投影画像を生成する(ステップS906)。このとき、合成部125は、アイコン位置をもとに各アイコンを2次元投影画像に配置するとともに、カメラアイコン付近に設定されたポップアップに、カメラアイコンに相当する撮像装置20によって撮像された撮像画像を合成する。その後、合成部125は、生成した2次元投影画像上の所定領域に撮像画像を合成することにより、合成画像を生成する(ステップS907)。
上述したように、画像処理装置10は、合成画像上でのユーザによるドラッグ操作によって撮像装置20の撮像方向の移動方向及び移動速度を指示し、指示に応じた撮像装置20から送られるパン情報とチルト情報とに応じた2次元投影画像を生成し、生成した2次元投影画像の所定領域に撮像画像を合成して出力する。この結果、合成画像の閲覧者は、簡単なユーザ操作により撮像装置20のカメラの撮像方向の切り替えを行なうことができるとともに、カメラによって撮像されている領域を直感的に把握することができる。
(実施の形態8)
実施の形態1では、全監視エリアの2次元投影画像にカメラアイコンを配置し、カメラアイコンが選択された場合、選択されたカメラアイコンに対応するカメラ(撮像装置)が撮像した撮像画像を合成した合成画像を表示するものである。これに対し、本実施の形態では、複数の監視エリアが階層状に構成されており、いずれかの監視エリアの2次元投影画像から他の階層の監視エリアの選択が可能であるとともに、選択された監視エリアの2次元投影画像にカメラのうち当該監視エリアに対応付けられたカメラのみのカメラアイコンを配置して、カメラアイコンが選択された場合、選択されたカメラアイコンに対応するカメラが撮像した撮像画像を合成した合成画像を表示するものである。以下では、監視システムの構成、および撮像装置の構成は、実施の形態1と同様であるため説明を省略する。
[実施の形態8に係る画像処理装置の構成]
次に、実施の形態1における図3を用いて、実施の形態8に係る画像処理装置10の構成を説明する。画像処理装置10は、3次元モデル記憶部111と、視点情報記憶部112と、操作部121と、通信処理部122と、取得部123と、制御部124と、合成部125と、出力部126とを有する。画像処理装置10は、ネットワーク30を介して、撮像装置20等のネットワークカメラやセンサ40に接続されたPC等の情報処理装置である(図1参照)。ここで、通信処理部122および制御部124は実施の形態1と同様であるため説明を省略する。
3次元モデル記憶部111は、3次元モデル等を記憶する。図28は、3次元モデル記憶部111に記憶される情報例を示す図である。図28に示すように、3次元モデル記憶部111は、監視エリアの属する階層と、各監視エリアの3次元モデルデータと、デバイスIDと、アイコン種類IDと、アイコン位置とを対応付けて記憶する。ここで、デバイスIDと、アイコン種類IDと、アイコン位置の詳細については、実施の形態1と同様である。
3次元モデルデータとは、上述の各監視エリア(3次元領域)の3次元モデルを示すものである(図5参照)。本実施の形態では、複数の監視エリアが階層状に構成された階層構造となっており、複数の監視エリアそれぞれに対応する複数の3次元モデルデータを記憶している。
階層とは、各監視エリアが属している階層を示している。ここで、本実施の形態における監視エリアの階層構造について説明する。図29は、監視エリアの階層構造の説明図である。図29に示すように、本実施の形態では、監視エリアとして、全ての監視領域を示す全監視エリアと、全監視エリア内の建物であるモールの領域を示すモールエリアと、モール内の各フロアの領域を示す中央エリア、西2階エリア、西1階エリア、東2階エリア、および東1階エリアが設けられている。またこれらの監視エリアは3層の階層から構成されており、第一階層に全監視エリアが属し、第一階層の直下の階層である第二階層にモールエリアが属し、第二階層の直下の階層である第三階層に中央エリア、西2階エリア、西1階エリア、東2階エリア、および東1階エリアが属している。
図28に戻り、例を挙げると、3次元モデル記憶部111は、階層「第一階層」と、3次元モデルデータ「全監視エリア」と、カメラ1を示すデバイスID「#01」と、アイコン種類としてカメラを示すアイコン種類ID「A001」と、アイコン位置「(x1,y1,z1)」とを対応付けて記憶する。したがって、3次元モデル記憶部111を参照することにより、実施の形態1と同様に、各デバイスの配置位置を特定することができる。また、本実施の形態では、3次元モデル記憶部111を参照することにより、各監視エリアがいずれの階層に属しているかを判断することができる。
さらに、3次元モデル記憶部111は、図28に示すように、アイコン種類IDに対応付けて、各種アイコンの3次元パーツモデルを記憶する。詳細は実施の形態1と同様であるため説明を省略する。
視点情報記憶部112は、合成部125が3次元モデルデータから2次元投影画像を生成する際や、ユーザが監視エリアやカメラアイコン等を選択するために表示する選択画像を生成する際に利用する視点位置を記憶する。図30は、視点情報記憶部112に記憶される情報例を示す図である。視点情報記憶部112は、具体的には、全監視エリア、モールエリア、中央エリア、西2階エリア、西1階エリア、東2階エリア、および東1階エリアの2次元投影画像を生成する際に利用される視点位置と、カメラの配置位置から観察される監視エリアの2次元投影画像を生成する際に利用される視点位置とを、視点位置を識別する視点位置IDに対応付けて記憶する。
ここで、選択画像とは、いずれかの監視エリアの3次元モデルを2次元面に投影した2次元投影画像であって、投影された監視エリアと異なる階層、例えば直下や直上の階層などに属する監視エリアを選択することが可能な画像である。また、監視エリアにカメラが設置されている場合、選択画像は、カメラのうち当該監視エリアに対応付けられたカメラのみに対応するカメラアイコンが配置された監視エリアの2次元投影画像となり、カメラアイコンを選択することによってカメラ(撮像装置)を選択することが可能な画像である。
図30に戻り、例を挙げると、視点情報記憶部112は、第一階層に属する全監視エリアを示す視点位置ID「B001」と、視点位置「(x10,y10,z10)」とを対応付けて記憶する。また、視点情報記憶部112は、第三階層に属する中央エリアを示す視点位置ID「B003」と、視点位置「(x14,y14,z14)」とを対応付けて記憶する。また、視点情報記憶部112は、カメラ1を示す視点位置ID「B011」と、視点位置「(x11,y11,z11)」とを対応付けて記憶する。
操作部121は、マウスやタッチパネル等の入力装置を有し、監視システム1のユーザのユーザ操作によって各種指示を受け付ける。例えば、操作部121は、選択画像から、ユーザからのカメラ選択指示(カメラアイコンの選択)を受け付ける。また、操作部121は、ユーザ操作によって所定のカメラ(撮像装置20)が選択されると、選択された撮像装置20の撮像画像を出力する指示を受け付ける。また、操作部121は、ユーザ操作によって所定の撮像装置20に対するパン、チルト及びズームの設定指示を受け付ける。なお、パン、チルト及びズームの設定指示は、上述したパン、チルト及びズームに関する制御信号として、制御部124及び通信処理部122を介して撮像装置20に送信される。また、操作部121は、ユーザから処理を終了する旨を示す終了指示を受け付ける。
また、操作部121は、監視エリアが表示された選択画像から、選択画像に表示されている監視エリアとは異なる階層(他の階層)に属する監視エリアの選択を受け付けるものである。具体的には、操作部121は、監視エリアが表示された選択画像から、選択画像に表示されている監視エリアの属する階層の直下または直上の階層に属する監視エリアの選択を受け付ける。さらに、操作部121は、監視エリアが表示された選択画像から、選択画像に表示されている監視エリアの属する階層より下層または上層に属する監視エリアの選択を受け付ける。
また、操作部121は、選択画像にカメラアイコンが表示されている場合は、選択画像からカメラアイコンの選択を受け付ける。例えば、操作部121は、全監視エリアの2次元投影画像である選択画像が表示されている場合、当該選択画像から、直下の下層に属するモールエリアや、さらに下層に属する中央エリアや西2階エリア、全監視エリアに対応付けられたカメラのカメラアイコンの選択を受け付ける。なお、操作部121は、領域選択受付部およびカメラ選択受付部に相当する。
図31は、選択画像から選択可能な監視エリアまたはカメラアイコンを示す説明図である。図31に示すように、全監視エリアにモールエリアがあり、さらにカメラ1〜5が対応付けられている場合、全監視エリアの2次元投影画像である選択画像からはモールエリア、カメラ1〜5のカメラアイコンが選択可能となる。また、モールエリアに中央エリア、西2階エリア、西1階エリア、東2階エリア、および東1階エリアがあり、これらのエリアにカメラが対応付けられていない場合、モールエリアの2次元投影画像である選択画像からは中央エリア、西2階エリア、西1階エリア、東2階エリア、および東1階エリアが選択可能となる。
さらに、中央エリアにカメラ6、7が対応付けられている場合、中央エリアの2次元投影画像である選択画像からはカメラ6、7のカメラアイコンが選択可能となる。他の監視エリアである西2階エリア、西1階エリア、東2階エリア、東1階エリアについても同様である。
取得部123は、操作部121により選択画像からカメラアイコンの選択を受け付けた場合、選択されたカメラアイコンに対応するカメラ(撮像装置20)によって撮像された撮像画像や撮像方向としてのパン情報、チルト情報や、ズーム情報を、通信処理部122を介して撮像装置20から取得する。また、取得部123は、センサ40から検出データを取得する。なお、検出データには、センサ40の検出方向等に関する情報(パン情報、チルト情報等)が含まれていてもよい。
合成部125は、操作部121により選択画像からカメラアイコンの選択を受け付けた場合、選択画像に投影された監視エリアの3次元モデルの視点、及び選択されたカメラアイコンに対応するカメラ(撮像装置20)の撮像方向に応じた2次元投影画像を生成する。そして、合成部125は、生成した2次元投影画像の2次元画像領域に、選択されたカメラアイコンに対応するカメラ(撮像装置20)によって撮像された2次元画像である撮像画像を合成する。このとき、合成部125は、制御部124によって出力されたカメラアイコンやセンサアイコン等のアイコンもアイコン位置をもとに2次元投影画像に配置する。なお、撮像画像の合成およびアイコンの配置の詳細については、実施の形態1と同様である。
また、合成部125は、操作部121により選択画像から監視エリアの選択を受け付けた場合、選択された監視エリアの3次元モデルにおけるカメラアイコンやセンサアイコン等のアイコン位置(選択された監視エリアに配置されているカメラのカメラ位置やセンサのセンサ位置)にカメラアイコンやセンサアイコンを配置する。そして、合成部125は、視点情報記憶部112に記憶された監視エリア(選択された監視エリア)の3次元モデルの視点(視点位置)を取得し、該視点に応じて、カメラアイコンやセンサアイコンが配置された監視エリア(選択された監視エリア)の3次元モデルを2次元面に投影した2次元投影画像である選択画像を生成する。このとき、選択された監視エリアにカメラやセンサが対応付けられていない場合は、カメラアイコンやセンサアイコンは配置されない。
出力部126は、合成部125によって生成された合成画像を出力する。例えば、出力部126は、合成部125によって2次元投影画像に合成された各種アイコン、カメラアイコン付近の領域に合成された撮像画像、又は、重畳された2次元画像領域に合成された撮像画像等を含む合成画像を出力する。また、出力部126は、合成部125によって生成された選択画像を出力する。なお、出力部126は、合成画像や選択画像を表示する表示装置であっても良いし、画像処理装置10に接続された表示装置に合成画像や選択画像を出力しても良い。
[実施の形態8に係る全体処理フロー]
次に、図32を用いて、実施の形態8に係る全体処理の流れについて説明する。図32は、実施の形態8に係る全体処理の流れの例を示すフローチャートである。
ここで、ステップS2001〜ステップS2009は、実施の形態4における図18の処理と同様であるため、説明を省略する(ステップS401〜ステップS409参照)。その際、ステップS2001〜ステップS2003において、実施の形態4における初期画像を選択画像に置き換える。また、ステップS2007の判断が否定であった場合、ステップS2013の処理に進む。
ステップS2004において、操作部121により選択画像からカメラアイコンの選択を受け付けなかった場合(ステップS2004否定)、制御部124は、操作部121により選択画像から監視エリアの選択を受け付けたか否かを判断する(ステップS2010)。
選択画像から監視エリアの選択を受け付けた場合(ステップS2010肯定)、合成部125は、選択された監視エリアの2次元投影画像である選択画像を生成する(ステップS2011)。そして、出力部126は、選択画像を表示画面に表示する(ステップS2012)。一方、選択画像から監視エリアの選択を受け付けなかった場合(ステップS2010否定)、ステップS2013の処理に進む。
次に、制御部124は、操作部121により処理を終了する旨を示す終了指示を受け付けたか否かを判断する(ステップS2013)。終了指示を受け付けた場合(ステップS2013肯定)、処理を終了する。一方、終了指示を受け付けなかった場合(ステップS2013否定)、ステップS2004の処理に戻る。なお、例えば、ユーザが終了指示を入力するためのアイコン等は、選択画像に表示されているものとする。
また、実施の形態4において説明した初期画像は選択画像のうちの1つの画像であり、ステップS2010において、ユーザにより監視エリアとして全監視エリアが選択された場合には、ステップS2011において、初期画像に相当する全監視エリアの2次元投影画像である選択画像が表示される。このように監視エリアの選択を繰り返すことで、階層構造の監視エリアを順次切り替えて表示することができる。
また、選択画像において一つ前の処理における選択画像に戻る旨を示す選択可能なアイコン等を表示しておき、当該アイコンの選択を受け付けた場合に一つ前の処理における選択画像を表示する(戻る)。また、選択画像が表示される表示画面の隅などに、各監視エリアを示す選択可能なアイコン等を表示しておき、表示されたいずれかの監視エリアのアイコンの選択を受け付けた場合に、選択されたアイコンに対応する監視エリアの2次元投影画像である選択画像を生成して、生成した選択画像を表示する。これにより、選択画像に表示された監視エリアの直下の監視エリアだけでなく、直上、上層および下層の監視エリアを選択することが可能となる。
[実施の形態8に係る初期画像生成処理フロー]
次に、図33を用いて、実施の形態8に係る選択画像生成処理の流れについて説明する。図33は、実施の形態8に係る選択画像生成処理の流れの例を示すフローチャートである。なお、実施の形態8に係る選択画像生成処理とは、ステップS2011における処理を指す。
図33に示すように、画像処理装置10の合成部125は、選択された監視エリアの3次元モデルデータを3次元モデル記憶部111から取得する(ステップS2021)。合成部125は、3次元モデル記憶部111を参照し、選択された監視エリアの3次元モデルに対応付けられているデバイス(カメラまたはセンサ)があるか否かを判断する(ステップS2022)。対応付けられているデバイスがない場合(ステップS2022否定)、アイコンの合成を行わずステップS2028の処理に進む。
一方、対応付けられているデバイスがある場合(ステップS2022肯定)、合成部125は、3次元モデル記憶部111を参照し、選択された監視エリアの3次元モデルに対応付けられている各デバイスの配置位置、すなわち各アイコンと該各アイコンのアイコン位置とを取得する(ステップS2023)。
次に、合成部125は、対応付けられたデバイスにカメラ(撮像装置20)があるか否かを判断する(ステップS2024)。対応付けられたデバイスにカメラがない場合(ステップS2024否定)、ステップS2027の処理に進む。
一方、対応付けられたデバイスにカメラがある場合(ステップS2024肯定)、合成部125は、各撮像装置20によって送信されたカメラの撮像方向を、通信処理部122、取得部123および制御部124を介して取得する(ステップS2025)。
その後、合成部125は、取得した撮像方向から、各カメラアイコンの向きを特定する(ステップS2026)。そして、合成部125は、3次元モデルの各アイコン位置に、各デバイス(カメラのみ、またはカメラとセンサ)のアイコンを合成する(ステップS227)。このとき、合成部125は、カメラアイコンについては、ステップS2026において特定した向きにカメラアイコンのレンズを向けた状態で、3次元モデル内にカメラアイコンを配置する。但し、センサ40等の向きを持たないデバイスに関しては、その向きが特に考慮されることなく3次元モデル内の該当するアイコン位置に、アイコンが合成される。
そして、合成部125は、視点情報記憶部112から、選択された監視エリアの視点位置IDに対応付けられている視点位置を取得する(ステップS2028)。続いて、合成部125は、取得した視点位置と、予め設定された注視点および画角に基づいて3次元モデルを投影面(2次元面)に投影する等、任意の手法でレンダリングを行なうことにより、2次元投影画像を生成し、生成した2次元投影画像を選択画像とする(ステップS2029)。なお、かかる選択画像には、図9に示すように、2次元投影画像中の各カメラアイコン付近に設定されたポップアップ領域に、各カメラアイコンに対応する撮像装置20によって撮像された撮像画像が合成されている。
このように、実施の形態8にかかる画像処理装置は、各監視エリアが階層状に構成されており、いずれかの監視エリアの2次元投影画像である選択画像から他の階層の監視エリアの選択が可能である。また、選択された監視エリアに対応付けられたカメラのカメラアイコンのみを表示するので、多くのカメラアイコンが同時に表示されることがない。さらに、選択された監視エリアの2次元投影画像である選択画像からカメラアイコンが選択された場合、選択されたカメラアイコンに対応するカメラが撮像した撮像画像を合成した合成画像を表示する。従って、3次元空間である監視エリアに設置されたカメラの位置を2次元画像で直感的に把握しやすく、操作性を向上させることができる。
(実施の形態9)
次に、実施の形態9にかかる画像処理装置10について説明する。上述の実施の形態1〜8にかかる画像処理装置10は、選択画像(初期画像)としての二次元投影画像を生成する際には、視点情報記憶部112において、処理対象となる監視エリアに対応付けられている視点位置を特定し、この視点位置と予め設定された注視点および画角に基づいて、処理対象となる監視エリアの3次元モデルデータに基づいて2次元投影画像を生成したが、本実施の形態にかかる画像処理装置10は、さらに、ユーザからの指示にしたがい、処理対象となる監視エリアの3次元モデルデータから2次元投影画像を生成する際に用いる視点位置を適宜変更することができる。
図34は、実施の形態9にかかる画像処理装置10の処理を説明するための図である。図34は、初期画像に相当する全監視エリアの2次元投影画像である。ここで、全監視エリアの3次元モデルの鉛直方向をz軸、鉛直方向に水平な面である水平面の所定の方向をx軸、x軸に垂直な方向をy軸と定めることとする。
3次元モデルに対する視点や注視点の位置は自由に設定することができるが、実施の形態9にかかる画像処理装置10においては、視点として設定可能な位置の範囲を制限すべく、設定可能な位置の範囲である視点範囲を3次元モデル記憶部111に予め設定しておくこととする。本実施の形態にかかる画像処理装置10に設定されている視点範囲は、3次元モデル上に配置された回転軸を中心とし、半径を所定値とする所定の回転角度範囲に相当する円弧の範囲である。
例えば、全監視エリアについては、画像処理装置10は、図34に示すように、z軸を回転軸とし、所定の回転角度範囲内で視点位置を円弧に沿って変更した状態の2次元投影画像を生成および出力することができ、さらに、y軸を回転軸とし、同様に所定の回転角度範囲内で視点位置を円弧に沿って変更した状態の2次元投影画像を生成および出力することができる。
実施の形態9にかかる画像処理装置10においては、操作部121は、ユーザ操作に応じて、視点位置の変更指示を受け付ける。すなわち、操作部121は、変更指示受付部として機能する。合成部125は、3次元モデル記憶部111に記憶されている3次元モデルおよび視点情報記憶部112に記憶されている視点位置等に基づいて、操作部121が受け付けた変更指示に示される視点位置に基づいて視点位置を変更し、変更後の視点に基づいて、3次元モデルを描画した2次元投影画像を生成する。すなわち、合成部125は、視点位置変更部および生成部として機能する。
図35は、画像処理装置10の3次元モデル記憶部111に記憶される情報例を示す図である。図35に示すように、本実施の形態の3次元モデル記憶部111は、3次元モデルデータに対応付けて、さらに視点範囲を記憶する。すなわち、3次元モデル記憶部111は、3次元モデル記憶部および視点範囲記憶部に相当する。ここで、視点範囲は、z軸およびy軸それぞれに対する回転軸位置、半径および回転角度範囲を含んでいる。回転軸位置は、3次元モデル内の回転軸の位置である。半径は、視点と注視点の間の距離に相当する値である。回転角度範囲は、視点範囲に対応する回転軸回りの回転角度である。本実施の形態においては、回転角度範囲は、第8の実施の形態において図30を参照しつつ説明した、視点情報記憶部112において各監視エリアに対応付けられている視点位置を基準とし、プラス方向およびマイナス方向にそれぞれ設定されている。
以上、回転軸位置、半径、回転角度範囲および視点位置に基づいて、視点範囲を特定することができる。すなわち、3次元モデル記憶部111は、視点範囲として、回転軸位置、半径および回転角度範囲を記憶している。
なお、3次元モデル記憶部111は、このように、視点範囲を定めるための係数を記憶するのにかえて、他の例としては、視点範囲内の設定可能な視点位置の座標を複数記憶することとしてもよい。カメラを選択していない状態で操作部121のピンチ操作により視点位置の原点からの距離の変更を許可する場合、3次元モデル記憶部111は、回転軸を中心とした半径を変更し、半径の範囲を更に視点範囲として記憶してもよい。このように、3次元モデル記憶部111は、視点位置として設定可能な座標を特定可能な情報を視点範囲として記憶していればよく、視点範囲の具体的な情報は実施の形態に限定されるものではない。
視点情報記憶部112に記憶されている回転軸位置は、例えば3次元モデルが存在しない空白領域を含む2次元投影画像など、ユーザにとって3次元モデルを把握し難い2次元投影画像が生成および表示されることのないような値である。回転軸位置は、このような観点で、予め設計者等により決定され、視点情報記憶部112に登録されているものとする。
また、視点情報記憶部112に記憶されている回転角度範囲は、例えば全監視エリアの3次元モデルの地面の裏側のように、ユーザから閲覧されることを想定していない位置から観察される2次元投影画像が生成および表示されるような回転角度を除外した範囲である。回転角度範囲は、設計者等により予め決定され、視点情報記憶部112に登録されているものとする。
このように、本実施の形態の画像処理装置10においては、3次元モデルの設計者等がユーザに閲覧させることを想定していない観察方向に投影される2次元投影画像が生成されないような視点範囲が予め設定されているので、設計者等が想定する2次元投影画像のみをユーザに提供することができる。
図36A〜図36Cは、視点位置が変更された場合に描画される2次元投影画像を示す図である。図36A〜図36Cは、いずれも図34に示す全監視エリアの2次元投影画像の視点位置を3次元モデル記憶部111において、全監視エリアに対応付けて記憶されているz軸を基準とする視点範囲内の視点位置で描画された2次元投影画像である。
図36Aは、図34に示す2次元投影画像の視点位置を、3次元モデルの上方からz軸方向に3次元モデルを見た状態で、z軸を軸として時計周りに90°回転させた後の視点位置で3次元モデルを描画した2次元投影画像である。図36Bは、図36Aに示す2次元投影画像の視点位置をさらに時計回りに90°回転させた後の視点位置で3次元モデルを描画した2次元投影画像である。図36Cは、同様に図36Bに示す2次元投影画像を90°回転させた後の視点位置で3次元モデルを描画した2次元投影画像である。
図37は、全監視エリアに対するy軸を回転軸とする視点範囲を説明するための図である。図37に示すように、y軸の視点範囲に対応する回転角度範囲は、3次元モデルのz軸のプラスの方向に40°を上限、z軸のマイナスの方向に20°を下限に設定されている。下側から覗き込むようにして監視エリアの位置関係を把握するため、y軸を中心にマイナス方向に視点位置を回転させる場合があるが、大きくマイナス方向に回転させると地下から見上げるような状態になってしまい、かえって位置関係が把握しづらくなる。そのため、マイナス方向の回転角度範囲はプラス方向の回転角度範囲よりも小さい値を設定している。
図38Aおよび図38Bは、y軸を回転軸とする視点範囲で視点位置が変更された場合に描画される2次元投影画像を示す図である。図38Aに示すy軸を回転軸としてマイナスの方向に20°回転させた場合に、図38Bに示すような2次元投影画像が得られる。
なお、本実施の形態にかかる画像処理装置10においては、説明の便宜上、いずれの監視エリアに対する視点範囲もz軸およびy軸を回転軸とする範囲としたが、視点範囲の基準となる回転軸の方向、位置および数は実施の形態に限定されるものではない。例えば、xyzの3軸以外の方向に延びる回転軸を設定してもよい。また、回転軸の数は、1つでもよく、また3つ以上であってもよい。
図39は、実施の形態9にかかる画像処理装置10のフローチャートである。なお、図39に示すステップS3001〜ステップS3013までの処理は、実施の形態8にかかるステップS2001〜ステップS2013の処理と同様である。
実施の形態9にかかる画像処理装置10においては、例えば、図34に示す全監視エリアの二次元投影画像など選択画像が表示された状態で、ユーザは操作部121の操作により視点位置の変更を入力することができる。具体的には、例えば表示画面に表示されたカーソルをマウス等で移動させることにより、視点位置の変更方向を指定する。さらに、移動速度に応じた速度で視点位置の移動距離を指定する。
操作部121がユーザ操作に応じて視点位置の変更指示を受け付けると(ステップS3004否定、ステップS3010否定、ステップS3020肯定)、合成部125は、まず、変更指示にしたがい、視点範囲内の視点位置を特定する。具体的には、合成部125は、例えばユーザがカーソルを表示画面上で移動させると、カーソルの移動量から視点範囲内における視点位置の変更量を特定し、特定した変更量に基づいて、変更後の視点位置を特定する。なお、変更指示の入力方法と、入力された入力情報と、入力情報から定まる視点位置との関係が定まっていればよく、入力方法および入力情報から視点位置を特定する処理は実施の形態に限定されるものではない。
合成部125はさらに、変更後の視点位置に基づいて、変更指示を受け付けた際に表示されていた表示選択画像に対応する3次元モデルの3次元モデルデータから2次元投影画像、すなわち視点変更後の選択画像を生成する(ステップS3021)。なお、ステップS3021において、合成部125は、3次元モデル記憶部111において、表示選択画像の3次元モデルにデバイスが対応付けられている場合には、対応付けられているデバイスのアイコンを抽出し、抽出したアイコンを3次元モデル内に配置し、配置後の3次元モデルの3次元モデルデータから選択画像を生成する。次に、出力部126は、視点変更後の選択画像を出力し、表示画面に出力された選択画像が表示され(ステップS3022)、ステップS3013に進む。すなわち、ステップS3022において表示された選択画
像において、カメラアイコンが選択された場合には、ステップS3004〜ステップS3006の処理により、選択されたカメラアイコンに相当する撮像装置20により撮像された撮像画像が合成された合成画像生成および表示することができる。
本実施の形態にかかる画像処理装置10においては、ユーザからの変更指示に応じて視点位置を変更する際に、予め設定された回転軸と回転角度範囲とに応じて視点位置を変更可能としたので、ユーザにとって不要な2次元投影画像が表示されることがなく、ユーザは、簡単な操作で希望するエリアを観察することのできる2次元投影画像を表示させることができる。
なお、実施の形態9にかかる画像処理装置10のこれ以外の構成および処理は、他の実施の形態にかかる画像処理装置10の構成および処理と同様である。
本実施の形態の画像処理装置10は、選択画面を表示するために利用される複数の監視エリアと視点範囲とを対応付けて記憶し、選択画面の視点位置を変更可能としたが、他の例としては、画像処理装置10は、さらにユーザによるカメラの選択やユーザがカメラのレンズの方向を確認するための確認画像を生成するための視点位置と、視点範囲とを3次元モデルに対応付けてさらに記憶し、確認画像の視点位置を変更可能に表示してもよい。
これにより、カメラのレンズの方向を容易に確認できるような視点から3次元モデルを観察した2次元投影画像を確認画像として生成および表示し、さらにこの二次元投影画像に表現される3次元モデルをユーザからの指示にしたがい回転させた状態の二次元投影画像(確認画像)を表示することができる。
(実施の形態10)
上述した実施の形態では、撮像装置20で取得された撮像画像(以下、監視画像ともいう)をライブストリーミング技術などを用いて画像処理装置10にライブ表示(以下、ライブストリーミング再生という)していたが、このような形態に限られるものではない。
たとえば、画像処理装置10がネットワーク30を介して撮像装置20やセンサ40から取得した撮像情報やイベント情報などは、画像処理装置10に設けられた記憶装置またはネットワーク30上に配置された記憶装置に記録され、後の監視画像の再生(以下、ライブストリーミング再生と区別するため、録画再生という)に用いられてもよい。ここでは、画像処理装置10が撮像情報およびイベント情報を記憶する記憶装置を備える形態を、実施の形態10として説明する。
図40は、実施の形態10に係る画像処理装置4010の構成例を示す図である。図40に示すように、画像処理装置4010は、図3に示された画像処理装置10と同様の構成に加え、画像記憶部4127およびイベント記憶部4128を備える。画像記憶部4127およびイベント記憶部4128それぞれには、画像処理装置4010を実現するパーソナルコンピュータに内蔵されたハードディスクや、パーソナルコンピュータに外付けされたハードディスクなど、種々の記憶装置が用いられてよい。
撮像装置20から送信される撮像情報には、上述した撮像画像、パン情報、チルト情報およびズーム情報に加え、この撮像画像を取得した撮像装置20のデバイスIDと、撮像画像が取得された撮像時刻とが含まれている。これらデバイスIDおよび撮像時刻は、撮像装置20の制御部204から圧縮部202へ送られ、パン情報、チルト情報およびズーム情報とともに撮像画像のヘッダまたはフッタに付加される。なお、以下の説明では、パン情報、チルト情報およびズーム情報をまとめて、PTZ情報という。
ネットワーク30から通信処理部122を介して撮像情報を取得した取得部123は、撮像情報に含まれる撮像画像、デバイスID、撮像時刻およびPTZ情報を特定し、これらを制御部124へ入力する。
制御部124は、取得部123で取得された撮像画像、デバイスID、撮像時刻およびPTZ情報を用いて上述した各実施の形態による2次元投影画像を背景とした監視画像のライブストリーミング再生を実行するとともに、これら撮像画像、デバイスID、撮像時刻およびPTZ情報を画像記憶部4127に格納する。なお、監視画像のライブストリーミング再生が実行されていない場合でも、撮像画像、デバイスID、撮像時刻およびPTZ情報が制御部124から画像記憶部4127に格納されてもよい。
また、制御部124は、撮像画像、デバイスID、撮像時刻およびPTZ情報を画像記憶部4127に格納する際に、ユーザによって選択されている撮像装置20のデバイスIDを特定する。そこで、選択中の撮像装置20のデバイスIDが格納対象のデバイスIDと一致する場合、制御部124は、格納するデータセット(撮像画像、デバイスID、撮像時刻およびPTZ情報)に所定の選択フラグを付加して、これらを画像記憶部4127に格納する。所定の選択フラグとは、対応付けられた撮像画像が、撮像装置20が選択された状態にある間にこの撮像装置20によって取得された撮像画像であることを示すフラグ情報である。なお、選択中の撮像装置20のデバイスIDが格納対象のデバイスIDと一致しない場合、制御部124は、該当の撮像画像がユーザによって選択されていない状態の撮像装置20によって取得された撮像画像であることを示す選択フラグを、格納対象のデータセットに付加して、画像記憶部4127に格納してもよい。この際の選択フラグは、ヌル(null)データであってもよい。以下では、説明の明確化のため、撮像装置20が選択された状態にある間に取得された撮像画像であることを示す選択フラグを選択中フラグ(‘1’)といい、撮像装置20の未選択中に取得された撮像画像であることを示す選択フラグを選択外フラグ(‘0’)という。
画像記憶部4127には、撮像画像、デバイスID、撮像時刻、PTZ情報および選択フラグが撮像装置20ごとに区別されて記憶される。この区別には、デバイスIDが用いられる。また、画像記憶部4127内のデータ管理には、たとえばテーブル管理方式が用いられる。
図41は、画像記憶部4127が保持する撮像画像管理テーブルの一例を示す図である。図41に示すように、撮像画像管理テーブルには、個々の撮像画像に、これを撮像した撮像装置20(カメラ)のデバイスIDと、撮像時刻と、PTZ情報と、選択フラグとが対応づけて登録される。なお、図41では、説明の簡略化のため、監視画像(撮像画像)が連続静止画像である場合のライブストリーミング再生の際に用いられ得る撮像画像管理テーブルの一例を示したが、これに限られるものではない。たとえば撮像画像がMPEG−4などの複数のフレームを含む動画圧縮形式で圧縮されている場合、一度の撮影により取得された一連の撮像画像は1つの動画ファイルとして管理される。その場合、時間帯ごとに変化するPTZ情報や選択フラグなどは、MPEG−7などのメタデータ記述方式を用いて撮像画像(動作)の該当する時間帯に付加されるとよい。
一方、センサ40から送信されるイベント情報には、イベントの検出データに加え、このイベントを検出したセンサ40のデバイスIDと、イベントの発生時刻とが含まれている。ここで、図42に、センサ40の構成例を示す。図42に示すように、センサ40は、たとえば図2に示される撮像装置20と同様に、センサ部4201と、雲台駆動部4205と、角度センサ4206と、制御部4204と、圧縮部4202と、通信処理部4203とを備える。圧縮部4202へは、センサ部4201で得られたイベントの検出データと、制御部4204で特定されたデバイスIDおよびイベントの発生時刻とが入力される。また、センサ部4201が指向性を有している場合、圧縮部4202へは、角度センサ4206で得られたパン情報およびチルト情報(以下、PT情報という)が制御部4204を介して入力されてもよい。圧縮部4202に入力された検出データ、デバイスIDおよび発生時刻は、必要に応じてPT情報とともに圧縮され、通信処理部4203からネットワーク30を介して画像処理装置4010へイベント情報として送出される。
ネットワーク30から通信処理部122を介してイベント情報を取得した取得部123は、イベント情報に含まれる検出データ、デバイスIDおよび発生時刻(およびPT情報)を特定し、これらを制御部124へ入力する。また、取得部123は、同一イベントの検知が終了した際のイベント情報に含まれる発生時刻も、制御部124へ入力する。制御部124は、イベントの検知が終了した際のイベント情報から特定された発生時刻をイベントの終了時刻として特定し、この終了時刻を、該当するイベントの検出データ、デバイスIDおよび発生時刻(およびPT情報)とともに、イベント記憶部4128に格納する。
制御部124は、取得部123で取得されたイベントの検出データ、デバイス、発生時刻および終了時刻(およびPT情報)を上述した監視画像のライブストリーミング再生に用いるとともに、これら検出データ、デバイス、発生時刻および終了時刻(およびPT情報)をイベント記憶部4128に格納する。なお、監視画像のライブストリーミング再生が実行されていない場合でも、検出データ、デバイスID、発生時刻および終了時刻(およびPT情報)が制御部124からイベント記憶部4128に格納されてもよい。
また、制御部124は、検出データ、デバイス、発生時刻および終了時刻(およびPT情報)をイベント記憶部4128に格納する際に、各イベントに固有のイベントIDを生成し、このイベントIDを、格納するデータセット(検出データ、デバイス、発生時刻および終了時刻(およびPT情報))とともにイベント記憶部4128に格納する。
イベント記憶部4128には、イベントID、デバイスID、検出データ、イベントの発生時刻および終了時刻(およびPT情報)がセンサ40ごとに区別されて記憶される。この区別には、デバイスIDが用いられる。また、イベント記憶部4128内のデータ管理には、たとえばテーブル管理方式が用いられる。
図43は、イベント記憶部4128が保持するイベント管理テーブルの一例を示す図である。図43に示すように、イベント管理テーブルには、イベントの検出データに、このイベントを検出したセンサ40のデバイスID、イベントID、発生時刻および終了時刻(およびPT情報)が対応づけて登録されている。また、イベント管理テーブルに登録された各レコードには、それぞれのイベントをユーザが確認したか否かを示す確認フラグが対応づけられていてもよい。この確認フラグは、画像記憶部4127およびイベント記憶部4128に記憶された撮像画像およびイベント情報の録画再生中に、ユーザからの操作や該当イベントの再生完了などの所定の事象をトリガとしてイベント記憶部4128に格納されてもよい。
また、本実施の形態10、および上述の各実施の形態では、撮像装置20に対応づけられたセンサ40が存在してもよい。たとえば人感センサであれば、センサ40と、このセンサ40の人感知範囲を撮像する撮像装置20とが対応づけられてもよい。ドア開閉センサであれば、センサ40と、このセンサ40が検知するドアを撮像する撮像装置20とが対応づけられてもよい。また、撮像装置20の撮像画像を用いて動き検出を行い、撮像装置20そのものをセンサ40として用いてもよい。
センサ40と撮像装置20との対応付けは、たとえば3次元モデル記憶部111において管理される。この管理には、たとえばテーブル管理方式を用いることができる。図44は、3次元モデル記憶部111において管理されるセンサ管理テーブルの一例を示す図である。図44に示すように、センサ管理テーブルは、センサ40のデバイスIDと、これと対応づけられる撮像装置20のデバイスID(以下、カバーカメラIDという)とを対応付けて管理している。このようなセンサ管理テーブルを用いることで、センサ管理テーブルに登録された何れかのセンサ40がユーザから選択された際に、これに対応づけられた撮像装置20を特定することが可能となる。また、センサ管理テーブルは、各デバイスIDが対応するセンサ40の重要度と、センサの種別(人感センサや熱感知センサなど)を示すセンサ種別とを各デバイスIDに対応づけて管理してもよい。
つぎに、画像処理装置4010において撮像情報およびイベント情報を記憶する際の制御部124の動作を、以下に図面を用いて詳細に説明する。なお、ここでは、録画する際の動作例として、プリセット録画予約された時間帯に録画動作を実行する場合を例示する。ただし、これに限られず、動作中、常時録画するなど、種々変形可能である。
図45は、実施の形態10に係る制御部124の録画動作を示すフローチャートである。図45に示すように、制御部124は、起動後、録画の開始タイミングとなるまで本録画動作を待機する(ステップS4001否定)。録画の開始タイミングとは、カメラから送られるすべての画像を録画するのではなく、フレーム単位で間引いて録画することである。録画動作では、長時間記録できるようにするために、フレームをカウントして必要なフレームのみ録画する。録画の開始タイミングとなると(ステップS4001肯定)、制御部124は、現在ユーザによって選択されている状態の撮像装置20のデバイスIDを取得する(ステップS4002)。現在ユーザによって選択されている状態の撮像装置20のデバイスIDは、たとえば制御部124を実現するCPU(Central Processing Unit)のキャッシュメモリ等で管理されていてもよい。また、現在ユーザによって選択されている状態の撮像装置20が存在しない場合、制御部124は、たとえばヌル(null)データをデバイスIDとして取得してもよい。
つぎに、制御部124は、ネットワーク30上の撮像装置20から通信処理部122を介して撮像情報を受信するまで待機する(ステップS4003否定)。いずれかの撮像装置20から撮像情報を受信すると(ステップS4003肯定)、制御部124は、取得部123を用いて、受信した撮像情報から撮像画像、デバイスID、撮像時刻およびPTZ情報を特定し、これを取得部123から取得する(ステップS4004)。つぎに、制御部124は、取得したデバイスIDが、ステップS4002で特定したデバイスIDと一致するか否かを判定する(ステップS4005)。
ステップS4005の判定の結果、両方のデバイスIDが一致する場合(ステップS4005肯定)、制御部124は、ステップS4004で特定した撮像画像、デバイスID、撮像時刻およびPTZ情報を、選択中フラグと対応づけて、画像記憶部4127に格納する(ステップS4006)。一方、両方のデバイスIDが一致しない場合(ステップS4005否定)、制御部124は、ステップS4004で特定した撮像画像、デバイスID、撮像時刻およびPTZ情報を、選択外フラグと対応づけて、画像記憶部4127に格納する(ステップS4007)。
その後、制御部124は、プリセット録画の終了時刻となったか否かを判定する(ステップS4008)。終了時刻となった場合(ステップS4008肯定)、制御部124は、本録画動作を終了する。一方、終了時刻となっていない場合(ステップS4008否定)、制御部124は、ステップS4002へリターンし、以降の動作を実行する。
以上のような録画動作により、画像記憶部4127内に、撮像画像が、デバイスID、撮像時刻、PTZ情報および選択フラグと対応づけて格納される。
また、図46は、実施の形態10に係る制御部124のイベント記録動作を示すフローチャートである。図46に示すように、制御部124は、起動後、プリセット録画の開始時刻となるまで本イベント記録動作を待機する(ステップS4011否定)。プリセット録画の開始時刻となると(ステップS4011肯定)、制御部124は、ネットワーク30上のセンサ40から通信処理部122を介してイベント情報を受信するまで待機する(ステップS4012否定)。いずれかのセンサ40からイベント情報を受信すると(ステップS4012肯定)、制御部124は、取得部123を用いて、受信したイベント情報から検出データ、デバイスID、発生時刻(およびPT情報)を特定し、これを取得部123から取得する(ステップS4013)。つぎに、制御部124は、同一イベント情報の入力が終了するまで待ち(ステップS4014否定)、終了すると(ステップS4014肯定)、その終了時刻を特定する(ステップS4015)。
つぎに、制御部124は、イベント情報にPT情報が含まれているか否かを判定する(ステップS4016)。イベント情報にPT情報が含まれている場合(S4016肯定)、制御部124は、ステップS4013で特定した検出データ、デバイスID、発生時刻およびPT情報と、ステップS4015で特定した終了時刻とを対応づけて、イベント記憶部4128に格納する(ステップS4017)。この際、制御部124は、イベントIDを生成し、これを検出データ、デバイスID、発生時刻、終了時刻およびPT情報とともにイベント記憶部4128に格納してもよい。一方、イベント情報にPT情報が含まれていない場合(ステップS4016否定)、制御部124は、ステップS4013で特定した検出データ、デバイスIDおよび発生時刻と、ステップS4015で特定した終了時刻とを対応づけて、イベント記憶部4128に格納する(ステップS4018)。この際、制御部124は、イベントIDを生成し、これを検出データ、デバイスID、発生時刻および終了時刻とともにイベント記憶部4128に格納してもよい。
その後、制御部124は、録画の終了タイミングとなったか否かを判定する(ステップS4019)。終了タイミングとなった場合(ステップS4019肯定)、制御部124は、本イベント録画動作を終了する。一方、終了タイミングとなっていない場合(ステップS4019否定)、制御部124は、ステップS4012へリターンし、以降の動作を実行する。
以上のようなイベント記録動作により、イベント記憶部4128内に、センサ40で検出されたイベントの検出データが、イベントID、デバイスID、発生時刻、終了時刻(およびPT情報)と対応づけて格納される。
つぎに、画像記憶部4127に記憶された撮像画像を録画再生する際の動作を、以下に図面を用いて詳細に説明する。図47は、実施の形態10に係る制御部124による録画再生動作の一例を示すフローチャートである。図47に示すように、制御部124は、起動後、録画データの再生指示がユーザから入力されるまで待機する(ステップS4031否定)。なお、録画データの再生指示は、ユーザが画像処理装置4010の操作部121を用いて入力してよい。
録画データの再生指示を受け付けると(ステップS4031肯定)、制御部124は、再生対象の記録データを読み出す(ステップS4032)。読み出される記録データには、画像記憶部4127に格納されている撮像画像、デバイスID、撮像時刻、PTZ情報および選択フラグと、イベント記憶部4128に格納されている検出データ、イベントID、デバイスID、発生時刻および終了時刻(およびPT情報)、および確認フラグが含まれている。
つぎに、制御部124は、読み出した記録データのうち、最初の撮像画像に対応づけられた選択フラグを参照することで、選択中の撮像装置20があるか否かを判定する(ステップS4033)。なお、ここでいう選択中の撮像装置20とは、録画開始の時点でユーザによって選択状態にされている状態にある撮像装置である。
選択中の撮像装置20が存在する場合(ステップS4033肯定)、制御部124は、選択中の撮像装置20の3次元モデル上の位置(カメラアイコン位置)と、再生対象の撮像画像に対応づけられたPTZ情報に基づいて、3次元モデルデータから2次元投影画像を生成する際の視点位置を決定する(ステップS4036)。また、制御部124は、ユーザが録画再生に関する操作を入力するための操作画面を生成する(ステップS4037)。この操作画面には、撮像画像を録画再生する所定領域(以下、再生領域という)が含まれている。この再生領域は、たとえば上述の実施の形態における2次元投影画像上の所定領域に相当するものであってもよい。
一方、選択中の撮像装置20が存在しない場合(ステップS4033否定)、制御部124は、たとえば上述において図6を用いて説明した視点情報記憶部112から、該当するエリアに関する初期条件の視点位置を取得する(ステップS4034)。また、制御部124は、ユーザが録画再生に関する操作を入力するための操作画面を生成する(ステップS4035)。この操作画面には、撮像画像を生成する再生領域が含まれていてもいなくてもよい。
その後、制御部124は、ステップS4036で決定した視点位置またはステップS4034で取得した視点位置に基づいて、3次元モデルデータから2次元投影画像を生成する(ステップS4038)。この際の3次元モデルデータに含まれる全てのカメラアイコンやセンサアイコンには、ステップS4032で読み出された撮像装置20のPTZ情報やセンサ40のPT情報などが反映される。したがって、再生時の3次元モデルデータは、上述した実施の形態によるライブストリーミング再生時と同様、録画期間中の3次元モデルデータの動き(変化等)をそのまま再現したものとなる。その際、各カメラアイコンには、上述した実施の形態と同様に、それぞれが対応付けられた撮像装置20で取得された撮像画像(またはそのサムネイル)がポップアップ表示によって再生されてもよい。
つぎに、制御部124は、ステップS4037で生成した操作画面に、ステップS4032で読み出した撮像画像を合成する(ステップS4039)。なお、操作画面に合成される撮像画像は、時系列に沿った一連の撮像画像の中から、時間軸にしたがって順次遷移する。これにより、撮像画像が操作画面の再生領域で再生される。
つぎに、制御部124は、ステップS4038で生成した2次元投影画像にステップS4039で撮像画像が合成された操作画面を合成する(ステップS4040)。つづいて、制御部124は、操作画面が合成された2次元投影画像をモニタなどの出力部126へ出力し(ステップS4041)、これを表示する。
つぎに、制御部124は、録画データの再生を終了するか否かを判定する(ステップS4042)。この判定は、たとえば操作画面より再生停止ボタンが入力されたか否かや、録画データの再生が末尾まで終了したか否かなどに基づいて判定されてよい。再生終了と判定した場合(ステップS4042肯定)、制御部124は、本録画再生動作を終了する。一方、再生動作を終了しないと判定した場合(ステップS4042否定)、制御部124は、たとえばユーザより視点位置変更の操作入力があったか否かを判定する(ステップS4043)。なお、視点位置変更の操作入力方法は、上述した実施の形態における撮像装置20のパン方向、チルト方向およびズームレンズの焦点距離に対する操作入力方法と同様であってよい。
視点位置変更の操作入力があった場合(ステップS4043肯定)、制御部124は、操作部121に入力された操作データから、新たな視点位置を決定する(ステップS4044)。なお、ステップS4044における視点位置のユーザ操作は、上述の実施の形態における撮像装置20に対するユーザ操作と同様であってよい。この場合、操作部121から入力された操作データは、制御信号として撮像装置20へ送信されるのではなく、3次元モデルに対する視点位置の変化量の算出に用いられる。その後、制御部124は、ステップS4038へリターンして、以降の動作を実行する。
一方、視点位置変更の操作入力がない場合(ステップS4043否定)、制御部124は、ステップS4032で読み出した記録データにおいて、ステップS4033で特定した選択中の撮像装置20のPTZ情報に変更があったか否かを判定する(ステップS4045)。PTZ情報に変更があった場合(ステップS4045肯定)、制御部124は、ステップS4036へリターンし、変更後のPTZ情報に基づいて以降の動作を実行する。
一方、PTZ情報に変更がなかった場合(ステップS4045否定)、制御部124は、ユーザが2次元投影画像に対してカメラアイコンの選択操作を行ったか否かを判定する(ステップS4046)。カメラアイコンの選択があった場合(ステップS4046肯定)、制御部124は、ステップS4036へリターンし、選択されたカメラアイコンの3次元モデル上の位置およびこれのデバイスIDに対応するPTZ情報に基づいて、以降の動作を実行する。
一方、カメラアイコンの選択がなかった場合(ステップS4046否定)、制御部124は、ユーザが2次元投影画像に対してセンサアイコンの選択操作を行ったか否かを判定する(ステップS4047)。センサアイコンの選択があった場合(ステップS4047肯定)、制御部124は、図44で示したセンサ管理テーブルから選択されたセンサアイコンのデバイスIDに対応付けられたカバーカメラID(デバイスID)を選択する(ステップS4048)。その後、制御部124は、ステップS4036へリターンし、新たに選択されたデバイスIDに対応する撮像装置20の3次元モデル上の位置およびこのデバイスIDに対応するPTZ情報に基づいて、以降の動作を実行する。
以上のような録画再生動作を実行することで、録画時の監視画像のライブストリーミング再生をそのまま再現することが可能になる。また、図47に示す録画再生動作では、選択中の撮像装置20やセンサ40を必要に応じて切り替えたり、3次元モデルに対する視点位置を選択中のカメラアイコン位置に関係なく移動させたりなどの操作を可能としている。そのため、ユーザは、過去の監視画像の確認作業を、より容易かつ詳細に行うことが可能である。
つぎに、上記の再生動作によって画像処理装置4010の出力部126に表示される合成画像の例について、以下に図面を用いて詳細に説明する。
実施の形態10による監視画像の録画再生は、上述した実施の形態のいずれかによる監視画像のライブストリーミング再生を再現するような形態であってもよい。図48は、図47のステップS4040で生成された合成画像の一例を示す図である。図48に示すように、合成画像4000では、上述した実施の形態におけるライブストリーミング再生時の合成画像と同様に、たとえばカメラアイコン4001、4002および4003を含む2次元投影画像を背景として、操作画面4300が合成されている。なお、操作画面4300の配置は、2次元投影画像の右下に限らず、中央部などであってもよい。また、操作画面4300は、上述したような表示対象の撮像画像以外に、種々の情報を表示してもよい。
ここで、図49に、操作画面4300の一例を示す。図49に示すように、操作画面4300は、撮像画像を録画再生する撮像画像再生領域4310と、各種イベントの情報を表示するイベント表示領域4320とを含む。また、操作画面4300には、撮像画像再生領域4310に表示された撮像画像を取得した撮像装置20、すなわち選択中の撮像装置20の識別情報(カメラIDまたはカメラ名)4311と、プリセット録画により記録された録画データを再生するプリセット録画再生ボタン4302と、出力部126への表示を撮像画像(監視画像)のライブストリーミング再生に切り替えるライブボタン4301と、録画再生中に再生や停止やスキップや早送りなどの操作をユーザが行うための操作ボタン群4330と、録画の時間間隔を設定する録画間隔ボタン4331とが表示されてもよい。
イベント表示領域4320には、撮像画像再生領域4310に表示中の撮像画像の撮像時刻(日時であってもよい)と、イベントIDの時系列に沿ったリストと、各イベントIDが対応するイベントの発生時刻と、各イベントIDが対応するセンサ40をカバーする撮像装置20のカバーカメラID(デバイスID)と、各イベントもしくは各イベントを検出したセンサ40に対応づけられた重要度と、各イベントをユーザが確認したか否かを示す確認フラグとが表示されてもよい。また、イベント表示領域4320には、現在、録画データ中のどこを再生しているかを示すタイムバーが表示されてもよい。このタイムバーには、各イベントの発生時刻を示すインデックスが付加されていてもよい。
上記のような操作画面において、ユーザがプリセット録画再生ボタン4302を選択すると、出力部126には、たとえばプリセット録画された録画データファイルのリストが表示される。ユーザがこのリストの中からいずれかのファイルを選択すると、制御部124は、選択されたファイルを録画再生する動作を実行する。この録画再生動作は、上述において図47を用いて説明した動作である。一方、ユーザが操作画面のライブボタン4301を選択すると、出力部126に表示される合成画像が録画データを録画再生する合成画像4000からライブ画像(監視画像)をライブストリーミング再生する合成画像(たとえば図9や図12等参照)に切り替えられる。
また、操作画面において、録画間隔ボタン4331は、たとえばプルダウンメニューボタンである。ユーザが録画間隔ボタン4331を選択すると、設定可能な録画間隔のリスト(たとえばフルフレーム(30フレーム/秒)、15フレーム/秒、10フレーム/秒、5フレーム/秒、1フレーム/秒…など)が表示される。ユーザがリストアップされた録画間隔のうち何れか(たとえば10フレーム/秒)を選択すると、この選択された録画間隔(たとえば10フレーム/秒)がたとえば制御部124に設定される。制御部124は、このように設定された録画間隔ごとに、図45に示した録画動作および図46に示した記録動作を繰り返し実行する。
以上のような構成および動作を備えることで、上述した各実施の形態による監視画像のライブストリーミング再生時と同様に、録画再生時においても、カメラによって撮像されていた領域をユーザに直感的に把握させることができる。なお、その他の構成、動作および効果は、上述した実施の形態のいずれかと同様であってよいため、ここでは詳細な説明を省略する。ただし、実施の形態10では、画像処理装置4010が撮像装置20およびセンサ40からネットワーク30を介して撮像情報およびイベント情報を取得する場合を例示したが、これに限定されるものではない。たとえば撮像装置20およびセンサ40それぞれが個別に記憶装置を備え、画像処理装置4010がこれら記憶装置に記憶された撮像情報およびイベント情報をオンラインまたはオフラインで取得するように構成されてもよい。または、撮像装置20およびセンサ40がネットワーク30上の記憶装置に直接、撮像情報およびイベント情報を送信し、画像処理装置4010がこの記憶装置に格納されている撮像情報およびイベント情報をネットワーク30を介して取得するように構成されてもよい。
(実施の形態11)
また、実施の形態10や、上述した他の実施の形態では、イベントを検出したセンサ40や撮像装置20のアイコンが、2次元投影画像上で強調表示されてもよい。たとえば各撮像装置20が撮像画像に対して動き検出を行い、各撮像装置20がセンサ40としても機能する場合、図50に示すように、これら撮像装置20に対応するカメラアイコンのうち、イベントを検出した撮像装置20に対応するカメラアイコン4003aおよび4005aが強調表示されてもよい。図50は、実施の形態11に係る合成画像の一例を示す図である。各種アイコンの強調表示は、たとえば点滅表示や、背景と異なる色(たとえば赤色)による表示や、拡大表示など、種々の表示方法を用いることができる。
各種アイコンの強調表示は、たとえば強調表示するデバイス(センサ40や撮像装置20)のデバイスIDに対応づけるアイコンイメージを、他の強調表示用のアイコンイメージに一時的に置き換えることで実現可能である。その場合、通常のアイコンイメージの代わりに、強調表示用のアイコンイメージが3次元モデルデータに組み込まれるため、この3次元モデルデータから生成した2次元投影画像中のアイコンイメージも、強調表示される。
なお、ここでは、上述した実施の形態と同様、3次元モデルデータから生成した2次元投影画像中のアイコンを強調表示する場合を例に挙げたが、これに限られるものではない。たとえば3次元モデルデータの代わりに、これと同様のレイアウトを地面(または床面)と平行な2次元平面にマッピングした2次元モデルが用いられてもよい。その場合、この2次元モデルそのままが撮像画像や操作画面と合成されて出力部126に表示されるが、その際に、2次元モデル中にマッピングする各種アイコンに強調表示用のアイコンが用いられる。これにより、上述した3次元モデルの場合と同様に、2次元モデル中にマッピングされた各種アイコンが必要に応じて強調表示される。その他の構成、動作および効果は、上述した実施の形態と同様であってよいため、ここでは詳細な説明を省略する。
[プログラム]
また、画像処理装置10の構成は、例えば、ハードウェアとして、任意のコンピュータのCPU(Central Processing Unit)、メモリ、その他のLSI(Large Scale Integration)で実現される。同様に、画像処理装置10の構成は、例えば、ソフトウェアとして、メモリにロードされたプログラム等によって実現され得る。上記実施の形態では、これらのハードウェア又はソフトウェアの連携によって実現される機能ブロックとして説明した。すなわち、これらの機能ブロックについては、ハードウェアのみ、ソフトウェアのみ、又は、それらの組み合わせによって種々の形で実現できる。
図51は、画像処理プログラムがコンピュータを用いて実現されることを示す図である。例えば、図51に示すように、画像処理装置10としてのコンピュータ1000は、バス1009で接続された、CPU(Central Processing Unit)1001等の制御装置と、ROM(Read Only Memory)1002やRAM(Random Access Memory)1003等の記憶装置と、HDD(Hard Disk Drive)1004、ディスクドライブ1005等の外部記憶装置と、ディスプレイ1006等の表示装置と、キーボード1007やマウス1008等の入力装置を備えており、通常のコンピュータを利用したハードウェア構成となっている。記憶装置又は外部記憶装置には、上述した3次元モデル記憶部111や視点情報記憶部112の各種情報が記憶される。
画像処理装置10で実行される画像処理プログラムは、一つの様態として、インストール可能な形式又は実行可能な形式ファイルでCD−ROM、フレキシブルディスク(FD)、CD−R、DVD(Digital Versatile Disk)等のコンピュータで読み取り可能な記録媒体に記録されて提供される。また、画像処理装置10で実行される画像処理プログラムを、インターネット等のネットワークに接続されたコンピュータ上に格納し、ネットワーク経由でダウンロードさせることにより提供するように構成しても良い。また、画像処理装置10で実行される画像処理プログラムをインターネット等のネットワーク経由で提供又は配布するように構成しても良い。また、画像処理プログラムを、ROM等に組み込んで提供するように構成しても良い。
画像処理装置10で実行される画像処理プログラムは、上述した各機能部(取得部123、合成部125、出力部126)を含むモジュール構成となっており、実際のハードウェアとしてCPU(プロセッサ)が記憶媒体から画像処理プログラムを読み出して実行することにより、上記各機能部が主記憶装置上にロードされ、取得部123、合成部125、出力部126が主記憶装置上に生成され、適宜、記憶装置又は外部記憶装置に記憶された各種情報を利用して処理が行なわれる。
また、上記文書中や図面中等で示した処理手順、制御手順、具体的名称、各種のデータやパラメタ等を含む情報は、特記する場合を除いて任意に変更することができる。例えば、3次元モデル記憶部111に記憶される各種情報は、撮像対象となるエリア50がかわれば、それに応じて適宜変更される。
[構成]
また、図示した画像処理装置10の各構成要素は、機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散又は統合の具体的形態は、図示のものに限られず、その全部又は一部を各種の負担や使用状況などに応じて、任意の単位で機能的または物理的に分散又は統合することができる。例えば、合成部125は、カメラ位置に基づいて3次元モデルの視点を決定し、決定した視点及び撮像方向に基づいて、3次元モデルを2次元面に投影した2次元画像である2次元投影画像を生成する「生成部」と、生成された2次元投影画像の所定領域に撮像画像を合成することにより合成画像を生成する「合成部」とに分散しても良い。
なお、上述してきた実施の形態では、画像処理装置10を監視システム1に適用した例を挙げて説明したが、監視システム1だけでなく、リアルタイムにライブ映像を配信する配信システム等の他の様々な用途に適用することができる。
10 画像処理装置
111 3次元モデル記憶部
112 視点情報記憶部
121 操作部
122 通信処理部
123 取得部
124 制御部
125 合成部
126 出力部

Claims (10)

  1. 3次元領域の3次元モデルを示す3次元モデルデータと、前記3次元領域に配置されるカメラの位置を前記3次元モデルにおけるカメラ位置として記憶する3次元モデル記憶部と、
    前記カメラによって撮像された撮像画像及び撮像時の撮像方向を取得する取得部と、
    前記カメラ位置に応じて前記3次元モデルに対する視点を決定し、決定した前記視点及び前記撮像方向に応じて、前記3次元モデルを2次元面に投影した2次元投影画像を生成して、生成した前記2次元投影画像上の所定領域に、前記撮像画像を合成することにより合成画像を生成する合成部と、
    前記合成画像を出力する出力部と
    を有することを特徴とする画像処理装置。
  2. 前記取得部は、前記カメラの撮像時のズーム情報をさらに取得し、
    前記合成部は、前記ズーム情報に基づいて前記3次元モデルに対する画角を決定し、前記視点と前記撮像方向と前記画角とに応じて前記3次元モデルを2次元面に投影した2次元投影画像を生成することを特徴とする請求項1に記載の画像処理装置。
  3. 前記3次元モデル記憶部は、前記所定3次元領域に配置された、前記カメラを含む複数のデバイスの前記3次元モデル内の位置と、前記3次元モデル内で前記デバイスの種類を示す複数のデバイスアイコンとをさらに記憶し、
    前記合成部は、前記3次元モデル記憶部に記憶されているデバイスの位置に、前記デバイスの種類に対応するデバイスアイコンを配置し、前記デバイスアイコンを配置した3次元モデルから前記2次元投影画像を生成することを特徴とする請求項1又は2に記載の画
    像処理装置。
  4. 前記複数のデバイスアイコンのうちカメラに対応するカメラアイコンは、撮像方向を表現可能なアイコンであって、
    前記合成部は、前記3次元モデル記憶部に記憶されている前記カメラアイコンの表現する撮像方向を、前記取得部が取得した前記カメラの撮像方向と一致させて、前記3次元モデル内の前記配置位置に配置することを特徴とする請求項3に記載の画像処理装置。
  5. 前記合成部は、前記2次元投影画像における、前記所定領域よりも小さい領域であって前記所定領域に撮像画像を合成されるカメラとは異なる他のカメラに対応する他のカメラアイコンに関連付けられた位置に前記他のカメラアイコンに対応する前記他のカメラによって撮像された撮像画像をさらに合成することにより前記合成画像を生成することを特徴とする請求項3に記載の画像処理装置。
  6. 前記取得部は、ユーザ操作によって前記複数のデバイスアイコンのうちカメラに対応するカメラアイコンが選択されたときは、前記カメラアイコンに対応するカメラにおける前記撮像画像及び前記撮像方向を取得することを特徴とする請求項3に記載の画像処理装置。
  7. 前記合成部は、前記デバイス アイコンが前記合成画像中に表示されるように、前記合成画像に含まれた所定物を透過させることを特徴とする請求項3に記載の画像処理装置。
  8. 前記合成部は、前記カメラアイコンの位置に応じて、前記所定領域よりも小さい領域の大きさを調整することを特徴とする請求項5に記載の画像処理装置。
  9. 3次元領域のモデルを示す3次元モデルデータと、前記3次元領域に配置されるカメラの位置を前記3次元モデルにおけるカメラ位置として記憶する3次元モデル記憶ステップと、
    前記カメラによって撮像された撮像画像及び撮像時の撮像方向を取得する取得ステップと、
    前記カメラ位置に応じて前記3次元モデルに対する視点を決定し、決定した視点及び前記撮像方向に応じて、前記3次元モデルを2次元面に投影した2次元投影画像を生成して、生成した前記2次元投影画像上の所定領域に、前記撮像画像を合成することにより合成画像を生成する合成ステップと、
    前記合成画像を出力する出力ステップと
    を含むことを特徴とする画像処理方法。
  10. 3次元領域のモデルを示す3次元モデルデータと、前記3次元モデル領域に配置されるカメラの位置を前記3次元モデルにおけるカメラ位置として記憶部に記憶させる3次元モデル記憶機能と、
    前記カメラによって撮像された撮像画像及び撮像時の撮像方向を取得する取得機能と、
    前記カメラ位置に応じて前記3次元モデルに対する視点を決定し、決定した視点及び前記撮像方向に応じて、前記3次元モデルを2次元面に投影した2次元投影画像を生成して、生成した前記2次元投影画像上の所定領域に、前記撮像画像を合成することにより合成画像を生成する合成機能と、
    前記合成画像を出力する出力機能と
    をコンピュータに実現させることを特徴とする画像処理プログラム。
JP2012219198A 2012-02-29 2012-10-01 画像処理装置、画像処理方法及び画像処理プログラム Active JP5920152B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2012219198A JP5920152B2 (ja) 2012-02-29 2012-10-01 画像処理装置、画像処理方法及び画像処理プログラム
PCT/JP2013/054027 WO2013129187A1 (ja) 2012-02-29 2013-02-19 画像処理装置、画像処理方法及び画像処理プログラム
US14/472,242 US9851877B2 (en) 2012-02-29 2014-08-28 Image processing apparatus, image processing method, and computer program product

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2012044791 2012-02-29
JP2012044791 2012-02-29
JP2012219198A JP5920152B2 (ja) 2012-02-29 2012-10-01 画像処理装置、画像処理方法及び画像処理プログラム

Publications (2)

Publication Number Publication Date
JP2013211818A true JP2013211818A (ja) 2013-10-10
JP5920152B2 JP5920152B2 (ja) 2016-05-18

Family

ID=49529273

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012219198A Active JP5920152B2 (ja) 2012-02-29 2012-10-01 画像処理装置、画像処理方法及び画像処理プログラム

Country Status (1)

Country Link
JP (1) JP5920152B2 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016220173A (ja) * 2015-05-26 2016-12-22 パナソニックIpマネジメント株式会社 追跡支援装置、追跡支援システムおよび追跡支援方法
JP2019121158A (ja) * 2018-01-04 2019-07-22 凸版印刷株式会社 データ表示装置、方法、およびプログラム

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008502228A (ja) * 2004-06-01 2008-01-24 エル‐3 コミュニケーションズ コーポレイション ビデオフラッシュライトを実行する方法およびシステム

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008502228A (ja) * 2004-06-01 2008-01-24 エル‐3 コミュニケーションズ コーポレイション ビデオフラッシュライトを実行する方法およびシステム

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016220173A (ja) * 2015-05-26 2016-12-22 パナソニックIpマネジメント株式会社 追跡支援装置、追跡支援システムおよび追跡支援方法
JP2019121158A (ja) * 2018-01-04 2019-07-22 凸版印刷株式会社 データ表示装置、方法、およびプログラム
JP7206591B2 (ja) 2018-01-04 2023-01-18 凸版印刷株式会社 データ表示装置、方法、およびプログラム

Also Published As

Publication number Publication date
JP5920152B2 (ja) 2016-05-18

Similar Documents

Publication Publication Date Title
US9851877B2 (en) Image processing apparatus, image processing method, and computer program product
JP5910447B2 (ja) 画像処理装置、画像処理方法及び画像処理プログラム
JP5966834B2 (ja) 画像処理装置、画像処理方法及び画像処理プログラム
JP2013210989A (ja) 画像処理装置、画像処理方法及び画像処理プログラム
KR20180077091A (ko) 공간-의존 콘텐츠를 위한 햅틱 효과 생성
JP6787394B2 (ja) 情報処理装置、情報処理方法、プログラム
JP6409107B1 (ja) 情報処理装置、情報処理方法、及びプログラム
WO2013129188A1 (ja) 画像処理装置、画像処理方法及び画像処理プログラム
WO2010008518A1 (en) Image capture and display configuration
US9141190B2 (en) Information processing apparatus and information processing system
CN102668556A (zh) 医疗支援装置,医疗支援方法以及医疗支援系统
US20210044793A1 (en) Generation method for generating free viewpoint image, display method for displaying free viewpoint image, free viewpoint image generation device, and display device
US20190155465A1 (en) Augmented media
JP5920152B2 (ja) 画像処理装置、画像処理方法及び画像処理プログラム
JP7020024B2 (ja) 情報処理装置およびプログラム
JP2013211821A (ja) 画像処理装置、画像処理方法及び画像処理プログラム
JP5983259B2 (ja) 画像処理装置、画像処理方法及び画像処理プログラム
JP5910446B2 (ja) 画像処理装置、画像処理方法及び画像処理プログラム
US20230033201A1 (en) Image processing apparatus, image processing method, and storage medium
WO2013129187A1 (ja) 画像処理装置、画像処理方法及び画像処理プログラム
WO2013129190A1 (ja) 画像処理装置、画像処理方法及び画像処理プログラム
JP2013211819A (ja) 画像処理装置、画像処理方法及び画像処理プログラム
JP2013211820A (ja) 画像処理装置、画像処理方法及び画像処理プログラム
US20220051432A1 (en) Information processing device, information processing method, and program
JP6600399B2 (ja) 情報処理装置、情報処理方法、及びプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150331

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20151124

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20151216

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160315

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160328

R150 Certificate of patent or registration of utility model

Ref document number: 5920152

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150