JP5966834B2 - Image processing apparatus, image processing method, and image processing program - Google Patents

Image processing apparatus, image processing method, and image processing program Download PDF

Info

Publication number
JP5966834B2
JP5966834B2 JP2012219203A JP2012219203A JP5966834B2 JP 5966834 B2 JP5966834 B2 JP 5966834B2 JP 2012219203 A JP2012219203 A JP 2012219203A JP 2012219203 A JP2012219203 A JP 2012219203A JP 5966834 B2 JP5966834 B2 JP 5966834B2
Authority
JP
Japan
Prior art keywords
image
unit
camera
icon
event
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2012219203A
Other languages
Japanese (ja)
Other versions
JP2013214944A (en
Inventor
怜史 道山
怜史 道山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
JVCKenwood Corp
Original Assignee
JVCKenwood Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by JVCKenwood Corp filed Critical JVCKenwood Corp
Priority to JP2012219203A priority Critical patent/JP5966834B2/en
Priority to PCT/JP2013/054028 priority patent/WO2013129188A1/en
Publication of JP2013214944A publication Critical patent/JP2013214944A/en
Application granted granted Critical
Publication of JP5966834B2 publication Critical patent/JP5966834B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Description

本発明は、画像処理装置、画像処理方法及び画像処理プログラムに関する。   The present invention relates to an image processing apparatus, an image processing method, and an image processing program.

従来、カメラによって撮像された対象物のモデルを、表示の際の視点位置及び視線方向が設定された3次元モデルの対応する位置に合成して表示する技術がある(例えば、特許文献1等)。特許文献1では、ある事象が発生した領域のカメラ画像を、上述した3次元モデルとともに表示する技術が開示されている。また、特許文献2には、監視イベントを検出して、これを画像とともに記録し、監視イベントの発生および終了時刻と、監視イベントを表す特徴量とを記録するとともに、複数表示された画像または監視イベント情報をユーザの閲覧操作にしたがって同期させる構成が開示されている。   2. Description of the Related Art Conventionally, there is a technique for combining and displaying a model of an object captured by a camera at a corresponding position of a three-dimensional model in which a viewpoint position and a line-of-sight direction are set (for example, Patent Document 1). . Patent Document 1 discloses a technique for displaying a camera image of a region where a certain event has occurred together with the above-described three-dimensional model. In Patent Document 2, a monitoring event is detected and recorded together with an image, and the occurrence and end time of the monitoring event and a feature amount representing the monitoring event are recorded, and a plurality of displayed images or monitoring images are recorded. The structure which synchronizes event information according to a user's browsing operation is disclosed.

特開2000−331279号公報JP 2000-33279 A 特開2000−224542号公報JP 2000-224542 A

しかしながら、従来技術では、監視イベント情報を表示するものの、各監視イベントがどのデバイスで検出されたかを結び付けるための構成を備えていない。そのため、イベントの発生場所や、イベントが発生した近傍のカメラがどれであるのかを、ユーザに直感的に判別させることが困難であった。これは、たとえば検出された監視イベントを記録しておき、これを、これを後に再生して確認する場合も同様である。本発明は、上記に鑑みてなされたものであって、イベントの再生確認時に、各イベントの発生場所や、イベントが発生した近傍のカメラがどれであるのかを直感的に把握させることを可能にする画像処理装置、画像処理方法及び画像処理プログラムを提供することを目的とする。   However, although the conventional technology displays the monitoring event information, it does not have a configuration for linking which device has detected each monitoring event. For this reason, it has been difficult for the user to intuitively determine the location where the event occurred and which camera in the vicinity where the event occurred. This is the same when, for example, a detected monitoring event is recorded and this is reproduced later and confirmed. The present invention has been made in view of the above, and it is possible to intuitively know where each event occurred and which camera in the vicinity where the event occurred when confirming the playback of the event. An object is to provide an image processing apparatus, an image processing method, and an image processing program.

上記の課題を解決するために、本発明は以下の装置、方法、プログラムを提供するものである。   In order to solve the above problems, the present invention provides the following apparatus, method, and program.

1)監視エリア内のカメラが取得した撮像画像と、該撮像画像を取得した際の撮像時刻とを取得する取得部と、前記取得部が取得した前記撮像画像と、前記撮像時刻とを対応づけて記憶する画像記憶部と、前記監視エリア内のセンサで検出されたイベントのイベント情報と、該イベントの発生時刻とを取得するイベント取得部と、前記イベント取得部が取得した前記イベント情報と、前記発生時刻とを対応づけて記憶するイベント記憶部と、前記画像記憶部が記憶する前記撮像画像の再生指示を受け付ける操作部と、前記操作部が再生指示を受け付けた場合、前記カメラに対応づけられたカメラアイコンと前記センサに対応づけられたセンサアイコンとを含む前記監視エリアの2次元画像を生成し、前記2次元画像の所定領域に前記画像記憶部が記憶する前記撮像画像を合成することで合成画像を生成する合成部と、前記合成部で合成された合成画像を出力する出力部とを備え、前記合成部は、前記2次元画像に合成される前記撮像画像に対応づけられている前記撮像時刻と同時刻帯に発生時刻が属するイベント情報に基づいて前記2次元画像に含まれる前記センサアイコンの表示の態様を変化させることを特徴とする画像処理装置。 1) An acquisition unit that acquires a captured image acquired by a camera in the monitoring area, an imaging time when the captured image is acquired, the captured image acquired by the acquisition unit, and the imaging time are associated with each other. An image storage unit that stores the event information of an event detected by a sensor in the monitoring area, an event acquisition unit that acquires an occurrence time of the event, and the event information acquired by the event acquisition unit, An event storage unit that stores the generation time in association with each other, an operation unit that receives an instruction to reproduce the captured image stored in the image storage unit, and an association unit that associates the camera when the operation unit receives an instruction to reproduce Generating a two-dimensional image of the monitoring area including a camera icon and a sensor icon associated with the sensor, and storing the image in a predetermined region of the two-dimensional image A synthesis unit that generates a synthesized image by synthesizing the captured images stored therein, and an output unit that outputs the synthesized image synthesized by the synthesis unit, and the synthesis unit is synthesized with the two-dimensional image. An image in which the display mode of the sensor icon included in the two-dimensional image is changed based on event information whose generation time belongs to the same time zone as the imaging time associated with the captured image. Processing equipment.

2)監視エリア内のカメラが取得した撮像画像と、該撮像画像を取得した際の撮像時刻とを取得する取得ステップと、前記取得ステップで取得した前記撮像画像と、前記撮像時刻とを対応づけて記憶する画像記憶ステップと、前記監視エリア内のセンサで検出されたイベントのイベント情報と、該イベントの発生時刻とを取得するイベント取得ステップと、前記画像記憶ステップで記憶された前記撮像画像の再生指示を受け付ける操作ステップ
と、前記操作ステップで前記再生指示を受け付けた場合、前記カメラに対応づけられたカメラアイコンと前記センサに対応づけられたセンサアイコンとを含む前記監視エリアの2次元画像を生成し、前記2次元画像の所定領域に前記画像記憶ステップで記憶された前記撮像画像を合成することで合成画像を生成する合成ステップと、前記合成ステップで合成された合成画像を出力する出力ステップとを含み、前記合成ステップでは、前記2次元画像に合成される前記前記撮像画像に対応付けられている前記撮像時刻と同時刻帯に発生時刻が属するイベント情報に基づいて前記2次元画像に含まれる前記センサアイコンの表示の態様を変化させることを特徴とする画像処理方法。
2) An acquisition step of acquiring a captured image acquired by a camera in the monitoring area and an imaging time when the captured image is acquired, the captured image acquired in the acquisition step, and the imaging time are associated with each other. An image storage step for storing the event information, an event acquisition step for acquiring event information of an event detected by a sensor in the monitoring area, and an occurrence time of the event, and the captured image stored in the image storage step. A two-dimensional image of the monitoring area including an operation step of receiving a reproduction instruction; and a camera icon associated with the camera and a sensor icon associated with the sensor when the reproduction instruction is accepted in the operation step. Generating and synthesizing the captured image stored in the image storing step in a predetermined area of the two-dimensional image A synthesis step for generating an image; and an output step for outputting the synthesized image synthesized in the synthesizing step. In the synthesizing step, the image is associated with the captured image synthesized with the two-dimensional image. An image processing method, comprising: changing a display mode of the sensor icon included in the two-dimensional image based on event information having an occurrence time in the same time zone as the imaging time.

3)監視エリア内のカメラが取得した撮像画像と、該撮像画像を取得した際の撮像時刻とを取得する取得機能と、前記取得機能により取得した前記撮像画像と、前記撮像時刻とを対応づけて画像記憶部に記憶させる画像記憶機能と、前記監視エリア内のセンサで検出されたイベントのイベント情報と、該イベントの発生時刻とを取得するイベント取得機能と、前記画像記憶部に記憶された前記撮像画像の再生指示を受け付ける操作機能と、前記操作機能により前記再生指示を受け付けた場合、前記カメラに対応づけられたカメラアイコンと前記センサに対応づけられたセンサアイコンとを含む前記監視エリアの2次元画像を生成し、前記2次元画像の所定領域に前記画像記憶部に記憶された前記撮像画像を合成することで合成画像を生成する合成機能と、前記合成機能により合成された合成画像を出力する出力機能とをコンピュータに実現させ、前記合成機能は、前記2次元画像に合成される前記撮像画像に関連付けられている前記撮像時億と同時刻帯に発生時刻が属するイベント情報に基づいて前記2次元画像に含まれる前記センサアイコンの表示の態様を変化させることを特徴とする画像処理プログラム。 3) The acquisition function for acquiring the captured image acquired by the camera in the monitoring area, the imaging time when the captured image is acquired, the captured image acquired by the acquisition function, and the imaging time are associated with each other. Stored in the image storage unit, an event acquisition function for acquiring event information of an event detected by a sensor in the monitoring area, and an occurrence time of the event, and stored in the image storage unit An operation function that receives an instruction to reproduce the captured image, and a camera icon that is associated with the camera and a sensor icon that is associated with the sensor when the reproduction instruction is accepted by the operation function. A two-dimensional image is generated, and a composite image is generated by combining the captured image stored in the image storage unit with a predetermined region of the two-dimensional image. And a composite function and an output function for outputting a composite image synthesized by the synthesis function. The synthesis function includes the imaging time unit associated with the captured image synthesized with the two-dimensional image. An image processing program that changes a display mode of the sensor icon included in the two-dimensional image based on event information to which an occurrence time belongs in the same time zone.

本発明の一つの様態によれば、イベントの再生確認時に、各イベントとこれを検出したデバイスとを直感的に把握させることができるという効果を奏する。   According to one aspect of the present invention, it is possible to intuitively grasp each event and the device that detected the event when confirming the reproduction of the event.

図1は、実施の形態1に係る監視システムの構成例を示す図である。FIG. 1 is a diagram illustrating a configuration example of a monitoring system according to the first embodiment. 図2は、実施の形態1に係る撮像装置の構成例を示す図である。FIG. 2 is a diagram illustrating a configuration example of the imaging apparatus according to the first embodiment. 図3は、実施の形態1に係る画像処理装置の構成例を示す図である。FIG. 3 is a diagram illustrating a configuration example of the image processing apparatus according to the first embodiment. 図4は、3次元モデル記憶部によって記憶される情報例を示す図である。FIG. 4 is a diagram illustrating an example of information stored by the three-dimensional model storage unit. 図5は、3次元モデルデータを説明するための図である。FIG. 5 is a diagram for explaining the three-dimensional model data. 図6は、視点情報記憶部に記憶される情報例を示す図である。FIG. 6 is a diagram illustrating an example of information stored in the viewpoint information storage unit. 図7は、実施の形態1に係る全体処理の流れの例を示すフローチャートである。FIG. 7 is a flowchart illustrating an example of the flow of overall processing according to the first embodiment. 図8は、実施の形態1に係る初期画像生成処理の流れの例を示すフローチャートである。FIG. 8 is a flowchart illustrating an example of the flow of the initial image generation process according to the first embodiment. 図9は、初期画像の例を示す図である。FIG. 9 is a diagram illustrating an example of an initial image. 図10は、実施の形態1に係る画像処理の流れの例を示すフローチャートである。FIG. 10 is a flowchart illustrating an example of the flow of image processing according to the first embodiment. 図11は、2次元投影画像の例を示す図である。FIG. 11 is a diagram illustrating an example of a two-dimensional projection image. 図12は、合成画像の例を示す図である。FIG. 12 is a diagram illustrating an example of a composite image. 図13は、所定領域の位置を変更する例を示す図である。FIG. 13 is a diagram illustrating an example of changing the position of the predetermined area. 図14Aは、所定物を透過させる前の2次元投影画像の例を示す図である。FIG. 14A is a diagram illustrating an example of a two-dimensional projection image before transmitting a predetermined object. 図14Bは、所定物を透過させた後の2次元投影画像の例を示す図である。FIG. 14B is a diagram illustrating an example of a two-dimensional projection image after transmitting a predetermined object. 図15Aは、ポップアップの大きさを調整する前の2次元投影画像の例を示す図である。FIG. 15A is a diagram illustrating an example of a two-dimensional projection image before adjusting the size of the pop-up. 図15Bは、ポップアップの大きさを調整した後の2次元投影画像の例を示す図である。FIG. 15B is a diagram illustrating an example of a two-dimensional projection image after adjusting the size of the pop-up. 図16は、実施の形態4に係る画像処理装置の構成例を示す図である。FIG. 16 is a diagram illustrating a configuration example of an image processing apparatus according to the fourth embodiment. 図17Aは、ドラッグ操作が行なわれる前の合成画像の例を示す図である。FIG. 17A is a diagram illustrating an example of a composite image before a drag operation is performed. 図17Bは、左方向にドラッグ操作が行なわれた場合の合成画像の例を示す図である。FIG. 17B is a diagram illustrating an example of a composite image when a drag operation is performed in the left direction. 図17Cは、下方向にドラッグ操作が行なわれた場合の合成画像の例を示す図である。FIG. 17C is a diagram illustrating an example of a composite image when a downward drag operation is performed. 図18は、実施の形態4に係る全体処理の流れの例を示すフローチャートである。FIG. 18 is a flowchart illustrating an example of the flow of overall processing according to the fourth embodiment. 図19は、実施の形態4に係る画像処理の流れの例を示すフローチャートである。FIG. 19 is a flowchart illustrating an example of the flow of image processing according to the fourth embodiment. 図20は、実施の形態4の変形例に係る画像処理の流れの例を示すフローチャートである。FIG. 20 is a flowchart illustrating an example of the flow of image processing according to a modification of the fourth embodiment. 図21は、実施の形態5に係る画像処理の流れの例を示すフローチャートである。FIG. 21 is a flowchart illustrating an example of the flow of image processing according to the fifth embodiment. 図22は、実施の形態6に係る基点を決定する例を示すイメージ図である。FIG. 22 is an image diagram showing an example of determining a base point according to the sixth embodiment. 図23は、実施の形態6に係るドラッグ距離に応じたカメラ動作速度を設定する例を示すイメージ図である。FIG. 23 is an image diagram showing an example of setting the camera operating speed according to the drag distance according to the sixth embodiment. 図24は、実施の形態6に係る画像処理の流れの例を示すフローチャートである。FIG. 24 is a flowchart illustrating an example of the flow of image processing according to the sixth embodiment. 図25は、実施の形態7に係る基点を決定する例を示すイメージ図である。FIG. 25 is an image diagram showing an example of determining a base point according to the seventh embodiment. 図26は、実施の形態7に係るドラッグ速度に応じたカメラ動作速度を設定する例を示すイメージ図である。FIG. 26 is an image diagram showing an example of setting the camera operation speed according to the drag speed according to the seventh embodiment. 図27は、実施の形態7に係る画像処理の流れの例を示すフローチャートである。FIG. 27 is a flowchart illustrating an example of the flow of image processing according to the seventh embodiment. 図28は、3次元モデル記憶部に記憶される情報例を示す図である。FIG. 28 is a diagram illustrating an example of information stored in the three-dimensional model storage unit. 図29は、監視エリアの階層構造の説明図である。FIG. 29 is an explanatory diagram of the hierarchical structure of the monitoring area. 図30は、視点情報記憶部に記憶される情報例を示す図である。FIG. 30 is a diagram illustrating an example of information stored in the viewpoint information storage unit. 図31は、選択画像から選択可能な監視エリアまたはカメラアイコンを示す説明図である。FIG. 31 is an explanatory diagram showing monitoring areas or camera icons that can be selected from the selected image. 図32は、実施の形態8に係る全体処理の流れの例を示すフローチャートである。FIG. 32 is a flowchart illustrating an example of the flow of overall processing according to the eighth embodiment. 図33は、実施の形態8に係る選択画像生成処理の流れの例を示すフローチャートである。FIG. 33 is a flowchart illustrating an example of the flow of selected image generation processing according to the eighth embodiment. 図34は、実施の形態9にかかる画像処理装置の処理を説明するための図である。FIG. 34 is a diagram for explaining processing of the image processing apparatus according to the ninth embodiment. 図35は、3次元モデル記憶部に記憶される情報例を示す図である。FIG. 35 is a diagram illustrating an example of information stored in the three-dimensional model storage unit. 図36Aは、視点位置が変更された場合に描画される2次元投影画像を示す図である。FIG. 36A is a diagram illustrating a two-dimensional projection image drawn when the viewpoint position is changed. 図36Bは、視点位置が変更された場合に描画される2次元投影画像を示す図である。FIG. 36B is a diagram showing a two-dimensional projection image drawn when the viewpoint position is changed. 図36Cは、視点位置が変更された場合に描画される2次元投影画像を示す図である。FIG. 36C is a diagram showing a two-dimensional projection image drawn when the viewpoint position is changed. 図37は、全監視エリアに対するy軸を回転軸とする視点範囲を説明するための図である。FIG. 37 is a diagram for explaining the viewpoint range with the y-axis as the rotation axis for all monitoring areas. 図38Aは、視点位置が変更された場合に描画される2次元投影画像を示す図である。FIG. 38A is a diagram illustrating a two-dimensional projection image drawn when the viewpoint position is changed. 図38Bは、視点位置が変更された場合に描画される2次元投影画像を示す図である。FIG. 38B is a diagram showing a two-dimensional projection image drawn when the viewpoint position is changed. 図39は、画像処理装置のフローチャートである。FIG. 39 is a flowchart of the image processing apparatus. 図40は、実施の形態10に係る画像処理装置の構成例を示す図である。FIG. 40 is a diagram illustrating a configuration example of an image processing device according to the tenth embodiment. 図41は、図40に示す画像記憶部が保持する撮像画像管理テーブルの一例を示す図である。FIG. 41 is a diagram showing an example of a captured image management table held by the image storage unit shown in FIG. 図42は、実施の形態1〜11に係るセンサの構成例を示す図である。FIG. 42 is a diagram illustrating a configuration example of the sensor according to the first to eleventh embodiments. 図43は、図40に示すイベント記憶部が保持するイベント管理テーブルの一例を示す図である。FIG. 43 is a diagram showing an example of an event management table held by the event storage unit shown in FIG. 図44は、実施の形態10において3次元モデル記憶部が管理するセンサ管理テーブルの一例を示す図である。FIG. 44 is a diagram illustrating an example of a sensor management table managed by the three-dimensional model storage unit in the tenth embodiment. 図45は、実施の形態10に係る制御部の録画動作を示すフローチャートである。FIG. 45 is a flowchart showing the recording operation of the control unit according to the tenth embodiment. 図46は、実施の形態10に係る制御部のイベント記録動作を示すフローチャートである。FIG. 46 is a flowchart showing the event recording operation of the control unit according to the tenth embodiment. 図47は、実施の形態10に係る制御部による録画再生動作の一例を示すフローチャートである。FIG. 47 is a flowchart showing an example of a recording / playback operation by the control unit according to the tenth embodiment. 図48は、実施の形態10に係る合成画像の一例を示す図である。FIG. 48 is a diagram illustrating an example of a composite image according to the tenth embodiment. 図49は、図48に示す操作画面の一例を示す図である。FIG. 49 is a diagram showing an example of the operation screen shown in FIG. 図50は、実施の形態11に係る合成画像の一例を示す図である。FIG. 50 is a diagram illustrating an example of a composite image according to the eleventh embodiment. 図51は、画像処理プログラムがコンピュータを用いて実現されることを示す図である。FIG. 51 is a diagram illustrating that an image processing program is realized using a computer.

以下に添付図面を参照して、本発明に係る画像処理装置、画像処理方法及び画像処理プログラムの実施の形態を説明する。なお、以下の実施の形態により本発明が限定されるものではない。また、各実施の形態は、内容を矛盾させない範囲で適宜組み合わせることができる。   Embodiments of an image processing apparatus, an image processing method, and an image processing program according to the present invention will be described below with reference to the accompanying drawings. In addition, this invention is not limited by the following embodiment. Moreover, each embodiment can be combined suitably as long as the content is not contradicted.

(実施の形態1)
[実施の形態1に係る監視システムの構成]
図1を用いて、実施の形態1に係る監視システムの構成を説明する。図1は、実施の形態1に係る監視システムの構成例を示す図である。
(Embodiment 1)
[Configuration of Monitoring System According to Embodiment 1]
The configuration of the monitoring system according to the first embodiment will be described with reference to FIG. FIG. 1 is a diagram illustrating a configuration example of a monitoring system according to the first embodiment.

図1に示すように、監視システム1には、画像処理装置10と、撮像装置20a1と、センサ40a1と、撮像装置20b1と、センサ40b1とがネットワーク30に接続されている。かかる監視システム1は、所定のエリアを監視するために利用される。画像処理装置10は、例えば、店舗内の管理室や警備会社の警備室等に設置されることがある。以下では、監視システム1による監視の監視対象となるエリア全体を「全監視エリア」と呼ぶ場合がある。   As shown in FIG. 1, in the monitoring system 1, an image processing device 10, an imaging device 20a1, a sensor 40a1, an imaging device 20b1, and a sensor 40b1 are connected to a network 30. Such a monitoring system 1 is used for monitoring a predetermined area. The image processing apparatus 10 may be installed in, for example, a management room in a store or a security room of a security company. Hereinafter, the entire area to be monitored by the monitoring system 1 may be referred to as “all monitoring areas”.

また、撮像装置20a1とセンサ40a1とは、全監視エリアの一部であるエリア50aに配置される。同様に、撮像装置20b1と、センサ40b1とは、全監視エリアの一部であるエリア50bに配置される。エリア50aには、撮像装置20a1やセンサ40a1の他にも、複数の撮像装置やセンサが配置される場合がある。また、エリア50bには、撮像装置20b1やセンサ40b1の他にも、複数の撮像装置やセンサが配置される場合がある。以下では、撮像装置20a1や撮像装置20b1を、「撮像装置20」と呼ぶ場合がある。また、以下では、センサ40a1やセンサ40b1を、「センサ40」と呼ぶ場合がある。また、以下では、エリア50a1やエリア50b1を、「エリア50」と呼ぶ場合がある。   The imaging device 20a1 and the sensor 40a1 are arranged in an area 50a that is a part of the entire monitoring area. Similarly, the imaging device 20b1 and the sensor 40b1 are arranged in an area 50b that is a part of the entire monitoring area. In addition to the imaging device 20a1 and the sensor 40a1, a plurality of imaging devices and sensors may be arranged in the area 50a. In addition to the imaging device 20b1 and the sensor 40b1, a plurality of imaging devices and sensors may be arranged in the area 50b. Hereinafter, the imaging device 20a1 and the imaging device 20b1 may be referred to as “imaging device 20”. Hereinafter, the sensor 40a1 and the sensor 40b1 may be referred to as “sensor 40”. Hereinafter, the area 50a1 and the area 50b1 may be referred to as “area 50”.

これらのうち、撮像装置20は、エリア50に含まれる撮像可能範囲の被写体を撮像するカメラを有する。そして、撮像装置20は、カメラによって撮像した画像を圧縮した撮像画像を画像処理装置10に送信する。このとき、撮像装置20は、撮像時のカメラにおけるズームレンズの焦点距離の情報であるズーム(zoom)情報や撮像方向情報も合わせて画像処理装置10に送信する。かかる撮像方向情報とは、例えば、撮像方向の水平方向の角度であるパン(pan)情報及び撮像方向の垂直方向の角度であるチルト(tilt)情報である。   Among these, the imaging device 20 includes a camera that captures an image of a subject within the imageable range included in the area 50. Then, the imaging device 20 transmits a captured image obtained by compressing an image captured by the camera to the image processing device 10. At this time, the imaging device 20 also transmits zoom information and imaging direction information, which are information on the focal length of the zoom lens in the camera at the time of imaging, to the image processing device 10. Such imaging direction information is, for example, pan information that is the horizontal angle of the imaging direction and tilt information that is the vertical angle of the imaging direction.

画像処理装置10は、全監視エリアの3次元モデルを表現する3次元モデルデータを記憶する。かかる3次元モデルデータは、全監視エリア内の建物等の物体(オブジェクト)の形状やサイズやレイアウト(位置情報)を示す情報である。3次元モデルデータは、例えば、撮像装置20による撮像で得られた物の形状や視点等の情報を利用し、レンダリングされることにより予め生成される。あるいは、全監視エリアの見取り図等から生成しても良い。加えて、画像処理装置10は、全監視エリア内に配置されたカメラ(撮像装置20に相当)の3次元モデル内の位置であるカメラ位置を記憶する。   The image processing apparatus 10 stores three-dimensional model data representing a three-dimensional model of all monitoring areas. Such three-dimensional model data is information indicating the shape, size, and layout (position information) of an object (object) such as a building in all monitoring areas. The three-dimensional model data is generated in advance by, for example, rendering using information such as the shape and viewpoint of an object obtained by imaging with the imaging device 20. Alternatively, it may be generated from a floor plan of all monitoring areas. In addition, the image processing apparatus 10 stores a camera position that is a position in a three-dimensional model of a camera (corresponding to the imaging apparatus 20) arranged in all the monitoring areas.

そして、画像処理装置10は、撮像装置20によって撮像された撮像画像や、撮像時のズームレンズの焦点距離、撮像方向等を該撮像装置20から取得する。続いて、画像処理装置10は、カメラ位置に基づいて3次元モデルから2次元画像を生成する際の視点を決定し、決定した視点、撮像方向及びズームレンズの焦点距離に応じた2次元投影画像を生成する。その後、画像処理装置10は、生成した2次元投影画像上の所定領域に、撮像画像を合成することにより合成画像を生成し、生成した合成画像を出力する。   Then, the image processing apparatus 10 acquires the captured image captured by the imaging apparatus 20, the focal length of the zoom lens at the time of imaging, the imaging direction, and the like from the imaging apparatus 20. Subsequently, the image processing apparatus 10 determines a viewpoint for generating a two-dimensional image from the three-dimensional model based on the camera position, and a two-dimensional projection image corresponding to the determined viewpoint, imaging direction, and focal length of the zoom lens. Is generated. Thereafter, the image processing apparatus 10 generates a composite image by combining the captured image with a predetermined region on the generated two-dimensional projection image, and outputs the generated composite image.

センサ40は、例えば、エリア50に適宜配置され、人物や扉の開閉等を検知してアラームを発呼する人感センサや開閉センサ等であり、画像処理装置10に対して検出データを送信する。   The sensor 40 is, for example, a human sensor or an opening / closing sensor that is appropriately disposed in the area 50 and detects an opening / closing of a person or a door and issues an alarm, and transmits detection data to the image processing apparatus 10. .

つまり、画像処理装置10は、撮像装置20の撮像方向等に応じて生成した2次元投影画像の所定領域に、撮像装置20によって撮像された撮像画像を合成して出力するので、合成画像の閲覧者は、カメラによって撮像されている領域が全監視エリア内のいずれの領域であるかを直感的に把握することができる。なお、画像処理装置10や撮像装置20の詳細な構成については後述する。   That is, the image processing apparatus 10 synthesizes and outputs the captured image captured by the imaging apparatus 20 to a predetermined region of the two-dimensional projection image generated according to the imaging direction of the imaging apparatus 20 and the like. The person can intuitively grasp which area in the entire monitoring area is the area captured by the camera. Detailed configurations of the image processing device 10 and the imaging device 20 will be described later.

[実施の形態1に係る撮像装置の構成]
次に、図2を用いて、実施の形態1に係る撮像装置20の構成を説明する。図2は、実施の形態1に係る撮像装置20の構成例を示す図である。
[Configuration of Imaging Device According to Embodiment 1]
Next, the configuration of the imaging device 20 according to Embodiment 1 will be described with reference to FIG. FIG. 2 is a diagram illustrating a configuration example of the imaging device 20 according to the first embodiment.

図2に示すように、撮像装置20は、撮像部201と、圧縮部202と、通信処理部203と、制御部204と、雲台駆動部205と、角度センサ206と、ズーム駆動部207と、ズームセンサ208とを有する。また、撮像装置20は、ネットワーク30を介して、画像処理装置10と接続されるネットワークカメラであり、ネットワーク30を介して受信した制御信号にしたがってその撮像方向を変更することが可能である。   As shown in FIG. 2, the imaging device 20 includes an imaging unit 201, a compression unit 202, a communication processing unit 203, a control unit 204, a pan head driving unit 205, an angle sensor 206, and a zoom driving unit 207. And a zoom sensor 208. The imaging device 20 is a network camera connected to the image processing device 10 via the network 30 and can change the imaging direction according to a control signal received via the network 30.

撮像部201は、撮像可能範囲の被写体を撮像し、撮像した撮像画像を圧縮部202に出力する。撮像画像は、静止画であってもよく、動画であってもよい。圧縮部202は、撮像部201によって撮像された撮像画像をJPEG(Joint Photographic Experts Group)やMPEG−4(Moving Picture Experts Group phase 4)等の規格で圧縮し、圧縮したディジタル画像を撮像画像として通信処理部203に出力する。また、圧縮部202は、制御部204からパン情報、チルト情報およびズーム情報を受け付けて、撮像画像のヘッダまたはフッタ等に付加する。これにより、パン情報、チルト情報及びズーム情報が付加された撮像画像が通信処理部203へ送られる。   The imaging unit 201 captures a subject within the imageable range and outputs the captured image to the compression unit 202. The captured image may be a still image or a moving image. The compression unit 202 compresses the captured image captured by the imaging unit 201 according to a standard such as JPEG (Joint Photographic Experts Group) or MPEG-4 (Moving Picture Experts Group phase 4), and communicates the compressed digital image as a captured image. The data is output to the processing unit 203. The compression unit 202 also receives pan information, tilt information, and zoom information from the control unit 204 and adds them to the header or footer of the captured image. As a result, a captured image to which pan information, tilt information, and zoom information are added is sent to the communication processing unit 203.

通信処理部203は、圧縮部202によって出力されたパン情報、チルト情報及びズーム情報が付加された撮像画像を、ネットワーク30を介して画像処理装置10に送信する。また、通信処理部203は、外部装置から受信した制御信号を制御部204に出力する。かかる制御信号は、例えば、パン、チルト及びズームに関する制御信号である。すなわち、通信処理部203は、一般のネットワークカメラと同様、カメラ制御を行なうために、外部装置から制御信号を受信する。本実施の形態にかかる通信処理部203は、画像処理装置10から制御信号を受信する。   The communication processing unit 203 transmits the captured image to which the pan information, tilt information, and zoom information output from the compression unit 202 are added to the image processing apparatus 10 via the network 30. Further, the communication processing unit 203 outputs a control signal received from the external device to the control unit 204. Such a control signal is, for example, a control signal related to pan, tilt, and zoom. That is, the communication processing unit 203 receives a control signal from an external device in order to perform camera control, as in a general network camera. The communication processing unit 203 according to the present embodiment receives a control signal from the image processing apparatus 10.

制御部204は、雲台駆動部205にパンやチルトを行なわせたり、ズーム駆動部207にズームレンズのズームを行なわせたりする制御を行なう。この制御は、通信処理部203を介して入力された制御信号に基づくものである。また、他の例としては、制御部204は、予め設定されたアルゴリズムにしたがい上記制御を行ってもよい。また、制御部204は、角度センサ206で検知されたパンやチルトの角度を受け付けて、圧縮部202へ送る。また、制御部204は、ズームセンサ208で検知されたズームレンズの焦点距離を受け付けて、圧縮部202へ送る。   The control unit 204 performs control for causing the pan / tilt head driving unit 205 to perform panning and tilting and causing the zoom driving unit 207 to zoom the zoom lens. This control is based on a control signal input via the communication processing unit 203. As another example, the control unit 204 may perform the control according to a preset algorithm. Further, the control unit 204 receives the pan and tilt angles detected by the angle sensor 206 and sends them to the compression unit 202. Further, the control unit 204 receives the focal length of the zoom lens detected by the zoom sensor 208 and sends it to the compression unit 202.

雲台駆動部205は、例えば、制御部204からの制御にしたがって、撮像部201の撮像方向を変更する。この雲台駆動部205には、パン方向やチルト方向の角度を検出する角度センサ206が設けられている。角度センサ206は、例えば、パンやチルトの角度を検知して制御部204に出力する。ズーム駆動部207は、撮像部201のズームレンズに取り付けられている。ズーム駆動部207は、例えば、制御部204によって指示されたズームレンズの焦点距離に応じて、ズームレンズの焦点距離を変更する。ズームレンズには、ズームレンズの焦点距離を検知するズームセンサ208が設けられている。ズームセンサ208は、例えば、ズームレンズの焦点距離を検知して制御部204に出力する。制御部204は、角度センサ206およびズームセンサ208の検出結果に基づいて、適宜撮像部201の撮像方向やズームレンズの焦点距離を確認しつつ、これらを制御する。   The pan / tilt head driving unit 205 changes the imaging direction of the imaging unit 201 in accordance with, for example, control from the control unit 204. The pan head drive unit 205 is provided with an angle sensor 206 that detects an angle in the pan direction or the tilt direction. The angle sensor 206 detects, for example, the pan and tilt angles and outputs them to the control unit 204. The zoom drive unit 207 is attached to the zoom lens of the imaging unit 201. For example, the zoom driving unit 207 changes the focal length of the zoom lens according to the focal length of the zoom lens instructed by the control unit 204. The zoom lens is provided with a zoom sensor 208 that detects the focal length of the zoom lens. For example, the zoom sensor 208 detects the focal length of the zoom lens and outputs it to the control unit 204. Based on the detection results of the angle sensor 206 and the zoom sensor 208, the control unit 204 controls these while appropriately checking the imaging direction of the imaging unit 201 and the focal length of the zoom lens.

[実施の形態1に係る画像処理装置の構成]
次に、図3を用いて、実施の形態1に係る画像処理装置10の構成を説明する。図3は、実施の形態1に係る画像処理装置10の構成例を示す図である。
[Configuration of Image Processing Device According to Embodiment 1]
Next, the configuration of the image processing apparatus 10 according to the first embodiment will be described with reference to FIG. FIG. 3 is a diagram illustrating a configuration example of the image processing apparatus 10 according to the first embodiment.

画像処理装置10は、3次元モデル記憶部111と、視点情報記憶部112と、操作部121と、通信処理部122と、取得部123と、制御部124と、合成部125と、出力部126とを有する。画像処理装置10は、ネットワーク30を介して、撮像装置20等のネットワークカメラやセンサ40に接続されたPC(Personal Computer)等の情報処理装置である。   The image processing apparatus 10 includes a three-dimensional model storage unit 111, a viewpoint information storage unit 112, an operation unit 121, a communication processing unit 122, an acquisition unit 123, a control unit 124, a synthesis unit 125, and an output unit 126. And have. The image processing apparatus 10 is an information processing apparatus such as a PC (Personal Computer) connected to a network camera such as the imaging apparatus 20 or the sensor 40 via the network 30.

3次元モデル記憶部111は、3次元モデルデータ等を記憶する。図4は、3次元モデル記憶部111に記憶される情報例を示す図である。図4に示すように、3次元モデル記憶部111は、全監視エリアの3次元モデルを表現する3次元モデルデータと、デバイスID(identifier)と、アイコン種類IDと、アイコン位置とを対応付けて記憶する。ここで、デバイスIDとは、3次元モデルデータで表現される3次元モデル内に配置されるデバイスを識別する、デバイス固有の識別情報である。アイコン種類IDとは、3次元モデル内でデバイスを表現するアイコンの種類である。本実施の形態にかかる画像処理装置10においては、デバイスの種類毎に異なる種類のアイコンが割り当てられており、アイコン種類IDは、このアイコンの種類を識別する情報である。アイコン位置は、3次元モ
デルにおいてアイコンが配置される位置(座標)である。
The 3D model storage unit 111 stores 3D model data and the like. FIG. 4 is a diagram illustrating an example of information stored in the three-dimensional model storage unit 111. As shown in FIG. 4, the three-dimensional model storage unit 111 associates three-dimensional model data representing a three-dimensional model of all monitoring areas, a device ID (identifier), an icon type ID, and an icon position. Remember. Here, the device ID is device-specific identification information for identifying a device arranged in the three-dimensional model represented by the three-dimensional model data. The icon type ID is a type of icon that represents a device in the three-dimensional model. In the image processing apparatus 10 according to the present embodiment, a different type of icon is assigned for each type of device, and the icon type ID is information for identifying the type of icon. The icon position is a position (coordinate) where the icon is arranged in the three-dimensional model.

例を挙げると、3次元モデル記憶部111は、図4に示すように、3次元モデルデータ「全監視エリア」と、カメラ1を示すデバイスID「#01」と、アイコン種類としてカメラを示すアイコン種類ID「A001」と、アイコン位置「(x1,y1,z1)」とを対応付けて記憶する。したがって、3次元モデル記憶部111を参照することにより、各デバイスの配置位置を特定することができる。例えば、図4に示す例においては、「カメラ1」、「カメラ2」及び「センサ1」の配置位置として、それぞれ「全監視エリア」の3次元モデルにおける座標「(x1,y1,z1)」、「(x2,y2,z2)」、「(x3,y3,z3)」を特定することができる。   For example, as shown in FIG. 4, the 3D model storage unit 111 has 3D model data “all monitoring areas”, a device ID “# 01” indicating the camera 1, and an icon indicating a camera as an icon type. The type ID “A001” and the icon position “(x1, y1, z1)” are stored in association with each other. Therefore, by referring to the three-dimensional model storage unit 111, the arrangement position of each device can be specified. For example, in the example illustrated in FIG. 4, the coordinates “(x1, y1, z1)” in the three-dimensional model of “all monitoring areas” are used as the arrangement positions of “camera 1”, “camera 2”, and “sensor 1”. , “(X2, y2, z2)”, “(x3, y3, z3)” can be specified.

さらに、3次元モデル記憶部111は、図4に示すように、アイコン種類IDに対応付けて、各種アイコンの3次元パーツモデルを記憶する。なお、撮像装置20に対応するアイコンの3次元パーツモデルは、レンズに相当する部位を有している。3次元モデル中に撮像装置20の3次元パーツモデルを配置する際には、撮像装置20の3次元パーツモデルのレンズの向きを実際の撮像装置20のレンズの向き(撮像方向)に合わせて配置することができる。   Further, as illustrated in FIG. 4, the three-dimensional model storage unit 111 stores a three-dimensional part model of various icons in association with the icon type ID. Note that the three-dimensional part model of the icon corresponding to the imaging device 20 has a portion corresponding to a lens. When the three-dimensional part model of the imaging device 20 is arranged in the three-dimensional model, the lens direction of the three-dimensional part model of the imaging device 20 is arranged according to the actual lens direction (imaging direction) of the imaging device 20. can do.

図5は、3次元モデルデータを説明するための図である。なお、図5には、3次元モデルの斜め上方の視点から観察される3次元モデルの俯瞰図を示している。図5に示すように、3次元モデルは、全監視エリア内の建物、地面、樹木等の物体がそれぞれのサイズに応じてレイアウトされたモデルであり、3次元モデルデータは、これらの物体の形状やサイズや位置等を示すデータである。なお、3次元モデルデータに対し、視点、注視点および画角を定めることにより、図5に示す俯瞰図のように、3次元モデルを2次元面に投影した2次元画像である2次元投影画像を生成することができる。   FIG. 5 is a diagram for explaining the three-dimensional model data. FIG. 5 shows an overhead view of the three-dimensional model observed from the obliquely upper viewpoint of the three-dimensional model. As shown in FIG. 5, the three-dimensional model is a model in which objects such as buildings, grounds, and trees in the entire monitoring area are laid out according to their sizes, and the three-dimensional model data includes the shapes of these objects. Or data indicating size, position, etc. Note that a two-dimensional projection image that is a two-dimensional image obtained by projecting a three-dimensional model onto a two-dimensional surface, as shown in an overhead view shown in FIG. 5, by determining a viewpoint, a gazing point, and a field angle for the three-dimensional model data. Can be generated.

視点情報記憶部112は、後述する合成部125が3次元モデルデータから2次元投影画像を生成する際に利用する視点位置を記憶する。図6は、視点情報記憶部112に記憶される情報例を示す図である。視点情報記憶部112は、具体的には、全監視エリアの2次元投影画像を生成する際に利用される視点位置と、カメラの配置位置から観察されるエリアの2次元投影画像を生成する際に利用される視点位置とを、視点位置を識別する視点位置IDに対応付けて記憶する。   The viewpoint information storage unit 112 stores a viewpoint position used when a synthesis unit 125 described later generates a two-dimensional projection image from the three-dimensional model data. FIG. 6 is a diagram illustrating an example of information stored in the viewpoint information storage unit 112. Specifically, the viewpoint information storage unit 112 generates the two-dimensional projection image of the area observed from the viewpoint position used when generating the two-dimensional projection image of the entire monitoring area and the camera arrangement position. Are stored in association with the viewpoint position ID for identifying the viewpoint position.

例を挙げると、図6に示すように、視点情報記憶部112は、全監視エリアを示す視点位置ID「B001」と、視点位置「(x10,y10,z10)」とを対応付けて記憶する。また、視点情報記憶部112は、カメラ1を示す視点位置ID「B011」と、視点位置「(x11,y11,z11)」とを対応付けて記憶する。ここで、カメラを示す視点位置IDに対応付けられている視点位置は、カメラ位置である。なお、カメラ位置を示す視点位置の視点位置IDは、カメラのデバイスID(以下、カメラIDという)と同一の値であってもよい。これにより、カメラIDから直接視点位置を特定することができる。   For example, as illustrated in FIG. 6, the viewpoint information storage unit 112 stores the viewpoint position ID “B001” indicating the entire monitoring area and the viewpoint position “(x10, y10, z10)” in association with each other. . The viewpoint information storage unit 112 stores a viewpoint position ID “B011” indicating the camera 1 and a viewpoint position “(x11, y11, z11)” in association with each other. Here, the viewpoint position associated with the viewpoint position ID indicating the camera is the camera position. Note that the viewpoint position ID of the viewpoint position indicating the camera position may be the same value as the device ID of the camera (hereinafter referred to as camera ID). Thereby, the viewpoint position can be specified directly from the camera ID.

操作部121は、マウスやタッチパネル等の入力装置を有し、監視システム1のユーザのユーザ操作によって各種指示を受け付ける。例えば、操作部121は、ユーザからのカメラ選択指示を受け付ける。また、操作部121は、ユーザ操作によって所定のカメラ(撮像装置20)が選択されると、選択された撮像装置20の撮像画像を出力する指示を受け付ける。また、操作部121は、ユーザ操作によって所定の撮像装置20に対するパン、チルト及びズームの設定指示を受け付ける。なお、パン、チルト及びズームの設定指示は、上述したパン、チルト及びズームに関する制御信号として、制御部124及び通信処理部122を介して撮像装置20に送信される。   The operation unit 121 includes an input device such as a mouse or a touch panel, and accepts various instructions by a user operation of the user of the monitoring system 1. For example, the operation unit 121 receives a camera selection instruction from the user. In addition, when a predetermined camera (imaging device 20) is selected by a user operation, the operation unit 121 receives an instruction to output a captured image of the selected imaging device 20. In addition, the operation unit 121 receives pan, tilt, and zoom setting instructions for a predetermined imaging device 20 by a user operation. Note that the pan, tilt, and zoom setting instructions are transmitted to the imaging apparatus 20 via the control unit 124 and the communication processing unit 122 as control signals related to the above-described pan, tilt, and zoom.

通信処理部122は、ネットワーク30を介して接続される撮像装置20やセンサ40との通信を制御する。例えば、通信処理部122は、撮像画像と、パン情報、チルト情報及びズーム情報とを撮像装置20から受信する。また、通信処理部122は、操作部121によって受け付けられたパン、チルト及びズームの設定指示を、パン、チルト及びズームに関する制御信号として撮像装置20に対して送信する。   The communication processing unit 122 controls communication with the imaging device 20 and the sensor 40 connected via the network 30. For example, the communication processing unit 122 receives a captured image and pan information, tilt information, and zoom information from the imaging device 20. In addition, the communication processing unit 122 transmits the pan, tilt, and zoom setting instructions received by the operation unit 121 to the imaging device 20 as control signals related to pan, tilt, and zoom.

取得部123は、撮像画像や撮像方向としてのパン情報、チルト情報や、ズーム情報を、通信処理部122を介して撮像装置20から取得する。また、取得部123は、センサ40から検出データを取得する。なお、検出データには、センサ40の検出方向等に関する情報(パン情報、チルト情報等)が含まれていてもよい。   The acquisition unit 123 acquires panned information, tilt information, and zoom information as a captured image and an imaging direction from the imaging device 20 via the communication processing unit 122. The acquisition unit 123 acquires detection data from the sensor 40. The detection data may include information related to the detection direction of the sensor 40 (pan information, tilt information, etc.).

制御部124は、画像処理装置10を全体制御する。例えば、制御部124は、操作部121によって受け付けられた指示に応じて、取得部123によって取得された撮像画像、撮像時のパン情報、チルト情報及びズーム情報を合成部125に出力する。制御部124はまた、操作部121が受け付けた指示に応じて、3次元モデルと、視点位置とを3次元モデル記憶部111から取得し、これらを合成部125に出力する。   The control unit 124 controls the entire image processing apparatus 10. For example, the control unit 124 outputs the captured image acquired by the acquisition unit 123, pan information at the time of imaging, tilt information, and zoom information to the synthesis unit 125 in accordance with an instruction received by the operation unit 121. The control unit 124 also acquires the three-dimensional model and the viewpoint position from the three-dimensional model storage unit 111 according to the instruction received by the operation unit 121, and outputs these to the synthesis unit 125.

このとき、制御部124は、各撮像装置20に相当するカメラアイコンやセンサ40に対応するセンサアイコンのイメージ、およびこれらアイコンのアイコン位置も3次元モデル記憶部111から取得し、取得したアイコンと該アイコンのアイコン位置とを合成部125に出力する。また、制御部124は、ユーザによって選択されたカメラアイコンに相当する撮像装置20により撮像された撮像画像だけでなく、カメラアイコンそれぞれに対応する撮像画像を取得部123から受け付けており、各撮像画像も合成部125に出力する。   At this time, the control unit 124 also acquires the camera icon corresponding to each imaging device 20 and the image of the sensor icon corresponding to the sensor 40 and the icon position of these icons from the three-dimensional model storage unit 111, The icon position of the icon is output to the composition unit 125. Further, the control unit 124 receives not only the captured image captured by the imaging device 20 corresponding to the camera icon selected by the user but also the captured image corresponding to each camera icon from the acquisition unit 123, and each captured image. Is also output to the combining unit 125.

合成部125は、3次元モデルの視点及び撮像方向に基づいて、2次元投影画像を生成し、生成した2次元投影画像上の所定領域に撮像装置20によって撮像された2次元画像である撮像画像を合成する。なお、所定領域は、2次元投影画像上の所定の位置に設定された所定のサイズの領域である。例えば、合成部125は、制御部124が3次元モデル記憶部111から読み出した視点位置と、合成対象となる撮像画像を撮像する撮像装置20のパン、チルト、ズームに応じて2次元投影画像を生成する。続いて、合成部125は、生成した2次元投影画像の中央付近等の所定領域に、制御部124から出力された撮像画像を合成することにより、合成画像を生成する。   The synthesizing unit 125 generates a two-dimensional projection image based on the viewpoint and the imaging direction of the three-dimensional model, and a captured image that is a two-dimensional image captured by the imaging device 20 in a predetermined region on the generated two-dimensional projection image. Is synthesized. The predetermined area is an area having a predetermined size set at a predetermined position on the two-dimensional projection image. For example, the synthesizing unit 125 generates a two-dimensional projection image according to the viewpoint position read out from the three-dimensional model storage unit 111 by the control unit 124 and the pan, tilt, and zoom of the imaging device 20 that captures the captured image to be synthesized. Generate. Subsequently, the synthesizing unit 125 generates a synthesized image by synthesizing the captured image output from the control unit 124 with a predetermined area such as near the center of the generated two-dimensional projection image.

このとき、合成部125は、制御部124によって出力されたカメラアイコンやセンサアイコン等のアイコンもアイコン位置をもとに2次元投影画像に配置する。さらに、合成部125は、各撮像装置20に対応する各カメラアイコン付近にそれぞれ設定された領域(例えば、ポップアップ)に、それぞれの撮像装置20で撮像された撮像画像を合成する。なお、各カメラアイコンに対してポップアップ表示される画像は撮像画像のサムネイルであってもよい。各カメラアイコン付近に設定された領域は、例えば、上述した所定領域よりも小さい領域とする。このように、合成部125は、各カメラアイコン付近に設定された領域に撮像画像をポップアップ表示するために、所定領域に対応する撮像画像だけでなく、撮像装置20によって撮像された撮像画像それぞれを制御部124から受け付ける。また、本実施の形態や他の実施の形態において、3次元モデル記憶部111にカメラの番号や名称、撮像する場所などのコメントを記憶させておき、ポップアップに表示する撮像画像にコメントを重畳させたり、コメントのみをポップアップとして表示させても良い。   At this time, the combining unit 125 also arranges icons such as camera icons and sensor icons output by the control unit 124 in the two-dimensional projection image based on the icon positions. Furthermore, the synthesis unit 125 synthesizes the captured images captured by the respective imaging devices 20 in areas (for example, pop-ups) set in the vicinity of the respective camera icons corresponding to the respective imaging devices 20. Note that the image pop-up displayed for each camera icon may be a thumbnail of the captured image. The area set in the vicinity of each camera icon is, for example, an area smaller than the predetermined area described above. As described above, the combining unit 125 displays not only the captured image corresponding to the predetermined area but also each captured image captured by the imaging device 20 in order to pop up the captured image in the area set near each camera icon. Accept from the control unit 124. Also, in this embodiment and other embodiments, comments such as camera numbers and names, places to be imaged are stored in the 3D model storage unit 111, and the comments are superimposed on the captured image displayed in the pop-up. Or you may display only the comment as a popup.

出力部126は、合成画像を出力する。例えば、出力部126は、合成部125によって2次元投影画像に合成されたアイコン、カメラアイコン付近の領域に合成された撮像画像、又は、2次元投影画像の所定領域に合成された撮像画像等を含む合成画像を出力する。なお、出力部126は、合成画像を表示する表示装置であっても良いし、画像処理装置10に接続された表示装置に合成画像を出力しても良い。   The output unit 126 outputs a composite image. For example, the output unit 126 may display an icon combined with the two-dimensional projection image by the combining unit 125, a captured image combined with an area near the camera icon, or a captured image combined with a predetermined region of the two-dimensional projection image. Output the composite image including it. The output unit 126 may be a display device that displays a composite image, or may output the composite image to a display device connected to the image processing device 10.

[実施の形態1に係る全体処理フロー]
次に、図7を用いて、実施の形態1に係る全体処理の流れについて説明する。図7は、実施の形態1に係る全体処理の流れの例を示すフローチャートである。
[Overall Processing Flow According to Embodiment 1]
Next, the overall processing flow according to the first embodiment will be described with reference to FIG. FIG. 7 is a flowchart illustrating an example of the flow of overall processing according to the first embodiment.

例えば、図7に示すように、画像処理装置10の操作部121が、初期画像の表示指示を受け付けた場合に(ステップS101肯定)、合成部125は、初期画像を生成する(ステップS102)。そして、出力部126は、合成部125により生成された初期画像を表示画面に表示する(ステップS103)。一方、操作部121が初期画像の表示指示を受け付けていない場合には(ステップS101否定)、初期画像の表示指示待ちの状態となる。   For example, as illustrated in FIG. 7, when the operation unit 121 of the image processing apparatus 10 receives an instruction to display an initial image (Yes in step S101), the synthesis unit 125 generates an initial image (step S102). And the output part 126 displays the initial image produced | generated by the synthetic | combination part 125 on a display screen (step S103). On the other hand, when the operation unit 121 has not received an instruction to display an initial image (No in step S101), the process waits for an instruction to display an initial image.

図9は、初期画像の例を示す図である。図9に示すように、初期画像は、全監視エリアの2次元投影画像である。かかる初期画像には、3次元モデル記憶部111に全監視エリアの3次元モデルデータに対応付けて記憶されている各種デバイスのアイコンが含まれている。図9に示す2次元投影画像には、デバイスとしての各撮像装置20に相当するカメラアイコンが含まれている。さらに、図9に示す2次元投影画像には、各撮像装置20によって撮像された撮像画像が該カメラアイコン付近にポップアップで表示されている。また、図9では、各カメラアイコンが空中に配置されたものとなっているが、カメラは、実際には地上数メートルの高さのポール等に取り付けられている。また、監視が建物内である場合、カメラは、実際には天井等の高所に取り付けられている。すなわち、初期画像等の2次元投影画像においてカメラアイコンを空中に配置することで、建物等の遮蔽物によりカメラアイコンの表示が隠れてしまうことを抑制しており、これにより、カメラアイコンを選択するための操作性を向上している。なお、図9には図示されていないが、センサ40等のカメラ以外の各種デバイスのアイコンが含まれている場合には該センサ40等のアイコンも表示される。   FIG. 9 is a diagram illustrating an example of an initial image. As shown in FIG. 9, the initial image is a two-dimensional projection image of the entire monitoring area. The initial image includes icons of various devices stored in the 3D model storage unit 111 in association with the 3D model data of all monitoring areas. The two-dimensional projection image shown in FIG. 9 includes a camera icon corresponding to each imaging device 20 as a device. Further, in the two-dimensional projection image shown in FIG. 9, the captured image captured by each imaging device 20 is displayed in a pop-up near the camera icon. In FIG. 9, each camera icon is arranged in the air, but the camera is actually attached to a pole several meters above the ground. When monitoring is in a building, the camera is actually mounted at a high place such as a ceiling. That is, by arranging the camera icon in the air in a two-dimensional projection image such as an initial image, the display of the camera icon is suppressed from being hidden by a shielding object such as a building, thereby selecting the camera icon. Because of the improved operability. Although not shown in FIG. 9, when icons of various devices other than the camera such as the sensor 40 are included, the icon of the sensor 40 is also displayed.

図7に戻り、画像処理装置10は、ユーザ操作により、初期画像においてカメラアイコンが選択され、操作部121が選択指示を受け付けた場合に(ステップS104肯定)、合成部125は、選択されたカメラアイコンの配置位置を視点とする2次元投影画像に、選択されたカメラアイコンに対応する撮像装置20の撮像画像を合成した合成画像を生成する(ステップS105)。そして、出力部126は、合成画像を表示画面に表示する(ステップS106)。一方、操作部121が初期画面においてカメラアイコンが選択されていない場合に(ステップS104否定)、該カメラアイコンの選択待ちの状態となる。   Returning to FIG. 7, when the camera icon is selected in the initial image by the user operation and the operation unit 121 accepts the selection instruction (Yes at Step S <b> 104), the image synthesizing unit 125 selects the selected camera. A composite image is generated by synthesizing the captured image of the imaging device 20 corresponding to the selected camera icon with the two-dimensional projection image with the icon arrangement position as a viewpoint (step S105). Then, the output unit 126 displays the composite image on the display screen (step S106). On the other hand, when the operation unit 121 does not select a camera icon on the initial screen (No in step S104), the camera unit waits for selection of the camera icon.

[実施の形態1に係る初期画像生成処理フロー]
次に、図8を用いて、実施の形態1に係る初期画像生成処理の流れについて説明する。図8は、実施の形態1に係る初期画像生成処理の流れの例を示すフローチャートである。なお、実施の形態1に係る初期画像生成処理とは、ステップS102における処理を指す。
[Initial Image Generation Processing Flow According to Embodiment 1]
Next, the flow of initial image generation processing according to the first embodiment will be described with reference to FIG. FIG. 8 is a flowchart illustrating an example of the flow of the initial image generation process according to the first embodiment. The initial image generation process according to the first embodiment refers to the process in step S102.

図8に示すように、画像処理装置10の合成部125は、全監視エリアの3次元モデルデータを3次元モデル記憶部111から取得する(ステップS201)。そして、合成部125は、3次元モデル記憶部111において全監視エリアの3次元モデルに対応付けられている各デバイスの配置位置、すなわち各アイコンと該各アイコンのアイコン位置とを3次元モデル記憶部111から取得する(ステップS202)。続いて、合成部125は、各撮像装置20によって送信された撮像方向を、通信処理部122、取得部123および制御部124を介して取得する(ステップS203)。   As illustrated in FIG. 8, the composition unit 125 of the image processing apparatus 10 acquires the three-dimensional model data of all monitoring areas from the three-dimensional model storage unit 111 (Step S201). The synthesizing unit 125 then displays the arrangement positions of the devices associated with the three-dimensional models in all the monitoring areas in the three-dimensional model storage unit 111, that is, the icons and the icon positions of the icons. Obtained from 111 (step S202). Subsequently, the synthesis unit 125 acquires the imaging direction transmitted by each imaging device 20 via the communication processing unit 122, the acquisition unit 123, and the control unit 124 (step S203).

その後、合成部125は、取得した撮像方向から、各カメラアイコンの向きを特定する(ステップS204)。そして、合成部125は、3次元モデルの各アイコン位置に、各デバイスのアイコンを合成する(ステップS205)。このとき、合成部125は、カメラアイコンについては、ステップS204において特定した向きにカメラアイコンのレンズを向けた状態で、3次元モデル内にカメラアイコンを配置する。但し、センサ40等の向きを持たないデバイスに関しては、その向きが特に考慮されることなく3次元モデル内の該当するアイコン位置に、アイコンが合成される。   Thereafter, the combining unit 125 identifies the direction of each camera icon from the acquired imaging direction (step S204). Then, the synthesizing unit 125 synthesizes each device icon at each icon position of the three-dimensional model (step S205). At this time, for the camera icon, the combining unit 125 arranges the camera icon in the three-dimensional model with the camera icon lens facing the direction specified in step S204. However, for a device having no orientation such as the sensor 40, the icon is synthesized at the corresponding icon position in the three-dimensional model without special consideration of the orientation.

そして、合成部125は、視点情報記憶部112から、全監視エリアの視点位置IDに対応付けられている視点位置を取得する(ステップS206)。続いて、合成部125は、取得した視点位置と、予め設定された注視点および画角に基づいて3次元モデルを投影面に投影する等、任意の手法でレンダリングを行なうことにより、2次元投影画像を生成し、生成した2次元投影画像を初期画像とする(ステップS207)。なお、かかる初期画像には、図9に示すように、2次元投影画像中の各カメラアイコン付近に設定されたポップアップ領域に、各カメラアイコンに対応する撮像装置20によって撮像された撮像画像が合成されている。   Then, the synthesizing unit 125 acquires the viewpoint positions associated with the viewpoint position IDs of all monitoring areas from the viewpoint information storage unit 112 (step S206). Subsequently, the synthesizing unit 125 performs two-dimensional projection by performing rendering using an arbitrary method such as projecting a three-dimensional model on a projection plane based on the acquired viewpoint position, a preset gazing point, and a field angle. An image is generated, and the generated two-dimensional projection image is set as an initial image (step S207). Note that, as shown in FIG. 9, the initial image is combined with a captured image captured by the imaging device 20 corresponding to each camera icon in a pop-up area set in the vicinity of each camera icon in the two-dimensional projection image. Has been.

[実施の形態1に係る画像処理フロー]
次に、図10を用いて、実施の形態1に係る画像処理の流れについて説明する。図10は、実施の形態1に係る画像処理の流れの例を示すフローチャートである。なお、実施の形態1に係る画像処理とは、ステップS105における処理を指す。
[Image Processing Flow According to Embodiment 1]
Next, the flow of image processing according to the first embodiment will be described with reference to FIG. FIG. 10 is a flowchart illustrating an example of the flow of image processing according to the first embodiment. Note that the image processing according to Embodiment 1 refers to the processing in step S105.

例えば、操作部121におけるユーザ操作により、初期画像においてカメラアイコンが選択された場合に、取得部123は、該カメラアイコンに相当する撮像装置20によって撮像された撮像画像と、撮像時の撮像方向(パン情報、チルト情報)及びズーム情報とを取得する(ステップS301)。また、合成部125は、制御部124を介して、取得部123によって取得された撮像画像、パン情報、チルト情報及びズーム情報を取得するとともに、3次元モデル、アイコン、アイコン位置(カメラ位置)を3次元モデル記憶部111から取得する。そして、合成部125は、カメラ位置、パン情報、チルト情報およびズーム情報に基づいて3次元モデルの視点、注視点及び画角を決定する。そして、合成部125は、決定した視点、注視点および画角に基づいて、3次元モデルデータから2次元投影画像を生成する(ステップS302)。このとき、合成部125は、アイコン位置をもとに各アイコンを2次元投影画像に配置するとともに、カメラアイコン付近に設定されたポップアップに、カメラアイコンに相当する撮像装置20によって撮像された撮像画像を合成する。   For example, when a camera icon is selected in the initial image by a user operation on the operation unit 121, the acquisition unit 123 captures a captured image captured by the imaging device 20 corresponding to the camera icon and an imaging direction ( Pan information, tilt information) and zoom information are acquired (step S301). Further, the synthesizing unit 125 acquires the captured image, pan information, tilt information, and zoom information acquired by the acquiring unit 123 via the control unit 124 and sets the three-dimensional model, icon, and icon position (camera position). Obtained from the three-dimensional model storage unit 111. Then, the synthesis unit 125 determines the viewpoint, the gazing point, and the angle of view of the three-dimensional model based on the camera position, pan information, tilt information, and zoom information. Then, the synthesizing unit 125 generates a two-dimensional projection image from the three-dimensional model data based on the determined viewpoint, gazing point, and angle of view (Step S302). At this time, the synthesizing unit 125 arranges each icon in the two-dimensional projection image based on the icon position, and the captured image captured by the imaging device 20 corresponding to the camera icon is displayed in a pop-up set near the camera icon. Is synthesized.

図11は、ステップS302の処理により生成された2次元投影画像の例を示す図である。このように、2次元投影画像には、3次元モデル中に配置されたカメラアイコンと、カメラアイコンに相当する撮像装置20により撮像された画像とが含まれている。   FIG. 11 is a diagram illustrating an example of the two-dimensional projection image generated by the process of step S302. As described above, the two-dimensional projection image includes a camera icon arranged in the three-dimensional model and an image captured by the imaging device 20 corresponding to the camera icon.

図10に戻り、合成部125は、ステップS302において生成した2次元投影画像上の所定領域に撮像画像を合成することにより、合成画像を生成する(ステップS303)。   Returning to FIG. 10, the synthesizing unit 125 synthesizes the captured image with a predetermined region on the two-dimensional projection image generated in step S302 to generate a synthesized image (step S303).

図12は、ステップS303の処理により生成された合成画像の例を示す図である。このように、合成画像においては、2次元投影画像上に撮像装置20により実際に撮像された撮像画像が重畳されている。ここで、図12を参照しつつ、ステップS303における処理について詳述する。合成部125は、2次元投影画像上に撮像画像を合成する際、撮像画像の中心位置と、2次元投影画像の注視点とが一致するように、2次元投影画像上に撮像画像を重畳する。図12に示す例においては、撮像画像の中心位置および2次元投影画像の注視点はいずれも合成画像の中心位置に一致している。   FIG. 12 is a diagram illustrating an example of a composite image generated by the process of step S303. As described above, in the composite image, the captured image actually captured by the imaging device 20 is superimposed on the two-dimensional projection image. Here, the processing in step S303 will be described in detail with reference to FIG. When synthesizing the captured image on the two-dimensional projection image, the synthesis unit 125 superimposes the captured image on the two-dimensional projection image so that the center position of the captured image coincides with the gazing point of the two-dimensional projection image. . In the example shown in FIG. 12, the center position of the captured image and the gazing point of the two-dimensional projection image both coincide with the center position of the synthesized image.

さらに、図12に示す合成画像においては、合成画像中において、撮像画像と2次元投影画像が同一の倍率で表示されている。このように、合成部125は、撮像画像と2次元投影画像が同一倍率で表示されるように、ズーム情報に応じて2次元投影画像を生成する際の画角を調整する。これにより、合成画像の閲覧者は、合成画像中の撮像画像が監視エリア全体におけるいずれのエリアを撮像したものであるかを直感的に把握することができる。   Furthermore, in the composite image shown in FIG. 12, the captured image and the two-dimensional projection image are displayed at the same magnification in the composite image. As described above, the combining unit 125 adjusts the angle of view when generating the two-dimensional projection image according to the zoom information so that the captured image and the two-dimensional projection image are displayed at the same magnification. Thereby, the viewer of a composite image can grasp | ascertain intuitively which area in the whole monitoring area the captured image in a composite image imaged.

なお、本実施の形態においては、合成部125は、合成画像中において、撮像画像の中心位置と2次元投影画像の注視点を一致させ、さらに撮像画像と2次元投影画像が同一倍率で表示されるように2次元投影画像の画角を調整することとしたが、少なくとも撮像画像の撮像方向と2次元投影画像の視点と注視点を結ぶ方向(観察方向)とが一致していればよい。すなわち、他の例としては、合成部125は、撮像画像の中心位置と2次元投影画像の注視点とが一致しない合成画像を生成してもよい。例えば、図12に示す合成画像においては、撮像画像は、合成画像の中心に配置されたが、これにかえてより右下の位置に配置されてもよい。また、撮像画像と2次元投影画像の倍率は異なっていてもよい。このように、撮像方向と観察方向とが一致していれば、撮像画像の撮像方向と2次元投影画像の注視点とが一致していない場合や、撮像画像と2次元投影画像の倍率が異なっていても、閲覧者は、撮像画像と2次元投影画像との対応関係を直感的に把握することができる。   In the present embodiment, the combining unit 125 matches the center position of the captured image with the point of interest of the two-dimensional projection image in the composite image, and further displays the captured image and the two-dimensional projection image at the same magnification. In this way, the angle of view of the two-dimensional projection image is adjusted. However, it is sufficient that at least the imaging direction of the captured image and the direction (observation direction) connecting the viewpoint and the gazing point of the two-dimensional projection image match. That is, as another example, the synthesis unit 125 may generate a synthesized image in which the center position of the captured image does not match the gaze point of the two-dimensional projection image. For example, in the synthesized image shown in FIG. 12, the captured image is arranged at the center of the synthesized image, but may be arranged at a lower right position instead. Further, the magnification of the captured image and the two-dimensional projection image may be different. Thus, if the imaging direction and the observation direction match, the imaging direction of the captured image does not match the gaze point of the two-dimensional projection image, or the magnification of the captured image and the two-dimensional projection image is different. Even so, the viewer can intuitively grasp the correspondence between the captured image and the two-dimensional projection image.

図12に示す合成画像の左下には、さらにボタン状の画像(ボタン画像)が表示されている。このボタン画像は、「一つ前の画像に戻る」ためのものであり、ユーザ操作により該ボタン状の画像が選択された場合に、初期画像等の選択画面に戻るようになっている。   A button-like image (button image) is further displayed at the lower left of the composite image shown in FIG. This button image is for “returning to the previous image”. When the button-like image is selected by a user operation, the button image is returned to the selection screen for an initial image or the like.

なお、本実施の形態にかかる取得部123は、カメラアイコンが選択される度に、選択されたカメラアイコンに相当する撮像装置20から撮像方向およびズーム情報を取得するが、他の例としては、取得部123は、撮像装置20において、カメラの方向またはズームが変更される度に、撮像装置20から変更後の撮像方向またはズーム情報を取得し、これを記憶しておくこととしてもよい。この場合には、取得部123は常に実際の撮像装置20の状態に対応する撮像方向およびズーム情報を記憶しているので、ステップS302においては、取得部123が記憶している撮像方向およびズーム情報を用いることとする。   The acquisition unit 123 according to the present embodiment acquires the imaging direction and zoom information from the imaging device 20 corresponding to the selected camera icon each time a camera icon is selected. As another example, The acquisition unit 123 may acquire the changed imaging direction or zoom information from the imaging device 20 each time the camera direction or zoom of the imaging device 20 is changed, and store the acquired imaging direction or zoom information. In this case, since the acquisition unit 123 always stores the imaging direction and zoom information corresponding to the actual state of the imaging device 20, in step S302, the imaging direction and zoom information stored in the acquisition unit 123 are stored. Will be used.

上述したように、画像処理装置10は、撮像装置20における撮像画像と、撮像時の撮像方向とを取得し、3次元モデルの視点及び撮像方向に基づいて2次元投影画像を生成し、生成した2次元投影画像の所定領域に撮像画像を合成して出力する。この結果、合成画像の閲覧者は、カメラによって撮像されている領域を直感的に把握することができる。換言すると、画像処理装置10は、撮像装置20によって実際に撮像されている撮像画像と、撮像時の撮像方向に合わせて2次元投影画像を生成し、2次元投影画像の所定領域に撮像画像を合成するので、3次元モデルにおける視点位置及び視線方向と、実際のカメラ画像における視点位置及び視線方向とが一致していない従来技術と比較して、合成画像の閲覧者は、カメラによって撮像されている領域を直感的に把握することができる。   As described above, the image processing apparatus 10 acquires a captured image in the imaging apparatus 20 and an imaging direction at the time of imaging, generates a two-dimensional projection image based on the viewpoint and the imaging direction of the three-dimensional model, and generates the two-dimensional projection image. The captured image is synthesized and output in a predetermined area of the two-dimensional projection image. As a result, the viewer of the composite image can intuitively grasp the area captured by the camera. In other words, the image processing apparatus 10 generates a two-dimensional projection image in accordance with the captured image actually captured by the imaging apparatus 20 and the imaging direction at the time of imaging, and places the captured image in a predetermined region of the two-dimensional projection image. Compared with the prior art in which the viewpoint position and line-of-sight direction in the three-dimensional model do not match the viewpoint position and line-of-sight direction in the actual camera image, the viewer of the composite image is captured by the camera. Can intuitively grasp the area.

[実施の形態1の変形例]
上記実施の形態1では、所定領域を2次元投影画像の中央付近に重畳する場合を説明したが、かかる所定領域の位置は任意に変更することができる。図13は、所定領域の位置を変更する例を示す図である。例えば、図13に示すように、2次元投影画像上の所定領域の位置は、画面右下の位置に配置するようにしても良い。このように、所定領域を中央付近とは異なる場所に配置することにより、対応するカメラアイコンが出現し、そのカメラの向きもわかるため、カメラによって撮像されている領域を直感的に把握することができる効果も維持できる。
[Modification of Embodiment 1]
In the first embodiment, the case where the predetermined area is superimposed near the center of the two-dimensional projection image has been described. However, the position of the predetermined area can be arbitrarily changed. FIG. 13 is a diagram illustrating an example of changing the position of the predetermined area. For example, as shown in FIG. 13, the position of the predetermined area on the two-dimensional projection image may be arranged at the lower right position of the screen. In this way, by arranging the predetermined area in a place different from the vicinity of the center, the corresponding camera icon appears and the direction of the camera can also be understood, so that the area captured by the camera can be grasped intuitively. The effect that can be maintained.

(実施の形態2)
[所定物を透過]
実施の形態1では、2次元投影画像に、建物や樹木のモデル、各種デバイスのアイコン、所定領域の撮像画像、ポップアップ等を合成して表示する場合を説明したが、これらのうち、所定物を透過させて表示しても良い。
(Embodiment 2)
[Transmit through the specified object]
In the first embodiment, a case has been described in which a building or tree model, icons of various devices, captured images of predetermined areas, pop-ups, and the like are combined and displayed on a two-dimensional projection image. It may be displayed in a transparent manner.

図14Aは、所定物を透過させる前の2次元投影画像の例を示す図である。図14Bは、所定物を透過させた後の2次元投影画像の例を示す図である。例えば、図14Aに示す2次元投影画像では、中央付近に位置する建物の裏にカメラアイコン「カメラ4」や該カメラアイコンのポップアップが隠れている。このような状態では、ユーザがアイコンを選択する場合に、選択しづらい、さらには選択すらできない可能性がある。   FIG. 14A is a diagram illustrating an example of a two-dimensional projection image before transmitting a predetermined object. FIG. 14B is a diagram illustrating an example of a two-dimensional projection image after transmitting a predetermined object. For example, in the two-dimensional projection image shown in FIG. 14A, a camera icon “camera 4” and a pop-up of the camera icon are hidden behind a building located near the center. In such a state, when the user selects an icon, it may be difficult to select, or even not selectable.

そこで、図14Bに示すように、合成部125は、建物、樹木、地面等の選択することのないモデルを透過させ、カメラアイコン「カメラ4」の選択を容易にする。また、所定物の透過は、初期画像においても行なわれていても良い。また、透過の対象となるものは、上記のものに限られるわけではなく、例えば、ポップアップや2次元投影画像上の所定領域を透過させても良い。これらにより、建物や所定領域等に隠れることがあるアイコンやポップアップ等の視認性を向上し、カメラアイコンの選択操作の操作性を向上することができる。   Therefore, as illustrated in FIG. 14B, the combining unit 125 transmits a model such as a building, a tree, or the ground that is not selected, and facilitates selection of the camera icon “camera 4”. Further, the transmission of the predetermined object may be performed in the initial image. Further, what is to be transmitted is not limited to the above, and for example, a predetermined area on a pop-up or a two-dimensional projection image may be transmitted. As a result, it is possible to improve the visibility of icons and pop-ups that may be hidden in buildings, predetermined areas, etc., and to improve the operability of camera icon selection operations.

(実施の形態3)
[ポップアップの大きさを調整]
実施の形態1では、各アイコンのアイコン位置に応じて各アイコンを2次元投影画像に合成する場合を説明したが、アイコン位置に応じて2次元投影画像に合成されたアイコン付近に設定されたポップアップの大きさを調整しても良い。具体的には、アイコンやポップアップは、アイコンのアイコン位置に応じて2次元投影画像に合成されるため、その大きさは、2次元投影画像の奥に位置するアイコン及びポップアップほど小さくなるので、小さいアイコンやポップアップでは視認性や操作性が低下する場合がある。そこで、アイコン位置に応じて2次元投影画像に合成されたアイコン付近に設定されたポップアップの大きさを調整する。
(Embodiment 3)
[Adjust popup size]
In the first embodiment, the case where each icon is combined with the two-dimensional projection image according to the icon position of each icon has been described. However, the popup set near the icon combined with the two-dimensional projection image according to the icon position. You may adjust the size of. Specifically, since the icons and pop-ups are combined with the two-dimensional projection image according to the icon position of the icon, the size thereof is smaller as the icons and pop-ups located in the back of the two-dimensional projection image become smaller. Visibility and operability may decrease with icons and pop-ups. Therefore, the size of the pop-up set near the icon synthesized with the two-dimensional projection image is adjusted according to the icon position.

図15Aは、ポップアップの大きさを調整する前の2次元投影画像の例を示す図である。また、図15Bは、ポップアップの大きさを調整した後の2次元投影画像の例を示す図である。例えば、図15Aに示す2次元投影画像では、アイコン位置に応じて2次元投影画像に各アイコンが合成されるため、カメラアイコン「カメラ3」のポップアップが特に小さく表示されることになる。かかるポップアップには、「カメラ3」に相当する撮像装置20における撮像画像が表示されるものの、あまりに小さい表示になると視認性の点で好ましくない。   FIG. 15A is a diagram illustrating an example of a two-dimensional projection image before adjusting the size of the pop-up. FIG. 15B is a diagram illustrating an example of a two-dimensional projection image after adjusting the size of the pop-up. For example, in the two-dimensional projection image shown in FIG. 15A, since the icons are combined with the two-dimensional projection image according to the icon position, the pop-up of the camera icon “camera 3” is displayed particularly small. The pop-up displays a picked-up image in the image pickup device 20 corresponding to “camera 3”, but if the display is too small, it is not preferable in terms of visibility.

そこで、図15Bに示すように、合成部125は、カメラアイコン「カメラ3」や「カメラ4」のポップアップの大きさを、カメラアイコン「カメラ1」のポップアップに合わせて調整する等、ある程度の視認性を担保できる大きさに調整する。この他、ポップアップの大きさは、2次元投影画像において最も手前に位置するポップアップの大きさに合わせて調整したり、表示画面サイズに応じて適宜決められた大きさに合わせて調整したりすれば良い。また、ポップアップの大きさの調整は、初期画像においても行なわれていても良い。なお、カメラアイコンの大きさも調整しても良いが、2次元投影画像におけるカメラの位置関係がわかるように、カメラアイコンについては調整することを要しない。これらにより、ポップアップの視認性を向上することができる。   Therefore, as illustrated in FIG. 15B, the combining unit 125 adjusts the size of the pop-up of the camera icons “Camera 3” and “Camera 4” according to the pop-up of the camera icon “Camera 1”. Adjust the size to ensure the sex. In addition, the size of the pop-up can be adjusted according to the size of the pop-up positioned closest to the front in the two-dimensional projection image, or can be adjusted according to the size determined appropriately according to the display screen size. good. Also, the size of the pop-up may be adjusted in the initial image. Although the size of the camera icon may be adjusted, it is not necessary to adjust the camera icon so that the positional relationship of the camera in the two-dimensional projection image can be understood. As a result, the visibility of the pop-up can be improved.

(実施の形態4)
実施の形態1では、撮像装置20によって撮像されている撮像画像と撮像方向とに基づき合成画像を生成する場合を説明したが、合成画像上での所定ユーザ操作に応じて撮像装置20の撮像方向を指示し、指示に応じて受信された、撮像装置20によって撮像されている撮像画像と撮像方向とに基づき合成画像を生成することもできる。そこで、実施の形態4では、合成画像での所定ユーザ操作に応じて撮像装置20の撮像方向を指示し、指示に応じて受信された、撮像装置20によって撮像されている撮像画像と撮像方向とに基づき合成画像を生成する場合を説明する。
(Embodiment 4)
In the first embodiment, the case has been described in which the composite image is generated based on the captured image captured by the imaging device 20 and the imaging direction. However, the imaging direction of the imaging device 20 is determined according to a predetermined user operation on the composite image. It is also possible to generate a composite image based on the captured image captured by the imaging device 20 and the imaging direction received according to the instruction. Therefore, in the fourth embodiment, the imaging direction of the imaging device 20 is instructed according to a predetermined user operation on the composite image, and the captured image captured by the imaging device 20 and the imaging direction received in response to the instruction are displayed. A case where a composite image is generated based on FIG.

[実施の形態4に係る画像処理装置の構成]
図16を用いて、実施の形態4に係る画像処理装置の構成を説明する。図16は、実施の形態4に係る画像処理装置の構成例を示す図である。なお、図16では、実施の形態1に係る画像処理装置10と同様の機能を有する構成についてはその詳細な説明を省略する場合がある。
[Configuration of Image Processing Apparatus According to Embodiment 4]
The configuration of the image processing apparatus according to the fourth embodiment will be described with reference to FIG. FIG. 16 is a diagram illustrating a configuration example of an image processing apparatus according to the fourth embodiment. In FIG. 16, detailed description of the configuration having the same function as that of the image processing apparatus 10 according to Embodiment 1 may be omitted.

例えば、図16に示すように、画像処理装置10は、3次元モデル記憶部111と、視点情報記憶部112と、操作部121と、通信処理部122と、取得部123と、制御部124と、合成部125と、出力部126と、切替指示部127とを有する。   For example, as illustrated in FIG. 16, the image processing apparatus 10 includes a three-dimensional model storage unit 111, a viewpoint information storage unit 112, an operation unit 121, a communication processing unit 122, an acquisition unit 123, and a control unit 124. A synthesizing unit 125, an output unit 126, and a switching instruction unit 127.

切替指示部127は、合成画像上での所定ユーザ操作に応じて、撮像方向又はズームレンズの焦点距離を算出し、算出した撮像方向又はズームレンズの焦点距離に切り替える指示を撮像装置20に対して行なう。ここで、切替指示部127による処理を説明するために、切替指示部127による処理に関連する操作部121や制御部124による処理を含めて説明する。   The switching instruction unit 127 calculates the imaging direction or the focal length of the zoom lens according to a predetermined user operation on the composite image, and instructs the imaging apparatus 20 to switch to the calculated imaging direction or the focal length of the zoom lens. Do. Here, in order to describe the processing by the switching instruction unit 127, the processing by the operation unit 121 and the control unit 124 related to the processing by the switching instruction unit 127 will be described.

操作部121は、ユーザ操作によりカメラアイコンが選択された状態、すなわち合成画像が表示された状態において、マウスやタッチパネルによりドラッグ操作を受け付ける。
例えば、ドラッグ操作は、2次元投影画像や該2次元投影画像の所定領域の任意の位置からの、ポインティングデバイスとしてのマウスによるドラッグ操作及びマウスホイールによるホイール操作を指す。若しくは、ドラッグ操作は、2次元投影画像や該2次元投影画像の所定領域の任意の位置からの、タッチパネルのドラッグ操作、ピンチ操作を指す。また、制御部124は、操作部121によって受け付けられたドラッグ操作の方向と距離とを切替指示部127に出力する。
The operation unit 121 receives a drag operation with a mouse or a touch panel in a state where a camera icon is selected by a user operation, that is, in a state where a composite image is displayed.
For example, the drag operation refers to a drag operation by a mouse as a pointing device and a wheel operation by a mouse wheel from an arbitrary position in a two-dimensional projection image or a predetermined region of the two-dimensional projection image. Alternatively, the drag operation refers to a drag operation or a pinch operation on the touch panel from an arbitrary position in a two-dimensional projection image or a predetermined area of the two-dimensional projection image. Further, the control unit 124 outputs the direction and distance of the drag operation received by the operation unit 121 to the switching instruction unit 127.

切替指示部127は、制御部124によって出力されたドラッグ操作の方向と距離とに基づき、選択されているカメラアイコンに相当する撮像装置20のズームレンズの焦点距離と、撮像方向の移動方向及び移動角度とを算出する。撮像方向の移動方向は、合成画像上におけるドラッグ操作の方向とする。また、ズームレンズの焦点距離は、合成画像上におけるホイール操作又はピンチ操作をズームレンズの焦点距離に換算したものとする。また、撮像方向の移動角度は、合成画像上におけるドラッグ操作の距離(ピクセル)を撮像方向の移動角度(度)に換算したものとする。例を挙げると、撮像方向の移動角度は、合成画像の1ピクセルを撮像方向の移動角度に換算すると、0.05度となる。   Based on the direction and distance of the drag operation output by the control unit 124, the switching instruction unit 127, the focal length of the zoom lens of the imaging device 20 corresponding to the selected camera icon, the moving direction and movement of the imaging direction Calculate the angle. The moving direction of the imaging direction is the direction of the drag operation on the composite image. The focal length of the zoom lens is obtained by converting the wheel operation or pinch operation on the composite image into the focal length of the zoom lens. Further, the movement angle in the imaging direction is obtained by converting the distance (pixel) of the drag operation on the composite image into the movement angle (degree) in the imaging direction. As an example, the movement angle in the imaging direction is 0.05 degrees when one pixel of the composite image is converted into the movement angle in the imaging direction.

そして、切替指示部127は、算出したズームレンズの焦点距離と、撮像方向の移動方向及び移動角度に応じて切り替える旨の指示を、通信処理部122を介して、選択されているカメラアイコンに相当する撮像装置20に対して行なう。切替指示部127による指示の後、実施の形態1と同様に、撮像装置20から受信されたパン情報、チルト情報及びズーム情報に応じた2次元投影画像が生成され、2次元投影画像の所定領域に撮像画像が合成されることにより、合成画像が生成されることになる。   Then, the switching instruction unit 127 corresponds to the selected camera icon via the communication processing unit 122 with an instruction to switch according to the calculated focal length of the zoom lens and the moving direction and moving angle of the imaging direction. To the imaging device 20 to be performed. After the instruction by the switching instruction unit 127, a two-dimensional projection image corresponding to the pan information, tilt information, and zoom information received from the imaging device 20 is generated as in the first embodiment, and a predetermined region of the two-dimensional projection image is generated. The synthesized image is generated by synthesizing the captured image.

[実施の形態4に係る画面遷移]
次に、図17A〜図17Cを用いて、実施の形態4に係るドラッグ操作による画面遷移について説明する。図17Aは、ドラッグ操作が行なわれる前の合成画像の例を示す図である。また、図17Bは、右方向にドラッグ操作が行なわれた場合の合成画像の例を示す図である。また、図17Cは、上方向にドラッグ操作が行なわれた場合の合成画像の例を示す図である。
[Screen transition according to Embodiment 4]
Next, screen transitions caused by a drag operation according to Embodiment 4 will be described with reference to FIGS. 17A to 17C. FIG. 17A is a diagram illustrating an example of a composite image before a drag operation is performed. FIG. 17B is a diagram illustrating an example of a composite image when a drag operation is performed in the right direction. FIG. 17C is a diagram illustrating an example of a composite image when a drag operation is performed in the upward direction.

例えば、図17Aに示すように、ドラッグ操作が行なわれる前の合成画像は、実施の形態1で説明したカメラアイコン「カメラ2」に相当する撮像装置20によって撮像された撮像画像が2次元投影画像の所定領域に合成されたものである。以下、図17Aに示す合成画像において、ユーザ操作により右方向にドラッグ操作された場合の画面遷移を図17Bに示し、ユーザ操作により上方向にドラッグ操作された場合の画面遷移を図17Cに示す。   For example, as illustrated in FIG. 17A, the composite image before the drag operation is performed as a two-dimensional projection image obtained by the imaging device 20 corresponding to the camera icon “camera 2” described in the first embodiment. Are synthesized in a predetermined area. Hereinafter, in the composite image shown in FIG. 17A, screen transition when the user performs a drag operation in the right direction is shown in FIG. 17B, and screen transition when the user performs a drag operation in the upward direction is shown in FIG. 17C.

図17Aにおいて、右方向にドラッグ操作された場合に、切替指示部127は、ドラッグ操作の方向(右方向)と距離とに基づき、カメラアイコン「カメラ2」に相当する撮像装置20のズームレンズの焦点距離と、撮像方向の移動方向及び移動角度とを算出し、カメラのズームレンズの焦点距離、カメラの向きを左方向にする旨、移動角度等を該撮像装置20に対して指示する。ズームレンズの焦点距離や移動方向、移動角度については、上述したように、ドラッグ操作の方向や距離、ホイール操作又はピンチ操作をそれぞれ換算して求められる。ドラッグ操作の方向とカメラの移動方向とは反対の方向とする。この後、合成部125は、撮像装置20から受信された新たなパン情報、チルト情報及びズーム情報に応じた2次元投影画像を生成し、生成した2次元投影画像の所定領域に、このときの撮像画像を合成することにより、図17Bに示す合成画像を生成する。   In FIG. 17A, when a drag operation is performed in the right direction, the switching instruction unit 127 displays the zoom lens of the imaging device 20 corresponding to the camera icon “camera 2” based on the direction (right direction) of the drag operation and the distance. The focal length, the moving direction and moving angle in the imaging direction are calculated, and the imaging device 20 is instructed to set the focal length of the zoom lens of the camera, the camera orientation to the left, and the moving angle. As described above, the focal length, moving direction, and moving angle of the zoom lens can be obtained by converting the direction and distance of the drag operation, the wheel operation, or the pinch operation, respectively. The direction of the drag operation is opposite to the direction of camera movement. Thereafter, the synthesizing unit 125 generates a two-dimensional projection image corresponding to the new pan information, tilt information, and zoom information received from the imaging device 20, and applies the generated two-dimensional projection image to a predetermined region at this time. By synthesizing the captured images, a synthesized image shown in FIG. 17B is generated.

また、図17Aにおいて、上方向にドラッグ操作された場合に、切替指示部127は、ドラッグ操作の方向(上方向)と距離とに基づき、カメラアイコン「カメラ2」に相当する撮像装置20の撮像方向の移動方向及び移動角度を算出し、カメラの向きを下方向にする旨、移動角度等を該撮像装置20に対して指示する。この場合はズームレンズの焦点距離に関する操作はないので、ズームレンズの焦点距離の変更の指示は行なわれない。移動方向や移動角度については、上述したように、ドラッグ操作の方向や距離、ホイール操作又はピンチ操作をそれぞれ換算して求められる。この後、合成部125は、撮像装置20から受信された新たなパン情報、チルト情報及びズーム情報に応じた2次元投影画像を生成し、生成した2次元投影画像の所定領域に、このときの撮像画像を合成することにより、図17Cに示す合成画像を生成する。   In FIG. 17A, when a drag operation is performed in the upward direction, the switching instruction unit 127 captures an image of the image capturing apparatus 20 corresponding to the camera icon “camera 2” based on the drag operation direction (upward direction) and the distance. The movement direction and the movement angle of the direction are calculated, and the imaging apparatus 20 is instructed to move the camera to the down direction, the movement angle, and the like. In this case, since there is no operation relating to the focal length of the zoom lens, no instruction to change the focal length of the zoom lens is given. As described above, the moving direction and the moving angle are obtained by converting the direction and distance of the drag operation, the wheel operation or the pinch operation, respectively. Thereafter, the synthesizing unit 125 generates a two-dimensional projection image corresponding to the new pan information, tilt information, and zoom information received from the imaging device 20, and applies the generated two-dimensional projection image to a predetermined region at this time. By synthesizing the captured images, a synthesized image shown in FIG. 17C is generated.

[実施の形態4に係る全体処理フロー]
次に、図18を用いて、実施の形態4に係る全体処理の流れについて説明する。図18は、実施の形態4に係る全体処理の流れの例を示すフローチャートである。なお、図18では、図7に示した実施の形態1に係る全体処理と同様の処理についてはその説明を省略する場合がある。具体的には、ステップS401〜ステップS406における処理は、ステップS101〜ステップS106における処理と同様である。
[Overall Processing Flow According to Embodiment 4]
Next, the overall processing flow according to the fourth embodiment will be described with reference to FIG. FIG. 18 is a flowchart illustrating an example of the flow of overall processing according to the fourth embodiment. In FIG. 18, description of the same processing as the overall processing according to Embodiment 1 shown in FIG. 7 may be omitted. Specifically, the processes in steps S401 to S406 are the same as the processes in steps S101 to S106.

例えば、図18に示すように、画像処理装置10の操作部121が、合成画像上でカメラの撮像方向等を切り替える操作を受け付けた場合に(ステップS407肯定)、ドラッグ操作に応じて切替指示部127によって算出された撮像方向の移動方向、ズームレンズの焦点距離及び撮像方向の移動角度が撮像装置20に送信された後、合成部125は、該撮像装置20から受信したパン情報、チルト情報及びズーム情報に基づいて2次元投影画像を生成し、生成した2次元画像の所定領域に、選択されているカメラアイコンに対応する撮像装置20の撮像画像を合成した合成画像を生成する(ステップS408)。そして、出力部126は、合成画像を表示画面に表示する(ステップS409)。一方、操作部121が合成画像上でカメラの撮像方向等を切り替える操作を受け付けていない場合に(ステップS407否定)、処理が終了される。   For example, as illustrated in FIG. 18, when the operation unit 121 of the image processing apparatus 10 accepts an operation for switching the imaging direction of the camera on the composite image (Yes in step S407), the switching instruction unit according to the drag operation. After the movement direction of the imaging direction calculated by 127, the focal length of the zoom lens, and the movement angle of the imaging direction are transmitted to the imaging device 20, the combining unit 125 receives the pan information, tilt information, and the received information from the imaging device 20. A two-dimensional projection image is generated based on the zoom information, and a composite image is generated by combining the captured image of the imaging device 20 corresponding to the selected camera icon in a predetermined region of the generated two-dimensional image (step S408). . Then, the output unit 126 displays the composite image on the display screen (step S409). On the other hand, when the operation unit 121 has not received an operation for switching the imaging direction of the camera on the composite image (No in step S407), the process is terminated.

[実施の形態4に係る画像処理フロー]
次に、図19を用いて、実施の形態4に係る画像処理の流れについて説明する。図19は、実施の形態4に係る画像処理の流れの例を示すフローチャートである。なお、実施の形態4に係る画像処理とは、主にステップS408における処理を指す。
[Image Processing Flow According to Embodiment 4]
Next, the flow of image processing according to the fourth embodiment will be described with reference to FIG. FIG. 19 is a flowchart illustrating an example of the flow of image processing according to the fourth embodiment. Note that the image processing according to the fourth embodiment mainly refers to the processing in step S408.

例えば、図19に示すように、操作部121におけるユーザ操作により、カメラアイコンが選択された状態において、ドラッグ操作又はピンチ操作(ホイール操作)が受け付けられると、切替指示部127は、ドラッグ操作であるか否かを判定する(ステップS501)。このとき、ドラッグ操作である場合に(ステップS501肯定)、切替指示部127は、合成画像上でのドラッグ距離に応じた撮像装置20に対する撮像方向の移動方向及び移動角度を算出する(ステップS502)。一方、ピンチ操作である場合に(ステップS501否定)、切替指示部127は、合成画像上でのピンチ距離に応じた撮像装置20に対するズームレンズの焦点距離を算出する(ステップS503)。撮像方向の移動方向はドラッグ操作の方向と反対方向とする。撮像方向の移動角度は、一つの様態として、ドラッグ操作の距離(ピクセル)を撮像方向の移動角度(度)に換算することで求められる。また、ズームレンズの焦点距離は、一つの様態として、ピンチ操作又はホイール操作をズームレンズの焦点距離に換算することで求められる。   For example, as illustrated in FIG. 19, when a drag operation or a pinch operation (wheel operation) is received in a state where a camera icon is selected by a user operation on the operation unit 121, the switching instruction unit 127 is a drag operation. Is determined (step S501). At this time, when the operation is a drag operation (Yes at Step S501), the switching instruction unit 127 calculates the movement direction and movement angle of the imaging direction with respect to the imaging device 20 according to the drag distance on the composite image (Step S502). . On the other hand, when the operation is a pinch operation (No in step S501), the switching instruction unit 127 calculates the focal length of the zoom lens with respect to the imaging device 20 according to the pinch distance on the composite image (step S503). The moving direction of the imaging direction is opposite to the direction of the drag operation. The movement angle in the imaging direction can be obtained by converting the distance (pixel) of the drag operation into the movement angle (degree) in the imaging direction as one aspect. Further, the focal length of the zoom lens can be obtained by converting a pinch operation or a wheel operation into a focal length of the zoom lens as one aspect.

そして、切替指示部127は、通信処理部122を介して、ズームレンズの焦点距離と撮像方向の移動方向及び移動角度等を制御信号として撮像装置20に対して送信することにより、ズームレンズの焦点距離と撮像方向とを切り替える指示を該撮像装置20に対して行なう(ステップS504)。この後、通信処理部122によって、選択されているカメラアイコンに相当する撮像装置20から撮像画像、パン情報、チルト情報及びズーム情報が受信された場合に(ステップS505肯定)、合成部125は、制御部124を介して、取得部123によって取得された撮像画像、パン情報、チルト情報及びズーム情報を取得するとともに、3次元モデル、アイコン、アイコン位置(カメラ位置)を3次元モデル記憶部111から取得する。一方、通信処理部122は、撮像装置20から撮像画像、パン情報、チルト情報及びズーム情報が受信されない場合に(ステップS505否定)、これら撮像画像、パン情報、チルト情報及びズーム情報の受信待ちの状態となる。   Then, the switching instruction unit 127 transmits the focal length of the zoom lens, the moving direction and moving angle of the imaging direction, and the like as control signals to the imaging device 20 via the communication processing unit 122, thereby focusing the zoom lens. An instruction to switch between the distance and the imaging direction is given to the imaging apparatus 20 (step S504). Thereafter, when the captured image, pan information, tilt information, and zoom information are received by the communication processing unit 122 from the imaging device 20 corresponding to the selected camera icon (Yes in step S505), the combining unit 125 The captured image, pan information, tilt information, and zoom information acquired by the acquisition unit 123 are acquired via the control unit 124, and the 3D model, icon, and icon position (camera position) are acquired from the 3D model storage unit 111. get. On the other hand, when the captured image, pan information, tilt information, and zoom information are not received from the image capturing apparatus 20 (No in step S505), the communication processing unit 122 waits for reception of the captured image, pan information, tilt information, and zoom information. It becomes a state.

そして、合成部125は、カメラ位置、パン情報、チルト情報及びズーム情報に基づいて3次元モデルに対する視点、注視点及び画角を決定する。続いて、合成部125は、決定した視点、注視点及び画角に基づいて、3次元モデルデータから2次元投影画像を生成する(ステップS506)。このとき、合成部125は、アイコン位置をもとに各アイコンを2次元投影画像に配置するとともに、カメラアイコン付近に設定されたポップアップに、カメラアイコンに相当する撮像装置20によって撮像された撮像画像を合成する。その後、合成部125は、生成した2次元投影画像上の所定領域に撮像画像を合成することにより、合成画像を生成する(ステップS507)。   Then, the synthesis unit 125 determines a viewpoint, a gazing point, and an angle of view for the three-dimensional model based on the camera position, pan information, tilt information, and zoom information. Subsequently, the synthesis unit 125 generates a two-dimensional projection image from the three-dimensional model data based on the determined viewpoint, gazing point, and angle of view (step S506). At this time, the synthesizing unit 125 arranges each icon in the two-dimensional projection image based on the icon position, and the captured image captured by the imaging device 20 corresponding to the camera icon is displayed in a pop-up set near the camera icon. Is synthesized. Thereafter, the combining unit 125 generates a combined image by combining the captured image with a predetermined area on the generated two-dimensional projection image (step S507).

上述したように、画像処理装置10は、合成画像上でのユーザによるドラッグ操作によって撮像装置20のズームレンズの焦点距離や撮像方向を指示し、指示に応じた撮像装置20による撮像のズームレンズの焦点距離や撮像方向に応じた2次元投影画像を生成し、生成した2次元投影画像の所定領域に撮像画像を合成して出力する。この結果、合成画像の閲覧者は、簡単なユーザ操作により撮像装置20のカメラ切り替えを行なうことができるとともに、カメラによって撮像されている領域を直感的に把握することができる。   As described above, the image processing apparatus 10 instructs the focal length and the imaging direction of the zoom lens of the imaging apparatus 20 by a drag operation by the user on the composite image, and the zoom lens of the imaging by the imaging apparatus 20 according to the instruction. A two-dimensional projection image corresponding to the focal length and the imaging direction is generated, and the captured image is synthesized with a predetermined region of the generated two-dimensional projection image and output. As a result, the viewer of the composite image can switch the camera of the imaging device 20 with a simple user operation, and can intuitively grasp the area imaged by the camera.

[実施の形態4の変形例]
実施の形態4では、合成画像上でのユーザによるドラッグ操作に応じて撮像装置20の撮像方向等を指示し、撮像装置20から受信された撮像方向等をもとに合成画像を生成する場合を説明したが、合成画像上でのユーザによるドラッグ操作に応じて2次元投影画像を生成し、撮像装置20から撮像方向等が受信されるよりも先に表示しておくこともできる。具体的には、合成画像上でのユーザによるドラッグ操作に応じて2次元投影画像を生成し、生成した2次元投影画像を表示しておき、その後、撮像装置20から受信された撮像方向等に応じて生成した2次元投影画像の所定領域に撮像画像を合成して表示する。
[Modification of Embodiment 4]
In the fourth embodiment, a case in which an imaging direction or the like of the imaging device 20 is instructed according to a drag operation by the user on the composite image, and a composite image is generated based on the imaging direction or the like received from the imaging device 20 is described. As described above, it is also possible to generate a two-dimensional projection image in response to a drag operation by the user on the composite image and display it before the imaging direction and the like are received from the imaging device 20. Specifically, a two-dimensional projection image is generated according to a drag operation by the user on the composite image, the generated two-dimensional projection image is displayed, and then the imaging direction received from the imaging device 20 is changed. The captured image is synthesized and displayed in a predetermined area of the two-dimensional projection image generated accordingly.

図20は、実施の形態4の変形例に係る画像処理の流れの例を示すフローチャートである。例えば、図20に示すように、操作部121におけるユーザ操作により、カメラアイコンが選択された状態において、ドラッグ操作又はピンチ操作(ホイール操作)が受け付けられると、切替指示部127は、ドラッグ操作であるか否かを判定する(ステップS601)。このとき、ドラッグ操作である場合に(ステップS601肯定)、切替指示部127は、合成画像上でのドラッグ距離に応じた撮像装置20に対する撮像方向の移動方向と移動角度とを算出する(ステップS602)。一方、ピンチ操作である場合に(ステップS601否定)、切替指示部127は、合成画像上でのピンチ距離に応じた撮像装置20に対するズームレンズの焦点距離を算出する(ステップS603)。撮像方向の移動方向はドラッグ操作の方向と反対方向とする。撮像方向の距離は、一つの様態として、ドラッグ操作の距離(ピクセル)を撮像方向の移動角度(度)に換算することで求められる。また、ズームレンズの焦点距離は、一つの様態として、ピンチ操作又はホイール操作をズームレンズの焦点距離に換算することで求められる。   FIG. 20 is a flowchart illustrating an example of the flow of image processing according to a modification of the fourth embodiment. For example, as illustrated in FIG. 20, when a drag operation or a pinch operation (wheel operation) is received in a state where a camera icon is selected by a user operation on the operation unit 121, the switching instruction unit 127 is a drag operation. It is determined whether or not (step S601). At this time, in the case of a drag operation (Yes in step S601), the switching instruction unit 127 calculates the movement direction and movement angle of the imaging direction with respect to the imaging device 20 according to the drag distance on the composite image (step S602). ). On the other hand, when the operation is a pinch operation (No at Step S601), the switching instruction unit 127 calculates the focal length of the zoom lens with respect to the imaging device 20 according to the pinch distance on the composite image (Step S603). The moving direction of the imaging direction is opposite to the direction of the drag operation. The distance in the imaging direction can be obtained by converting the distance (pixel) of the drag operation into the moving angle (degree) in the imaging direction as one aspect. Further, the focal length of the zoom lens can be obtained by converting a pinch operation or a wheel operation into a focal length of the zoom lens as one aspect.

ここで、切替指示部127は、算出したズームレンズの焦点距離と、撮像方向の移動方向及び移動角度に応じた2次元投影画像を生成する指示を合成部125に対して行なう。これにより、合成部125は、ズームレンズの焦点距離と、撮像方向の移動方向及び移動角度とに応じた2次元投影画像を生成する(ステップS604)。この時点で、合成部125によって生成された2次元投影画像は、出力部126によって画面に表示される。   Here, the switching instruction unit 127 instructs the synthesizing unit 125 to generate a two-dimensional projection image corresponding to the calculated focal length of the zoom lens and the moving direction and moving angle of the imaging direction. Thereby, the composition unit 125 generates a two-dimensional projection image according to the focal length of the zoom lens and the moving direction and moving angle in the imaging direction (step S604). At this time, the two-dimensional projection image generated by the synthesis unit 125 is displayed on the screen by the output unit 126.

そして、切替指示部127は、通信処理部122を介して、ズームレンズの焦点距離と撮像方向の移動方向及び移動角度等を制御信号として撮像装置20に対して送信することにより、撮像方向とズームレンズの焦点距離とを切り替える指示を該撮像装置20に対して行なう(ステップS605)。また、操作部121でのユーザ操作において、所定時間の間、ドラッグ操作又はピンチ操作がされなかった場合に(ステップS606肯定)、切替指示部127は、通信処理部122を介し、撮像装置20に対して撮像画像、パン情報、チルト情報及びズーム情報を送信する要求を行なう(ステップS607)。一方、操作部121でのユーザ操作(ドラッグ操作又はピンチ操作)が、所定時間内に行なわれた場合に(ステップS606否定)、再度ステップS601の処理が行なわれる。ユーザによるドラッグ操作又はピンチ操作等のユーザ操作では、微調整が行なわれる場合があるため、所定時間を経過してもドラッグ操作が連続して行なわれない場合には、その時点での調整が確定したこととして、後段の処理を実行する。換言すると、ドラッグ操作又はピンチ操作のユーザ操作が行なわれている間は、ユーザがどの方向から監視したいかが定まっていないことになるため、所定時間が経過したときにユーザ操作が行なわれていなければ、ユーザが現在の方向から監視したいと考えているとみなして、後段の処理を実行する。   Then, the switching instruction unit 127 transmits the focal length of the zoom lens, the movement direction and the movement angle of the imaging direction, and the like as control signals to the imaging device 20 via the communication processing unit 122, so that the imaging direction and zoom An instruction to switch the focal length of the lens is given to the imaging device 20 (step S605). Further, in the user operation on the operation unit 121, when the drag operation or the pinch operation is not performed for a predetermined time (Yes in step S606), the switching instruction unit 127 is connected to the imaging device 20 via the communication processing unit 122. A request for transmitting the captured image, pan information, tilt information, and zoom information is made (step S607). On the other hand, when the user operation (drag operation or pinch operation) on the operation unit 121 is performed within a predetermined time (No at Step S606), the process at Step S601 is performed again. Fine adjustments may be made in user operations such as a drag operation or pinch operation by the user. If the drag operation is not performed continuously even after a predetermined time has elapsed, the adjustment at that point is confirmed. As a result, the subsequent processing is executed. In other words, while the user operation such as the drag operation or the pinch operation is being performed, it is not determined from which direction the user wants to monitor. Therefore, if the user operation is not performed after a predetermined time has elapsed. Assuming that the user wants to monitor from the current direction, the subsequent processing is executed.

続いて、切替指示部127は、撮像画像、パン情報、チルト情報及びズーム情報の送信要求を、選択されているカメラアイコンに相当する撮像装置20に対して行なう(ステップS607)。この時点では、撮像装置20は、ステップS605において送信された情報をもとに動作している。この後、通信処理部122によって、選択されているカメラアイコンに相当する撮像装置20から撮像画像、パン情報、チルト情報及びズーム情報が受信された場合に(ステップS608肯定)、合成部125は、制御部124を介して、取得部123によって取得された撮像画像、パン情報、チルト情報及びズーム情報を取得するとともに、3次元モデル、アイコン、アイコン位置(カメラ位置)を3次元モデル記憶部111から取得する。一方、通信処理部122は、撮像装置20から撮像画像、パン情報、チルト情報及びズーム情報が受信されない場合に(ステップS608否定)、これら撮像画像、パン情報、チルト情報及びズーム情報の受信待ちの状態となる。   Subsequently, the switching instruction unit 127 sends a transmission request for the captured image, pan information, tilt information, and zoom information to the imaging device 20 corresponding to the selected camera icon (step S607). At this time, the imaging device 20 is operating based on the information transmitted in step S605. Thereafter, when the captured image, pan information, tilt information, and zoom information are received from the imaging device 20 corresponding to the selected camera icon by the communication processing unit 122 (Yes in step S608), the combining unit 125 The captured image, pan information, tilt information, and zoom information acquired by the acquisition unit 123 are acquired via the control unit 124, and the 3D model, icon, and icon position (camera position) are acquired from the 3D model storage unit 111. get. On the other hand, when the captured image, pan information, tilt information, and zoom information are not received from the imaging device 20 (No in step S608), the communication processing unit 122 waits for reception of the captured image, pan information, tilt information, and zoom information. It becomes a state.

そして、合成部125は、カメラ位置、パン情報、チルト情報及びズーム情報に基づいて3次元モデルの視点、注視点及び画角を決定する。続いて、合成部125は、決定した視点、注視点及び画角に基づいて、3次元モデルデータから2次元投影画像を生成する(ステップS609)。このとき、合成部125は、アイコン位置をもとに各アイコンを2次元投影画像に配置するとともに、カメラアイコン付近に設定されたポップアップに、カメラアイコンに相当する撮像装置20によって撮像された撮像画像を合成する。その後、合成部125は、生成した2次元投影画像上の所定領域に撮像画像を合成することにより、合成画像を生成する(ステップS610)。   Then, the synthesis unit 125 determines the viewpoint, the gazing point, and the angle of view of the three-dimensional model based on the camera position, pan information, tilt information, and zoom information. Subsequently, the synthesizing unit 125 generates a two-dimensional projection image from the three-dimensional model data based on the determined viewpoint, gazing point, and angle of view (step S609). At this time, the synthesizing unit 125 arranges each icon in the two-dimensional projection image based on the icon position, and the captured image captured by the imaging device 20 corresponding to the camera icon is displayed in a pop-up set near the camera icon. Is synthesized. Thereafter, the combining unit 125 generates a combined image by combining the captured image with a predetermined area on the generated two-dimensional projection image (step S610).

つまり、画像処理装置10は、撮像装置20からの情報をもとにして2次元投影画像を生成するよりも先に、合成画像上でのユーザによるドラッグ操作に応じた2次元投影画像を生成及び表示するので、撮像装置20のカメラの切り替え位置をある程度ユーザが所望する位置に一致させることができるとともに、カメラの切り替えに係る操作性を向上することができる。   That is, the image processing apparatus 10 generates a two-dimensional projection image corresponding to a drag operation by the user on the composite image before generating the two-dimensional projection image based on the information from the imaging apparatus 20. Since the display is performed, the camera switching position of the imaging apparatus 20 can be matched to a position desired by the user to some extent, and the operability related to the camera switching can be improved.

(実施の形態5)
実施の形態2では、所定物を透過させることで建物等の裏に隠れてしまうカメラアイコン等の選択を可能とする場合を説明したが、カメラアイコンが選択された状態において、選択されているカメラアイコンを軸とし、合成画像を回転させることにより出現するカメラアイコン等を選択可能とすることもできる。そこで、実施の形態5では、カメラアイコンが選択された状態において、選択されているカメラアイコンを軸とし、合成画像を回転させることにより出現するカメラアイコン等を選択可能とする場合を説明する。
(Embodiment 5)
In the second embodiment, a case has been described in which a camera icon or the like that is hidden behind a building or the like can be selected by transmitting a predetermined object. However, a camera that is selected in a state where the camera icon is selected. It is also possible to select a camera icon or the like that appears by rotating the composite image with the icon as an axis. Therefore, in the fifth embodiment, a case will be described in which, when a camera icon is selected, a camera icon or the like that appears by rotating the composite image with the selected camera icon as an axis can be selected.

[実施の形態5に係る画像処理フロー]
図21は、実施の形態5に係る画像処理の流れの例を示すフローチャートである。なお、実施の形態5に係る画像処理とは、主にステップS408における処理を指す。
[Image Processing Flow According to Embodiment 5]
FIG. 21 is a flowchart illustrating an example of the flow of image processing according to the fifth embodiment. Note that the image processing according to the fifth embodiment mainly refers to the processing in step S408.

例えば、図21に示すように、合成部125は、選択されているカメラアイコンを軸として、操作部121におけるユーザのドラッグ操作に応じて合成画像を回転させる(ステップS701)。但し、合成画像の回転範囲は、制限が設けられる場合がある。また、回転する合成画像は、ドラッグの方向やドラッグ距離等に応じて適宜生成及び表示される。また、操作部121でのユーザ操作において、所定時間内に現在選択されているカメラアイコンとは異なる他のカメラアイコンが選択されなかった場合に(ステップS702否定)、切替指示部127は、合成画像上でのドラッグ距離に応じた撮像装置20に対する撮像方向の距離を算出する。また、切替指示部127は、ピンチ操作(ホイール操作)が行なわれた場合にも、合成画像上でのピンチ距離に応じた撮像装置20に対するズームレンズの焦点距離を算出する。撮像方向の距離やズームレンズの焦点距離の算出は、実施の形態4と同様に行なわれれば良いため、ここではその詳細な説明を省略する。但し、撮像方向の距離やズームレンズの焦点距離等は、実際のカメラ(撮像装置20)では制限があるため、制限に応じて好適な値に変更される。   For example, as illustrated in FIG. 21, the composition unit 125 rotates the composite image according to the user's drag operation on the operation unit 121 with the selected camera icon as an axis (step S <b> 701). However, the rotation range of the composite image may be limited. The rotated composite image is generated and displayed as appropriate according to the drag direction, drag distance, and the like. In addition, in the user operation on the operation unit 121, when another camera icon different from the currently selected camera icon is not selected within a predetermined time (No in step S702), the switching instruction unit 127 displays the composite image. The distance in the imaging direction with respect to the imaging device 20 corresponding to the drag distance is calculated. The switching instruction unit 127 also calculates the focal length of the zoom lens with respect to the imaging device 20 according to the pinch distance on the composite image even when a pinch operation (wheel operation) is performed. Since the calculation of the distance in the imaging direction and the focal length of the zoom lens may be performed in the same manner as in the fourth embodiment, detailed description thereof is omitted here. However, since the distance in the imaging direction, the focal length of the zoom lens, and the like are limited in the actual camera (imaging device 20), they are changed to suitable values according to the limitation.

そして、切替指示部127は、通信処理部122を介して、ズームレンズの焦点距離と、撮像方向の移動方向及び移動角度等を制御信号として撮像装置20に対して送信することにより、撮像方向とズームレンズの焦点距離とを切り替える指示を該撮像装置20に対して行なう(ステップS703)。一方、操作部121において、所定時間内に現在選択されているカメラアイコンとは異なる他のカメラアイコンが選択された場合に(ステップS702肯定)、再度ステップS701の処理を実行する。   Then, the switching instruction unit 127 transmits the focal length of the zoom lens, the movement direction and the movement angle of the imaging direction, and the like as control signals to the imaging device 20 via the communication processing unit 122, thereby obtaining the imaging direction. An instruction to switch the focal length of the zoom lens is given to the imaging device 20 (step S703). On the other hand, when another camera icon different from the currently selected camera icon is selected within the predetermined time on the operation unit 121 (Yes in step S702), the process of step S701 is executed again.

この後、通信処理部122によって、選択されているカメラアイコンに相当する撮像装置20から撮像画像、パン情報、チルト情報及びズーム情報が受信された場合に(ステップS704肯定)、合成部125は、制御部124を介して、取得部123によって取得された撮像画像、パン情報、チルト情報及びズーム情報を取得するとともに、3次元モデル、アイコン、アイコン位置(カメラ位置)を3次元モデル記憶部111から取得する。一方、通信処理部122は、撮像装置20から撮像画像、パン情報、チルト情報及びズーム情報が受信されない場合に(ステップS704否定)、これら撮像画像、パン情報、チルト情報及びズーム情報の受信待ちの状態となる。   Thereafter, when the captured image, pan information, tilt information, and zoom information are received by the communication processing unit 122 from the imaging device 20 corresponding to the selected camera icon (Yes in step S704), the combining unit 125 The captured image, pan information, tilt information, and zoom information acquired by the acquisition unit 123 are acquired via the control unit 124, and the 3D model, icon, and icon position (camera position) are acquired from the 3D model storage unit 111. get. On the other hand, when the captured image, pan information, tilt information, and zoom information are not received from the image capturing apparatus 20 (No in step S704), the communication processing unit 122 waits for reception of the captured image, pan information, tilt information, and zoom information. It becomes a state.

そして、合成部125は、カメラ位置、パン情報、チルト情報及びズーム情報に基づいて3次元モデルの視点、注視点及び画角を決定する。続いて、合成部125は、決定した視点、注視点及び画角に基づいて、3次元モデルデータから2次元投影画像を生成する(ステップS705)。このとき、合成部125は、アイコン位置をもとに各アイコンを2次元投影画像に配置するとともに、カメラアイコン付近に設定されたポップアップに、カメラアイコンに相当する撮像装置20によって撮像された撮像画像を合成する。その後、合成部125は、生成した2次元投影画像上の所定領域に撮像画像を合成することにより、合成画像を生成する(ステップS706)。   Then, the synthesis unit 125 determines the viewpoint, the gazing point, and the angle of view of the three-dimensional model based on the camera position, pan information, tilt information, and zoom information. Subsequently, the composition unit 125 generates a two-dimensional projection image from the three-dimensional model data based on the determined viewpoint, gazing point, and angle of view (step S705). At this time, the synthesizing unit 125 arranges each icon in the two-dimensional projection image based on the icon position, and the captured image captured by the imaging device 20 corresponding to the camera icon is displayed in a pop-up set near the camera icon. Is synthesized. Thereafter, the combining unit 125 generates a combined image by combining the captured image with a predetermined region on the generated two-dimensional projection image (step S706).

上述したように、画像処理装置10は、合成画像上のカメラアイコンを軸として、ドラッグ操作に応じて回転させるので、合成画像の閲覧者は、回転前に合成画像に現れていないカメラアイコンの選択を容易に行なうことができる。また、画像処理装置10は、合成画像の回転において、所定時間が経過しても他のカメラアイコンが選択されなかった場合に、実施の形態4と同様に、カメラの撮像方向及びズームレンズの焦点距離の切り替えを指示するので、合成画像の閲覧者は、カメラによって撮像されている領域を直感的に把握することができる。   As described above, since the image processing apparatus 10 rotates around the camera icon on the composite image in accordance with the drag operation, the viewer of the composite image selects a camera icon that does not appear in the composite image before the rotation. Can be easily performed. Further, in the rotation of the composite image, the image processing apparatus 10 also performs the imaging direction of the camera and the focus of the zoom lens when no other camera icon is selected even after a predetermined time has elapsed. Since switching of the distance is instructed, the viewer of the composite image can intuitively grasp the area captured by the camera.

(実施の形態6)
実施の形態4では、ドラッグ操作によって撮像装置20の撮像方向やズームレンズの焦点距離を設定する場合を説明したが、ドラッグ距離に応じた速度で撮像方向に向けたカメラの動作速度をさらに設定することもできる。そこで、実施の形態6では、ドラッグ距離に応じた速度で撮像方向に向けたカメラの動作速度をさらに設定する場合を説明する。
(Embodiment 6)
In the fourth embodiment, the case where the imaging direction of the imaging device 20 and the focal length of the zoom lens are set by a drag operation has been described. However, the operation speed of the camera toward the imaging direction is further set at a speed according to the drag distance. You can also. Therefore, in the sixth embodiment, a case will be described in which the operation speed of the camera directed in the imaging direction is further set at a speed according to the drag distance.

[実施の形態6に係る画面遷移]
図22及び図23を用いて、実施の形態6に係る画面遷移について説明する。図22は、実施の形態6に係る基点を決定する例を示すイメージ図である。図23は、実施の形態6に係るドラッグ距離に応じたカメラ動作速度を設定する例を示すイメージ図である。
[Screen transition according to Embodiment 6]
The screen transition according to the sixth embodiment will be described with reference to FIGS. FIG. 22 is an image diagram showing an example of determining a base point according to the sixth embodiment. FIG. 23 is an image diagram showing an example of setting the camera operating speed according to the drag distance according to the sixth embodiment.

図22に示すように、操作部121でのユーザ操作において、合成画像上でマウスダウン又はタッチダウンされた場合に、切替指示部127は、マウスダウン又はタッチダウンされた合成画像上の位置を基点として決定する。マウスダウン又はタッチダウンの後、操作部121でのユーザ操作においてドラッグ操作された場合に、図23に示すように、切替指示部127は、ドラッグ方向と反対方向を撮像方向の移動方向とし、撮像方向の移動方向にカメラを動作させるときの移動速度を、ドラッグ距離に応じた速度に設定する。   As illustrated in FIG. 22, when a mouse operation is performed on a composite image in a user operation on the operation unit 121, the switching instruction unit 127 uses the position on the composite image that is mouse-down or touch-down as a base point. Determine as. When a drag operation is performed in the user operation on the operation unit 121 after the mouse down or the touch down, as illustrated in FIG. 23, the switching instruction unit 127 sets the direction opposite to the drag direction as the moving direction of the image capturing direction and performs image capturing. The moving speed when operating the camera in the moving direction is set to a speed corresponding to the drag distance.

例えば、図23に示すように、基点からの距離に応じて、カメラのパン、チルト動作が段階的に速くなる範囲を予め設定しておく。そして、切替指示部127は、マウスダウン又はタッチダウンにより決定された基点から、ドラッグ距離に応じて段階的に設定された速度に基づき、撮像方向の移動方向にカメラを動作させるときの移動速度を設定する。図23に示す例において、設定される移動速度の範囲は、基点に近傍の範囲であれば動かさないように設定され、近傍の範囲を抜けてから段階的に「低速」、「中速」、「高速」となるように設定されている。「低速」、「中速」、「高速」それぞれに応じたカメラの移動速度は、任意に設定されれば良い。また、図23に示す速度の範囲は、任意に変更することが可能であり、その表示をさせなくても良い。   For example, as shown in FIG. 23, a range in which the panning and tilting operations of the camera are accelerated stepwise is set in advance according to the distance from the base point. Then, the switching instruction unit 127 determines the moving speed when the camera is operated in the moving direction of the imaging direction based on the speed set stepwise according to the drag distance from the base point determined by the mouse down or the touch down. Set. In the example shown in FIG. 23, the range of the moving speed that is set is set so as not to move if it is in the vicinity of the base point, and after passing through the vicinity of the range, “low speed”, “medium speed”, It is set to be “fast”. The moving speed of the camera corresponding to each of “low speed”, “medium speed”, and “high speed” may be set arbitrarily. Further, the speed range shown in FIG. 23 can be arbitrarily changed, and the display may not be performed.

[実施の形態6に係る画像処理フロー]
次に、図24を用いて、実施の形態6に係る画像処理の流れについて説明する。図24は、実施の形態6に係る画像処理の流れの例を示すフローチャートである。なお、実施の形態6に係る画像処理とは、主にステップS408における処理を指す。
[Image Processing Flow According to Embodiment 6]
Next, the flow of image processing according to the sixth embodiment will be described with reference to FIG. FIG. 24 is a flowchart illustrating an example of the flow of image processing according to the sixth embodiment. Note that image processing according to the sixth embodiment mainly refers to processing in step S408.

例えば、図24に示すように、操作部121におけるユーザ操作により、合成画面上でマウスダウン又はダッチダウンされた場合に、切替指示部127は、マウスダウン又はタッチダウンされた合成画像上の位置を基点として決定する(ステップS801)。そして、操作部121においてドラッグ操作が行なわれると、切替指示部127は、決定した基点からのドラッグ距離に応じた移動速度を決定する(ステップS802)。   For example, as illustrated in FIG. 24, when the mouse is down or down on the composite screen by a user operation on the operation unit 121, the switching instruction unit 127 displays the position on the composite image that is mouse down or touched down. The base point is determined (step S801). When a drag operation is performed on the operation unit 121, the switching instruction unit 127 determines a moving speed according to the determined drag distance from the base point (step S802).

ここで、切替指示部127は、決定した撮像方向の移動方向と移動速度と、撮像装置20に対して現在行なわれている指示とが異なるか否かを判定する(ステップS803)。このとき、切替指示部127は、決定した撮像方向の移動方向及び移動速度と、現在行なわれている指示とが異なると判定した場合に(ステップS803肯定)、通信処理部122を介して、決定した撮像方向の移動方向と移動速度とを送信することにより、撮像装置20に対して撮像方向を切り替える指示を行なう(ステップS804)。一方、切替指示部127は、決定した撮像方向の移動方向及び移動速度と、現在行なわれている指示とが同じであると判定した場合に(ステップS803否定)、再度ステップS802の処理を実行する。   Here, the switching instruction unit 127 determines whether or not the determined movement direction and movement speed of the imaging direction are different from the instruction currently being given to the imaging device 20 (step S803). At this time, when the switching instruction unit 127 determines that the determined moving direction and moving speed in the imaging direction are different from the currently performed instruction (Yes in step S803), the switching instruction unit 127 determines via the communication processing unit 122. By transmitting the moving direction and moving speed of the image capturing direction, the image capturing apparatus 20 is instructed to switch the image capturing direction (step S804). On the other hand, when the switching instruction unit 127 determines that the determined moving direction and moving speed in the imaging direction are the same as the instruction that is currently being performed (No in step S803), the switching instruction unit 127 executes the process of step S802 again. .

この後、通信処理部122によって、選択されているカメラアイコンに相当する撮像装置20から撮像画像、パン情報及びチルト情報が受信された場合に(ステップS805肯定)、合成部125は、制御部124を介して、取得部123によって取得された撮像画像、パン情報、チルト情報を取得するとともに、3次元モデル、アイコン、アイコン位置(カメラ位置)を3次元モデル記憶部111から取得する。一方、通信処理部122は、撮像装置20から撮像画像及び撮像方向が受信されない場合に(ステップS805否定)、これら撮像画像及び撮像方向の受信待ちの状態となる。   Thereafter, when the captured image, pan information, and tilt information are received from the imaging device 20 corresponding to the selected camera icon by the communication processing unit 122 (Yes in step S805), the combining unit 125 controls the control unit 124. In addition, the captured image, pan information, and tilt information acquired by the acquisition unit 123 are acquired, and the 3D model, icon, and icon position (camera position) are acquired from the 3D model storage unit 111. On the other hand, when the captured image and the imaging direction are not received from the imaging device 20 (No in step S805), the communication processing unit 122 enters a state of waiting for reception of the captured image and the imaging direction.

そして、合成部125は、カメラ位置、パン情報及びチルト情報に基づいて3次元モデルの視点及び注視点を決定する。続いて、合成部125は、決定した視点、注視点及び予め設定された画角に基づいて、3次元モデルデータから2次元投影画像を生成する(ステップS806)。このとき、合成部125は、アイコン位置をもとに各アイコンを2次元投影画像に配置するとともに、カメラアイコン付近に設定されたポップアップに、カメラアイコンに相当する撮像装置20によって撮像された撮像画像を合成する。その後、合成部125は、生成した2次元投影画像上の所定領域に撮像画像を合成することにより、合成画像を生成する(ステップS807)。   Then, the combining unit 125 determines the viewpoint and the gazing point of the three-dimensional model based on the camera position, pan information, and tilt information. Subsequently, the synthesizing unit 125 generates a two-dimensional projection image from the three-dimensional model data based on the determined viewpoint, gazing point, and preset angle of view (step S806). At this time, the synthesizing unit 125 arranges each icon in the two-dimensional projection image based on the icon position, and the captured image captured by the imaging device 20 corresponding to the camera icon is displayed in a pop-up set near the camera icon. Is synthesized. Thereafter, the combining unit 125 generates a combined image by combining the captured image with a predetermined area on the generated two-dimensional projection image (step S807).

上述したように、画像処理装置10は、合成画像上でのユーザによるドラッグ操作によって撮像装置20の撮像方向やカメラ動作の速度を指示し、指示に応じた撮像装置20による撮像の撮像方向に応じた2次元投影画像を生成し、生成した2次元投影画像の所定領域に撮像画像を合成して出力する。この結果、合成画像の閲覧者は、簡単なユーザ操作により撮像装置20のカメラ切り替えを行なうことができるとともに、カメラによって撮像されている領域を直感的に把握することができる。   As described above, the image processing apparatus 10 instructs the imaging direction of the imaging apparatus 20 and the speed of the camera operation by a drag operation by the user on the composite image, and responds to the imaging direction of imaging by the imaging apparatus 20 according to the instruction. The two-dimensional projection image is generated, and the captured image is synthesized and output to a predetermined area of the generated two-dimensional projection image. As a result, the viewer of the composite image can switch the camera of the imaging device 20 with a simple user operation, and can intuitively grasp the area imaged by the camera.

(実施の形態7)
実施の形態4では、ドラッグ操作によって撮像装置20のズームレンズの焦点距離や撮像方向の移動方向及び移動速度を設定する場合を説明したが、ドラッグ速度に応じた速度で撮像方向の移動方向に向けたカメラの移動速度をさらに設定することもできる。そこで、実施の形態7では、ドラッグ速度に応じて撮像方向の移動方向に向けたカメラの移動速度をさらに設定する場合を説明する。
(Embodiment 7)
In the fourth embodiment, the case where the focal length of the zoom lens of the imaging apparatus 20 and the moving direction and moving speed of the imaging direction are set by a drag operation has been described, but the moving direction in the imaging direction is directed at a speed corresponding to the drag speed. You can also set the camera speed. Therefore, in the seventh embodiment, a case will be described in which the moving speed of the camera toward the moving direction of the imaging direction is further set according to the drag speed.

[実施の形態7に係る画像処理]
図25及び図26を用いて、実施の形態7に係る画像処理について説明する。図25は、実施の形態7に係る基点を決定する例を示すイメージ図である。図26は、実施の形態7に係るドラッグ速度に応じたカメラ動作速度を設定する例を示すイメージ図である。
[Image processing according to Embodiment 7]
Image processing according to the seventh embodiment will be described with reference to FIGS. 25 and 26. FIG. FIG. 25 is an image diagram showing an example of determining a base point according to the seventh embodiment. FIG. 26 is an image diagram showing an example of setting the camera operation speed according to the drag speed according to the seventh embodiment.

図25に示すように、操作部121でのユーザ操作において、合成画像上でマウスダウン又はタッチダウンされた場合に、切替指示部127は、マウスダウン又はタッチダウンされた合成画像上の位置を基点として決定する。マウスダウン又はタッチダウンの後、操作部121でのユーザ操作においてドラッグ操作された場合に、切替指示部127は、ドラッグ方向と反対方向を撮像方向の移動方向とし、撮像方向の移動方向にカメラを動作させるときの移動速度を、ドラッグの速度に応じた速度に設定する。例えば、図26に示すように、矢印のようなドラッグが行なわれた場合、ドラッグ操作の「基点」、「基準点」、「現在点」を図26に示すように設定する。ドラッグ操作された場合に、切替指示部127は、基点から現在点までの方向に基づき撮像方向の移動方向を設定し、基準点から現在点までの距離から算出したドラッグの速度とに基づき、撮像方向の移動方向にカメラを動作させるときの移動速度を設定する。   As shown in FIG. 25, when the mouse operation or touchdown is performed on the composite image in the user operation on the operation unit 121, the switching instruction unit 127 uses the position on the composite image that is mousedown or touchdown as a base point. Determine as. When a drag operation is performed by a user operation on the operation unit 121 after the mouse down or touch down, the switching instruction unit 127 sets the direction opposite to the drag direction as the movement direction of the imaging direction, and moves the camera in the movement direction of the imaging direction. Set the movement speed for operation to the speed corresponding to the drag speed. For example, as shown in FIG. 26, when dragging like an arrow is performed, the “base point”, “reference point”, and “current point” of the drag operation are set as shown in FIG. When a drag operation is performed, the switching instruction unit 127 sets the moving direction of the imaging direction based on the direction from the base point to the current point, and performs imaging based on the drag speed calculated from the distance from the reference point to the current point. Set the movement speed when operating the camera in the direction of movement.

[実施の形態7に係る画像処理フロー]
次に、図27を用いて、実施の形態7に係る画像処理の流れについて説明する。図27は、実施の形態7に係る画像処理の流れの例を示すフローチャートである。なお、実施の形態7に係る画像処理とは、主にステップS408における処理を指す。
[Image Processing Flow According to Embodiment 7]
Next, the flow of image processing according to the seventh embodiment will be described with reference to FIG. FIG. 27 is a flowchart illustrating an example of the flow of image processing according to the seventh embodiment. Note that image processing according to the seventh embodiment mainly refers to processing in step S408.

例えば、図27に示すように、操作部121におけるユーザ操作により、合成画面上でマウスダウン又はタッチダウンされた場合に、切替指示部127は、マウスダウン又はタッチダウンされた合成画像上の位置を基点として決定する(ステップS901)。また、切替指示部127は、所定の時間ごとに合成画像上の位置を算出し、最新の位置を現在点、ひとつ前の位置を基準点として設定する。そして、切替指示部127は、基点から現在点までの方向に応じて、撮像方向の移動方向を決定する。さらに、基準点と現在点との距離を所定の時間で割ることで、ドラッグの速度を算出し、ドラッグの速度に応じて移動速度を設定する(ステップS902)。   For example, as shown in FIG. 27, when the mouse is down or touched down on the composite screen by a user operation on the operation unit 121, the switching instruction unit 127 displays the position on the composite image that is mouse down or touched down. The base point is determined (step S901). In addition, the switching instruction unit 127 calculates a position on the composite image every predetermined time, and sets the latest position as the current point and the previous position as the reference point. Then, the switching instruction unit 127 determines the moving direction of the imaging direction according to the direction from the base point to the current point. Further, the speed of the drag is calculated by dividing the distance between the reference point and the current point by a predetermined time, and the moving speed is set according to the speed of the drag (step S902).

ここで、切替指示部127は、決定した撮像方向の移動方向及び移動速度と、撮像装置20に対して現在行なわれている指示とが異なるか否かを判定する(ステップS903)。このとき、切替指示部127は、設定した撮像方向の移動方向及び移動速度と、現在行なわれている指示とが異なると判定した場合に(ステップS903肯定)、通信処理部122を介して、設定した撮像方向の移動方向及び移動速度を送信することにより、撮像装置20に対して撮像方向の切り替えの指示を行なう(ステップS904)。一方、切替指示部127は、設定した撮像方向の移動方向及び移動速度と、現在行なわれている指示とが同じであると判定した場合に(ステップS903否定)、再度ステップS902の処理を実行する。   Here, the switching instruction unit 127 determines whether or not the determined movement direction and movement speed in the imaging direction are different from the instruction currently being given to the imaging device 20 (step S903). At this time, when the switching instruction unit 127 determines that the set moving direction and moving speed in the imaging direction are different from the currently performed instruction (Yes in step S903), the switching instruction unit 127 sets the setting via the communication processing unit 122. By transmitting the moving direction and moving speed of the imaging direction, the imaging device 20 is instructed to switch the imaging direction (step S904). On the other hand, when the switching instruction unit 127 determines that the set movement direction and movement speed in the imaging direction are the same as the instruction that is currently being made (No at step S903), the switching instruction unit 127 executes the process at step S902 again. .

この後、通信処理部122によって、選択されているカメラアイコンに相当する撮像装置20から撮像画像、パン情報及びチルト情報が受信された場合に(ステップS905肯定)、合成部125は、制御部124を介して、取得部123によって取得された撮像画像、パン情報、チルト情報を取得するとともに、3次元モデル、アイコン、アイコン位置(カメラ位置)を3次元モデル記憶部111から取得する。一方、通信処理部122は、撮像装置20から撮像画像、パン情報及びチルト情報が受信されない場合に(ステップS905否定)、これら撮像画像、パン情報及びチルト情報の受信待ちの状態となる。   Thereafter, when the captured image, pan information, and tilt information are received by the communication processing unit 122 from the imaging device 20 corresponding to the selected camera icon (Yes in step S905), the combining unit 125 controls the control unit 124. In addition, the captured image, pan information, and tilt information acquired by the acquisition unit 123 are acquired, and the 3D model, icon, and icon position (camera position) are acquired from the 3D model storage unit 111. On the other hand, when the captured image, pan information, and tilt information are not received from the image capturing apparatus 20 (No in step S905), the communication processing unit 122 enters a state of waiting for reception of the captured image, pan information, and tilt information.

そして、合成部125は、カメラ位置、パン情報及びチルト情報に基づいて3次元モデルの視点及び注視点を決定する。続いて、合成部125は、決定した視点、注視点及び予め設定された画角に基づいて、3次元モデルデータから2次元投影画像を生成する(ステップS906)。このとき、合成部125は、アイコン位置をもとに各アイコンを2次元投影画像に配置するとともに、カメラアイコン付近に設定されたポップアップに、カメラアイコンに相当する撮像装置20によって撮像された撮像画像を合成する。その後、合成部125は、生成した2次元投影画像上の所定領域に撮像画像を合成することにより、合成画像を生成する(ステップS907)。   Then, the combining unit 125 determines the viewpoint and the gazing point of the three-dimensional model based on the camera position, pan information, and tilt information. Subsequently, the synthesizing unit 125 generates a two-dimensional projection image from the three-dimensional model data based on the determined viewpoint, gazing point, and preset angle of view (step S906). At this time, the synthesizing unit 125 arranges each icon in the two-dimensional projection image based on the icon position, and the captured image captured by the imaging device 20 corresponding to the camera icon is displayed in a pop-up set near the camera icon. Is synthesized. Thereafter, the synthesizing unit 125 synthesizes the captured image with a predetermined region on the generated two-dimensional projection image to generate a synthesized image (step S907).

上述したように、画像処理装置10は、合成画像上でのユーザによるドラッグ操作によって撮像装置20の撮像方向の移動方向及び移動速度を指示し、指示に応じた撮像装置20から送られるパン情報とチルト情報とに応じた2次元投影画像を生成し、生成した2次元投影画像の所定領域に撮像画像を合成して出力する。この結果、合成画像の閲覧者は、簡単なユーザ操作により撮像装置20のカメラの撮像方向の切り替えを行なうことができるとともに、カメラによって撮像されている領域を直感的に把握することができる。   As described above, the image processing apparatus 10 instructs the moving direction and moving speed of the image capturing apparatus 20 by a drag operation by the user on the composite image, and the pan information sent from the image capturing apparatus 20 according to the instruction. A two-dimensional projection image corresponding to the tilt information is generated, and the captured image is synthesized with a predetermined region of the generated two-dimensional projection image and output. As a result, the viewer of the composite image can switch the imaging direction of the camera of the imaging device 20 with a simple user operation, and can intuitively grasp the area captured by the camera.

(実施の形態8)
実施の形態1では、全監視エリアの2次元投影画像にカメラアイコンを配置し、カメラアイコンが選択された場合、選択されたカメラアイコンに対応するカメラ(撮像装置)が撮像した撮像画像を合成した合成画像を表示するものである。これに対し、本実施の形態では、複数の監視エリアが階層状に構成されており、いずれかの監視エリアの2次元投影画像から他の階層の監視エリアの選択が可能であるとともに、選択された監視エリアの2次元投影画像にカメラのうち当該監視エリアに対応付けられたカメラのみのカメラアイコンを配置して、カメラアイコンが選択された場合、選択されたカメラアイコンに対応するカメラが撮像した撮像画像を合成した合成画像を表示するものである。以下では、監視システムの構成、および撮像装置の構成は、実施の形態1と同様であるため説明を省略する。
(Embodiment 8)
In the first embodiment, a camera icon is arranged on a two-dimensional projection image of all monitoring areas, and when a camera icon is selected, a captured image captured by a camera (imaging device) corresponding to the selected camera icon is synthesized. A composite image is displayed. On the other hand, in the present embodiment, a plurality of monitoring areas are arranged in a hierarchy, and a monitoring area of another hierarchy can be selected from a two-dimensional projection image of any monitoring area and is selected. When the camera icon of only the camera associated with the monitoring area is arranged in the two-dimensional projection image of the monitored area and the camera icon is selected, the camera corresponding to the selected camera icon has taken an image. A composite image obtained by combining captured images is displayed. In the following, the configuration of the monitoring system and the configuration of the imaging apparatus are the same as those in the first embodiment, and thus description thereof is omitted.

[実施の形態8に係る画像処理装置の構成]
次に、実施の形態1における図3を用いて、実施の形態8に係る画像処理装置10の構成を説明する。画像処理装置10は、3次元モデル記憶部111と、視点情報記憶部112と、操作部121と、通信処理部122と、取得部123と、制御部124と、合成部125と、出力部126とを有する。画像処理装置10は、ネットワーク30を介して、撮像装置20等のネットワークカメラやセンサ40に接続されたPC等の情報処理装置である(図1参照)。ここで、通信処理部122および制御部124は実施の形態1と同様であるため説明を省略する。
[Configuration of Image Processing Apparatus According to Embodiment 8]
Next, the configuration of the image processing apparatus 10 according to the eighth embodiment will be described with reference to FIG. 3 in the first embodiment. The image processing apparatus 10 includes a three-dimensional model storage unit 111, a viewpoint information storage unit 112, an operation unit 121, a communication processing unit 122, an acquisition unit 123, a control unit 124, a synthesis unit 125, and an output unit 126. And have. The image processing apparatus 10 is an information processing apparatus such as a PC connected to a network camera such as the imaging apparatus 20 or the sensor 40 via the network 30 (see FIG. 1). Here, since the communication processing unit 122 and the control unit 124 are the same as those in the first embodiment, description thereof is omitted.

3次元モデル記憶部111は、3次元モデル等を記憶する。図28は、3次元モデル記憶部111に記憶される情報例を示す図である。図28に示すように、3次元モデル記憶部111は、監視エリアの属する階層と、各監視エリアの3次元モデルデータと、デバイスIDと、アイコン種類IDと、アイコン位置とを対応付けて記憶する。ここで、デバイスIDと、アイコン種類IDと、アイコン位置の詳細については、実施の形態1と同様である。   The three-dimensional model storage unit 111 stores a three-dimensional model and the like. FIG. 28 is a diagram illustrating an example of information stored in the three-dimensional model storage unit 111. As shown in FIG. 28, the three-dimensional model storage unit 111 stores the hierarchy to which the monitoring area belongs, the three-dimensional model data of each monitoring area, the device ID, the icon type ID, and the icon position in association with each other. . Here, the details of the device ID, icon type ID, and icon position are the same as those in the first embodiment.

3次元モデルデータとは、上述の各監視エリア(3次元領域)の3次元モデルを示すものである(図5参照)。本実施の形態では、複数の監視エリアが階層状に構成された階層構造となっており、複数の監視エリアそれぞれに対応する複数の3次元モデルデータを記憶している。   The three-dimensional model data indicates a three-dimensional model of each monitoring area (three-dimensional region) described above (see FIG. 5). In this embodiment, the monitoring area has a hierarchical structure in which a plurality of monitoring areas are configured in a hierarchical manner, and a plurality of three-dimensional model data corresponding to each of the plurality of monitoring areas is stored.

階層とは、各監視エリアが属している階層を示している。ここで、本実施の形態における監視エリアの階層構造について説明する。図29は、監視エリアの階層構造の説明図である。図29に示すように、本実施の形態では、監視エリアとして、全ての監視領域を示す全監視エリアと、全監視エリア内の建物であるモールの領域を示すモールエリアと、モール内の各フロアの領域を示す中央エリア、西2階エリア、西1階エリア、東2階エリア、および東1階エリアが設けられている。またこれらの監視エリアは3層の階層から構成されており、第一階層に全監視エリアが属し、第一階層の直下の階層である第二階層にモールエリアが属し、第二階層の直下の階層である第三階層に中央エリア、西2階エリア、西1階エリア、東2階エリア、および東1階エリアが属している。   The hierarchy indicates a hierarchy to which each monitoring area belongs. Here, the hierarchical structure of the monitoring area in the present embodiment will be described. FIG. 29 is an explanatory diagram of the hierarchical structure of the monitoring area. As shown in FIG. 29, in this embodiment, as a monitoring area, all monitoring areas indicating all monitoring areas, a mall area indicating a mall area that is a building in all monitoring areas, and each floor in the mall A central area, a west second floor area, a west first floor area, an east second floor area, and an east first floor area are provided. These monitoring areas are composed of three layers, all monitoring areas belong to the first layer, the mall area belongs to the second layer, which is the layer immediately below the first layer, and immediately below the second layer. The central area, the west second floor area, the west first floor area, the east second floor area, and the east first floor area belong to the third hierarchy which is a hierarchy.

図28に戻り、例を挙げると、3次元モデル記憶部111は、階層「第一階層」と、3次元モデルデータ「全監視エリア」と、カメラ1を示すデバイスID「#01」と、アイコン種類としてカメラを示すアイコン種類ID「A001」と、アイコン位置「(x1,y1,z1)」とを対応付けて記憶する。したがって、3次元モデル記憶部111を参照することにより、実施の形態1と同様に、各デバイスの配置位置を特定することができる。また、本実施の形態では、3次元モデル記憶部111を参照することにより、各監視エリアがいずれの階層に属しているかを判断することができる。   Returning to FIG. 28, for example, the 3D model storage unit 111 includes a hierarchy “first hierarchy”, 3D model data “all monitoring areas”, a device ID “# 01” indicating the camera 1, and an icon. An icon type ID “A001” indicating a camera as a type and an icon position “(x1, y1, z1)” are stored in association with each other. Therefore, by referring to the three-dimensional model storage unit 111, the arrangement position of each device can be specified as in the first embodiment. In the present embodiment, by referring to the three-dimensional model storage unit 111, it is possible to determine which hierarchy each monitoring area belongs to.

さらに、3次元モデル記憶部111は、図28に示すように、アイコン種類IDに対応付けて、各種アイコンの3次元パーツモデルを記憶する。詳細は実施の形態1と同様であるため説明を省略する。   Further, as shown in FIG. 28, the three-dimensional model storage unit 111 stores a three-dimensional part model of various icons in association with the icon type ID. The details are the same as those in the first embodiment, and thus the description thereof is omitted.

視点情報記憶部112は、合成部125が3次元モデルデータから2次元投影画像を生成する際や、ユーザが監視エリアやカメラアイコン等を選択するために表示する選択画像を生成する際に利用する視点位置を記憶する。図30は、視点情報記憶部112に記憶される情報例を示す図である。視点情報記憶部112は、具体的には、全監視エリア、モールエリア、中央エリア、西2階エリア、西1階エリア、東2階エリア、および東1階エリアの2次元投影画像を生成する際に利用される視点位置と、カメラの配置位置から観察される監視エリアの2次元投影画像を生成する際に利用される視点位置とを、視点位置を識別する視点位置IDに対応付けて記憶する。   The viewpoint information storage unit 112 is used when the synthesis unit 125 generates a two-dimensional projection image from the three-dimensional model data, or when a user generates a selection image to be displayed for selecting a monitoring area, a camera icon, or the like. Memorize the viewpoint position. FIG. 30 is a diagram illustrating an example of information stored in the viewpoint information storage unit 112. Specifically, the viewpoint information storage unit 112 generates two-dimensional projection images of the entire monitoring area, mall area, central area, west second floor area, west first floor area, east second floor area, and east first floor area. The viewpoint position used at the time and the viewpoint position used when generating the two-dimensional projection image of the monitoring area observed from the camera arrangement position are stored in association with the viewpoint position ID for identifying the viewpoint position. To do.

ここで、選択画像とは、いずれかの監視エリアの3次元モデルを2次元面に投影した2次元投影画像であって、投影された監視エリアと異なる階層、例えば直下や直上の階層などに属する監視エリアを選択することが可能な画像である。また、監視エリアにカメラが設置されている場合、選択画像は、カメラのうち当該監視エリアに対応付けられたカメラのみに対応するカメラアイコンが配置された監視エリアの2次元投影画像となり、カメラアイコンを選択することによってカメラ(撮像装置)を選択することが可能な画像である。   Here, the selected image is a two-dimensional projection image obtained by projecting a three-dimensional model of any monitoring area onto a two-dimensional surface, and belongs to a layer different from the projected monitoring area, for example, a layer directly below or directly above. It is an image from which a monitoring area can be selected. When a camera is installed in the monitoring area, the selected image is a two-dimensional projection image of the monitoring area in which camera icons corresponding to only the cameras associated with the monitoring area among the cameras are arranged. This is an image in which a camera (imaging device) can be selected by selecting.

図30に戻り、例を挙げると、視点情報記憶部112は、第一階層に属する全監視エリアを示す視点位置ID「B001」と、視点位置「(x10,y10,z10)」とを対応付けて記憶する。また、視点情報記憶部112は、第三階層に属する中央エリアを示す視点位置ID「B003」と、視点位置「(x14,y14,z14)」とを対応付けて記憶する。また、視点情報記憶部112は、カメラ1を示す視点位置ID「B011」と、視点位置「(x11,y11,z11)」とを対応付けて記憶する。   Returning to FIG. 30, for example, the viewpoint information storage unit 112 associates the viewpoint position ID “B001” indicating all the monitoring areas belonging to the first hierarchy with the viewpoint position “(x10, y10, z10)”. Remember. Further, the viewpoint information storage unit 112 stores a viewpoint position ID “B003” indicating a central area belonging to the third hierarchy and a viewpoint position “(x14, y14, z14)” in association with each other. The viewpoint information storage unit 112 stores a viewpoint position ID “B011” indicating the camera 1 and a viewpoint position “(x11, y11, z11)” in association with each other.

操作部121は、マウスやタッチパネル等の入力装置を有し、監視システム1のユーザのユーザ操作によって各種指示を受け付ける。例えば、操作部121は、選択画像から、ユーザからのカメラ選択指示(カメラアイコンの選択)を受け付ける。また、操作部121は、ユーザ操作によって所定のカメラ(撮像装置20)が選択されると、選択された撮像装置20の撮像画像を出力する指示を受け付ける。また、操作部121は、ユーザ操作によって所定の撮像装置20に対するパン、チルト及びズームの設定指示を受け付ける。なお、パン、チルト及びズームの設定指示は、上述したパン、チルト及びズームに関する制御信号として、制御部124及び通信処理部122を介して撮像装置20に送信される。また、操作部121は、ユーザから処理を終了する旨を示す終了指示を受け付ける。   The operation unit 121 includes an input device such as a mouse or a touch panel, and accepts various instructions by a user operation of the user of the monitoring system 1. For example, the operation unit 121 receives a camera selection instruction (selection of a camera icon) from the user from the selected image. In addition, when a predetermined camera (imaging device 20) is selected by a user operation, the operation unit 121 receives an instruction to output a captured image of the selected imaging device 20. In addition, the operation unit 121 receives pan, tilt, and zoom setting instructions for a predetermined imaging device 20 by a user operation. Note that the pan, tilt, and zoom setting instructions are transmitted to the imaging apparatus 20 via the control unit 124 and the communication processing unit 122 as control signals related to the above-described pan, tilt, and zoom. In addition, the operation unit 121 receives an end instruction indicating that the process is to be ended from the user.

また、操作部121は、監視エリアが表示された選択画像から、選択画像に表示されている監視エリアとは異なる階層(他の階層)に属する監視エリアの選択を受け付けるものである。具体的には、操作部121は、監視エリアが表示された選択画像から、選択画像に表示されている監視エリアの属する階層の直下または直上の階層に属する監視エリアの選択を受け付ける。さらに、操作部121は、監視エリアが表示された選択画像から、選択画像に表示されている監視エリアの属する階層より下層または上層に属する監視エリアの選択を受け付ける。   In addition, the operation unit 121 accepts selection of a monitoring area belonging to a layer (other layer) different from the monitoring area displayed in the selected image, from the selected image on which the monitoring area is displayed. Specifically, the operation unit 121 accepts selection of a monitoring area belonging to a hierarchy immediately below or immediately above a hierarchy to which the monitoring area displayed in the selection image belongs, from a selection image on which the monitoring area is displayed. Furthermore, the operation unit 121 accepts selection of a monitoring area belonging to a lower layer or an upper layer than a hierarchy to which the monitoring area displayed in the selected image belongs, from the selected image in which the monitoring area is displayed.

また、操作部121は、選択画像にカメラアイコンが表示されている場合は、選択画像からカメラアイコンの選択を受け付ける。例えば、操作部121は、全監視エリアの2次元投影画像である選択画像が表示されている場合、当該選択画像から、直下の下層に属するモールエリアや、さらに下層に属する中央エリアや西2階エリア、全監視エリアに対応付けられたカメラのカメラアイコンの選択を受け付ける。なお、操作部121は、領域選択受付部およびカメラ選択受付部に相当する。   In addition, when a camera icon is displayed on the selected image, the operation unit 121 accepts selection of the camera icon from the selected image. For example, when a selection image that is a two-dimensional projection image of the entire monitoring area is displayed, the operation unit 121 displays, from the selection image, a mall area that belongs to the immediately lower layer, a central area that belongs to the lower layer, and the west second floor. Selection of camera icons of cameras associated with areas and all monitoring areas is accepted. The operation unit 121 corresponds to an area selection reception unit and a camera selection reception unit.

図31は、選択画像から選択可能な監視エリアまたはカメラアイコンを示す説明図である。図31に示すように、全監視エリアにモールエリアがあり、さらにカメラ1〜5が対応付けられている場合、全監視エリアの2次元投影画像である選択画像からはモールエリア、カメラ1〜5のカメラアイコンが選択可能となる。また、モールエリアに中央エリア、西2階エリア、西1階エリア、東2階エリア、および東1階エリアがあり、これらのエリアにカメラが対応付けられていない場合、モールエリアの2次元投影画像である選択画像からは中央エリア、西2階エリア、西1階エリア、東2階エリア、および東1階エリアが選択可能となる。   FIG. 31 is an explanatory diagram showing monitoring areas or camera icons that can be selected from the selected image. As shown in FIG. 31, when there is a mall area in all the monitoring areas and cameras 1 to 5 are associated with each other, from the selected image that is a two-dimensional projection image of all the monitoring areas, the mall areas, cameras 1 to 5 are displayed. The camera icon can be selected. In addition, if there are a central area, a west second floor area, a west first floor area, an east second floor area, and an east first floor area in the mall area, and no camera is associated with these areas, two-dimensional projection of the mall area From the selected image, which is an image, the central area, the west second floor area, the west first floor area, the east second floor area, and the east first floor area can be selected.

さらに、中央エリアにカメラ6、7が対応付けられている場合、中央エリアの2次元投影画像である選択画像からはカメラ6、7のカメラアイコンが選択可能となる。他の監視エリアである西2階エリア、西1階エリア、東2階エリア、東1階エリアについても同様である。   Further, when the cameras 6 and 7 are associated with the central area, the camera icons of the cameras 6 and 7 can be selected from the selection image that is a two-dimensional projection image of the central area. The same applies to the other second monitoring areas, the west second floor area, the west first floor area, the east second floor area, and the east first floor area.

取得部123は、操作部121により選択画像からカメラアイコンの選択を受け付けた場合、選択されたカメラアイコンに対応するカメラ(撮像装置20)によって撮像された撮像画像や撮像方向としてのパン情報、チルト情報や、ズーム情報を、通信処理部122を介して撮像装置20から取得する。また、取得部123は、センサ40から検出データを取得する。なお、検出データには、センサ40の検出方向等に関する情報(パン情報、チルト情報等)が含まれていてもよい。   When the operation unit 121 receives a selection of a camera icon from the selected image, the acquisition unit 123 captures an image captured by the camera (imaging device 20) corresponding to the selected camera icon, pan information as an imaging direction, and tilt. Information and zoom information are acquired from the imaging device 20 via the communication processing unit 122. The acquisition unit 123 acquires detection data from the sensor 40. The detection data may include information related to the detection direction of the sensor 40 (pan information, tilt information, etc.).

合成部125は、操作部121により選択画像からカメラアイコンの選択を受け付けた場合、選択画像に投影された監視エリアの3次元モデルの視点、及び選択されたカメラアイコンに対応するカメラ(撮像装置20)の撮像方向に応じた2次元投影画像を生成する。そして、合成部125は、生成した2次元投影画像の2次元画像領域に、選択されたカメラアイコンに対応するカメラ(撮像装置20)によって撮像された2次元画像である撮像画像を合成する。このとき、合成部125は、制御部124によって出力されたカメラアイコンやセンサアイコン等のアイコンもアイコン位置をもとに2次元投影画像に配置する。なお、撮像画像の合成およびアイコンの配置の詳細については、実施の形態1と同様である。   When the operation unit 121 accepts selection of a camera icon from the selected image, the combining unit 125 receives the viewpoint of the three-dimensional model of the monitoring area projected on the selected image and the camera (the imaging device 20) corresponding to the selected camera icon. ) Is generated in accordance with the imaging direction. The synthesizing unit 125 synthesizes a captured image, which is a two-dimensional image captured by the camera (imaging device 20) corresponding to the selected camera icon, in the two-dimensional image region of the generated two-dimensional projection image. At this time, the combining unit 125 also arranges icons such as camera icons and sensor icons output by the control unit 124 in the two-dimensional projection image based on the icon positions. The details of the composition of the captured image and the arrangement of the icons are the same as in the first embodiment.

また、合成部125は、操作部121により選択画像から監視エリアの選択を受け付けた場合、選択された監視エリアの3次元モデルにおけるカメラアイコンやセンサアイコン等のアイコン位置(選択された監視エリアに配置されているカメラのカメラ位置やセンサのセンサ位置)にカメラアイコンやセンサアイコンを配置する。そして、合成部125は、視点情報記憶部112に記憶された監視エリア(選択された監視エリア)の3次元モデルの視点(視点位置)を取得し、該視点に応じて、カメラアイコンやセンサアイコンが配置された監視エリア(選択された監視エリア)の3次元モデルを2次元面に投影した2次元投影画像である選択画像を生成する。このとき、選択された監視エリアにカメラやセンサが対応付けられていない場合は、カメラアイコンやセンサアイコンは配置されない。   Further, when the combining unit 125 accepts selection of a monitoring area from the selected image by the operation unit 121, icon positions of camera icons, sensor icons, etc. in the three-dimensional model of the selected monitoring area (arranged in the selected monitoring area) The camera icon or sensor icon is placed at the camera position or the sensor position of the sensor. The synthesizing unit 125 acquires the viewpoint (viewpoint position) of the three-dimensional model of the monitoring area (selected monitoring area) stored in the viewpoint information storage unit 112, and a camera icon or a sensor icon according to the viewpoint. A selection image that is a two-dimensional projection image obtained by projecting a three-dimensional model of the monitoring area (selected monitoring area) on the two-dimensional surface is generated. At this time, if no camera or sensor is associated with the selected monitoring area, the camera icon or sensor icon is not arranged.

出力部126は、合成部125によって生成された合成画像を出力する。例えば、出力部126は、合成部125によって2次元投影画像に合成された各種アイコン、カメラアイコン付近の領域に合成された撮像画像、又は、重畳された2次元画像領域に合成された撮像画像等を含む合成画像を出力する。また、出力部126は、合成部125によって生成された選択画像を出力する。なお、出力部126は、合成画像や選択画像を表示する表示装置であっても良いし、画像処理装置10に接続された表示装置に合成画像や選択画像を出力しても良い。   The output unit 126 outputs the combined image generated by the combining unit 125. For example, the output unit 126 may include various icons combined with the two-dimensional projection image by the combining unit 125, a captured image combined with a region near the camera icon, or a captured image combined with the superimposed two-dimensional image region. A composite image including is output. The output unit 126 outputs the selected image generated by the combining unit 125. Note that the output unit 126 may be a display device that displays a composite image or a selected image, or may output the composite image or the selected image to a display device connected to the image processing device 10.

[実施の形態8に係る全体処理フロー]
次に、図32を用いて、実施の形態8に係る全体処理の流れについて説明する。図32は、実施の形態8に係る全体処理の流れの例を示すフローチャートである。
[Overall Processing Flow According to Embodiment 8]
Next, the flow of overall processing according to Embodiment 8 will be described using FIG. FIG. 32 is a flowchart illustrating an example of the flow of overall processing according to the eighth embodiment.

ここで、ステップS2001〜ステップS2009は、実施の形態4における図18の処理と同様であるため、説明を省略する(ステップS401〜ステップS409参照)。その際、ステップS2001〜ステップS2003において、実施の形態4における初期画像を選択画像に置き換える。また、ステップS2007の判断が否定であった場合、ステップS2013の処理に進む。   Here, steps S2001 to S2009 are the same as the processing of FIG. 18 in the fourth embodiment, and thus the description thereof is omitted (see steps S401 to S409). At that time, in steps S2001 to S2003, the initial image in the fourth embodiment is replaced with the selected image. If the determination in step S2007 is negative, the process proceeds to step S2013.

ステップS2004において、操作部121により選択画像からカメラアイコンの選択を受け付けなかった場合(ステップS2004否定)、制御部124は、操作部121により選択画像から監視エリアの選択を受け付けたか否かを判断する(ステップS2010)。   In step S2004, when the operation unit 121 does not accept selection of a camera icon from the selected image (No in step S2004), the control unit 124 determines whether the operation unit 121 accepts selection of a monitoring area from the selected image. (Step S2010).

選択画像から監視エリアの選択を受け付けた場合(ステップS2010肯定)、合成部125は、選択された監視エリアの2次元投影画像である選択画像を生成する(ステップS2011)。そして、出力部126は、選択画像を表示画面に表示する(ステップS2012)。一方、選択画像から監視エリアの選択を受け付けなかった場合(ステップS2010否定)、ステップS2013の処理に進む。   When the selection of the monitoring area is received from the selected image (Yes at Step S2010), the composition unit 125 generates a selection image that is a two-dimensional projection image of the selected monitoring area (Step S2011). Then, the output unit 126 displays the selected image on the display screen (step S2012). On the other hand, when the selection of the monitoring area is not received from the selected image (No at Step S2010), the process proceeds to Step S2013.

次に、制御部124は、操作部121により処理を終了する旨を示す終了指示を受け付けたか否かを判断する(ステップS2013)。終了指示を受け付けた場合(ステップS2013肯定)、処理を終了する。一方、終了指示を受け付けなかった場合(ステップS2013否定)、ステップS2004の処理に戻る。なお、例えば、ユーザが終了指示を入力するためのアイコン等は、選択画像に表示されているものとする。   Next, the control unit 124 determines whether or not an end instruction indicating that the process is to be ended is received by the operation unit 121 (step S2013). If an end instruction has been accepted (Yes at step S2013), the process ends. On the other hand, if an end instruction has not been accepted (No at step S2013), the process returns to step S2004. Note that, for example, an icon or the like for the user to input an end instruction is displayed on the selected image.

また、実施の形態4において説明した初期画像は選択画像のうちの1つの画像であり、ステップS2010において、ユーザにより監視エリアとして全監視エリアが選択された場合には、ステップS2011において、初期画像に相当する全監視エリアの2次元投影画像である選択画像が表示される。このように監視エリアの選択を繰り返すことで、階層構造の監視エリアを順次切り替えて表示することができる。   Further, the initial image described in the fourth embodiment is one of the selected images. When the entire monitoring area is selected as the monitoring area by the user in step S2010, the initial image is displayed in step S2011. A selection image which is a two-dimensional projection image of all corresponding monitoring areas is displayed. By repeating the selection of the monitoring areas in this way, it is possible to sequentially switch and display the hierarchical monitoring areas.

また、選択画像において一つ前の処理における選択画像に戻る旨を示す選択可能なアイコン等を表示しておき、当該アイコンの選択を受け付けた場合に一つ前の処理における選択画像を表示する(戻る)。また、選択画像が表示される表示画面の隅などに、各監視エリアを示す選択可能なアイコン等を表示しておき、表示されたいずれかの監視エリアのアイコンの選択を受け付けた場合に、選択されたアイコンに対応する監視エリアの2次元投影画像である選択画像を生成して、生成した選択画像を表示する。これにより、選択画像に表示された監視エリアの直下の監視エリアだけでなく、直上、上層および下層の監視エリアを選択することが可能となる。   In addition, a selectable icon or the like indicating that the selected image returns to the selected image in the previous process is displayed, and when the selection of the icon is accepted, the selected image in the previous process is displayed ( Return). In addition, a selectable icon or the like indicating each monitoring area is displayed at the corner of the display screen where the selected image is displayed, and the selection is made when selection of one of the displayed monitoring area icons is accepted. A selection image that is a two-dimensional projection image of the monitoring area corresponding to the icon is generated, and the generated selection image is displayed. Thereby, it is possible to select not only the monitoring area immediately below the monitoring area displayed in the selected image, but also the monitoring area immediately above, the upper layer, and the lower layer.

[実施の形態8に係る初期画像生成処理フロー]
次に、図33を用いて、実施の形態8に係る選択画像生成処理の流れについて説明する。図33は、実施の形態8に係る選択画像生成処理の流れの例を示すフローチャートである。なお、実施の形態8に係る選択画像生成処理とは、ステップS2011における処理を指す。
[Initial Image Generation Processing Flow According to Embodiment 8]
Next, the flow of selected image generation processing according to Embodiment 8 will be described using FIG. FIG. 33 is a flowchart illustrating an example of the flow of selected image generation processing according to the eighth embodiment. The selected image generation process according to the eighth embodiment refers to the process in step S2011.

図33に示すように、画像処理装置10の合成部125は、選択された監視エリアの3次元モデルデータを3次元モデル記憶部111から取得する(ステップS2021)。合成部125は、3次元モデル記憶部111を参照し、選択された監視エリアの3次元モデルに対応付けられているデバイス(カメラまたはセンサ)があるか否かを判断する(ステップS2022)。対応付けられているデバイスがない場合(ステップS2022否定)、アイコンの合成を行わずステップS2028の処理に進む。   As illustrated in FIG. 33, the composition unit 125 of the image processing apparatus 10 acquires the three-dimensional model data of the selected monitoring area from the three-dimensional model storage unit 111 (step S2021). The synthesizing unit 125 refers to the three-dimensional model storage unit 111 and determines whether there is a device (camera or sensor) associated with the three-dimensional model of the selected monitoring area (step S2022). If there is no associated device (No at step S2022), the process proceeds to step S2028 without combining icons.

一方、対応付けられているデバイスがある場合(ステップS2022肯定)、合成部125は、3次元モデル記憶部111を参照し、選択された監視エリアの3次元モデルに対応付けられている各デバイスの配置位置、すなわち各アイコンと該各アイコンのアイコン位置とを取得する(ステップS2023)。   On the other hand, when there is a device associated (Yes in step S2022), the composition unit 125 refers to the three-dimensional model storage unit 111 and determines each device associated with the three-dimensional model of the selected monitoring area. An arrangement position, that is, each icon and the icon position of each icon are acquired (step S2023).

次に、合成部125は、対応付けられたデバイスにカメラ(撮像装置20)があるか否かを判断する(ステップS2024)。対応付けられたデバイスにカメラがない場合(ステップS2024否定)、ステップS2027の処理に進む。   Next, the composition unit 125 determines whether there is a camera (imaging device 20) in the associated device (step S2024). If there is no camera in the associated device (No at step S2024), the process proceeds to step S2027.

一方、対応付けられたデバイスにカメラがある場合(ステップS2024肯定)、合成部125は、各撮像装置20によって送信されたカメラの撮像方向を、通信処理部122、取得部123および制御部124を介して取得する(ステップS2025)。   On the other hand, when there is a camera in the associated device (Yes in step S2024), the synthesizing unit 125 sets the imaging direction of the camera transmitted by each imaging device 20 to the communication processing unit 122, the acquisition unit 123, and the control unit 124. (Step S2025).

その後、合成部125は、取得した撮像方向から、各カメラアイコンの向きを特定する(ステップS2026)。そして、合成部125は、3次元モデルの各アイコン位置に、各デバイス(カメラのみ、またはカメラとセンサ)のアイコンを合成する(ステップS227)。このとき、合成部125は、カメラアイコンについては、ステップS2026において特定した向きにカメラアイコンのレンズを向けた状態で、3次元モデル内にカメラアイコンを配置する。但し、センサ40等の向きを持たないデバイスに関しては、その向きが特に考慮されることなく3次元モデル内の該当するアイコン位置に、アイコンが合成される。   Thereafter, the combining unit 125 identifies the direction of each camera icon from the acquired imaging direction (step S2026). The synthesizing unit 125 synthesizes the icon of each device (only the camera, or the camera and the sensor) at each icon position of the three-dimensional model (step S227). At this time, for the camera icon, the combining unit 125 arranges the camera icon in the three-dimensional model with the lens of the camera icon directed in the direction specified in step S2026. However, for a device having no orientation such as the sensor 40, the icon is synthesized at the corresponding icon position in the three-dimensional model without special consideration of the orientation.

そして、合成部125は、視点情報記憶部112から、選択された監視エリアの視点位置IDに対応付けられている視点位置を取得する(ステップS2028)。続いて、合成部125は、取得した視点位置と、予め設定された注視点および画角に基づいて3次元モデルを投影面(2次元面)に投影する等、任意の手法でレンダリングを行なうことにより、2次元投影画像を生成し、生成した2次元投影画像を選択画像とする(ステップS2029)。なお、かかる選択画像には、図9に示すように、2次元投影画像中の各カメラアイコン付近に設定されたポップアップ領域に、各カメラアイコンに対応する撮像装置20によって撮像された撮像画像が合成されている。   Then, the synthesizing unit 125 acquires the viewpoint position associated with the viewpoint position ID of the selected monitoring area from the viewpoint information storage unit 112 (step S2028). Subsequently, the synthesizing unit 125 performs rendering by an arbitrary method such as projecting a three-dimensional model onto a projection plane (two-dimensional plane) based on the acquired viewpoint position, a preset gazing point, and a field angle. Thus, a two-dimensional projection image is generated, and the generated two-dimensional projection image is set as a selection image (step S2029). As shown in FIG. 9, the selected image is combined with a captured image captured by the imaging device 20 corresponding to each camera icon in a pop-up area set near each camera icon in the two-dimensional projection image. Has been.

このように、実施の形態8にかかる画像処理装置は、各監視エリアが階層状に構成されており、いずれかの監視エリアの2次元投影画像である選択画像から他の階層の監視エリアの選択が可能である。また、選択された監視エリアに対応付けられたカメラのカメラアイコンのみを表示するので、多くのカメラアイコンが同時に表示されることがない。さらに、選択された監視エリアの2次元投影画像である選択画像からカメラアイコンが選択された場合、選択されたカメラアイコンに対応するカメラが撮像した撮像画像を合成した合成画像を表示する。従って、3次元空間である監視エリアに設置されたカメラの位置を2次元画像で直感的に把握しやすく、操作性を向上させることができる。   As described above, in the image processing apparatus according to the eighth embodiment, each monitoring area is configured in a hierarchical manner, and selection of a monitoring area in another hierarchy from a selection image that is a two-dimensional projection image of any monitoring area. Is possible. Moreover, since only the camera icons of the cameras associated with the selected monitoring area are displayed, many camera icons are not displayed at the same time. Furthermore, when a camera icon is selected from a selected image that is a two-dimensional projection image of the selected monitoring area, a combined image obtained by combining captured images captured by the camera corresponding to the selected camera icon is displayed. Therefore, it is easy to intuitively grasp the position of the camera installed in the monitoring area which is a three-dimensional space with a two-dimensional image, and the operability can be improved.

(実施の形態9)
次に、実施の形態9にかかる画像処理装置10について説明する。上述の実施の形態1〜8にかかる画像処理装置10は、選択画像(初期画像)としての二次元投影画像を生成する際には、視点情報記憶部112において、処理対象となる監視エリアに対応付けられている視点位置を特定し、この視点位置と予め設定された注視点および画角に基づいて、処理対象となる監視エリアの3次元モデルデータに基づいて2次元投影画像を生成したが、本実施の形態にかかる画像処理装置10は、さらに、ユーザからの指示にしたがい、処理対象となる監視エリアの3次元モデルデータから2次元投影画像を生成する際に用いる視点位置を適宜変更することができる。
(Embodiment 9)
Next, an image processing apparatus 10 according to the ninth embodiment will be described. When the image processing apparatus 10 according to the first to eighth embodiments generates a two-dimensional projection image as a selected image (initial image), the viewpoint information storage unit 112 corresponds to a monitoring area to be processed. The attached viewpoint position is identified, and based on the viewpoint position and the preset gazing point and angle of view, a two-dimensional projection image is generated based on the three-dimensional model data of the monitoring area to be processed. The image processing apparatus 10 according to the present embodiment further appropriately changes the viewpoint position used when generating a two-dimensional projection image from the three-dimensional model data of the monitoring area to be processed in accordance with an instruction from the user. Can do.

図34は、実施の形態9にかかる画像処理装置10の処理を説明するための図である。図34は、初期画像に相当する全監視エリアの2次元投影画像である。ここで、全監視エリアの3次元モデルの鉛直方向をz軸、鉛直方向に水平な面である水平面の所定の方向をx軸、x軸に垂直な方向をy軸と定めることとする。   FIG. 34 is a diagram for explaining the processing of the image processing apparatus 10 according to the ninth embodiment. FIG. 34 is a two-dimensional projection image of the entire monitoring area corresponding to the initial image. Here, the vertical direction of the three-dimensional model of all the monitoring areas is defined as the z-axis, the predetermined direction of the horizontal plane that is horizontal to the vertical direction is defined as the x-axis, and the direction perpendicular to the x-axis is defined as the y-axis.

3次元モデルに対する視点や注視点の位置は自由に設定することができるが、実施の形態9にかかる画像処理装置10においては、視点として設定可能な位置の範囲を制限すべく、設定可能な位置の範囲である視点範囲を3次元モデル記憶部111に予め設定しておくこととする。本実施の形態にかかる画像処理装置10に設定されている視点範囲は、3次元モデル上に配置された回転軸を中心とし、半径を所定値とする所定の回転角度範囲に相当する円弧の範囲である。   Although the viewpoint and the position of the gazing point with respect to the three-dimensional model can be set freely, in the image processing apparatus 10 according to the ninth embodiment, a position that can be set to limit the range of positions that can be set as the viewpoint. It is assumed that a viewpoint range that is a range of is previously set in the three-dimensional model storage unit 111. The viewpoint range set in the image processing apparatus 10 according to the present embodiment is a range of an arc corresponding to a predetermined rotation angle range centered on a rotation axis arranged on the three-dimensional model and having a radius as a predetermined value. It is.

例えば、全監視エリアについては、画像処理装置10は、図34に示すように、z軸を回転軸とし、所定の回転角度範囲内で視点位置を円弧に沿って変更した状態の2次元投影画像を生成および出力することができ、さらに、y軸を回転軸とし、同様に所定の回転角度範囲内で視点位置を円弧に沿って変更した状態の2次元投影画像を生成および出力することができる。   For example, for all the monitoring areas, the image processing apparatus 10 has a two-dimensional projection image in a state where the z-axis is the rotation axis and the viewpoint position is changed along the arc within a predetermined rotation angle range, as shown in FIG. Can be generated and output, and a two-dimensional projection image can be generated and output in a state where the y-axis is the rotation axis and the viewpoint position is changed along the arc within a predetermined rotation angle range. .

実施の形態9にかかる画像処理装置10においては、操作部121は、ユーザ操作に応じて、視点位置の変更指示を受け付ける。すなわち、操作部121は、変更指示受付部として機能する。合成部125は、3次元モデル記憶部111に記憶されている3次元モデルおよび視点情報記憶部112に記憶されている視点位置等に基づいて、操作部121が受け付けた変更指示に示される視点位置に基づいて視点位置を変更し、変更後の視点に基づいて、3次元モデルを描画した2次元投影画像を生成する。すなわち、合成部125は、視点位置変更部および生成部として機能する。   In the image processing apparatus 10 according to the ninth embodiment, the operation unit 121 receives an instruction to change the viewpoint position in response to a user operation. That is, the operation unit 121 functions as a change instruction receiving unit. The synthesizing unit 125 is based on the three-dimensional model stored in the three-dimensional model storage unit 111, the viewpoint position stored in the viewpoint information storage unit 112, and the viewpoint position indicated in the change instruction received by the operation unit 121. The viewpoint position is changed based on, and a two-dimensional projection image in which the three-dimensional model is drawn is generated based on the changed viewpoint. That is, the synthesizing unit 125 functions as a viewpoint position changing unit and a generating unit.

図35は、画像処理装置10の3次元モデル記憶部111に記憶される情報例を示す図である。図35に示すように、本実施の形態の3次元モデル記憶部111は、3次元モデルデータに対応付けて、さらに視点範囲を記憶する。すなわち、3次元モデル記憶部111は、3次元モデル記憶部および視点範囲記憶部に相当する。ここで、視点範囲は、z軸およびy軸それぞれに対する回転軸位置、半径および回転角度範囲を含んでいる。回転軸位置は、3次元モデル内の回転軸の位置である。半径は、視点と注視点の間の距離に相当する値である。回転角度範囲は、視点範囲に対応する回転軸回りの回転角度である。本実施の形態においては、回転角度範囲は、第8の実施の形態において図30を参照しつつ説明した、視点情報記憶部112において各監視エリアに対応付けられている視点位置を基準とし、プラス方向およびマイナス方向にそれぞれ設定されている。   FIG. 35 is a diagram illustrating an example of information stored in the three-dimensional model storage unit 111 of the image processing apparatus 10. As shown in FIG. 35, the three-dimensional model storage unit 111 of the present embodiment further stores a viewpoint range in association with the three-dimensional model data. That is, the three-dimensional model storage unit 111 corresponds to a three-dimensional model storage unit and a viewpoint range storage unit. Here, the viewpoint range includes a rotation axis position, a radius, and a rotation angle range with respect to the z axis and the y axis, respectively. The rotation axis position is the position of the rotation axis in the three-dimensional model. The radius is a value corresponding to the distance between the viewpoint and the gazing point. The rotation angle range is a rotation angle around the rotation axis corresponding to the viewpoint range. In the present embodiment, the rotation angle range is determined based on the viewpoint position associated with each monitoring area in the viewpoint information storage unit 112 described with reference to FIG. 30 in the eighth embodiment. The direction and the negative direction are set.

以上、回転軸位置、半径、回転角度範囲および視点位置に基づいて、視点範囲を特定することができる。すなわち、3次元モデル記憶部111は、視点範囲として、回転軸位置、半径および回転角度範囲を記憶している。   As described above, the viewpoint range can be specified based on the rotation axis position, the radius, the rotation angle range, and the viewpoint position. That is, the three-dimensional model storage unit 111 stores a rotation axis position, a radius, and a rotation angle range as a viewpoint range.

なお、3次元モデル記憶部111は、このように、視点範囲を定めるための係数を記憶するのにかえて、他の例としては、視点範囲内の設定可能な視点位置の座標を複数記憶することとしてもよい。カメラを選択していない状態で操作部121のピンチ操作により視点位置の原点からの距離の変更を許可する場合、3次元モデル記憶部111は、回転軸を中心とした半径を変更し、半径の範囲を更に視点範囲として記憶してもよい。このように、3次元モデル記憶部111は、視点位置として設定可能な座標を特定可能な情報を視点範囲として記憶していればよく、視点範囲の具体的な情報は実施の形態に限定されるものではない。   Note that the three-dimensional model storage unit 111 stores a plurality of coordinates of settable viewpoint positions in the viewpoint range as another example, instead of storing the coefficient for determining the viewpoint range in this way. It is good as well. When the change of the distance from the origin of the viewpoint position is permitted by the pinch operation of the operation unit 121 with no camera selected, the 3D model storage unit 111 changes the radius around the rotation axis, The range may be further stored as a viewpoint range. As described above, the three-dimensional model storage unit 111 only needs to store, as a viewpoint range, information that can specify coordinates that can be set as the viewpoint position, and specific information on the viewpoint range is limited to the embodiment. It is not a thing.

視点情報記憶部112に記憶されている回転軸位置は、例えば3次元モデルが存在しない空白領域を含む2次元投影画像など、ユーザにとって3次元モデルを把握し難い2次元投影画像が生成および表示されることのないような値である。回転軸位置は、このような観点で、予め設計者等により決定され、視点情報記憶部112に登録されているものとする。   The rotation axis position stored in the viewpoint information storage unit 112 is generated and displayed as a 2D projection image that is difficult for the user to grasp the 3D model, such as a 2D projection image including a blank area where no 3D model exists. It is a value that never happens. From this point of view, the rotation axis position is determined in advance by a designer or the like and registered in the viewpoint information storage unit 112.

また、視点情報記憶部112に記憶されている回転角度範囲は、例えば全監視エリアの3次元モデルの地面の裏側のように、ユーザから閲覧されることを想定していない位置から観察される2次元投影画像が生成および表示されるような回転角度を除外した範囲である。回転角度範囲は、設計者等により予め決定され、視点情報記憶部112に登録されているものとする。   In addition, the rotation angle range stored in the viewpoint information storage unit 112 is observed from a position that is not supposed to be viewed by the user, such as the back side of the ground of the three-dimensional model of all monitoring areas. This is a range excluding a rotation angle at which a three-dimensional projection image is generated and displayed. It is assumed that the rotation angle range is determined in advance by a designer or the like and registered in the viewpoint information storage unit 112.

このように、本実施の形態の画像処理装置10においては、3次元モデルの設計者等がユーザに閲覧させることを想定していない観察方向に投影される2次元投影画像が生成されないような視点範囲が予め設定されているので、設計者等が想定する2次元投影画像のみをユーザに提供することができる。   As described above, in the image processing apparatus 10 according to the present embodiment, a viewpoint in which a two-dimensional projection image projected in an observation direction that is not assumed to be viewed by a user of a 3D model designer or the like is not generated. Since the range is set in advance, only the two-dimensional projection image assumed by the designer or the like can be provided to the user.

図36A〜図36Cは、視点位置が変更された場合に描画される2次元投影画像を示す図である。図36A〜図36Cは、いずれも図34に示す全監視エリアの2次元投影画像の視点位置を3次元モデル記憶部111において、全監視エリアに対応付けて記憶されているz軸を基準とする視点範囲内の視点位置で描画された2次元投影画像である。   36A to 36C are diagrams illustrating two-dimensional projection images drawn when the viewpoint position is changed. 36A to 36C, the viewpoint positions of the two-dimensional projection images of all the monitoring areas shown in FIG. 34 are based on the z axis stored in the three-dimensional model storage unit 111 in association with all the monitoring areas. It is a two-dimensional projection image drawn at a viewpoint position within the viewpoint range.

図36Aは、図34に示す2次元投影画像の視点位置を、3次元モデルの上方からz軸方向に3次元モデルを見た状態で、z軸を軸として時計周りに90°回転させた後の視点位置で3次元モデルを描画した2次元投影画像である。図36Bは、図36Aに示す2次元投影画像の視点位置をさらに時計回りに90°回転させた後の視点位置で3次元モデルを描画した2次元投影画像である。図36Cは、同様に図36Bに示す2次元投影画像を90°回転させた後の視点位置で3次元モデルを描画した2次元投影画像である。   FIG. 36A shows a state in which the viewpoint position of the two-dimensional projection image shown in FIG. 34 is rotated 90 ° clockwise around the z axis while the three-dimensional model is viewed from above the three-dimensional model in the z-axis direction. Is a two-dimensional projection image in which a three-dimensional model is drawn at the viewpoint position. FIG. 36B is a two-dimensional projection image in which the three-dimensional model is drawn at the viewpoint position after the viewpoint position of the two-dimensional projection image shown in FIG. 36A is further rotated 90 ° clockwise. FIG. 36C is a two-dimensional projection image in which a three-dimensional model is similarly drawn at the viewpoint position after the two-dimensional projection image shown in FIG. 36B is rotated by 90 °.

図37は、全監視エリアに対するy軸を回転軸とする視点範囲を説明するための図である。図37に示すように、y軸の視点範囲に対応する回転角度範囲は、3次元モデルのz軸のプラスの方向に40°を上限、z軸のマイナスの方向に20°を下限に設定されている。下側から覗き込むようにして監視エリアの位置関係を把握するため、y軸を中心にマイナス方向に視点位置を回転させる場合があるが、大きくマイナス方向に回転させると地下から見上げるような状態になってしまい、かえって位置関係が把握しづらくなる。そのため、マイナス方向の回転角度範囲はプラス方向の回転角度範囲よりも小さい値を設定している。   FIG. 37 is a diagram for explaining the viewpoint range with the y-axis as the rotation axis for all monitoring areas. As shown in FIG. 37, the rotation angle range corresponding to the viewpoint range of the y-axis is set to an upper limit of 40 ° in the positive z-axis direction and a lower limit of 20 ° in the negative z-axis direction of the three-dimensional model. ing. In order to grasp the positional relationship of the monitoring area as if looking into from the lower side, the viewpoint position may be rotated in the minus direction around the y axis, but if it is greatly rotated in the minus direction, it will be in a state of looking up from the basement On the contrary, it is difficult to grasp the positional relationship. Therefore, the rotation angle range in the minus direction is set to a value smaller than the rotation angle range in the plus direction.

図38Aおよび図38Bは、y軸を回転軸とする視点範囲で視点位置が変更された場合に描画される2次元投影画像を示す図である。図38Aに示すy軸を回転軸としてマイナスの方向に20°回転させた場合に、図38Bに示すような2次元投影画像が得られる。   38A and 38B are diagrams illustrating a two-dimensional projection image drawn when the viewpoint position is changed in the viewpoint range with the y axis as the rotation axis. When the y-axis shown in FIG. 38A is rotated 20 ° in the minus direction with the rotation axis as the rotation axis, a two-dimensional projection image as shown in FIG. 38B is obtained.

なお、本実施の形態にかかる画像処理装置10においては、説明の便宜上、いずれの監視エリアに対する視点範囲もz軸およびy軸を回転軸とする範囲としたが、視点範囲の基準となる回転軸の方向、位置および数は実施の形態に限定されるものではない。例えば、xyzの3軸以外の方向に延びる回転軸を設定してもよい。また、回転軸の数は、1つでもよく、また3つ以上であってもよい。   In the image processing apparatus 10 according to the present embodiment, for convenience of explanation, the viewpoint range for any monitoring area is a range having the z-axis and the y-axis as rotation axes. The direction, position and number are not limited to those in the embodiment. For example, a rotation axis extending in a direction other than the xyz three axes may be set. Further, the number of rotating shafts may be one, or may be three or more.

図39は、実施の形態9にかかる画像処理装置10のフローチャートである。なお、図39に示すステップS3001〜ステップS3013までの処理は、実施の形態8にかかるステップS2001〜ステップS2013の処理と同様である。   FIG. 39 is a flowchart of the image processing apparatus 10 according to the ninth embodiment. Note that the processing from step S3001 to step S3013 shown in FIG. 39 is the same as the processing from step S2001 to step S2013 according to the eighth embodiment.

実施の形態9にかかる画像処理装置10においては、例えば、図34に示す全監視エリアの二次元投影画像など選択画像が表示された状態で、ユーザは操作部121の操作により視点位置の変更を入力することができる。具体的には、例えば表示画面に表示されたカーソルをマウス等で移動させることにより、視点位置の変更方向を指定する。さらに、移動速度に応じた速度で視点位置の移動距離を指定する。   In the image processing apparatus 10 according to the ninth embodiment, for example, in a state where a selection image such as a two-dimensional projection image of all the monitoring areas shown in FIG. 34 is displayed, the user changes the viewpoint position by operating the operation unit 121. Can be entered. Specifically, for example, the direction of changing the viewpoint position is designated by moving the cursor displayed on the display screen with a mouse or the like. Furthermore, the moving distance of the viewpoint position is designated at a speed corresponding to the moving speed.

操作部121がユーザ操作に応じて視点位置の変更指示を受け付けると(ステップS3004否定、ステップS3010否定、ステップS3020肯定)、合成部125は、まず、変更指示にしたがい、視点範囲内の視点位置を特定する。具体的には、合成部125は、例えばユーザがカーソルを表示画面上で移動させると、カーソルの移動量から視点範囲内における視点位置の変更量を特定し、特定した変更量に基づいて、変更後の視点位置を特定する。なお、変更指示の入力方法と、入力された入力情報と、入力情報から定まる視点位置との関係が定まっていればよく、入力方法および入力情報から視点位置を特定する処理は実施の形態に限定されるものではない。   When the operation unit 121 accepts an instruction to change the viewpoint position in response to a user operation (No at Step S3004, No at Step S3010, Yes at Step S3020), the synthesis unit 125 first selects a viewpoint position within the viewpoint range according to the change instruction. Identify. Specifically, for example, when the user moves the cursor on the display screen, the synthesis unit 125 specifies the change amount of the viewpoint position within the viewpoint range from the movement amount of the cursor, and changes based on the specified change amount. Specify a later viewpoint position. Note that it is only necessary to determine the relationship between the input method of the change instruction, the input information that has been input, and the viewpoint position that is determined from the input information, and the process for specifying the viewpoint position from the input method and the input information is limited to the embodiment. Is not to be done.

合成部125はさらに、変更後の視点位置に基づいて、変更指示を受け付けた際に表示されていた表示選択画像に対応する3次元モデルの3次元モデルデータから2次元投影画像、すなわち視点変更後の選択画像を生成する(ステップS3021)。なお、ステップS3021において、合成部125は、3次元モデル記憶部111において、表示選択画像の3次元モデルにデバイスが対応付けられている場合には、対応付けられているデバイスのアイコンを抽出し、抽出したアイコンを3次元モデル内に配置し、配置後の3次元モデルの3次元モデルデータから選択画像を生成する。次に、出力部126は、視点変更後の選択画像を出力し、表示画面に出力された選択画像が表示され(ステップS3022)、ステップS3013に進む。すなわち、ステップS3022において表示された選択画
像において、カメラアイコンが選択された場合には、ステップS3004〜ステップS3006の処理により、選択されたカメラアイコンに相当する撮像装置20により撮像された撮像画像が合成された合成画像生成および表示することができる。
The synthesizing unit 125 further performs a two-dimensional projection image from the three-dimensional model data of the three-dimensional model corresponding to the display selection image displayed when the change instruction is received based on the changed viewpoint position, that is, after the viewpoint is changed. The selected image is generated (step S3021). In step S3021, if the device is associated with the 3D model of the display selection image in the 3D model storage unit 111, the synthesis unit 125 extracts the icon of the associated device, The extracted icon is arranged in the three-dimensional model, and a selection image is generated from the three-dimensional model data of the arranged three-dimensional model. Next, the output unit 126 outputs the selection image after changing the viewpoint, the selection image output on the display screen is displayed (step S3022), and the process proceeds to step S3013. That is, when a camera icon is selected in the selected image displayed in step S3022, the captured image captured by the imaging device 20 corresponding to the selected camera icon is synthesized by the processing in steps S3004 to S3006. Synthesized image generation and display.

本実施の形態にかかる画像処理装置10においては、ユーザからの変更指示に応じて視点位置を変更する際に、予め設定された回転軸と回転角度範囲とに応じて視点位置を変更可能としたので、ユーザにとって不要な2次元投影画像が表示されることがなく、ユーザは、簡単な操作で希望するエリアを観察することのできる2次元投影画像を表示させることができる。   In the image processing apparatus 10 according to the present embodiment, when the viewpoint position is changed according to a change instruction from the user, the viewpoint position can be changed according to a preset rotation axis and rotation angle range. Therefore, a two-dimensional projection image unnecessary for the user is not displayed, and the user can display a two-dimensional projection image in which a desired area can be observed with a simple operation.

なお、実施の形態9にかかる画像処理装置10のこれ以外の構成および処理は、他の実施の形態にかかる画像処理装置10の構成および処理と同様である。   Other configurations and processes of the image processing apparatus 10 according to the ninth embodiment are the same as the configurations and processes of the image processing apparatus 10 according to the other embodiments.

本実施の形態の画像処理装置10は、選択画面を表示するために利用される複数の監視エリアと視点範囲とを対応付けて記憶し、選択画面の視点位置を変更可能としたが、他の例としては、画像処理装置10は、さらにユーザによるカメラの選択やユーザがカメラのレンズの方向を確認するための確認画像を生成するための視点位置と、視点範囲とを3次元モデルに対応付けてさらに記憶し、確認画像の視点位置を変更可能に表示してもよい。   Although the image processing apparatus 10 according to the present embodiment stores a plurality of monitoring areas and viewpoint ranges used for displaying the selection screen in association with each other, the viewpoint position of the selection screen can be changed. As an example, the image processing apparatus 10 further associates a viewpoint position and a viewpoint range for generating a confirmation image for selecting a camera by the user and for the user to confirm the direction of the lens of the camera, and the three-dimensional model. May be further stored and displayed so that the viewpoint position of the confirmation image can be changed.

これにより、カメラのレンズの方向を容易に確認できるような視点から3次元モデルを観察した2次元投影画像を確認画像として生成および表示し、さらにこの二次元投影画像に表現される3次元モデルをユーザからの指示にしたがい回転させた状態の二次元投影画像(確認画像)を表示することができる。   As a result, a two-dimensional projection image obtained by observing the three-dimensional model from a viewpoint that allows easy confirmation of the direction of the lens of the camera is generated and displayed as a confirmation image, and a three-dimensional model expressed in the two-dimensional projection image is further displayed. It is possible to display a two-dimensional projection image (confirmation image) that is rotated according to an instruction from the user.

(実施の形態10)
上述した実施の形態では、撮像装置20で取得された撮像画像(以下、監視画像ともいう)をライブストリーミング技術などを用いて画像処理装置10にライブ表示(以下、ライブストリーミング再生という)していたが、このような形態に限られるものではない。
たとえば、画像処理装置10がネットワーク30を介して撮像装置20やセンサ40から取得した撮像情報やイベント情報などは、画像処理装置10に設けられた記憶装置またはネットワーク30上に配置された記憶装置に記録され、後の監視画像の再生(以下、ライブストリーミング再生と区別するため、録画再生という)に用いられてもよい。ここでは、画像処理装置10が撮像情報およびイベント情報を記憶する記憶装置を備える形態を、実施の形態10として説明する。
(Embodiment 10)
In the embodiment described above, a captured image (hereinafter also referred to as a monitoring image) acquired by the imaging device 20 is displayed live (hereinafter referred to as live streaming playback) on the image processing device 10 using a live streaming technique or the like. However, it is not limited to such a form.
For example, imaging information or event information acquired by the image processing apparatus 10 from the imaging apparatus 20 or the sensor 40 via the network 30 is stored in a storage device provided in the image processing apparatus 10 or a storage device arranged on the network 30. It may be recorded and used for the later reproduction of the monitoring image (hereinafter referred to as recording reproduction in order to distinguish it from live streaming reproduction). Here, a mode in which the image processing apparatus 10 includes a storage device that stores imaging information and event information will be described as a tenth embodiment.

図40は、実施の形態10に係る画像処理装置4010の構成例を示す図である。図40に示すように、画像処理装置4010は、図3に示された画像処理装置10と同様の構成に加え、画像記憶部4127およびイベント記憶部4128を備える。画像記憶部4127およびイベント記憶部4128それぞれには、画像処理装置4010を実現するパーソナルコンピュータに内蔵されたハードディスクや、パーソナルコンピュータに外付けされたハードディスクなど、種々の記憶装置が用いられてよい。   FIG. 40 is a diagram illustrating a configuration example of an image processing device 4010 according to the tenth embodiment. As shown in FIG. 40, the image processing device 4010 includes an image storage unit 4127 and an event storage unit 4128 in addition to the same configuration as the image processing device 10 shown in FIG. Each of the image storage unit 4127 and the event storage unit 4128 may use various storage devices such as a hard disk built in a personal computer that implements the image processing apparatus 4010 and a hard disk externally attached to the personal computer.

撮像装置20から送信される撮像情報には、上述した撮像画像、パン情報、チルト情報およびズーム情報に加え、この撮像画像を取得した撮像装置20のデバイスIDと、撮像画像が取得された撮像時刻とが含まれている。これらデバイスIDおよび撮像時刻は、撮像装置20の制御部204から圧縮部202へ送られ、パン情報、チルト情報およびズーム情報とともに撮像画像のヘッダまたはフッタに付加される。なお、以下の説明では、パン情報、チルト情報およびズーム情報をまとめて、PTZ情報という。   In addition to the above-described captured image, pan information, tilt information, and zoom information, the imaging information transmitted from the imaging device 20 includes the device ID of the imaging device 20 that acquired the captured image and the imaging time when the captured image was acquired. And are included. The device ID and the imaging time are sent from the control unit 204 of the imaging apparatus 20 to the compression unit 202, and are added to the header or footer of the captured image together with pan information, tilt information, and zoom information. In the following description, pan information, tilt information, and zoom information are collectively referred to as PTZ information.

ネットワーク30から通信処理部122を介して撮像情報を取得した取得部123は、撮像情報に含まれる撮像画像、デバイスID、撮像時刻およびPTZ情報を特定し、これらを制御部124へ入力する。   The acquisition unit 123 that acquired the imaging information from the network 30 via the communication processing unit 122 identifies the captured image, device ID, imaging time, and PTZ information included in the imaging information, and inputs these to the control unit 124.

制御部124は、取得部123で取得された撮像画像、デバイスID、撮像時刻およびPTZ情報を用いて上述した各実施の形態による2次元投影画像を背景とした監視画像のライブストリーミング再生を実行するとともに、これら撮像画像、デバイスID、撮像時刻およびPTZ情報を画像記憶部4127に格納する。なお、監視画像のライブストリーミング再生が実行されていない場合でも、撮像画像、デバイスID、撮像時刻およびPTZ情報が制御部124から画像記憶部4127に格納されてもよい。   The control unit 124 uses the captured image, device ID, imaging time, and PTZ information acquired by the acquisition unit 123 to perform live streaming reproduction of the monitoring image with the two-dimensional projection image according to each embodiment described above as a background. At the same time, the captured image, device ID, captured time, and PTZ information are stored in the image storage unit 4127. Note that the captured image, device ID, imaging time, and PTZ information may be stored in the image storage unit 4127 from the control unit 124 even when live streaming playback of the monitoring image is not performed.

また、制御部124は、撮像画像、デバイスID、撮像時刻およびPTZ情報を画像記憶部4127に格納する際に、ユーザによって選択されている撮像装置20のデバイスIDを特定する。そこで、選択中の撮像装置20のデバイスIDが格納対象のデバイスIDと一致する場合、制御部124は、格納するデータセット(撮像画像、デバイスID、撮像時刻およびPTZ情報)に所定の選択フラグを付加して、これらを画像記憶部4127に格納する。所定の選択フラグとは、対応付けられた撮像画像が、撮像装置20が選択された状態にある間にこの撮像装置20によって取得された撮像画像であることを示すフラグ情報である。なお、選択中の撮像装置20のデバイスIDが格納対象のデバイスIDと一致しない場合、制御部124は、該当の撮像画像がユーザによって選択されていない状態の撮像装置20によって取得された撮像画像であることを示す選択フラグを、格納対象のデータセットに付加して、画像記憶部4127に格納してもよい。この際の選択フラグは、ヌル(null)データであってもよい。以下では、説明の明確化のため、撮像装置20が選択された状態にある間に取得された撮像画像であることを示す選択フラグを選択中フラグ(‘1’)といい、撮像装置20の未選択中に取得された撮像画像であることを示す選択フラグを選択外フラグ(‘0’)という。   The control unit 124 specifies the device ID of the imaging device 20 selected by the user when storing the captured image, device ID, imaging time, and PTZ information in the image storage unit 4127. Therefore, when the device ID of the selected imaging device 20 matches the device ID to be stored, the control unit 124 sets a predetermined selection flag in the data set to be stored (captured image, device ID, imaging time, and PTZ information). In addition, these are stored in the image storage unit 4127. The predetermined selection flag is flag information indicating that the associated captured image is a captured image acquired by the imaging device 20 while the imaging device 20 is selected. When the device ID of the selected imaging device 20 does not match the device ID to be stored, the control unit 124 is a captured image acquired by the imaging device 20 in a state where the corresponding captured image is not selected by the user. A selection flag indicating the presence may be added to the data set to be stored and stored in the image storage unit 4127. The selection flag at this time may be null data. Hereinafter, for clarity of explanation, a selection flag indicating that the image is acquired while the imaging device 20 is in a selected state is referred to as a selection flag ('1'). A selection flag indicating that the captured image is acquired during non-selection is referred to as a non-selection flag ('0').

画像記憶部4127には、撮像画像、デバイスID、撮像時刻、PTZ情報および選択フラグが撮像装置20ごとに区別されて記憶される。この区別には、デバイスIDが用いられる。また、画像記憶部4127内のデータ管理には、たとえばテーブル管理方式が用いられる。   In the image storage unit 4127, the captured image, device ID, imaging time, PTZ information, and selection flag are distinguished and stored for each imaging device 20. A device ID is used for this distinction. In addition, for example, a table management method is used for data management in the image storage unit 4127.

図41は、画像記憶部4127が保持する撮像画像管理テーブルの一例を示す図である。図41に示すように、撮像画像管理テーブルには、個々の撮像画像に、これを撮像した撮像装置20(カメラ)のデバイスIDと、撮像時刻と、PTZ情報と、選択フラグとが対応づけて登録される。なお、図41では、説明の簡略化のため、監視画像(撮像画像)が連続静止画像である場合のライブストリーミング再生の際に用いられ得る撮像画像管理テーブルの一例を示したが、これに限られるものではない。たとえば撮像画像がMPEG−4などの複数のフレームを含む動画圧縮形式で圧縮されている場合、一度の撮影により取得された一連の撮像画像は1つの動画ファイルとして管理される。その場合、時間帯ごとに変化するPTZ情報や選択フラグなどは、MPEG−7などのメタデータ記述方式を用いて撮像画像(動作)の該当する時間帯に付加されるとよい。   FIG. 41 is a diagram illustrating an example of a captured image management table held by the image storage unit 4127. As shown in FIG. 41, in the captured image management table, each captured image is associated with the device ID of the image capturing apparatus 20 (camera) that captured the captured image, the capturing time, PTZ information, and a selection flag. be registered. Note that FIG. 41 shows an example of a captured image management table that can be used for live streaming playback when the monitoring image (captured image) is a continuous still image for the sake of simplicity. It is not something that can be done. For example, when a captured image is compressed in a moving image compression format including a plurality of frames such as MPEG-4, a series of captured images acquired by one shooting is managed as one moving image file. In that case, PTZ information, selection flags, and the like that change for each time zone may be added to the corresponding time zone of the captured image (operation) using a metadata description method such as MPEG-7.

一方、センサ40から送信されるイベント情報には、イベントの検出データに加え、このイベントを検出したセンサ40のデバイスIDと、イベントの発生時刻とが含まれている。ここで、図42に、センサ40の構成例を示す。図42に示すように、センサ40は、たとえば図2に示される撮像装置20と同様に、センサ部4201と、雲台駆動部4205と、角度センサ4206と、制御部4204と、圧縮部4202と、通信処理部4203とを備える。圧縮部4202へは、センサ部4201で得られたイベントの検出データと、制御部4204で特定されたデバイスIDおよびイベントの発生時刻とが入力される。また、センサ部4201が指向性を有している場合、圧縮部4202へは、角度センサ4206で得られたパン情報およびチルト情報(以下、PT情報という)が制御部4204を介して入力されてもよい。圧縮部4202に入力された検出データ、デバイスIDおよび発生時刻は、必要に応じてPT情報とともに圧縮され、通信処理部4203からネットワーク30を介して画像処理装置4010へイベント情報として送出される。   On the other hand, the event information transmitted from the sensor 40 includes, in addition to the event detection data, the device ID of the sensor 40 that detected the event and the event occurrence time. Here, FIG. 42 shows a configuration example of the sensor 40. As shown in FIG. 42, the sensor 40 includes, for example, a sensor unit 4201, a pan head drive unit 4205, an angle sensor 4206, a control unit 4204, and a compression unit 4202, similarly to the imaging device 20 shown in FIG. And a communication processing unit 4203. Event detection data obtained by the sensor unit 4201, the device ID specified by the control unit 4204, and the event occurrence time are input to the compression unit 4202. When the sensor unit 4201 has directivity, pan information and tilt information (hereinafter referred to as PT information) obtained by the angle sensor 4206 is input to the compression unit 4202 via the control unit 4204. Also good. The detection data, device ID, and occurrence time input to the compression unit 4202 are compressed together with PT information as necessary, and are sent from the communication processing unit 4203 to the image processing apparatus 4010 via the network 30 as event information.

ネットワーク30から通信処理部122を介してイベント情報を取得した取得部123は、イベント情報に含まれる検出データ、デバイスIDおよび発生時刻(およびPT情報)を特定し、これらを制御部124へ入力する。また、取得部123は、同一イベントの検知が終了した際のイベント情報に含まれる発生時刻も、制御部124へ入力する。制御部124は、イベントの検知が終了した際のイベント情報から特定された発生時刻をイベントの終了時刻として特定し、この終了時刻を、該当するイベントの検出データ、デバイスIDおよび発生時刻(およびPT情報)とともに、イベント記憶部4128に格納する。   The acquisition unit 123 that acquired the event information from the network 30 via the communication processing unit 122 identifies the detection data, device ID, and occurrence time (and PT information) included in the event information, and inputs them to the control unit 124. . In addition, the acquisition unit 123 inputs the occurrence time included in the event information when the detection of the same event is completed to the control unit 124. The control unit 124 specifies the occurrence time specified from the event information when the detection of the event is ended as the event end time, and uses the end time as the detection data, device ID, and occurrence time (and PT) of the corresponding event. Information) and the event storage unit 4128.

制御部124は、取得部123で取得されたイベントの検出データ、デバイス、発生時刻および終了時刻(およびPT情報)を上述した監視画像のライブストリーミング再生に用いるとともに、これら検出データ、デバイス、発生時刻および終了時刻(およびPT情報)をイベント記憶部4128に格納する。なお、監視画像のライブストリーミング再生が実行されていない場合でも、検出データ、デバイスID、発生時刻および終了時刻(およびPT情報)が制御部124からイベント記憶部4128に格納されてもよい。   The control unit 124 uses the event detection data, device, generation time, and end time (and PT information) acquired by the acquisition unit 123 for the live streaming reproduction of the monitoring image described above, and the detection data, device, and generation time. The end time (and PT information) is stored in the event storage unit 4128. Even when the live streaming reproduction of the monitoring image is not executed, the detection data, device ID, generation time and end time (and PT information) may be stored from the control unit 124 into the event storage unit 4128.

また、制御部124は、検出データ、デバイス、発生時刻および終了時刻(およびPT情報)をイベント記憶部4128に格納する際に、各イベントに固有のイベントIDを生成し、このイベントIDを、格納するデータセット(検出データ、デバイス、発生時刻および終了時刻(およびPT情報))とともにイベント記憶部4128に格納する。   Further, when storing the detection data, device, occurrence time and end time (and PT information) in the event storage unit 4128, the control unit 124 generates an event ID unique to each event, and stores this event ID. Together with the data set (detection data, device, occurrence time and end time (and PT information)) to be stored in the event storage unit 4128.

イベント記憶部4128には、イベントID、デバイスID、検出データ、イベントの発生時刻および終了時刻(およびPT情報)がセンサ40ごとに区別されて記憶される。この区別には、デバイスIDが用いられる。また、イベント記憶部4128内のデータ管理には、たとえばテーブル管理方式が用いられる。   The event storage unit 4128 stores the event ID, device ID, detection data, event occurrence time and end time (and PT information) separately for each sensor 40. A device ID is used for this distinction. For data management in the event storage unit 4128, for example, a table management method is used.

図43は、イベント記憶部4128が保持するイベント管理テーブルの一例を示す図である。図43に示すように、イベント管理テーブルには、イベントの検出データに、このイベントを検出したセンサ40のデバイスID、イベントID、発生時刻および終了時刻(およびPT情報)が対応づけて登録されている。また、イベント管理テーブルに登録された各レコードには、それぞれのイベントをユーザが確認したか否かを示す確認フラグが対応づけられていてもよい。この確認フラグは、画像記憶部4127およびイベント記憶部4128に記憶された撮像画像およびイベント情報の録画再生中に、ユーザからの操作や該当イベントの再生完了などの所定の事象をトリガとしてイベント記憶部4128に格納されてもよい。   FIG. 43 is a diagram illustrating an example of an event management table held by the event storage unit 4128. As shown in FIG. 43, in the event management table, event detection data is registered in association with the device ID, event ID, occurrence time, and end time (and PT information) of the sensor 40 that detected this event. Yes. Each record registered in the event management table may be associated with a confirmation flag indicating whether the user has confirmed each event. This confirmation flag is triggered by a predetermined event such as a user operation or completion of reproduction of the corresponding event during recording and reproduction of the captured image and event information stored in the image storage unit 4127 and event storage unit 4128. 4128 may be stored.

また、本実施の形態10、および上述の各実施の形態では、撮像装置20に対応づけられたセンサ40が存在してもよい。たとえば人感センサであれば、センサ40と、このセンサ40の人感知範囲を撮像する撮像装置20とが対応づけられてもよい。ドア開閉センサであれば、センサ40と、このセンサ40が検知するドアを撮像する撮像装置20とが対応づけられてもよい。また、撮像装置20の撮像画像を用いて動き検出を行い、撮像装置20そのものをセンサ40として用いてもよい。   In the tenth embodiment and each of the embodiments described above, there may be a sensor 40 associated with the imaging device 20. For example, in the case of a human sensor, the sensor 40 may be associated with the imaging device 20 that images the human sensing range of the sensor 40. If it is a door opening / closing sensor, the sensor 40 and the imaging device 20 that images the door detected by the sensor 40 may be associated with each other. Alternatively, motion detection may be performed using a captured image of the imaging device 20, and the imaging device 20 itself may be used as the sensor 40.

センサ40と撮像装置20との対応付けは、たとえば3次元モデル記憶部111において管理される。この管理には、たとえばテーブル管理方式を用いることができる。図44は、3次元モデル記憶部111において管理されるセンサ管理テーブルの一例を示す図である。図44に示すように、センサ管理テーブルは、センサ40のデバイスIDと、これと対応づけられる撮像装置20のデバイスID(以下、カバーカメラIDという)とを対応付けて管理している。このようなセンサ管理テーブルを用いることで、センサ管理テーブルに登録された何れかのセンサ40がユーザから選択された際に、これに対応づけられた撮像装置20を特定することが可能となる。また、センサ管理テーブルは、各デバイスIDが対応するセンサ40の重要度と、センサの種別(人感センサや熱感知センサなど)を示すセンサ種別とを各デバイスIDに対応づけて管理してもよい。   The association between the sensor 40 and the imaging device 20 is managed in the three-dimensional model storage unit 111, for example. For this management, for example, a table management method can be used. FIG. 44 is a diagram illustrating an example of a sensor management table managed in the three-dimensional model storage unit 111. As shown in FIG. 44, the sensor management table associates and manages the device ID of the sensor 40 and the device ID (hereinafter referred to as a cover camera ID) of the imaging device 20 associated with the device ID. By using such a sensor management table, when any of the sensors 40 registered in the sensor management table is selected by the user, it is possible to specify the imaging device 20 associated with the sensor 40. Also, the sensor management table may manage the importance of the sensor 40 corresponding to each device ID and the sensor type indicating the sensor type (human sensor, thermal sensor, etc.) in association with each device ID. Good.

つぎに、画像処理装置4010において撮像情報およびイベント情報を記憶する際の制御部124の動作を、以下に図面を用いて詳細に説明する。なお、ここでは、録画する際の動作例として、プリセット録画予約された時間帯に録画動作を実行する場合を例示する。ただし、これに限られず、動作中、常時録画するなど、種々変形可能である。   Next, the operation of the control unit 124 when storing the imaging information and the event information in the image processing apparatus 4010 will be described in detail with reference to the drawings. Here, as an example of an operation when recording, a case where a recording operation is executed in a time slot reserved for preset recording is illustrated. However, the present invention is not limited to this, and various modifications can be made such as continuous recording during operation.

図45は、実施の形態10に係る制御部124の録画動作を示すフローチャートである。図45に示すように、制御部124は、起動後、録画の開始タイミングとなるまで本録画動作を待機する(ステップS4001否定)。録画の開始タイミングとは、カメラから送られるすべての画像を録画するのではなく、フレーム単位で間引いて録画することである。録画動作では、長時間記録できるようにするために、フレームをカウントして必要なフレームのみ録画する。録画の開始タイミングとなると(ステップS4001肯定)、制御部124は、現在ユーザによって選択されている状態の撮像装置20のデバイスIDを取得する(ステップS4002)。現在ユーザによって選択されている状態の撮像装置20のデバイスIDは、たとえば制御部124を実現するCPU(Central Processing Unit)のキャッシュメモリ等で管理されていてもよい。また、現在ユーザによって選択されている状態の撮像装置20が存在しない場合、制御部124は、たとえばヌル(null)データをデバイスIDとして取得してもよい。   FIG. 45 is a flowchart showing the recording operation of the control unit 124 according to the tenth embodiment. As shown in FIG. 45, after starting, the control unit 124 waits for the main recording operation until the recording start timing comes (No in step S4001). The recording start timing is not to record all images sent from the camera, but to record by thinning out in units of frames. In the recording operation, in order to record for a long time, only the necessary frames are recorded by counting the frames. When it is time to start recording (Yes at Step S4001), the control unit 124 acquires the device ID of the imaging device 20 that is currently selected by the user (Step S4002). The device ID of the imaging device 20 currently selected by the user may be managed by, for example, a CPU (Central Processing Unit) cache memory that implements the control unit 124. Further, when there is no imaging device 20 that is currently selected by the user, the control unit 124 may acquire, for example, null data as a device ID.

つぎに、制御部124は、ネットワーク30上の撮像装置20から通信処理部122を介して撮像情報を受信するまで待機する(ステップS4003否定)。いずれかの撮像装置20から撮像情報を受信すると(ステップS4003肯定)、制御部124は、取得部123を用いて、受信した撮像情報から撮像画像、デバイスID、撮像時刻およびPTZ情報を特定し、これを取得部123から取得する(ステップS4004)。つぎに、制御部124は、取得したデバイスIDが、ステップS4002で特定したデバイスIDと一致するか否かを判定する(ステップS4005)。   Next, the control unit 124 stands by until imaging information is received from the imaging device 20 on the network 30 via the communication processing unit 122 (No in step S4003). When the imaging information is received from any of the imaging devices 20 (Yes at Step S4003), the control unit 124 uses the acquisition unit 123 to specify the captured image, device ID, imaging time, and PTZ information from the received imaging information. This is acquired from the acquisition unit 123 (step S4004). Next, the control unit 124 determines whether or not the acquired device ID matches the device ID specified in step S4002 (step S4005).

ステップS4005の判定の結果、両方のデバイスIDが一致する場合(ステップS4005肯定)、制御部124は、ステップS4004で特定した撮像画像、デバイスID、撮像時刻およびPTZ情報を、選択中フラグと対応づけて、画像記憶部4127に格納する(ステップS4006)。一方、両方のデバイスIDが一致しない場合(ステップS4005否定)、制御部124は、ステップS4004で特定した撮像画像、デバイスID、撮像時刻およびPTZ情報を、選択外フラグと対応づけて、画像記憶部4127に格納する(ステップS4007)。   As a result of the determination in step S4005, if both device IDs match (Yes in step S4005), the control unit 124 associates the captured image, device ID, imaging time, and PTZ information identified in step S4004 with the selection flag. And stored in the image storage unit 4127 (step S4006). On the other hand, if both device IDs do not match (No in step S4005), the control unit 124 associates the captured image, device ID, imaging time, and PTZ information specified in step S4004 with the non-selected flag, and stores the image storage unit. It stores in 4127 (step S4007).

その後、制御部124は、プリセット録画の終了時刻となったか否かを判定する(ステップS4008)。終了時刻となった場合(ステップS4008肯定)、制御部124は、本録画動作を終了する。一方、終了時刻となっていない場合(ステップS4008否定)、制御部124は、ステップS4002へリターンし、以降の動作を実行する。   Thereafter, the control unit 124 determines whether or not the preset recording end time has come (step S4008). When the end time is reached (Yes at step S4008), the control unit 124 ends the recording operation. On the other hand, when it is not the end time (No at Step S4008), the control unit 124 returns to Step S4002 and executes the subsequent operations.

以上のような録画動作により、画像記憶部4127内に、撮像画像が、デバイスID、撮像時刻、PTZ情報および選択フラグと対応づけて格納される。   Through the recording operation as described above, the captured image is stored in the image storage unit 4127 in association with the device ID, the imaging time, the PTZ information, and the selection flag.

また、図46は、実施の形態10に係る制御部124のイベント記録動作を示すフローチャートである。図46に示すように、制御部124は、起動後、プリセット録画の開始時刻となるまで本イベント記録動作を待機する(ステップS4011否定)。プリセット録画の開始時刻となると(ステップS4011肯定)、制御部124は、ネットワーク30上のセンサ40から通信処理部122を介してイベント情報を受信するまで待機する(ステップS4012否定)。いずれかのセンサ40からイベント情報を受信すると(ステップS4012肯定)、制御部124は、取得部123を用いて、受信したイベント情報から検出データ、デバイスID、発生時刻(およびPT情報)を特定し、これを取得部123から取得する(ステップS4013)。つぎに、制御部124は、同一イベント情報の入力が終了するまで待ち(ステップS4014否定)、終了すると(ステップS4014肯定)、その終了時刻を特定する(ステップS4015)。   FIG. 46 is a flowchart showing the event recording operation of the control unit 124 according to the tenth embodiment. As shown in FIG. 46, the control unit 124 waits for this event recording operation until the preset recording start time comes after activation (No in step S4011). When the preset recording start time is reached (Yes at Step S4011), the control unit 124 waits until event information is received from the sensor 40 on the network 30 via the communication processing unit 122 (No at Step S4012). When event information is received from any of the sensors 40 (Yes in step S4012), the control unit 124 uses the acquisition unit 123 to specify detection data, device ID, and occurrence time (and PT information) from the received event information. This is acquired from the acquisition unit 123 (step S4013). Next, the control unit 124 waits until the input of the same event information is finished (No at Step S4014), and when finished (Yes at Step S4014), specifies the end time (Step S4015).

つぎに、制御部124は、イベント情報にPT情報が含まれているか否かを判定する(ステップS4016)。イベント情報にPT情報が含まれている場合(S4016肯定)、制御部124は、ステップS4013で特定した検出データ、デバイスID、発生時刻およびPT情報と、ステップS4015で特定した終了時刻とを対応づけて、イベント記憶部4128に格納する(ステップS4017)。この際、制御部124は、イベントIDを生成し、これを検出データ、デバイスID、発生時刻、終了時刻およびPT情報とともにイベント記憶部4128に格納してもよい。一方、イベント情報にPT情報が含まれていない場合(ステップS4016否定)、制御部124は、ステップS4013で特定した検出データ、デバイスIDおよび発生時刻と、ステップS4015で特定した終了時刻とを対応づけて、イベント記憶部4128に格納する(ステップS4018)。この際、制御部124は、イベントIDを生成し、これを検出データ、デバイスID、発生時刻および終了時刻とともにイベント記憶部4128に格納してもよい。   Next, the control unit 124 determines whether PT information is included in the event information (step S4016). When PT information is included in the event information (Yes in S4016), the control unit 124 associates the detection data, device ID, generation time, and PT information specified in step S4013 with the end time specified in step S4015. And stored in the event storage unit 4128 (step S4017). At this time, the control unit 124 may generate an event ID and store it in the event storage unit 4128 together with the detection data, device ID, occurrence time, end time, and PT information. On the other hand, when the PT information is not included in the event information (No in step S4016), the control unit 124 associates the detection data, device ID, and occurrence time specified in step S4013 with the end time specified in step S4015. And stored in the event storage unit 4128 (step S4018). At this time, the control unit 124 may generate an event ID and store it in the event storage unit 4128 together with the detection data, device ID, occurrence time, and end time.

その後、制御部124は、録画の終了タイミングとなったか否かを判定する(ステップS4019)。終了タイミングとなった場合(ステップS4019肯定)、制御部124は、本イベント録画動作を終了する。一方、終了タイミングとなっていない場合(ステップS4019否定)、制御部124は、ステップS4012へリターンし、以降の動作を実行する。   Thereafter, the control unit 124 determines whether or not the recording end timing has come (step S4019). When the end timing is reached (Yes at Step S4019), the control unit 124 ends the event recording operation. On the other hand, when it is not the end timing (No at Step S4019), the control unit 124 returns to Step S4012 and executes the subsequent operations.

以上のようなイベント記録動作により、イベント記憶部4128内に、センサ40で検出されたイベントの検出データが、イベントID、デバイスID、発生時刻、終了時刻(およびPT情報)と対応づけて格納される。   By the event recording operation as described above, the detection data of the event detected by the sensor 40 is stored in the event storage unit 4128 in association with the event ID, device ID, occurrence time, end time (and PT information). The

つぎに、画像記憶部4127に記憶された撮像画像を録画再生する際の動作を、以下に図面を用いて詳細に説明する。図47は、実施の形態10に係る制御部124による録画再生動作の一例を示すフローチャートである。図47に示すように、制御部124は、起動後、録画データの再生指示がユーザから入力されるまで待機する(ステップS4031否定)。なお、録画データの再生指示は、ユーザが画像処理装置4010の操作部121を用いて入力してよい。   Next, the operation when recording and reproducing the captured image stored in the image storage unit 4127 will be described in detail with reference to the drawings. FIG. 47 is a flowchart illustrating an example of a recording / playback operation performed by the control unit 124 according to the tenth embodiment. As shown in FIG. 47, after starting, the control unit 124 waits until a recording data playback instruction is input from the user (No in step S4031). Note that an instruction to reproduce recorded data may be input by the user using the operation unit 121 of the image processing apparatus 4010.

録画データの再生指示を受け付けると(ステップS4031肯定)、制御部124は、再生対象の記録データを読み出す(ステップS4032)。読み出される記録データには、画像記憶部4127に格納されている撮像画像、デバイスID、撮像時刻、PTZ情報および選択フラグと、イベント記憶部4128に格納されている検出データ、イベントID、デバイスID、発生時刻および終了時刻(およびPT情報)、および確認フラグが含まれている。   When receiving an instruction to reproduce the recorded data (Yes at Step S4031), the control unit 124 reads the recording data to be reproduced (Step S4032). The recorded data to be read includes the captured image, device ID, imaging time, PTZ information, and selection flag stored in the image storage unit 4127, detection data, event ID, device ID, stored in the event storage unit 4128, The generation time and end time (and PT information) and a confirmation flag are included.

つぎに、制御部124は、読み出した記録データのうち、最初の撮像画像に対応づけられた選択フラグを参照することで、選択中の撮像装置20があるか否かを判定する(ステップS4033)。なお、ここでいう選択中の撮像装置20とは、録画開始の時点でユーザによって選択状態にされている状態にある撮像装置である。   Next, the control unit 124 determines whether there is an imaging device 20 being selected by referring to a selection flag associated with the first captured image in the read recording data (step S4033). . Note that the imaging device 20 being selected here is an imaging device in a state selected by the user at the start of recording.

選択中の撮像装置20が存在する場合(ステップS4033肯定)、制御部124は、選択中の撮像装置20の3次元モデル上の位置(カメラアイコン位置)と、再生対象の撮像画像に対応づけられたPTZ情報に基づいて、3次元モデルデータから2次元投影画像を生成する際の視点位置を決定する(ステップS4036)。また、制御部124は、ユーザが録画再生に関する操作を入力するための操作画面を生成する(ステップS4037)。この操作画面には、撮像画像を録画再生する所定領域(以下、再生領域という)が含まれている。この再生領域は、たとえば上述の実施の形態における2次元投影画像上の所定領域に相当するものであってもよい。   When the selected imaging device 20 is present (Yes at Step S4033), the control unit 124 associates the selected position on the three-dimensional model (camera icon position) of the selected imaging device 20 with the captured image to be reproduced. Based on the PTZ information, a viewpoint position for generating a two-dimensional projection image from the three-dimensional model data is determined (step S4036). In addition, the control unit 124 generates an operation screen for the user to input an operation related to recording / playback (step S4037). This operation screen includes a predetermined area for recording and reproducing the captured image (hereinafter referred to as a reproduction area). This reproduction area may correspond to, for example, a predetermined area on the two-dimensional projection image in the above-described embodiment.

一方、選択中の撮像装置20が存在しない場合(ステップS4033否定)、制御部124は、たとえば上述において図6を用いて説明した視点情報記憶部112から、該当するエリアに関する初期条件の視点位置を取得する(ステップS4034)。また、制御部124は、ユーザが録画再生に関する操作を入力するための操作画面を生成する(ステップS4035)。この操作画面には、撮像画像を生成する再生領域が含まれていてもいなくてもよい。   On the other hand, when the imaging device 20 being selected does not exist (No at Step S4033), the control unit 124 determines the viewpoint position of the initial condition regarding the corresponding area from the viewpoint information storage unit 112 described above with reference to FIG. Obtain (step S4034). In addition, the control unit 124 generates an operation screen for the user to input an operation related to recording and reproduction (step S4035). This operation screen may or may not include a playback area for generating a captured image.

その後、制御部124は、ステップS4036で決定した視点位置またはステップS4034で取得した視点位置に基づいて、3次元モデルデータから2次元投影画像を生成する(ステップS4038)。この際の3次元モデルデータに含まれる全てのカメラアイコンやセンサアイコンには、ステップS4032で読み出された撮像装置20のPTZ情報やセンサ40のPT情報などが反映される。したがって、再生時の3次元モデルデータは、上述した実施の形態によるライブストリーミング再生時と同様、録画期間中の3次元モデルデータの動き(変化等)をそのまま再現したものとなる。その際、各カメラアイコンには、上述した実施の形態と同様に、それぞれが対応付けられた撮像装置20で取得された撮像画像(またはそのサムネイル)がポップアップ表示によって再生されてもよい。   Thereafter, the control unit 124 generates a two-dimensional projection image from the three-dimensional model data based on the viewpoint position determined in step S4036 or the viewpoint position acquired in step S4034 (step S4038). The PTZ information of the imaging device 20 and the PT information of the sensor 40 read out in step S4032 are reflected on all the camera icons and sensor icons included in the three-dimensional model data at this time. Accordingly, the three-dimensional model data at the time of reproduction is a reproduction of the movement (change, etc.) of the three-dimensional model data during the recording period as it is at the time of the live streaming reproduction according to the above-described embodiment. At this time, each camera icon may be reproduced by pop-up display of a captured image (or a thumbnail thereof) acquired by the imaging device 20 associated with each camera icon, as in the above-described embodiment.

つぎに、制御部124は、ステップS4037で生成した操作画面に、ステップS4032で読み出した撮像画像を合成する(ステップS4039)。なお、操作画面に合成される撮像画像は、時系列に沿った一連の撮像画像の中から、時間軸にしたがって順次遷移する。これにより、撮像画像が操作画面の再生領域で再生される。   Next, the control unit 124 combines the captured image read out in step S4032 with the operation screen generated in step S4037 (step S4039). Note that the captured image combined with the operation screen sequentially transitions along a time axis from a series of captured images in time series. As a result, the captured image is reproduced in the reproduction area of the operation screen.

つぎに、制御部124は、ステップS4038で生成した2次元投影画像にステップS4039で撮像画像が合成された操作画面を合成する(ステップS4040)。つづいて、制御部124は、操作画面が合成された2次元投影画像をモニタなどの出力部126へ出力し(ステップS4041)、これを表示する。   Next, the control unit 124 combines the operation screen in which the captured image is combined in step S4039 with the two-dimensional projection image generated in step S4038 (step S4040). Subsequently, the control unit 124 outputs the two-dimensional projection image combined with the operation screen to the output unit 126 such as a monitor (step S4041), and displays it.

つぎに、制御部124は、録画データの再生を終了するか否かを判定する(ステップS4042)。この判定は、たとえば操作画面より再生停止ボタンが入力されたか否かや、録画データの再生が末尾まで終了したか否かなどに基づいて判定されてよい。再生終了と判定した場合(ステップS4042肯定)、制御部124は、本録画再生動作を終了する。一方、再生動作を終了しないと判定した場合(ステップS4042否定)、制御部124は、たとえばユーザより視点位置変更の操作入力があったか否かを判定する(ステップS4043)。なお、視点位置変更の操作入力方法は、上述した実施の形態における撮像装置20のパン方向、チルト方向およびズームレンズの焦点距離に対する操作入力方法と同様であってよい。   Next, the control unit 124 determines whether or not to end the reproduction of the recorded data (step S4042). This determination may be made based on, for example, whether or not a playback stop button has been input from the operation screen, whether or not playback of recorded data has been completed to the end. If it is determined that the playback has ended (Yes at step S4042), the control unit 124 ends the recording / playback operation. On the other hand, if it is determined not to end the reproduction operation (No at Step S4042), the control unit 124 determines whether, for example, an operation input for changing the viewpoint position is received from the user (Step S4043). The operation input method for changing the viewpoint position may be the same as the operation input method for the pan direction, the tilt direction, and the focal length of the zoom lens of the imaging device 20 in the above-described embodiment.

視点位置変更の操作入力があった場合(ステップS4043肯定)、制御部124は、操作部121に入力された操作データから、新たな視点位置を決定する(ステップS4044)。なお、ステップS4044における視点位置のユーザ操作は、上述の実施の形態における撮像装置20に対するユーザ操作と同様であってよい。この場合、操作部121から入力された操作データは、制御信号として撮像装置20へ送信されるのではなく、3次元モデルに対する視点位置の変化量の算出に用いられる。その後、制御部124は、ステップS4038へリターンして、以降の動作を実行する。   When there is an operation input for changing the viewpoint position (Yes at Step S4043), the control unit 124 determines a new viewpoint position from the operation data input to the operation unit 121 (Step S4044). Note that the user operation at the viewpoint position in step S <b> 4044 may be the same as the user operation on the imaging device 20 in the above-described embodiment. In this case, the operation data input from the operation unit 121 is not transmitted to the imaging apparatus 20 as a control signal, but is used to calculate the viewpoint position change amount with respect to the three-dimensional model. Thereafter, the control unit 124 returns to step S4038 and executes the subsequent operations.

一方、視点位置変更の操作入力がない場合(ステップS4043否定)、制御部124は、ステップS4032で読み出した記録データにおいて、ステップS4033で特定した選択中の撮像装置20のPTZ情報に変更があったか否かを判定する(ステップS4045)。PTZ情報に変更があった場合(ステップS4045肯定)、制御部124は、ステップS4036へリターンし、変更後のPTZ情報に基づいて以降の動作を実行する。   On the other hand, when there is no operation input for changing the viewpoint position (No in step S4043), the control unit 124 determines whether or not the PTZ information of the selected imaging device 20 specified in step S4033 is changed in the recording data read in step S4032. Is determined (step S4045). When there is a change in the PTZ information (Yes at Step S4045), the control unit 124 returns to Step S4036 and performs the subsequent operations based on the changed PTZ information.

一方、PTZ情報に変更がなかった場合(ステップS4045否定)、制御部124は、ユーザが2次元投影画像に対してカメラアイコンの選択操作を行ったか否かを判定する(ステップS4046)。カメラアイコンの選択があった場合(ステップS4046肯定)、制御部124は、ステップS4036へリターンし、選択されたカメラアイコンの3次元モデル上の位置およびこれのデバイスIDに対応するPTZ情報に基づいて、以降の動作を実行する。   On the other hand, when there is no change in the PTZ information (No at Step S4045), the control unit 124 determines whether or not the user has performed a camera icon selection operation on the two-dimensional projection image (Step S4046). When the camera icon is selected (Yes at step S4046), the control unit 124 returns to step S4036, and based on the position of the selected camera icon on the three-dimensional model and the PTZ information corresponding to the device ID thereof. Execute the following operations.

一方、カメラアイコンの選択がなかった場合(ステップS4046否定)、制御部124は、ユーザが2次元投影画像に対してセンサアイコンの選択操作を行ったか否かを判定する(ステップS4047)。センサアイコンの選択があった場合(ステップS4047肯定)、制御部124は、図44で示したセンサ管理テーブルから選択されたセンサアイコンのデバイスIDに対応付けられたカバーカメラID(デバイスID)を選択する(ステップS4048)。その後、制御部124は、ステップS4036へリターンし、新たに選択されたデバイスIDに対応する撮像装置20の3次元モデル上の位置およびこのデバイスIDに対応するPTZ情報に基づいて、以降の動作を実行する。   On the other hand, if no camera icon has been selected (No at step S4046), the control unit 124 determines whether the user has performed a sensor icon selection operation on the two-dimensional projection image (step S4047). When a sensor icon is selected (Yes at step S4047), the control unit 124 selects a cover camera ID (device ID) associated with the device ID of the sensor icon selected from the sensor management table shown in FIG. (Step S4048). Thereafter, the control unit 124 returns to step S4036 and performs the subsequent operation based on the position on the three-dimensional model of the imaging device 20 corresponding to the newly selected device ID and the PTZ information corresponding to this device ID. Run.

以上のような録画再生動作を実行することで、録画時の監視画像のライブストリーミング再生をそのまま再現することが可能になる。また、図47に示す録画再生動作では、選択中の撮像装置20やセンサ40を必要に応じて切り替えたり、3次元モデルに対する視点位置を選択中のカメラアイコン位置に関係なく移動させたりなどの操作を可能としている。そのため、ユーザは、過去の監視画像の確認作業を、より容易かつ詳細に行うことが可能である。   By performing the recording / reproducing operation as described above, it is possible to reproduce the live streaming reproduction of the monitoring image at the time of recording as it is. In the recording / playback operation shown in FIG. 47, the selected imaging device 20 or sensor 40 is switched as necessary, or the viewpoint position with respect to the three-dimensional model is moved regardless of the selected camera icon position. Is possible. Therefore, the user can more easily and in detail check the past monitoring image.

つぎに、上記の再生動作によって画像処理装置4010の出力部126に表示される合成画像の例について、以下に図面を用いて詳細に説明する。   Next, an example of a composite image displayed on the output unit 126 of the image processing apparatus 4010 by the above reproduction operation will be described in detail below with reference to the drawings.

実施の形態10による監視画像の録画再生は、上述した実施の形態のいずれかによる監視画像のライブストリーミング再生を再現するような形態であってもよい。図48は、図47のステップS4040で生成された合成画像の一例を示す図である。図48に示すように、合成画像4000では、上述した実施の形態におけるライブストリーミング再生時の合成画像と同様に、たとえばカメラアイコン4001、4002および4003を含む2次元投影画像を背景として、操作画面4300が合成されている。なお、操作画面4300の配置は、2次元投影画像の右下に限らず、中央部などであってもよい。また、操作画面4300は、上述したような表示対象の撮像画像以外に、種々の情報を表示してもよい。   The monitoring image recording / playback according to the tenth embodiment may be a form that reproduces the live streaming playback of the monitoring image according to any of the above-described embodiments. FIG. 48 is a diagram showing an example of the composite image generated in step S4040 of FIG. As shown in FIG. 48, in the composite image 4000, as in the case of the composite image at the time of live streaming reproduction in the above-described embodiment, for example, the operation screen 4300 with a two-dimensional projection image including camera icons 4001, 4002, and 4003 as a background. Is synthesized. Note that the arrangement of the operation screen 4300 is not limited to the lower right of the two-dimensional projection image, and may be a central portion or the like. The operation screen 4300 may display various information in addition to the captured image to be displayed as described above.

ここで、図49に、操作画面4300の一例を示す。図49に示すように、操作画面4300は、撮像画像を録画再生する撮像画像再生領域4310と、各種イベントの情報を表示するイベント表示領域4320とを含む。また、操作画面4300には、撮像画像再生領域4310に表示された撮像画像を取得した撮像装置20、すなわち選択中の撮像装置20の識別情報(カメラIDまたはカメラ名)4311と、プリセット録画により記録された録画データを再生するプリセット録画再生ボタン4302と、出力部126への表示を撮像画像(監視画像)のライブストリーミング再生に切り替えるライブボタン4301と、録画再生中に再生や停止やスキップや早送りなどの操作をユーザが行うための操作ボタン群4330と、録画の時間間隔を設定する録画間隔ボタン4331とが表示されてもよい。   Here, FIG. 49 shows an example of the operation screen 4300. As shown in FIG. 49, the operation screen 4300 includes a captured image reproduction area 4310 for recording and reproducing captured images, and an event display area 4320 for displaying information on various events. Further, the operation screen 4300 records the identification information (camera ID or camera name) 4311 of the imaging device 20 that acquired the captured image displayed in the captured image reproduction area 4310, that is, the selected imaging device 20, and preset recording. A preset recording / playback button 4302 for playing back the recorded data, a live button 4301 for switching the display on the output unit 126 to live streaming playback of a captured image (monitoring image), playback / stop / skip / fast-forward during recording / playback, etc. An operation button group 4330 for the user to perform the above operation and a recording interval button 4331 for setting a recording time interval may be displayed.

イベント表示領域4320には、撮像画像再生領域4310に表示中の撮像画像の撮像時刻(日時であってもよい)と、イベントIDの時系列に沿ったリストと、各イベントIDが対応するイベントの発生時刻と、各イベントIDが対応するセンサ40をカバーする撮像装置20のカバーカメラID(デバイスID)と、各イベントもしくは各イベントを検出したセンサ40に対応づけられた重要度と、各イベントをユーザが確認したか否かを示す確認フラグとが表示されてもよい。また、イベント表示領域4320には、現在、録画データ中のどこを再生しているかを示すタイムバーが表示されてもよい。このタイムバーには、各イベントの発生時刻を示すインデックスが付加されていてもよい。   In the event display area 4320, the imaging time (may be the date and time) of the captured image being displayed in the captured image reproduction area 4310, a time-sequential list of event IDs, and the event corresponding to each event ID are displayed. The occurrence time, the cover camera ID (device ID) of the imaging device 20 that covers the sensor 40 corresponding to each event ID, the importance level associated with each event or the sensor 40 that detected each event, and each event A confirmation flag indicating whether or not the user has confirmed may be displayed. In the event display area 4320, a time bar indicating where in the recorded data is currently being played back may be displayed. An index indicating the time of occurrence of each event may be added to the time bar.

上記のような操作画面において、ユーザがプリセット録画再生ボタン4302を選択すると、出力部126には、たとえばプリセット録画された録画データファイルのリストが表示される。ユーザがこのリストの中からいずれかのファイルを選択すると、制御部124は、選択されたファイルを録画再生する動作を実行する。この録画再生動作は、上述において図47を用いて説明した動作である。一方、ユーザが操作画面のライブボタン4301を選択すると、出力部126に表示される合成画像が録画データを録画再生する合成画像4000からライブ画像(監視画像)をライブストリーミング再生する合成画像(たとえば図9や図12等参照)に切り替えられる。   When the user selects the preset recording / playback button 4302 on the operation screen as described above, the output unit 126 displays, for example, a list of recording data files that have been preset recorded. When the user selects any file from the list, the control unit 124 executes an operation for recording and reproducing the selected file. This recording / playback operation is the operation described above with reference to FIG. On the other hand, when the user selects the live button 4301 on the operation screen, the synthesized image displayed on the output unit 126 is a synthesized image (for example, FIG. 9 and FIG. 12).

また、操作画面において、録画間隔ボタン4331は、たとえばプルダウンメニューボタンである。ユーザが録画間隔ボタン4331を選択すると、設定可能な録画間隔のリスト(たとえばフルフレーム(30フレーム/秒)、15フレーム/秒、10フレーム/秒、5フレーム/秒、1フレーム/秒…など)が表示される。ユーザがリストアップされた録画間隔のうち何れか(たとえば10フレーム/秒)を選択すると、この選択された録画間隔(たとえば10フレーム/秒)がたとえば制御部124に設定される。制御部124は、このように設定された録画間隔ごとに、図45に示した録画動作および図46に示した記録動作を繰り返し実行する。   In the operation screen, the recording interval button 4331 is, for example, a pull-down menu button. When the user selects the recording interval button 4331, a list of recording intervals that can be set (for example, full frame (30 frames / second), 15 frames / second, 10 frames / second, 5 frames / second, 1 frame / second, etc.) Is displayed. When the user selects one of the listed recording intervals (for example, 10 frames / second), the selected recording interval (for example, 10 frames / second) is set in the control unit 124, for example. The control unit 124 repeatedly executes the recording operation shown in FIG. 45 and the recording operation shown in FIG. 46 at each recording interval set in this way.

以上のような構成および動作を備えることで、上述した各実施の形態による監視画像のライブストリーミング再生時と同様に、録画再生時においても、カメラによって撮像されていた領域をユーザに直感的に把握させることができる。なお、その他の構成、動作および効果は、上述した実施の形態のいずれかと同様であってよいため、ここでは詳細な説明を省略する。ただし、実施の形態10では、画像処理装置4010が撮像装置20およびセンサ40からネットワーク30を介して撮像情報およびイベント情報を取得する場合を例示したが、これに限定されるものではない。たとえば撮像装置20およびセンサ40それぞれが個別に記憶装置を備え、画像処理装置4010がこれら記憶装置に記憶された撮像情報およびイベント情報をオンラインまたはオフラインで取得するように構成されてもよい。または、撮像装置20およびセンサ40がネットワーク30上の記憶装置に直接、撮像情報およびイベント情報を送信し、画像処理装置4010がこの記憶装置に格納されている撮像情報およびイベント情報をネットワーク30を介して取得するように構成されてもよい。   By providing the configuration and operation as described above, the user can intuitively grasp the area captured by the camera during recording / playback as well as during live streaming playback of the monitoring image according to each of the above-described embodiments. Can be made. Since other configurations, operations, and effects may be the same as those in any of the above-described embodiments, detailed description thereof is omitted here. However, in the tenth embodiment, the case where the image processing apparatus 4010 acquires the imaging information and the event information from the imaging apparatus 20 and the sensor 40 via the network 30 is illustrated, but the present invention is not limited to this. For example, each of the imaging device 20 and the sensor 40 may include a storage device, and the image processing device 4010 may be configured to acquire imaging information and event information stored in the storage device online or offline. Alternatively, the imaging device 20 and the sensor 40 directly transmit imaging information and event information to the storage device on the network 30, and the image processing device 4010 transmits the imaging information and event information stored in the storage device via the network 30. It may be configured to obtain.

(実施の形態11)
また、実施の形態10や、上述した他の実施の形態では、イベントを検出したセンサ40や撮像装置20のアイコンが、2次元投影画像上で強調表示されてもよい。たとえば各撮像装置20が撮像画像に対して動き検出を行い、各撮像装置20がセンサ40としても機能する場合、図50に示すように、これら撮像装置20に対応するカメラアイコンのうち、イベントを検出した撮像装置20に対応するカメラアイコン4003aおよび4005aが強調表示されてもよい。図50は、実施の形態11に係る合成画像の一例を示す図である。各種アイコンの強調表示は、たとえば点滅表示や、背景と異なる色(たとえば赤色)による表示や、拡大表示など、種々の表示方法を用いることができる。
(Embodiment 11)
In the tenth embodiment and the other embodiments described above, the icon of the sensor 40 or the imaging device 20 that detected the event may be highlighted on the two-dimensional projection image. For example, when each imaging device 20 performs motion detection on a captured image and each imaging device 20 also functions as the sensor 40, an event is selected from the camera icons corresponding to these imaging devices 20, as shown in FIG. Camera icons 4003a and 4005a corresponding to the detected imaging device 20 may be highlighted. FIG. 50 is a diagram illustrating an example of a composite image according to the eleventh embodiment. Various display methods such as blinking display, display with a color different from the background (for example, red), and enlarged display can be used for highlighting various icons.

各種アイコンの強調表示は、たとえば強調表示するデバイス(センサ40や撮像装置20)のデバイスIDに対応づけるアイコンイメージを、他の強調表示用のアイコンイメージに一時的に置き換えることで実現可能である。その場合、通常のアイコンイメージの代わりに、強調表示用のアイコンイメージが3次元モデルデータに組み込まれるため、この3次元モデルデータから生成した2次元投影画像中のアイコンイメージも、強調表示される。   Various icons can be highlighted by temporarily replacing, for example, the icon image associated with the device ID of the device to be highlighted (sensor 40 or imaging device 20) with another icon image for highlighting. In that case, since an icon image for highlighting is incorporated in the 3D model data instead of the normal icon image, the icon image in the 2D projection image generated from the 3D model data is also highlighted.

なお、ここでは、上述した実施の形態と同様、3次元モデルデータから生成した2次元投影画像中のアイコンを強調表示する場合を例に挙げたが、これに限られるものではない。たとえば3次元モデルデータの代わりに、これと同様のレイアウトを地面(または床面)と平行な2次元平面にマッピングした2次元モデルが用いられてもよい。その場合、この2次元モデルそのままが撮像画像や操作画面と合成されて出力部126に表示されるが、その際に、2次元モデル中にマッピングする各種アイコンに強調表示用のアイコンが用いられる。これにより、上述した3次元モデルの場合と同様に、2次元モデル中にマッピングされた各種アイコンが必要に応じて強調表示される。その他の構成、動作および効果は、上述した実施の形態と同様であってよいため、ここでは詳細な説明を省略する。   Note that, here, as in the above-described embodiment, an example has been described in which an icon in a two-dimensional projection image generated from three-dimensional model data is highlighted, but the present invention is not limited to this. For example, instead of the three-dimensional model data, a two-dimensional model obtained by mapping a layout similar to this on a two-dimensional plane parallel to the ground (or the floor surface) may be used. In this case, the two-dimensional model as it is is combined with the captured image and the operation screen and displayed on the output unit 126. At that time, highlighting icons are used for various icons mapped in the two-dimensional model. Accordingly, as in the case of the above-described three-dimensional model, various icons mapped in the two-dimensional model are highlighted as necessary. Since other configurations, operations, and effects may be the same as those of the above-described embodiment, detailed description thereof is omitted here.

[プログラム]
また、画像処理装置10の構成は、例えば、ハードウェアとして、任意のコンピュータのCPU(Central Processing Unit)、メモリ、その他のLSI(Large Scale Integration)で実現される。同様に、画像処理装置10の構成は、例えば、ソフトウェアとして、メモリにロードされたプログラム等によって実現され得る。上記実施の形態では、これらのハードウェア又はソフトウェアの連携によって実現される機能ブロックとして説明した。すなわち、これらの機能ブロックについては、ハードウェアのみ、ソフトウェアのみ、又は、それらの組み合わせによって種々の形で実現できる。
[program]
The configuration of the image processing apparatus 10 is realized by, for example, a hardware CPU (Central Processing Unit), a memory, and other LSI (Large Scale Integration) as hardware. Similarly, the configuration of the image processing apparatus 10 can be realized by, for example, a program loaded into a memory as software. The above embodiment has been described as a functional block realized by cooperation of these hardware or software. That is, these functional blocks can be realized in various forms by hardware only, software only, or a combination thereof.

図51は、画像処理プログラムがコンピュータを用いて実現されることを示す図である。例えば、図51に示すように、画像処理装置10としてのコンピュータ1000は、バス1009で接続された、CPU(Central Processing Unit)1001等の制御装置と、ROM(Read Only Memory)1002やRAM(Random Access Memory)1003等の記憶装置と、HDD(Hard Disk Drive)1004、ディスクドライブ1005等の外部記憶装置と、ディスプレイ1006等の表示装置と、キーボード1007やマウス1008等の入力装置を備えており、通常のコンピュータを利用したハードウェア構成となっている。記憶装置又は外部記憶装置には、上述した3次元モデル記憶部111や視点情報記憶部112の各種情報が記憶される。   FIG. 51 is a diagram illustrating that an image processing program is realized using a computer. For example, as shown in FIG. 51, a computer 1000 as an image processing apparatus 10 includes a control device such as a CPU (Central Processing Unit) 1001 connected via a bus 1009, a ROM (Read Only Memory) 1002, and a RAM (Random). A storage device such as an access memory (1003), an external storage device such as a hard disk drive (HDD) 1004 and a disk drive 1005, a display device such as a display 1006, and input devices such as a keyboard 1007 and a mouse 1008. It has a hardware configuration using a normal computer. In the storage device or the external storage device, various types of information of the above-described 3D model storage unit 111 and viewpoint information storage unit 112 are stored.

画像処理装置10で実行される画像処理プログラムは、一つの様態として、インストール可能な形式又は実行可能な形式ファイルでCD−ROM、フレキシブルディスク(FD)、CD−R、DVD(Digital Versatile Disk)等のコンピュータで読み取り可能な記録媒体に記録されて提供される。また、画像処理装置10で実行される画像処理プログラムを、インターネット等のネットワークに接続されたコンピュータ上に格納し、ネットワーク経由でダウンロードさせることにより提供するように構成しても良い。また、画像処理装置10で実行される画像処理プログラムをインターネット等のネットワーク経由で提供又は配布するように構成しても良い。また、画像処理プログラムを、ROM等に組み込んで提供するように構成しても良い。   An image processing program executed by the image processing apparatus 10 may be installed in an installable format or an executable format file, such as a CD-ROM, a flexible disk (FD), a CD-R, a DVD (Digital Versatile Disk), etc. And recorded on a computer-readable recording medium. The image processing program executed by the image processing apparatus 10 may be provided by being stored on a computer connected to a network such as the Internet and downloaded via the network. The image processing program executed by the image processing apparatus 10 may be provided or distributed via a network such as the Internet. Further, the image processing program may be provided by being incorporated in a ROM or the like.

画像処理装置10で実行される画像処理プログラムは、上述した各機能部(取得部123、合成部125、出力部126)を含むモジュール構成となっており、実際のハードウェアとしてCPU(プロセッサ)が記憶媒体から画像処理プログラムを読み出して実行することにより、上記各機能部が主記憶装置上にロードされ、取得部123、合成部125、出力部126が主記憶装置上に生成され、適宜、記憶装置又は外部記憶装置に記憶された各種情報を利用して処理が行なわれる。   The image processing program executed by the image processing apparatus 10 has a module configuration including the above-described functional units (acquisition unit 123, synthesis unit 125, output unit 126), and a CPU (processor) is used as actual hardware. By reading out and executing the image processing program from the storage medium, each of the above functional units is loaded onto the main storage device, and the acquisition unit 123, the synthesis unit 125, and the output unit 126 are generated on the main storage device and stored as appropriate. Processing is performed using various information stored in the device or the external storage device.

また、上記文書中や図面中等で示した処理手順、制御手順、具体的名称、各種のデータやパラメタ等を含む情報は、特記する場合を除いて任意に変更することができる。例えば、3次元モデル記憶部111に記憶される各種情報は、撮像対象となるエリア50がかわれば、それに応じて適宜変更される。   Information including processing procedures, control procedures, specific names, various data, parameters, and the like shown in the document and drawings can be arbitrarily changed unless otherwise specified. For example, various information stored in the three-dimensional model storage unit 111 is appropriately changed according to the area 50 to be imaged.

[構成]
また、図示した画像処理装置10の各構成要素は、機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散又は統合の具体的形態は、図示のものに限られず、その全部又は一部を各種の負担や使用状況などに応じて、任意の単位で機能的または物理的に分散又は統合することができる。例えば、合成部125は、カメラ位置に基づいて3次元モデルの視点を決定し、決定した視点及び撮像方向に基づいて、3次元モデルを2次元面に投影した2次元画像である2次元投影画像を生成する「生成部」と、生成された2次元投影画像の所定領域に撮像画像を合成することにより合成画像を生成する「合成部」とに分散しても良い。
[Constitution]
The constituent elements of the illustrated image processing apparatus 10 are functionally conceptual, and need not be physically configured as illustrated. In other words, the specific form of distribution or integration of each device is not limited to the illustrated one, and all or a part thereof is functionally or physically distributed or arbitrarily distributed in arbitrary units according to various burdens or usage conditions. Can be integrated. For example, the synthesizing unit 125 determines a viewpoint of the three-dimensional model based on the camera position, and a two-dimensional projection image that is a two-dimensional image obtained by projecting the three-dimensional model onto a two-dimensional surface based on the determined viewpoint and imaging direction. And a “synthesis unit” that generates a synthesized image by synthesizing a captured image with a predetermined region of the generated two-dimensional projection image.

なお、上述してきた実施の形態では、画像処理装置10を監視システム1に適用した例を挙げて説明したが、監視システム1だけでなく、リアルタイムにライブ映像を配信する配信システム等の他の様々な用途に適用することができる。   In the embodiment described above, an example in which the image processing apparatus 10 is applied to the monitoring system 1 has been described. However, not only the monitoring system 1 but also various other systems such as a distribution system that distributes live video in real time. It can be applied to various uses.

10 画像処理装置
111 3次元モデル記憶部
112 視点情報記憶部
121 操作部
122 通信処理部
123 取得部
124 制御部
125 合成部
126 出力部
DESCRIPTION OF SYMBOLS 10 Image processing apparatus 111 3D model memory | storage part 112 Viewpoint information memory | storage part 121 Operation part 122 Communication processing part 123 Acquisition part 124 Control part 125 Composition part 126 Output part

Claims (4)

監視エリア内のカメラが取得した撮像画像と、該撮像画像を取得した際の撮像時刻とを取得する取得部と、
前記取得部が取得した前記撮像画像と、前記撮像時刻とを対応づけて記憶する画像記憶部と、
前記監視エリア内のセンサで検出されたイベントのイベント情報と、該イベントの発生時刻とを取得するイベント取得部と、
前記イベント取得部が取得した前記イベント情報と、前記発生時刻とを対応づけて記憶するイベント記憶部と、
前記画像記憶部が記憶する前記撮像画像の再生指示を受け付ける操作部と、
前記操作部が再生指示を受け付けた場合、前記カメラに対応づけられたカメラアイコンと前記センサに対応づけられたセンサアイコンとを含む前記監視エリアの2次元画像を生成し、前記2次元画像の所定領域に前記画像記憶部が記憶する前記撮像画像を合成することで合成画像を生成する合成部と、
前記合成部で合成された合成画像を出力する出力部と
前記カメラアイコンおよび前記センサアイコンを含む3次元モデルを記憶する3次元モデル記憶部と
を備え、
前記合成部は、前記2次元画像に合成される前記撮像画像に対応づけられている前記撮像時刻と同時刻帯に発生時刻が属するイベント情報に基づいて前記2次元画像に含まれる前記センサアイコンの表示の態様を変化させ、
前記制御部は、所定の視点位置を用いて前記3次元モデルから前記2次元画像を生成する
ことを特徴とする画像処理装置。
An acquisition unit that acquires a captured image acquired by a camera in the monitoring area and an imaging time when the captured image is acquired;
An image storage unit that stores the captured image acquired by the acquisition unit in association with the imaging time;
An event acquisition unit for acquiring event information of an event detected by a sensor in the monitoring area, and an occurrence time of the event;
An event storage unit that stores the event information acquired by the event acquisition unit in association with the occurrence time;
An operation unit for receiving an instruction to reproduce the captured image stored in the image storage unit;
When the operation unit receives a reproduction instruction, the operation unit generates a two-dimensional image of the monitoring area including a camera icon associated with the camera and a sensor icon associated with the sensor, A combining unit that generates a combined image by combining the captured images stored in the image storage unit in a region;
An output unit that outputs a synthesized image synthesized by the synthesis unit ;
A three-dimensional model storage unit that stores a three-dimensional model including the camera icon and the sensor icon ;
The synthesizing unit may include the sensor icon included in the two-dimensional image based on event information whose generation time belongs to the same time zone as the imaging time associated with the captured image to be combined with the two-dimensional image. Change the display mode ,
The image processing apparatus , wherein the control unit generates the two-dimensional image from the three-dimensional model using a predetermined viewpoint position .
監視エリア内のカメラが取得した撮像画像と、該撮像画像を取得した際の撮像時刻とを取得する取得部と、  An acquisition unit that acquires a captured image acquired by a camera in the monitoring area and an imaging time when the captured image is acquired;
前記取得部が取得した前記撮像画像と、前記撮像時刻とを対応づけて記憶する画像記憶部と、  An image storage unit that stores the captured image acquired by the acquisition unit in association with the imaging time;
前記監視エリア内のセンサで検出されたイベントのイベント情報と、該イベントの発生時刻とを取得するイベント取得部と、  An event acquisition unit for acquiring event information of an event detected by a sensor in the monitoring area, and an occurrence time of the event;
前記イベント取得部が取得した前記イベント情報と、前記発生時刻とを対応づけて記憶するイベント記憶部と、  An event storage unit that stores the event information acquired by the event acquisition unit in association with the occurrence time;
前記画像記憶部が記憶する前記撮像画像の再生指示を受け付ける操作部と、  An operation unit for receiving an instruction to reproduce the captured image stored in the image storage unit;
前記操作部が再生指示を受け付けた場合、前記カメラに対応づけられたカメラアイコンと前記センサに対応づけられたセンサアイコンとを含む前記監視エリアの2次元画像を生成し、前記2次元画像の所定領域に前記画像記憶部が記憶する前記撮像画像を合成することで合成画像を生成する合成部と、  When the operation unit receives a reproduction instruction, the operation unit generates a two-dimensional image of the monitoring area including a camera icon associated with the camera and a sensor icon associated with the sensor, A combining unit that generates a combined image by combining the captured images stored in the image storage unit in a region;
前記合成部で合成された合成画像を出力する出力部と、  An output unit that outputs a synthesized image synthesized by the synthesis unit;
前記カメラアイコンおよび前記センサアイコンを含む3次元モデルを記憶する3次元モデル記憶部と  A three-dimensional model storage unit for storing a three-dimensional model including the camera icon and the sensor icon;
を備え、  With
前記合成部は、前記2次元画像に合成される前記撮像画像に対応づけられている前記撮像時刻と同時刻帯に発生時刻が属するイベント情報に基づいて前記2次元画像に含まれる前記センサアイコンの表示の態様を変化させ、  The synthesizing unit may include the sensor icon included in the two-dimensional image based on event information whose generation time belongs to the same time zone as the imaging time associated with the captured image to be combined with the two-dimensional image. Change the display mode,
前記画像取得部は、前記カメラが前記撮像画像を取得した撮像方向をさらに取得し、  The image acquisition unit further acquires an imaging direction in which the camera acquires the captured image,
前記画像記憶部は、前記撮像画像および前記撮像時刻に対応づけて前記撮像方向をさらに記憶し、  The image storage unit further stores the imaging direction in association with the captured image and the imaging time,
前記制御部は、前記カメラアイコンの前記3次元モデルにおける位置に応じて前記3次元モデルに対する視点位置を決定し、該決定された視点位置と、前記画像記憶部に記憶された前記撮像方向とを用いて前記3次元モデルから前記2次元画像を生成する  The control unit determines a viewpoint position with respect to the three-dimensional model according to a position of the camera icon in the three-dimensional model, and determines the determined viewpoint position and the imaging direction stored in the image storage unit. To generate the two-dimensional image from the three-dimensional model
ことを特徴とする画像処理装置。  An image processing apparatus.
監視エリア内のカメラが取得した撮像画像と、該撮像画像を取得した際の撮像時刻とを取得する取得ステップと、  An acquisition step of acquiring a captured image acquired by a camera in the monitoring area and an imaging time when the captured image is acquired;
前記取得ステップにて取得した前記撮像画像と、前記撮像時刻とを対応づけて記憶する画像記憶ステップと、  An image storage step of storing the captured image acquired in the acquisition step in association with the imaging time;
前記監視エリア内のセンサで検出されたイベントのイベント情報と、該イベントの発生時刻とを取得するイベント取得ステップと、  An event acquisition step of acquiring event information of an event detected by a sensor in the monitoring area, and an occurrence time of the event;
前記イベント取得ステップにて取得した前記イベント情報と、前記発生時刻とを対応づけて記憶するイベント記憶ステップと、  An event storage step for storing the event information acquired in the event acquisition step in association with the occurrence time;
前記画像記憶ステップにて記憶する前記撮像画像の再生指示を受け付ける操作ステップと、  An operation step of receiving an instruction to reproduce the captured image stored in the image storage step;
前記操作ステップにて再生指示を受け付けた場合、前記カメラに対応づけられたカメラアイコンと前記センサに対応づけられたセンサアイコンとを含む前記監視エリアの2次元画像を生成し、前記2次元画像の所定領域に前記画像記憶ステップにて記憶する前記撮像画像を合成することで合成画像を生成する合成ステップと、  When a reproduction instruction is received in the operation step, a two-dimensional image of the monitoring area including a camera icon associated with the camera and a sensor icon associated with the sensor is generated, and the two-dimensional image A combining step of generating a combined image by combining the captured image stored in the image storing step in a predetermined area;
前記合成ステップにて合成された合成画像を出力する出力ステップと、  An output step of outputting the synthesized image synthesized in the synthesis step;
前記カメラアイコンおよび前記センサアイコンを含む3次元モデルを記憶する3次元モデル記憶ステップと  A three-dimensional model storing step for storing a three-dimensional model including the camera icon and the sensor icon;
を含み、  Including
前記合成ステップは、前記2次元画像に合成される前記撮像画像に対応づけられている前記撮像時刻と同時刻帯に発生時刻が属するイベント情報に基づいて前記2次元画像に含まれる前記センサアイコンの表示の態様を変化させ、  In the combining step, the sensor icon included in the two-dimensional image is based on event information whose generation time belongs to the same time zone as the imaging time associated with the captured image combined with the two-dimensional image. Change the display mode,
前記制御ステップは、所定の視点位置を用いて前記3次元モデルから前記2次元画像を生成する  The control step generates the two-dimensional image from the three-dimensional model using a predetermined viewpoint position.
ことを特徴とする画像処理方法。  An image processing method.
請求項3に記載された方法をコンピュータに実行させることを特徴とする画像処理プログラム。An image processing program causing a computer to execute the method according to claim 3.
JP2012219203A 2012-02-29 2012-10-01 Image processing apparatus, image processing method, and image processing program Active JP5966834B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2012219203A JP5966834B2 (en) 2012-02-29 2012-10-01 Image processing apparatus, image processing method, and image processing program
PCT/JP2013/054028 WO2013129188A1 (en) 2012-02-29 2013-02-19 Image processing device, image processing method, and image processing program

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2012044778 2012-02-29
JP2012044778 2012-02-29
JP2012219203A JP5966834B2 (en) 2012-02-29 2012-10-01 Image processing apparatus, image processing method, and image processing program

Publications (2)

Publication Number Publication Date
JP2013214944A JP2013214944A (en) 2013-10-17
JP5966834B2 true JP5966834B2 (en) 2016-08-10

Family

ID=49587972

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012219203A Active JP5966834B2 (en) 2012-02-29 2012-10-01 Image processing apparatus, image processing method, and image processing program

Country Status (1)

Country Link
JP (1) JP5966834B2 (en)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6451139B2 (en) * 2014-08-11 2019-01-16 株式会社大林組 Arrangement plan support system, arrangement plan support method, and arrangement plan support program
JP6612724B2 (en) * 2016-12-09 2019-11-27 株式会社日立ビルシステム Video surveillance system and surveillance video display method
US10621773B2 (en) * 2016-12-30 2020-04-14 Google Llc Rendering content in a 3D environment
DK180470B1 (en) 2017-08-31 2021-05-06 Apple Inc Systems, procedures, and graphical user interfaces for interacting with augmented and virtual reality environments
JP7039714B2 (en) * 2018-01-24 2022-03-22 アップル インコーポレイテッド Devices, methods, and graphical user interfaces for system-wide behavior of 3D models
JP2021176033A (en) * 2020-05-01 2021-11-04 ピクシーダストテクノロジーズ株式会社 Information processing device, information processing method, and program

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008502229A (en) * 2004-06-01 2008-01-24 エル‐3 コミュニケーションズ コーポレイション Video flashlight / visual alarm
JP4960659B2 (en) * 2006-06-20 2012-06-27 クボテック株式会社 Video camera shooting control apparatus and video camera shooting control method using three-dimensional virtual space

Also Published As

Publication number Publication date
JP2013214944A (en) 2013-10-17

Similar Documents

Publication Publication Date Title
US9851877B2 (en) Image processing apparatus, image processing method, and computer program product
JP5910447B2 (en) Image processing apparatus, image processing method, and image processing program
JP5966834B2 (en) Image processing apparatus, image processing method, and image processing program
JP2013210989A (en) Image processing device, image processing method, and image processing program
KR20180077091A (en) Haptic effect generation for space-dependent content
JP6226538B2 (en) Display control apparatus, display control method, and program
JP6787394B2 (en) Information processing equipment, information processing methods, programs
WO2013129188A1 (en) Image processing device, image processing method, and image processing program
US9141190B2 (en) Information processing apparatus and information processing system
CN102668556A (en) Medical support apparatus, medical support method, and medical support system
JP6409107B1 (en) Information processing apparatus, information processing method, and program
US20210044793A1 (en) Generation method for generating free viewpoint image, display method for displaying free viewpoint image, free viewpoint image generation device, and display device
JPWO2004006572A1 (en) Video generation processing device, video generation processing method, and video storage device
US20190155465A1 (en) Augmented media
JP5920152B2 (en) Image processing apparatus, image processing method, and image processing program
JP7020024B2 (en) Information processing equipment and programs
JP2013211821A (en) Image processing device, image processing method, and image processing program
JP5983259B2 (en) Image processing apparatus, image processing method, and image processing program
JP5910446B2 (en) Image processing apparatus, image processing method, and image processing program
EP4125044A2 (en) Image processing apparatus, image processing method, and program
WO2013129187A1 (en) Image processing device, image processing method, and image processing program
WO2013129190A1 (en) Image processing device, image processing method, and image processing program
JP2013211819A (en) Image processing device, image processing method, and image processing program
JP2013211820A (en) Image processing device, image processing method, and image processing program
US20220051432A1 (en) Information processing device, information processing method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150331

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160315

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160415

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160607

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160620

R150 Certificate of patent or registration of utility model

Ref document number: 5966834

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150