JP7290049B2 - Shooting control device, shooting control method, and shooting control program - Google Patents

Shooting control device, shooting control method, and shooting control program Download PDF

Info

Publication number
JP7290049B2
JP7290049B2 JP2019045226A JP2019045226A JP7290049B2 JP 7290049 B2 JP7290049 B2 JP 7290049B2 JP 2019045226 A JP2019045226 A JP 2019045226A JP 2019045226 A JP2019045226 A JP 2019045226A JP 7290049 B2 JP7290049 B2 JP 7290049B2
Authority
JP
Japan
Prior art keywords
photographing
unit
plan
workers
shooting
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019045226A
Other languages
Japanese (ja)
Other versions
JP2020150379A (en
Inventor
真澄 石川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Priority to JP2019045226A priority Critical patent/JP7290049B2/en
Publication of JP2020150379A publication Critical patent/JP2020150379A/en
Application granted granted Critical
Publication of JP7290049B2 publication Critical patent/JP7290049B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02ATECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
    • Y02A10/00TECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE at coastal zones; at river basins
    • Y02A10/40Controlling or monitoring, e.g. of flood or hurricane; Forecasting, e.g. risk assessment or mapping

Landscapes

  • Closed-Circuit Television Systems (AREA)
  • Studio Devices (AREA)

Description

本開示は、撮影制御装置、撮影制御方法、及び撮影制御プログラムに関する。 The present disclosure relates to an imaging control device, an imaging control method, and an imaging control program.

災害現場では、まず、消防隊員が災害現場の状況(救助活動に支障をきたす危険な場所や、優先的に救助を実施すべき場所)を確認し、現場近くに設営された現場指揮所にいる指揮官に現場状況を報告する。指揮官は、その報告内容を用いて救助活動の方針を定め、その方針に従って消防隊員が救助活動を開始する。
そのため、災害現場において、救助活動を安全かつ迅速に行うためには、消防隊員による災害現場の状況確認を、短時間かつ網羅的に遂行することが求められる。
At the disaster site, firefighters first check the situation of the disaster site (dangerous places that hinder rescue activities and places that should be prioritized for rescue operations), and stay at the site command post set up near the site. Report the situation on the ground to the commander. The commander uses the contents of the report to establish a policy for rescue activities, and the firefighters start rescue activities according to the policy.
Therefore, in order to carry out rescue activities safely and quickly at the disaster site, it is required that the firefighters check the situation of the disaster site comprehensively in a short time.

最近は、災害現場の状況確認として、消防隊員が災害現場をカメラで撮影し、撮影画像を無線送信するシステムが開発されている。
また、最近は、災害現場などの撮影対象を短時間かつ網羅的に撮影するための技術も提案されている。
例えば、特許文献1に開示された技術は、撮像部により構造物を撮像し、記憶部に記憶されている地図と撮影部の位置及び姿勢とを用いて、地図上の撮像済箇所を特定し、地図上で撮像済箇所を表示する。
Recently, a system has been developed in which firefighters photograph the disaster site with a camera and wirelessly transmit the photographed image as a means of confirming the situation at the disaster site.
Also, recently, a technique has been proposed for taking a short and comprehensive image of an object to be imaged, such as a disaster site.
For example, the technology disclosed in Patent Literature 1 captures an image of a structure using an imaging unit, and uses a map stored in a storage unit and the position and orientation of the imaging unit to specify an imaged location on the map. , to display the imaged locations on the map.

特許第6076852号公報Japanese Patent No. 6076852

しかし、作業者(消防隊員等)が災害現場を撮影する撮影スキル(速度や精度)には、ばらつきがある。そのため、作業者の撮影スキルのばらつきに起因して、複数の作業者が重複して撮影する場所が発生し時間ロスが発生したり、ある場所について互いに他の作業者が撮影済みであると勘違いして撮影漏れが生じたりするケースがあった。これを防止するためには、各作業者の撮影スキルを把握する必要があるが、特許文献1に開示された技術等の関連技術には、各作業者の撮影スキルを把握するための手段が存在しないという問題がある。 However, there are variations in the photographing skills (speed and accuracy) of workers (firefighters, etc.) for photographing disaster sites. As a result, due to variations in the shooting skills of workers, there are places where multiple workers take duplicate pictures, resulting in time loss. There have been cases where shooting omissions have occurred. In order to prevent this, it is necessary to grasp the photographing skill of each worker, but related technologies such as the technology disclosed in Patent Document 1 include means for grasping the photographing skill of each worker. The problem is that it doesn't exist.

本開示の目的は、上述した課題を解決し、災害現場を撮影する各作業者の撮影スキルを把握することができる撮影制御装置、撮影制御方法、及び撮影制御プログラムを提供することにある。 An object of the present disclosure is to solve the above-described problems and to provide an imaging control device, an imaging control method, and an imaging control program that can grasp the imaging skill of each worker who takes an image of a disaster site.

一態様による撮影制御装置は、
災害現場のマップと、前記災害現場をカメラで撮影する複数の作業者がそれぞれ携帯するカメラの位置、パン角、及びチルト角と、を用いて、前記複数の作業者毎に、該作業者がカメラで撮影を完了した前記マップ上の撮影領域を特定する撮影領域特定部と、
前記複数の作業者毎に、該作業者が単位時間あたりにカメラで撮影を完了した前記マップ上の撮影領域の数を示す撮影速度を算出する撮影速度算出部と、
を備える。
An imaging control device according to one aspect includes:
Using a map of the disaster site and the positions, pan angles, and tilt angles of the cameras carried by each of the workers who photograph the disaster site, a photographing area identification unit that identifies a photographing area on the map that has been photographed by a camera;
a photographing speed calculation unit that calculates, for each of the plurality of workers, a photographing speed indicating the number of photographing areas on the map that the worker has completed photographing with a camera per unit time;
Prepare.

一態様による撮影制御方法は、
災害現場のマップと、前記災害現場をカメラで撮影する複数の作業者がそれぞれ携帯するカメラの位置、パン角、及びチルト角と、を用いて、前記複数の作業者毎に、該作業者がカメラで撮影を完了した前記マップ上の撮影領域を特定するステップと、
前記複数の作業者毎に、該作業者が単位時間あたりにカメラで撮影を完了した前記マップ上の撮影領域の数を示す撮影速度を算出するステップと、
を含む。
An imaging control method according to one aspect includes:
Using a map of the disaster site and the positions, pan angles, and tilt angles of the cameras carried by each of the workers who photograph the disaster site, identifying a shooting area on the map that has been shot by a camera;
a step of calculating, for each of the plurality of workers, a photographing speed indicating the number of photographing areas on the map that the worker has completed photographing with a camera per unit time;
including.

一態様による撮影制御プログラムは、
コンピュータに、
災害現場のマップと、前記災害現場をカメラで撮影する複数の作業者がそれぞれ携帯するカメラの位置、パン角、及びチルト角と、を用いて、前記複数の作業者毎に、該作業者がカメラで撮影を完了した前記マップ上の撮影領域を特定する手順と、
前記複数の作業者毎に、該作業者が単位時間あたりにカメラで撮影を完了した前記マップ上の撮影領域の数を示す撮影速度を算出する手順と、
を実行させる。
An imaging control program according to one aspect comprises:
to the computer,
Using a map of the disaster site and the positions, pan angles, and tilt angles of the cameras carried by each of the workers who photograph the disaster site, A procedure of identifying a shooting area on the map that has completed shooting with a camera;
a step of calculating, for each of the plurality of workers, a photographing speed indicating the number of photographing areas on the map that the worker has completed photographing with a camera per unit time;
to run.

上述の態様によれば、災害現場を撮影する各作業者の撮影スキルを把握することができる撮影制御装置、撮影制御方法、及び撮影制御プログラムを提供できるという効果が得られる。 According to the above-described aspect, it is possible to provide an imaging control device, an imaging control method, and an imaging control program capable of grasping the imaging skills of each worker who takes an image of a disaster site.

実施の形態1に係る撮影制御システムの構成例を示す図である。1 is a diagram showing a configuration example of an imaging control system according to Embodiment 1; FIG. 実施の形態1に係る撮影制御装置の構成例を示すブロック図である。1 is a block diagram showing a configuration example of an imaging control device according to Embodiment 1; FIG. 実施の形態1に係る撮影制御装置の動作フロー例を示すフロー図である。4 is a flowchart showing an example of the operation flow of the imaging control device according to Embodiment 1; FIG. 実施の形態2に係る撮影制御システムの構成例を示す図である。FIG. 10 is a diagram showing a configuration example of an imaging control system according to Embodiment 2; 実施の形態2に係る撮影制御装置の構成例を示すブロック図である。FIG. 11 is a block diagram showing a configuration example of an imaging control device according to Embodiment 2; 実施の形態2に係る撮影計画策定部の構成例を示すブロック図である。FIG. 9 is a block diagram showing a configuration example of a shooting plan formulating unit according to Embodiment 2; 実施の形態2に係る撮影計画策定部における撮影計画の策定方法で前提とする構成例を説明する図である。FIG. 11 is a diagram for explaining a configuration example premised in a method of formulating a photographing plan in a photographing plan formulating unit according to Embodiment 2; 実施の形態2に係る撮影計画策定部における撮影計画の策定方法の具体例を説明する図である。FIG. 11 is a diagram for explaining a specific example of a method of formulating a photographing plan in a photographing plan formulating unit according to Embodiment 2; 実施の形態2に係る撮影計画策定部における撮影計画の策定方法の具体例を説明する図である。FIG. 11 is a diagram for explaining a specific example of a method of formulating a photographing plan in a photographing plan formulating unit according to Embodiment 2; 実施の形態2に係る撮影計画策定部における撮影計画の策定方法の他の具体例を説明する図である。FIG. 10 is a diagram illustrating another specific example of a method of formulating a photographing plan in the photographing plan formulating unit according to Embodiment 2; 実施の形態2に係る撮影計画策定部における撮影計画の策定方法のさらに他の具体例を説明する図である。FIG. 11 is a diagram for explaining still another specific example of a method of formulating a photographing plan in the photographing plan formulating unit according to Embodiment 2; 実施の形態2に係る撮影制御装置の動作フロー例を示すフロー図である。FIG. 11 is a flow diagram showing an example of an operation flow of the imaging control device according to Embodiment 2; 実施の形態3に係る撮影制御システムの構成例を示す図である。FIG. 13 is a diagram showing a configuration example of an imaging control system according to Embodiment 3; 実施の形態3に係る撮影制御装置の構成例を示すブロック図である。FIG. 11 is a block diagram showing a configuration example of an imaging control device according to Embodiment 3; 実施の形態3に係る撮影制御装置の動作フロー例を示すフロー図である。FIG. 12 is a flow diagram showing an example of the operation flow of the imaging control device according to Embodiment 3; 実施の形態1~3に係る撮影制御装置を実現するコンピュータのハードウェア構成例を示すブロック図である。2 is a block diagram showing a hardware configuration example of a computer that implements the imaging control device according to Embodiments 1 to 3; FIG.

以下、図面を参照して本開示の実施の形態について説明する。なお、以下の記載及び図面は、説明の明確化のため、適宜、省略及び簡略化がなされている。また、以下の各図面において、同一の要素には同一の符号が付されており、必要に応じて重複説明は省略されている。また、以下で示す具体的な数値等は、本開示の理解を容易とするための例示にすぎず、これに限定されるものではない。 Embodiments of the present disclosure will be described below with reference to the drawings. Note that the following descriptions and drawings are appropriately omitted and simplified for clarity of explanation. Further, in each drawing below, the same elements are denoted by the same reference numerals, and redundant description is omitted as necessary. In addition, specific numerical values and the like shown below are merely examples for facilitating understanding of the present disclosure, and are not limited thereto.

<実施の形態1>
まず、図1を参照して、本実施の形態1に係る撮影制御システムの構成について説明する。図1は、本実施の形態1に係る撮影制御システムの構成例を示す図である。本実施の形態1に係る撮影制御システムは、災害現場での撮影を制御するためのシステムである。ここで、災害現場とは、災害が発生した現場を表し、災害とは、地震、洪水等の自然災害や、事故、火災等の人為的災害を含むとする。また、以下では、災害現場を撮影する作業者が消防隊員であるものとして説明するが、作業者は、消防隊員には限定されず、レスキュー隊員、ボランティア人員等が含まれていても良い。
<Embodiment 1>
First, referring to FIG. 1, the configuration of the imaging control system according to the first embodiment will be described. FIG. 1 is a diagram showing a configuration example of an imaging control system according to the first embodiment. The imaging control system according to the first embodiment is a system for controlling imaging at a disaster site. Here, the disaster site represents the site where the disaster occurred, and the disaster includes natural disasters such as earthquakes and floods, and man-made disasters such as accidents and fires. In the following explanation, it is assumed that the workers who photograph the disaster scene are firefighters, but the workers are not limited to firefighters, and may include rescue workers, volunteers, and the like.

図1に示されるように、本実施の形態1に係る撮影制御システムは、N(Nは2以上の自然数)台のカメラ10-1~10-Nと、撮影制御装置20と、を備えている。以下、どのカメラ10-1~10-Nであるかを特定しない場合は、カメラ10と称することがある。 As shown in FIG. 1, the imaging control system according to the first embodiment includes N (N is a natural number equal to or greater than 2) cameras 10-1 to 10-N, and an imaging control device 20. there is Hereinafter, the cameras 10-1 to 10-N may be referred to as the cameras 10 unless the cameras 10-1 to 10-N are specified.

カメラ10-1~10-Nは、災害現場を撮影するN人の消防隊員にそれぞれ携帯されるカメラである。
カメラ10は、GPS(Global Positioning System)機能、電子コンパス機能、及びジャイロ機能を少なくとも備えており、カメラ10の位置、パン角、及びチルト角を取得可能であるとする。
Cameras 10-1 to 10-N are cameras carried by N firefighters who photograph disaster sites.
The camera 10 has at least a GPS (Global Positioning System) function, an electronic compass function, and a gyro function, and is capable of acquiring the position, pan angle, and tilt angle of the camera 10 .

また、カメラ10は、無線通信機能を備えており、カメラ10の位置、パン角、及びチルト角と、その状態で撮影された撮影画像と、を含むカメラ情報を、撮影制御装置20に無線送信することが可能であるとする。なお、無線通信方式は、任意の方式で良く、例えば、音波、近距離無線、無線LAN(Local Area Network)等の方式が考えられる。 The camera 10 also has a wireless communication function, and wirelessly transmits camera information including the position, pan angle, and tilt angle of the camera 10 and an image captured in that state to the image capturing control device 20. Suppose that it is possible to Note that any wireless communication method may be used, and examples include sound wave, short-range wireless, and wireless LAN (Local Area Network).

続いて、図2を参照して、本実施の形態1に係る撮影制御装置20の構成について説明する。図2は、本実施の形態1に係る撮影制御装置20の構成例を示すブロック図である。
図2に示されるように、本実施の形態1に係る撮影制御装置20は、撮影領域特定部21及び撮影速度算出部22を備えている。
Next, the configuration of the imaging control device 20 according to the first embodiment will be described with reference to FIG. FIG. 2 is a block diagram showing a configuration example of the imaging control device 20 according to the first embodiment.
As shown in FIG. 2 , the imaging control device 20 according to the first embodiment includes an imaging region identifying section 21 and an imaging speed calculating section 22 .

撮影領域特定部21は、災害現場の3次元マップが入力されると共に、複数のカメラ10-1~10-Nの各々から無線送信されたカメラ情報(カメラ10の位置、パン角、チルト角、及び撮影画像)が入力される。撮影領域特定部21は、災害現場の3次元マップと、複数のカメラ10-1~10-Nの各々の位置、パン角、及びチルト角と、を用いて、N人の消防隊員毎に、その消防隊員がカメラ10で撮影を完了した3次元マップ上の撮影領域を特定する。 The photographing area identification unit 21 receives a three-dimensional map of the disaster site, and obtains camera information (position, pan angle, tilt angle, and captured images) are input. The shooting area specifying unit 21 uses a three-dimensional map of the disaster site and the positions, pan angles, and tilt angles of each of the plurality of cameras 10-1 to 10-N to determine, for each N firefighters, The shooting area on the three-dimensional map that the firefighter completed shooting with the camera 10 is specified.

なお、撮影領域特定部21は、カメラ10で撮影された撮影画像を、過去に監視カメラで撮影された撮影画像や一般ユーザが投稿した投稿画像との画像マッチングをさらに行って、3次元マップ上の撮影領域を特定しても良い。 In addition, the photographing area specifying unit 21 further performs image matching between the photographed image photographed by the camera 10 and the photographed image photographed by the surveillance camera in the past and the posted image posted by the general user, and performs image matching on the three-dimensional map. may be specified.

撮影速度算出部22は、N人の消防隊員毎に、その消防隊員が単位時間あたりにカメラ10で撮影を完了した3次元マップ上の撮影領域の数を示す撮影速度を算出する。このとき、3次元マップを単位ブロックに分割し、消防隊員が単位時間あたりに撮影を完了した単位ブロックの数を、撮影速度として算出しても良い。ここで、撮影速度算出部22は、例えば、撮影領域特定部21の動作を監視することで、撮影速度を算出することが可能である。例えば、撮影速度算出部22は、ある消防隊員が単位時間内に撮影を完了した撮影領域を撮影領域特定部21が特定する度にカウントを行い、単位時間内にカウントしたカウント値を、その消防隊員の撮影速度とすることが考えられる。 The photographing speed calculation unit 22 calculates, for each N firefighters, the photographing speed indicating the number of photographing regions on the three-dimensional map that the firefighters have completed photographing with the camera 10 per unit time. At this time, the three-dimensional map may be divided into unit blocks, and the number of unit blocks photographed by the firefighters per unit time may be calculated as the photographing speed. Here, the imaging speed calculation unit 22 can calculate the imaging speed by monitoring the operation of the imaging region specifying unit 21, for example. For example, the photographing speed calculation unit 22 counts each time the photographing region specifying unit 21 identifies a photographing region in which a certain fire brigade member has completed photographing within a unit time, and the count value counted within the unit time is It is conceivable to use the photographing speed of the crew members.

続いて、図3を参照して、本実施の形態1に係る撮影制御装置20の動作フローについて説明する。図3は、本実施の形態1に係る撮影制御装置20の動作フロー例を示すフロー図である。 Next, with reference to FIG. 3, the operation flow of the imaging control device 20 according to the first embodiment will be described. FIG. 3 is a flowchart showing an operation flow example of the imaging control device 20 according to the first embodiment.

図3に示されるように、まず、撮影領域特定部21は、災害現場の3次元マップと、複数のカメラ10-1~10-Nの各々の位置、パン角、及びチルト角と、を用いて、N人の消防隊員毎に、その消防隊員がカメラ10で撮影を完了した3次元マップ上の撮影領域を特定する(ステップS101)。 As shown in FIG. 3, first, the imaging region specifying unit 21 uses a three-dimensional map of the disaster site, and the positions, pan angles, and tilt angles of the cameras 10-1 to 10-N. Then, for each of the N firefighters, the shooting area on the three-dimensional map that the firefighter has completed shooting with the camera 10 is specified (step S101).

続いて、撮影速度算出部22は、N人の消防隊員毎に、その消防隊員が単位時間あたりにカメラ10で撮影した3次元マップ上の撮影領域の数を示す撮影速度を算出する(ステップS102)。 Subsequently, the imaging speed calculation unit 22 calculates, for each of the N firefighters, the imaging speed indicating the number of imaging areas on the three-dimensional map captured by the firefighter with the camera 10 per unit time (step S102). ).

上述したように本実施の形態1によれば、撮影速度算出部22は、災害現場を撮影するN人の消防隊員毎に、その消防隊員が単位時間あたりにカメラ10で撮影を完了した3次元マップ上の撮影領域の数を示す撮影速度を算出する。 As described above, according to the first embodiment, the photographing speed calculation unit 22 calculates, for each of N firefighters photographing the disaster site, the three-dimensional images that the firefighters have completed photographing with the camera 10 per unit time. A shooting speed indicating the number of shooting areas on the map is calculated.

したがって、災害現場を撮影するN人の消防隊員の各々の撮影スキルを把握することができる。そのため、後述のように、N人の消防隊員の各々の撮影スキルを用いて、災害現場の撮影計画を策定できるようになる。 Therefore, it is possible to grasp the photographing skills of each of the N firefighters who photograph the disaster site. Therefore, as will be described later, using the shooting skills of each of the N firefighters, it becomes possible to formulate a shooting plan for the disaster site.

<実施の形態2>
続いて、図4を参照して、本実施の形態2に係る撮影制御システムの構成について説明する。図4は、本実施の形態2に係る撮影制御システムの構成例を示す図である。
図4に示されるように、本実施の形態2に係る撮影制御システムは、図1に示された実施の形態1の構成と比較して、N台のイヤホン11-1~11-Nが追加された点と、撮影制御装置20が撮影制御装置20Aに変更された点と、が異なる。以下、どのイヤホン11-1~11-Nであるかを特定しない場合は、イヤホン11と称することがある。
<Embodiment 2>
Next, the configuration of the imaging control system according to the second embodiment will be described with reference to FIG. FIG. 4 is a diagram showing a configuration example of an imaging control system according to the second embodiment.
As shown in FIG. 4, the imaging control system according to the second embodiment has N earphones 11-1 to 11-N added to the configuration of the first embodiment shown in FIG. and the point that the imaging control device 20 is changed to the imaging control device 20A. Hereinafter, the earphones 11-1 to 11-N may be referred to as the earphones 11 unless the earphones 11-1 to 11-N are specified.

イヤホン11-1~11-Nは、災害現場を撮影するN人の消防隊員にそれぞれ携帯されて装着されるイヤホンであり、撮影指示受信部の一例である。
イヤホン11は、例えば、カメラ10に接続され、カメラ10が撮影制御装置20から無線受信した撮影指示を音声出力する。
The earphones 11-1 to 11-N are earphones carried and worn by N firefighters who photograph the disaster site, and are an example of a photographing instruction receiving unit.
The earphone 11 is connected to the camera 10, for example, and outputs the shooting instruction wirelessly received by the camera 10 from the shooting control device 20 as voice.

なお、イヤホン11自身が無線通信機能を備え、イヤホン11をカメラ10とは独立して設けても良い。
また、イヤホン11の代わりに、別の撮影指示受信部を設けても良い。別の撮影指示受信部としては、例えば、撮影指示を表示するヘッドマウントディスプレイ(Head Mounted Display)等のディスプレイ装置や、撮影指示を投影表示するプロジェクタ等が考えられる。
Note that the earphone 11 itself may have a wireless communication function, and the earphone 11 may be provided independently of the camera 10 .
Also, instead of the earphone 11, another photographing instruction receiving unit may be provided. As another shooting instruction receiving unit, for example, a display device such as a head mounted display that displays shooting instructions, a projector that projects and displays shooting instructions, and the like can be considered.

続いて、図5を参照して、本実施の形態2に係る撮影制御装置20Aの構成について説明する。図5は、本実施の形態2に係る撮影制御装置20Aの構成例を示すブロック図である。
図5に示されるように、本実施の形態2に係る撮影制御装置20Aは、図2に示された実施の形態1の構成と比較して、撮影計画策定部23、撮影指示作成部24、及び、撮影指示送信部25が追加された点が異なる。
Next, the configuration of the imaging control device 20A according to the second embodiment will be described with reference to FIG. FIG. 5 is a block diagram showing a configuration example of an imaging control device 20A according to the second embodiment.
As shown in FIG. 5, the imaging control apparatus 20A according to the second embodiment has a imaging plan formulation unit 23, an imaging instruction generation unit 24, Another difference is that a shooting instruction transmission unit 25 is added.

撮影計画策定部23は、災害現場の3次元マップと、撮影領域特定部21により特定された3次元マップ上の撮影領域と、撮影速度算出部22により算出されたN人の消防隊員の各々の撮影速度と、を用いて、N人の消防隊員毎に、その消防隊員が次の規定時間(例えば、T秒間)に撮影する拠点を示す撮影計画を策定する。すなわち、撮影計画策定部23は、規定時間毎に、撮影計画を策定することになる。なお、撮影計画策定部23は、撮影計画を策定する際に、その他のパラメータ(例えば、消防隊員の移動速度)もさらに用いて、撮影計画を策定しても良い。 The imaging plan formulation unit 23 determines the three-dimensional map of the disaster site, the imaging area on the three-dimensional map specified by the imaging area specifying unit 21, and the N firefighters calculated by the imaging speed calculation unit 22. Using the photographing speed and , a photographing plan is formulated for each of the N firefighters to indicate the bases that the firefighters will photograph in the next specified time (for example, T seconds). In other words, the shooting plan formulating unit 23 formulates a shooting plan every prescribed time. Note that the shooting plan formulating unit 23 may further use other parameters (for example, the movement speed of the fire brigade) to formulate the shooting plan.

撮影指示作成部24は、撮影計画策定部23により策定された撮影計画を用いて、N人の消防隊員毎に、その消防隊員が次の規定時間に撮影する拠点を指示する撮影指示を作成する。 The photographing instruction creating unit 24 uses the photographing plan formulated by the photographing plan formulating unit 23 to create, for each of the N firefighters, a photographing instruction that instructs the base to be photographed by the firefighter at the next specified time. .

撮影指示送信部25は、撮影指示作成部24により作成された撮影指示を、N人の消防隊員の各々のイヤホン11に無線送信する。この撮影指示は、イヤホン11から音声出力されて、消防隊員に伝達される。消防隊員は、次の規定時間には、この撮影指示で指示された拠点において、カメラ10で撮影を行うことになる。 The shooting instruction transmitting unit 25 wirelessly transmits the shooting instruction created by the shooting instruction creating unit 24 to the earphones 11 of each of the N firefighters. This photographing instruction is output as a voice from the earphone 11 and transmitted to the firefighter. At the next prescribed time, the firefighter will take pictures with the camera 10 at the base indicated by this picture taking instruction.

なお、撮影計画は、消防隊員が次の規定時間に撮影する拠点を示すだけでなく、その拠点内の詳細な撮影領域まで示すものであっても良い。その場合、撮影指示は、例えば、カメラ10の位置、パン角、及びチルト角を指示することにより、拠点内の詳細な撮影領域を指示するものであっても良い。 Note that the shooting plan may not only indicate the base where the firefighters will shoot at the next specified time, but also show detailed shooting areas within the base. In that case, the shooting instruction may indicate a detailed shooting area within the base by specifying the position, pan angle, and tilt angle of the camera 10, for example.

また、撮影指示送信部25は、カメラ10が危険を自動検知可能な撮影条件を満たしていない場合(例えば、カメラ10の動きが速く、撮影画像にブラーが発生する場合等)、カメラ10を装着した消防隊員に対し、再撮影の指示を送信しても良い。 In addition, when the camera 10 does not meet the shooting conditions for automatic detection of danger (for example, when the camera 10 moves quickly and the shot image is blurred), the shooting instruction transmission unit 25 mounts the camera 10. You may send the instructions of re-shooting to the firefighter who did.

ここで、図6を参照して、本実施の形態2に係る撮影計画策定部23の構成について詳細に説明する。図6は、本実施の形態2に係る撮影計画策定部23の構成例を示すブロック図である。
図6に示されるように、本実施の形態2に係る撮影計画策定部23は、方針選択部231、候補計画策定部232、候補計画評価部233、及び候補計画選択部234を備えている。
Now, with reference to FIG. 6, the configuration of the imaging plan formulation unit 23 according to the second embodiment will be described in detail. FIG. 6 is a block diagram showing a configuration example of the imaging plan formulation unit 23 according to the second embodiment.
As shown in FIG. 6, the imaging plan formulation unit 23 according to the second embodiment includes a policy selection unit 231, a candidate plan formulation unit 232, a candidate plan evaluation unit 233, and a candidate plan selection unit 234.

方針選択部231は、撮影計画を策定する方針を選択する。ここでは、ある拠点で撮影を開始すると、その拠点の撮影が完了するまで、その拠点の撮影を続けることを前提とする。方針は、例えば、以下が考えられる。
・撮影領域数の最大化:
次の規定時間に消防隊員が撮影する撮影領域数が最大になる方針。
・拠点到達数の最大化:
次の規定時間に消防隊員が到達する拠点数を示す拠点到達数が最大になる方針。
・安全性:
安全性を確保する方針。例えば、1つの拠点を1人で撮影することは不可とし、1つの拠点をX(Xは2以上の自然数)人以上で撮影することのみを可能とする。
The policy selection unit 231 selects a policy for formulating an imaging plan. Here, it is premised that, once photographing is started at a base, the photographing of that base is continued until the photographing of that base is completed. For example, policies may include:
・Maximize the number of shooting areas:
The policy is to maximize the number of areas photographed by firefighters during the next specified time.
・Maximize the number of points reached:
Policy to maximize the number of base arrivals, which indicates the number of bases that firefighters will reach in the next specified time.
·safety:
Policy to ensure safety. For example, it is not allowed for one person to photograph one base, and only X (where X is a natural number equal to or greater than 2) people can photograph one base.

なお、方針選択部231は、1つの方針のみを選択しても良いし、複数の方針の組み合わせを選択しても良い。
また、方針選択部231は、ユーザ(例えば、指揮官)に指示された方針を選択しても良いし、予め決められた方針を選択しても良い。
Note that the policy selection unit 231 may select only one policy, or may select a combination of a plurality of policies.
Also, the policy selection unit 231 may select a policy instructed by a user (for example, a commander), or may select a predetermined policy.

候補計画策定部232は、災害現場の3次元マップと、撮影領域特定部21により特定された3次元マップ上の撮影領域と、を用いて、次の規定時間の撮影計画の候補となる複数の候補計画を策定する。 The candidate plan formulation unit 232 uses the three-dimensional map of the disaster site and the shooting area on the three-dimensional map specified by the shooting area specifying unit 21 to create a plurality of candidates for the shooting plan for the next specified time. Develop a candidate plan.

なお、候補計画策定部232は、方針選択部231により選択された方針によっては、選択された方針をさらに用いて、複数の候補計画を策定する。例えば、方針選択部231により選択された方針に「安全性」が含まれる場合、「安全性」を基準として、1つの拠点をX人以上で撮影する候補計画を複数策定する。 Depending on the policy selected by the policy selection section 231, the candidate plan formulation section 232 further uses the selected policy to formulate a plurality of candidate plans. For example, when "safety" is included in the policy selected by the policy selection unit 231, a plurality of candidate plans for photographing one base with X or more people are formulated with "safety" as a criterion.

候補計画評価部233は、災害現場の3次元マップと、撮影速度算出部22により算出されたN人の消防隊員の撮影速度と、を用いて、候補計画策定部232により策定された複数の候補計画毎に、方針選択部231により選択された方針に応じた評価値を算出する。例えば、方針が「撮影領域数の最大化」であれば、評価値として、撮影領域数を算出し、方針が「拠点到達数の最大化」であれば、評価値として、拠点到達数を算出すれば良い。なお、候補計画評価部233は、評価値を算出する際に、その他のパラメータ(例えば、消防隊員の移動速度)もさらに用いて、評価値を算出しても良い。 The candidate plan evaluation unit 233 uses the three-dimensional map of the disaster site and the shooting speed of the N firefighters calculated by the shooting speed calculation unit 22 to evaluate a plurality of candidates formulated by the candidate plan formulation unit 232. An evaluation value corresponding to the policy selected by the policy selection unit 231 is calculated for each plan. For example, if the policy is "maximize the number of shooting areas", the number of shooting areas is calculated as the evaluation value, and if the policy is "maximize the number of points reached", the number of points reached is calculated as the evaluation value. do it. When calculating the evaluation value, the candidate plan evaluation unit 233 may further use other parameters (for example, the movement speed of the firefighters) to calculate the evaluation value.

候補計画選択部234は、候補計画策定部232により策定された複数の候補計画の中から、候補計画評価部233により算出された評価値が最も高い候補計画を、次の規定時間の撮影計画として選択する。 The candidate plan selection unit 234 selects the candidate plan with the highest evaluation value calculated by the candidate plan evaluation unit 233 from among the plurality of candidate plans formulated by the candidate plan formulation unit 232 as the shooting plan for the next specified time. select.

以下、本実施の形態2に係る撮影計画策定部23における撮影計画の策定方法について、具体例を挙げて説明する。
ここでは、図7に示されるように、以下の構成を前提とする。
・拠点1に集まった3名の消防隊員が、3つの拠点1,2,3を探索する
・拠点nの撮影領域数[個]=Sn(n=1,2,3)
・拠点nと拠点m間の距離[m]=Lnm(n,m=1,2,3、n≠m)
・各消防隊員の撮影速度[個/秒]=vN(N=1,2,3)
・各消防隊員の移動速度[m/秒]=uN(N=1,2,3)
・規定時間[秒]=T
以下、上記の構成を前提とした方針毎の撮影計画の策定方法について説明する。
A specific example will be given below of how the imaging plan formulation unit 23 according to the second embodiment formulates an imaging plan.
Here, as shown in FIG. 7, the following configuration is assumed.
・Three firefighters gathered at base 1 search three bases 1, 2, and 3 ・Number of shooting areas at base n [pieces] = Sn (n = 1, 2, 3)
・Distance between point n and point m [m]=Lnm (n, m=1, 2, 3, n≠m)
・ Shooting speed of each firefighter [pieces/second] = vN (N = 1, 2, 3)
・Moving speed of each firefighter [m/sec] = uN (N = 1, 2, 3)
・Specified time [seconds] = T
A method of formulating a photographing plan for each policy based on the above configuration will be described below.

(1)方針が「撮影領域数の最大化」である場合
最初に、図8及び図9を参照して、方針が「撮影領域数の最大化」である場合の撮影計画の策定方法について説明する。なお、図8及び図9は、方針選択部231が、「撮影領域数の最大化」という方針を選択した後の動作を示している。
(1) When the policy is "maximize the number of imaging areas" First, with reference to Figs. 8 and 9, a method of formulating an imaging plan when the policy is "maximizing the number of imaging areas" will be described. do. 8 and 9 show operations after the policy selection unit 231 selects the policy of "maximizing the number of imaging areas".

図8に示されるように、方針選択部231が「撮影領域数の最大化」という方針を選択すると、まず、候補計画策定部232は、次のT秒間の撮影計画の候補となる複数の候補計画を策定する(ステップS201)。図8の例では、9つの候補計画が策定されている。 As shown in FIG. 8, when the policy selection unit 231 selects the policy of “maximizing the number of imaging areas”, the candidate plan formulation unit 232 first selects a plurality of candidates for the imaging plan for the next T seconds. A plan is formulated (step S201). In the example of FIG. 8, nine candidate plans are formulated.

続いて、候補計画評価部233は、候補計画策定部232により策定された9つの候補計画毎に、次のT秒間で撮影が完了する撮影領域数を算出する(ステップS202)。図8の例では、候補計画2.の撮影領域数は、拠点1を消防隊員1,2が、拠点2を消防隊員3が撮影する場合の数値である。また、候補計画3.の撮影領域数は、拠点1を消防隊員1,2が、拠点3を消防隊員3が撮影する場合の数値である。また、候補計画4.の撮影領域数は、拠点1を消防隊員1が、拠点2を消防隊員2,3が撮影する場合の数値である。また、候補計画5.の撮影領域数は、拠点1を消防隊員1が、拠点2を消防隊員2が、拠点3を消防隊員3が撮影する場合の数値である。また、候補計画7.の撮影領域数は、拠点2を消防隊員1,2が、拠点3を消防隊員3が撮影する場合の数値である。また、候補計画8.の撮影領域数は、拠点2を消防隊員1が、拠点3を消防隊員2,3が撮影する場合の数値である。また、複数の消防隊員が移動する場合、移動速度が最も遅い消防隊員の移動速度を用いて、移動時間を算出するものとする。 Subsequently, the candidate plan evaluation unit 233 calculates the number of photographing areas that will be photographed in the next T seconds for each of the nine candidate plans formulated by the candidate plan formulating unit 232 (step S202). In the example of FIG. 8, candidate plan 2. is a numerical value when base 1 is photographed by firefighters 1 and 2 and base 2 is photographed by firefighter 3 . Also, the candidate plan 3. is a numerical value when base 1 is photographed by firefighters 1 and 2 and base 3 is photographed by firefighter 3 . Also, candidate plan 4. is a numerical value when base 1 is photographed by fire brigade member 1 and base 2 is photographed by fire brigade members 2 and 3 . Also, the candidate plan 5. is a numerical value when firefighter 1 shoots base 1, firefighter 2 shoots base 2, and firefighter 3 shoots base 3. Also, the candidate plan 7. is a numerical value when base 2 is photographed by firefighters 1 and 2 and base 3 is photographed by firefighter 3 . Also, candidate plans8. is a numerical value when base 2 is photographed by fire brigade member 1 and base 3 is photographed by fire brigade members 2 and 3 . Also, when a plurality of firefighters move, the movement time is calculated using the movement speed of the firefighter whose movement speed is the slowest.

その後、候補計画選択部234は、候補計画策定部232により策定された9つの候補計画の中から、候補計画評価部233により算出された撮影領域数が最大となる候補計画を選択する(ステップS203)。図8の例では、候補計画1.(拠点1を3人で撮影する計画)が選択されている。ここでは、(v1+v2+v3)T<S1であるとする。このことは、拠点1を3人の消防隊員でT秒間撮影しても、拠点1の撮影が完了しないことを示している。そのため、T秒後に撮影を完了した撮影領域数S’が、S’<(S1+S2+S3)である場合、続いて、以下を実行する。 After that, the candidate plan selection unit 234 selects the candidate plan that maximizes the number of imaging regions calculated by the candidate plan evaluation unit 233 from among the nine candidate plans formulated by the candidate plan formulation unit 232 (step S203). ). In the example of FIG. 8, candidate plans 1 . (A plan to photograph base 1 by three people) is selected. Here, it is assumed that (v1+v2+v3)T<S1. This indicates that even if three firefighters shoot the site 1 for T seconds, the shooting of the site 1 is not completed. Therefore, when the number S' of photographing areas for which photographing is completed after T seconds satisfies S'<(S1+S2+S3), the following is executed.

すなわち、図9に示されるように、候補計画策定部232は、次のT秒間の撮影計画の候補として、拠点1を撮影対象に含む複数の候補計画を策定する(ステップS204)。図9の例では、5つの候補計画が策定されている。 That is, as shown in FIG. 9, the candidate plan formulating unit 232 formulates a plurality of candidate plans including the site 1 as a photographing target for the next T seconds (step S204). In the example of FIG. 9, five candidate plans are formulated.

続いて、候補計画評価部233は、候補計画策定部232により策定された5つの候補計画毎に、次のT秒間で撮影が完了する撮影領域数を算出する(ステップS205)。図9の例では、候補計画2.~5.の撮影領域数の数値は、図8の候補計画2.~5.と同様に、消防隊員を配置した場合の数値である。 Subsequently, the candidate plan evaluation unit 233 calculates the number of photographing areas that will be photographed in the next T seconds for each of the five candidate plans formulated by the candidate plan formulation unit 232 (step S205). In the example of Figure 9, the candidate plan 2. ~ 5. The numerical value of the number of photographing areas is the candidate plan 2. in FIG. ~ 5. As with , this is a numerical value when firefighters are deployed.

その後、候補計画選択部234は、候補計画策定部232により策定された5つの候補計画の中から、候補計画評価部233により算出された撮影領域数が最大となる候補計画を選択する(ステップS206)。図9の例では、候補計画2.(拠点1を2人で、拠点2を1人で撮影する計画)が選択されている。ここでは、S’+(v1+v2)T<S1<S’+(v1+v2+v3)Tであるとする。 After that, the candidate plan selection unit 234 selects the candidate plan that maximizes the number of imaging regions calculated by the candidate plan evaluation unit 233 from among the five candidate plans formulated by the candidate plan formulation unit 232 (step S206). ). In the example of Figure 9, the candidate plan 2. (A plan to shoot base 1 with two people and base 2 with one person) is selected. Here, it is assumed that S'+(v1+v2)T<S1<S'+(v1+v2+v3)T.

(2)方針が「拠点到達数の最大化」である場合
続いて、図10を参照して、方針が「拠点到達数の最大化」である場合の撮影計画の策定方法について説明する。なお、図10は、方針選択部231が、「拠点到達数の最大化」という方針を選択した後の動作を示している。
(2) When the Policy is “Maximize the Number of Arrivals at a Base” Next, with reference to FIG. 10, a method of formulating a shooting plan when the policy is “maximization of the number of arrivals at a base” will be described. Note that FIG. 10 shows the operation after the policy selection unit 231 selects the policy of "maximizing the number of points reached".

図10に示されるように、方針選択部231が「拠点到達数の最大化」という方針を選択すると、まず、候補計画策定部232は、次のT秒間の撮影計画の候補となる複数の候補計画を策定する(ステップS301)。図10の例では、9つの候補計画が策定されている。 As shown in FIG. 10, when the policy selection unit 231 selects the policy of “maximizing the number of base arrivals”, first, the candidate plan formulation unit 232 selects a plurality of candidates for the shooting plan for the next T seconds. A plan is formulated (step S301). In the example of FIG. 10, nine candidate plans are formulated.

続いて、候補計画評価部233は、候補計画策定部232により策定された9つの候補計画毎に、次のT秒間で消防隊員が到達する拠点到達数を算出する(ステップS302)。 Subsequently, the candidate plan evaluation unit 233 calculates the number of sites reached by the firefighters in the next T seconds for each of the nine candidate plans formulated by the candidate plan formulation unit 232 (step S302).

その後、候補計画選択部234は、候補計画策定部232により策定された9つの候補計画の中から、候補計画評価部233により算出された拠点到達数が最大となる候補計画を選択する(ステップS303)。図10の例では、拠点到達数が最大の3となる候補計画5.(拠点1を1人、拠点2を1人、拠点3を1人で撮影する計画)が選択されている。 After that, the candidate plan selection unit 234 selects the candidate plan that maximizes the number of base arrivals calculated by the candidate plan evaluation unit 233 from among the nine candidate plans formulated by the candidate plan formulation unit 232 (step S303). ). In the example of FIG. 10, the candidate plan 5. which has the maximum number of base arrivals of 3. (A plan to photograph base 1 by one person, base 2 by one person, and base 3 by one person) is selected.

(3)方針が「撮影領域数の最大化」及び「安全性」の組み合わせである場合
続いて、図11を参照して、方針が「撮影領域数の最大化」及び「安全性」の組み合わせである場合の撮影計画の策定方法について説明する。なお、図11は、方針選択部231が、「撮影領域数の最大化」及び「安全性」の組み合わせという方針を選択した後の動作を示している。
(3) When the policy is a combination of "maximization of the number of imaging areas" and "safety" Next, referring to FIG. 11, the policy is a combination of "maximizing the number of imaging areas" and "safety" A method of formulating a photographing plan in the case of . Note that FIG. 11 shows the operation after the policy selection unit 231 selects a policy of combining "maximization of the number of imaging regions" and "safety".

図11に示されるように、方針選択部231が「撮影領域数の最大化」及び「安全性」の組み合わせという方針を選択すると、まず、候補計画策定部232は、「安全性」を基準として、次のT秒間の撮影計画の候補となる複数の候補計画を策定する(ステップS401)。図11の例では、「安全性」の基準が1つの拠点を3人以上で撮影するという基準になっている場合の例であり、3つの候補計画が策定されている。 As shown in FIG. 11 , when the policy selection unit 231 selects a policy of combining “maximization of the number of imaging areas” and “safety”, first, the candidate plan formulation unit 232 selects , a plurality of candidate plans for the next T seconds of shooting plans are formulated (step S401). The example of FIG. 11 is an example in which the standard of "safety" is the standard that three or more people photograph one base, and three candidate plans are formulated.

続いて、候補計画評価部233は、候補計画策定部232により策定された3つの候補計画毎に、次のT秒間で撮影が完了する撮影領域数を算出する(ステップS402)。 Subsequently, the candidate plan evaluation unit 233 calculates the number of photographing areas that will be photographed in the next T seconds for each of the three candidate plans formulated by the candidate plan formulating unit 232 (step S402).

その後、候補計画選択部234は、候補計画策定部232により策定された3つの候補計画の中から、候補計画評価部233により算出された撮影領域数が最大となる候補計画を選択する(ステップS403)。図11の例では、候補計画1.(拠点1を3人で撮影する計画)が選択されている。 After that, the candidate plan selection unit 234 selects the candidate plan that maximizes the number of imaging regions calculated by the candidate plan evaluation unit 233 from among the three candidate plans formulated by the candidate plan formulation unit 232 (step S403). ). In the example of FIG. 11, candidate plans 1 . (A plan to photograph base 1 by three people) is selected.

続いて、図12を参照して、本実施の形態2に係る撮影制御装置20Aの動作フローについて説明する。図12は、本実施の形態2に係る撮影制御装置20Aの動作フロー例を示すフロー図である。なお、図12のステップS503以降の処理は、規定時間毎に行われるものとする。 Next, with reference to FIG. 12, an operational flow of the imaging control device 20A according to the second embodiment will be described. FIG. 12 is a flowchart showing an operation flow example of the imaging control device 20A according to the second embodiment. It should be noted that the processing after step S503 in FIG. 12 is performed at regular time intervals.

図12に示されるように、まず、図3に示したステップS101,S102と同様のステップS501,S502の処理が行われる。 As shown in FIG. 12, first, steps S501 and S502 similar to steps S101 and S102 shown in FIG. 3 are performed.

続いて、撮影計画策定部23は、災害現場の3次元マップと、撮影領域特定部21により特定されたN人の消防隊員で撮影を完了した3次元マップ上の撮影領域と、撮影速度算出部22により算出されたN人の消防隊員の撮影速度と、を用いて、N人の消防隊員毎に、その消防隊員が次の規定時間に撮影する拠点を示す撮影計画を策定する(ステップS503)。 Subsequently, the imaging plan formulation unit 23 determines the three-dimensional map of the disaster site, the imaging area on the three-dimensional map in which the N firefighters identified by the imaging area identification unit 21 completed imaging, and the imaging speed calculation unit. 22, and the imaging speed of the N firefighters calculated in step S503, for each of the N firefighters, a shooting plan indicating the bases where the firefighters will shoot at the next prescribed time is formulated (step S503). .

続いて、撮影指示作成部24は、撮影計画策定部23により策定された撮影計画を用いて、N人の消防隊員毎に、その消防隊員が次の規定時間に撮影する拠点を指示する撮影指示を作成する(ステップS504)。 Subsequently, the photographing instruction creating unit 24 uses the photographing plan formulated by the photographing plan formulating unit 23 to instruct, for each of the N firefighters, a base where the firefighter will photograph at the next specified time. (step S504).

その後、撮影指示送信部25は、撮影指示作成部24により作成された撮影指示を、N人の消防隊員の各々に装着されたイヤホン11に無線送信する(ステップS505)。この撮影指示は、イヤホン11から音声出力され、消防隊員に伝達される。消防隊員は、次の規定時間には、この撮影指示で指示された拠点において、カメラ10で撮影を行うことになる。 After that, the photographing instruction transmitting unit 25 wirelessly transmits the photographing instruction created by the photographing instruction creating unit 24 to the earphones 11 worn by each of the N firefighters (step S505). This photographing instruction is voice-output from the earphone 11 and transmitted to the firefighters. At the next prescribed time, the firefighter will take pictures with the camera 10 at the base indicated by this picture taking instruction.

上述したように本実施の形態2によれば、撮影計画策定部23は、災害現場の3次元マップと、撮影領域特定部21により特定された3次元マップ上の撮影領域と、撮影速度算出部22により算出されたN人の消防隊員の各々の撮影速度と、を用いて、N人の消防隊員毎に、その消防隊員が次の規定時間に撮影する拠点を示す撮影計画を策定する。 As described above, according to the second embodiment, the imaging plan formulation unit 23 uses the three-dimensional map of the disaster site, the imaging area on the three-dimensional map specified by the imaging area specifying unit 21, the imaging speed calculation unit Using the photographing speed of each of the N firefighters calculated by 22, a photographing plan is formulated for each of the N firefighters that indicates the bases to be photographed by the firefighter at the next specified time.

したがって、災害現場を撮影するN人の消防隊員の各々の撮影スキルに応じて、消防隊員を最適な位置に効率よく配置した撮影計画を策定することができる。これにより、消防隊員の撮影スキルのばらつきに起因して、複数の消防隊員が重複して撮影する場所が発生し時間ロスが発生したり、ある場所について互いに他の消防隊員が撮影済みであると勘違いして撮影漏れが生じたりすることを回避できる。 Therefore, according to the shooting skill of each of the N firefighters who shoot the disaster site, it is possible to formulate a shooting plan in which the firefighters are efficiently arranged at optimal positions. As a result, due to variations in the shooting skills of firefighters, there may be places where multiple firefighters take duplicate shots, resulting in time loss. It is possible to avoid the occurrence of omission of shooting due to misunderstanding.

<実施の形態3>
続いて、図13を参照して、本実施の形態3に係る撮影制御システムの構成について説明する。図13は、本実施の形態3に係る撮影制御システムの構成例を示す図である。
図13に示されるように、本実施の形態3に係る撮影制御システムは、図4に示された実施の形態2の構成と比較して、N台のマイク12-1~12-N及びタブレット端末30が追加された点と、撮影制御装置20Aが撮影制御装置20Bに変更された点と、が異なる。以下、どのマイク12-1~12-Nであるかを特定しない場合は、マイク12と称することがある。
<Embodiment 3>
Next, with reference to FIG. 13, the configuration of the imaging control system according to the third embodiment will be described. FIG. 13 is a diagram showing a configuration example of an imaging control system according to the third embodiment.
As shown in FIG. 13, the imaging control system according to the third embodiment has N microphones 12-1 to 12-N and tablet 12-1 to 12-N as compared with the configuration of the second embodiment shown in FIG. The difference is that the terminal 30 is added and the imaging control device 20A is changed to the imaging control device 20B. Hereinafter, the microphones 12-1 to 12-N may be referred to as the microphones 12 unless the microphones 12-1 to 12-N are specified.

マイク12-1~12-Nは、災害現場を撮影するN人の消防隊員にそれぞれ携帯されて装着されるマイクである。
マイク12は、例えば、カメラ10に接続され、集音した音声をカメラ10を介して撮影制御装置20に無線送信する。
なお、マイク12自身が無線通信機能を備え、マイク12をカメラ10とは独立して設けても良い。
The microphones 12-1 to 12-N are microphones carried and worn by N firefighters who photograph the disaster site.
The microphone 12 is connected to the camera 10 , for example, and wirelessly transmits collected sound to the imaging control device 20 via the camera 10 .
Note that the microphone 12 itself may have a wireless communication function, and the microphone 12 may be provided independently of the camera 10 .

タブレット端末30は、災害現場を指揮する指揮官に携帯されるタブレット端末である。タブレット端末30は、無線通信機能を備えており、撮影制御装置20から無線送信された、後述の撮影結果を無線受信し、表示することが可能であるとする。なお、無線通信方式は、カメラ10と同様に、任意の方式で良い。 The tablet terminal 30 is a tablet terminal carried by a commander who directs the disaster site. The tablet terminal 30 has a wireless communication function, and is capable of wirelessly receiving and displaying an imaging result, which is wirelessly transmitted from the imaging control device 20 and will be described later. As with the camera 10, any wireless communication system may be used.

続いて、図14を参照して、本実施の形態3に係る撮影制御装置20Bの構成について説明する。図14は、本実施の形態3に係る撮影制御装置20Bの構成例を示すブロック図である。
図14に示されるように、本実施の形態3に係る撮影制御装置20Bは、図5に示された実施の形態2の構成と比較して、危険事象検出部26及び撮影結果送信部27が追加された点が異なる。
Next, with reference to FIG. 14, the configuration of the imaging control device 20B according to the third embodiment will be described. FIG. 14 is a block diagram showing a configuration example of an imaging control device 20B according to the third embodiment.
As shown in FIG. 14, the imaging control device 20B according to the third embodiment has a dangerous event detection unit 26 and an imaging result transmission unit 27, which are different from the configuration of the second embodiment shown in FIG. The difference is the added point.

危険事象検出部26は、撮影領域特定部21により特定された3次元マップ上の撮影領域でカメラ10により撮影された撮影画像を画像認識すると共に、その撮影領域でマイク12により集音された音声を音声認識し、画像認識及び音声認識の結果を用いて、その撮影領域で発生した危険事象を検出する。例えば、危険事象検出部26は、カメラ10で撮影された撮影画像の画像認識結果を用いて、煙や炎、オイル漏れ、電線の断絶、崩落危険性(救助活動に支障をきたす危険な場所)、救助を待つ人(優先的に救助を実施すべき場所)を自動検出しても良い。また、危険事象検出部26は、マイク12で集音された音声の音声認識結果を用いて、視覚的には解らないが、消防隊員が気づいて声で指摘した危険(異臭や異音)を、消防隊員の声から自動検出しても良い。また、危険事象検出部26は、画像認識結果を用いて検出した危険の補助情報を、音声から自動検出しても良い(例えば、カメラ10を危険個所に向けながら「ここが崩落しそうで危険」と発話する等)。また、危険事象検出部26は、複数の消防隊員のマイク12が捉えた音(例えば、爆発音や助けを呼ぶ声等)を用いて、危険事象が発生した音源の方向を自動推定しても良い。 The dangerous event detection unit 26 recognizes the image captured by the camera 10 in the shooting area on the three-dimensional map specified by the shooting area specifying unit 21, and also recognizes the sound collected by the microphone 12 in the shooting area. is voice-recognized, and the result of image recognition and voice recognition is used to detect a dangerous event occurring in the shooting area. For example, the dangerous event detection unit 26 uses the image recognition result of the captured image captured by the camera 10 to detect smoke, flames, oil leaks, disconnection of electric wires, and danger of collapse (dangerous places that hinder rescue activities). , people waiting for rescue (places where rescue should be given priority) may be automatically detected. In addition, the dangerous event detection unit 26 uses the voice recognition result of the voice collected by the microphone 12 to detect dangers (unusual smells and noises) that firefighters have noticed and voiced, although they cannot be visually understood. , may be automatically detected from the voice of firefighters. In addition, the dangerous event detection unit 26 may automatically detect the auxiliary information of the danger detected using the image recognition result from the voice (for example, while pointing the camera 10 at the dangerous place, "This place is likely to collapse and it is dangerous"). etc.). In addition, the dangerous event detection unit 26 can automatically estimate the direction of the sound source where the dangerous event occurred using sounds captured by the microphones 12 of a plurality of firefighters (for example, sounds of explosions, calls for help, etc.). good.

撮影結果送信部27は、3次元マップ上に、撮影領域特定部21により特定された撮影領域を色付け等により識別可能に重畳した撮影結果を作成し、作成された撮影結果を指揮官が携帯するタブレット端末30に無線送信する。また、撮影結果送信部27は、3次元マップ上に、危険事象検出部26により検出された危険事象が発生した領域を色付け等により識別可能にさらに重畳した撮影結果を作成しても良い。この撮影結果は、タブレット端末30に表示され、指揮官に確認される。指揮官は、この撮影結果を確認して、災害現場の救助活動の方針を定めることになる。 The photographing result transmitting unit 27 creates a photographing result in which the photographing areas specified by the photographing area specifying unit 21 are superimposed on the three-dimensional map so as to be identifiable by coloring or the like, and the created photographing result is carried by the commander. It is wirelessly transmitted to the tablet terminal 30 . In addition, the photographing result transmitting unit 27 may create a photographing result in which regions in which the dangerous event detected by the dangerous event detecting unit 26 has occurred are superimposed on the three-dimensional map so as to be identifiable by coloring or the like. This shooting result is displayed on the tablet terminal 30 and confirmed by the commander. The commander confirms the results of this photographing and decides the policy of rescue activities at the disaster site.

なお、本実施の形態3では、撮影結果送信部27が撮影結果を送信する送信先は、指揮官が携帯するタブレット端末30であるものとして説明するが、これには限られない。災害現場の状況は、指揮官以外にも、例えば、消防署、警察署、病院等でも迅速に確認したいという要求がある。そのため、撮影結果の送信先は、指揮官が携帯するタブレット端末30以外にも、消防署、警察署、病院の端末等、予め設定された送信先であれば良い。 In the third embodiment, it is assumed that the destination to which the photographing result transmission unit 27 transmits the photographing result is the tablet terminal 30 carried by the commander, but the destination is not limited to this. In addition to commanders, for example, fire departments, police stations, hospitals, etc. are also requested to quickly check the situation at the disaster site. Therefore, the transmission destination of the photographing result may be a preset transmission destination such as a terminal of a fire station, a police station, a hospital, etc., in addition to the tablet terminal 30 carried by the commander.

また、撮影結果送信部27は、災害現場の全ての拠点の撮影が完了した場合、その旨を、N人の消防隊員がそれぞれ装着するイヤホン11に無線送信しても良い。 In addition, when the photographing of all bases of the disaster site is completed, the photographing result transmission unit 27 may wirelessly transmit a message to that effect to the earphones 11 worn by each of the N firefighters.

続いて、図15を参照して、本実施の形態3に係る撮影制御装置20Bの動作フローについて説明する。図15は、本実施の形態3に係る撮影制御装置20Bの動作フロー例を示すフロー図である。 Next, with reference to FIG. 15, the operation flow of the imaging control device 20B according to the third embodiment will be described. FIG. 15 is a flowchart showing an operation flow example of the imaging control device 20B according to the third embodiment.

図15に示されるように、まず、図3に示したステップS101と同様のステップS601の処理が行われる。
続いて、危険事象検出部26は、撮影領域特定部21により特定された撮影領域内に発生した危険事象を検出する(ステップS602)。
As shown in FIG. 15, first, the process of step S601 similar to step S101 shown in FIG. 3 is performed.
Subsequently, the dangerous event detection unit 26 detects a dangerous event that has occurred within the imaging area identified by the imaging area identification unit 21 (step S602).

続いて、撮影結果送信部27は、3次元マップ上に、撮影領域特定部21により特定された撮撮影領域や、危険事象検出部26により検出された危険事象が発生した領域を、色付け等により識別可能に重畳した撮影結果を作成する(ステップS603)。 Subsequently, the imaging result transmission unit 27 displays the imaging area specified by the imaging area specifying unit 21 and the area where the dangerous event detected by the dangerous event detection unit 26 occurs on the three-dimensional map by coloring. An identifiably superimposed imaging result is created (step S603).

その後、撮影結果送信部27は、作成された撮影結果を、指揮官が携帯するタブレット端末30に無線送信する(ステップS604)。この撮影結果は、タブレット端末30に表示され、指揮官に確認される。指揮官は、この撮影結果を確認して、災害現場の救助活動の方針を定めることになる。 After that, the shooting result transmission unit 27 wirelessly transmits the created shooting result to the tablet terminal 30 carried by the commander (step S604). This shooting result is displayed on the tablet terminal 30 and confirmed by the commander. The commander confirms the results of this photographing and decides the policy of rescue activities at the disaster site.

なお、本実施の形態3に係る撮影制御装置20Bは、図15の動作フローと並行して、上述の実施の形態2で説明した図12の動作フローも行うものとする。 Note that the imaging control apparatus 20B according to the third embodiment also performs the operation flow of FIG. 12 described in the second embodiment in parallel with the operation flow of FIG.

上述したように本実施の形態3によれば、撮影結果送信部27は、3次元マップ上に、撮影を完了した撮影領域や、危険事象が発生した領域を識別可能に重畳した撮影結果を作成し、作成された撮影結果を、指揮官が携帯するタブレット端末30に無線送信する。 As described above, according to the third embodiment, the photographing result transmission unit 27 creates photographing results in which the photographing area in which photographing has been completed and the area in which a dangerous event has occurred are identifiably superimposed on the three-dimensional map. Then, the created shooting result is wirelessly transmitted to the tablet terminal 30 carried by the commander.

したがって、指揮官は、災害現場の救助活動の方針を定めるに際して、危険事象が発生した領域を視覚的に判断することができる。また、ここで検出された危険事象は、画像認識等により自動で検出されたものであるため、検出精度を一定水準に保つことができる。 Therefore, the commander can visually determine the area where the dangerous event occurred when determining the policy of the rescue operation at the disaster site. Moreover, since the dangerous event detected here is automatically detected by image recognition or the like, detection accuracy can be maintained at a constant level.

<各実施の形態に係る撮影制御装置のハードウェア構成> <Hardware Configuration of Shooting Control Apparatus According to Each Embodiment>

続いて、図16を参照して、上述の実施の形態1,2,3に係る撮影制御装置20,20A,20Bを実現するコンピュータ40のハードウェア構成を示す。図16は、上述の実施の形態1,2,3に係る撮影制御装置20,20A,20Bを実現するコンピュータ40のハードウェア構成例を示すブロック図である。 Next, FIG. 16 shows the hardware configuration of a computer 40 that implements the imaging control devices 20, 20A and 20B according to the first, second and third embodiments described above. FIG. 16 is a block diagram showing an example hardware configuration of a computer 40 that implements the imaging control devices 20, 20A, and 20B according to the first, second, and third embodiments described above.

図16に示されるように、上述の実施の形態1,2,3に係る撮影制御装置20,20A,20Bは、コンピュータ40で実現することができる。コンピュータ40は、プロセッサ41、メモリ42、ストレージ43、入出力インタフェース(入出力I/F)44、及び通信インタフェース(通信I/F)45等を備えている。プロセッサ41、メモリ42、ストレージ43、入出力インタフェース44、及び通信インタフェース45は、相互にデータを送受信するためのデータ伝送路で接続されている。 As shown in FIG. 16, the imaging control devices 20, 20A, and 20B according to the first, second, and third embodiments described above can be realized by a computer 40. FIG. The computer 40 includes a processor 41, a memory 42, a storage 43, an input/output interface (input/output I/F) 44, a communication interface (communication I/F) 45, and the like. The processor 41, the memory 42, the storage 43, the input/output interface 44, and the communication interface 45 are connected by a data transmission path for mutually transmitting and receiving data.

プロセッサ41は、例えばCPU(Central Processing Unit)やGPU(Graphics Processing Unit)等の演算処理装置である。メモリ42は、例えばRAM(Random Access Memory)やROM(Read Only Memory)等のメモリである。ストレージ43は、例えばHDD(Hard Disk Drive)、SSD(Solid State Drive)、又はメモリカード等の記憶装置である。また、ストレージ43は、RAMやROM等のメモリであっても良い。 The processor 41 is, for example, an arithmetic processing device such as a CPU (Central Processing Unit) or a GPU (Graphics Processing Unit). The memory 42 is, for example, a memory such as a RAM (Random Access Memory) or a ROM (Read Only Memory). The storage 43 is, for example, a storage device such as a HDD (Hard Disk Drive), an SSD (Solid State Drive), or a memory card. Also, the storage 43 may be a memory such as a RAM or a ROM.

ストレージ43は、撮影制御装置20,20A,20Bが備える各構成要素(撮影領域特定部21、撮影速度算出部22、撮影計画策定部23、撮影指示作成部24、撮影指示送信部25、危険事象検出部26、及び撮影結果送信部27等)の機能を実現するプログラムを記憶している。プロセッサ41は、これら各プログラムを実行することで、撮影制御装置20が備える各構成要素の機能をそれぞれ実現する。ここで、プロセッサ41は、上記各プログラムを実行する際、これらのプログラムをメモリ42上に読み出してから実行しても良いし、メモリ42上に読み出さずに実行しても良い。 The storage 43 stores each component of the imaging control devices 20, 20A, and 20B (the imaging region specifying unit 21, the imaging speed calculator 22, the imaging plan formulation unit 23, the imaging instruction creating unit 24, the imaging instruction transmitting unit 25, the dangerous event A program that realizes the functions of the detection unit 26, the imaging result transmission unit 27, etc.) is stored. The processor 41 realizes the function of each component of the imaging control device 20 by executing each program. Here, when executing each of the above programs, the processor 41 may execute these programs after reading them onto the memory 42 , or may execute them without reading them onto the memory 42 .

また、上述したプログラムは、様々なタイプの非一時的なコンピュータ可読媒体(non-transitory computer readable medium)を用いて格納され、コンピュータ(コンピュータ40を含む)に供給することができる。非一時的なコンピュータ可読媒体は、様々なタイプの実体のある記録媒体(tangible storage medium)を含む。非一時的なコンピュータ可読媒体の例は、磁気記録媒体(例えば、フレキシブルディスク、磁気テープ、ハードディスクドライブ)、光磁気記録媒体(例えば、光磁気ディスク)、CD-ROM(Compact Disc-Read Only Memory)、CD-R(CD-Recordable)、CD-R/W(CD-ReWritable)、半導体メモリ(例えば、マスクROM、PROM(Programmable ROM)、EPROM(Erasable PROM)、フラッシュROM、RAM(Random Access Memory))を含む。また、プログラムは、様々なタイプの一時的なコンピュータ可読媒体(transitory computer readable medium)によってコンピュータに供給されてもよい。一時的なコンピュータ可読媒体の例は、電気信号、光信号、及び電磁波を含む。一時的なコンピュータ可読媒体は、電線及び光ファイバ等の有線通信路、又は無線通信路を介して、プログラムをコンピュータに供給できる。 Also, the programs described above can be stored and provided to computers (including computer 40) using various types of non-transitory computer readable media. Non-transitory computer-readable media include various types of tangible storage media. Examples of non-transitory computer-readable media include magnetic recording media (e.g., flexible discs, magnetic tapes, hard disk drives), magneto-optical recording media (e.g., magneto-optical discs), CD-ROMs (Compact Disc-Read Only Memory) , CD-R (CD-Recordable), CD-R/W (CD-ReWritable), semiconductor memory (e.g. mask ROM, PROM (Programmable ROM), EPROM (Erasable PROM), flash ROM, RAM (Random Access Memory) )including. The program may also be delivered to the computer on various types of transitory computer readable medium. Examples of transitory computer-readable media include electrical signals, optical signals, and electromagnetic waves. Transitory computer-readable media can deliver the program to the computer via wired channels, such as wires and optical fibers, or wireless channels.

入出力インタフェース44は、不図示の表示装置や入力装置等と接続される。表示装置は、例えば、LCD(Liquid Crystal Display)やCRT(Cathode Ray Tube)ディスプレイのような、プロセッサ41により処理された描画データに対応する画面を表示する装置である。また、入力装置は、例えば、オペレータの操作入力を受け付ける装置であり、例えば、キーボード、マウス、およびタッチセンサなどである。表示装置及び入力装置は一体化され、タッチパネルとして実現されていても良い。 The input/output interface 44 is connected to a display device, an input device, and the like (not shown). The display device is a device that displays a screen corresponding to drawing data processed by the processor 41, such as an LCD (Liquid Crystal Display) or a CRT (Cathode Ray Tube) display. Also, the input device is, for example, a device that receives operator input, such as a keyboard, a mouse, and a touch sensor. The display device and the input device may be integrated and implemented as a touch panel.

通信インタフェース45は、外部の装置との間でデータを送受信する。例えば、通信インタフェース45は、有線ネットワーク又は無線ネットワークを介して外部装置と通信する。 A communication interface 45 transmits and receives data to and from an external device. For example, the communication interface 45 communicates with external devices via a wired network or a wireless network.

以上、実施の形態を参照して本開示を説明したが、本開示は上記の実施の形態に限定されるものではない。本開示の構成や詳細には、本開示のスコープ内で当業者が理解し得る様々な変更をすることができる。 Although the present disclosure has been described above with reference to the embodiments, the present disclosure is not limited to the above embodiments. Various changes that can be understood by those skilled in the art can be made to the configuration and details of the present disclosure within the scope of the present disclosure.

例えば、上述の実施の形態においては、災害現場のマップが3次元マップであるものとして説明したが、これには限定されない。本開示は、災害現場のマップが2次元マップである場合にも適用可能である。 For example, in the above-described embodiment, the map of the disaster site was explained as being a three-dimensional map, but it is not limited to this. The present disclosure is also applicable when the map of the disaster site is a two-dimensional map.

10-1~10-N カメラ
11-1~11-N イヤホン
12-1~12-N マイク
20,20A,20B 撮影制御装置
21 撮影領域特定部
22 撮影速度算出部
23 撮影計画策定部
231 方針選択部
232 候補計画策定部
233 候補計画評価部
234 候補計画選択部
24 撮影指示作成部
25 撮影指示送信部
26 危険事象検出部
27 撮影結果送信部
30 タブレット端末
40 コンピュータ
41 プロセッサ
42 メモリ
43 ストレージ
44 入出力インタフェース(入出力I/F)
45 及び通信インタフェース(通信I/F)
10-1 to 10-N Camera 11-1 to 11-N Earphone 12-1 to 12-N Microphone 20, 20A, 20B Shooting control device 21 Shooting area specifying unit 22 Shooting speed calculating unit 23 Shooting plan formulation unit 231 Policy selection Unit 232 Candidate plan formulation unit 233 Candidate plan evaluation unit 234 Candidate plan selection unit 24 Photographing instruction creation unit 25 Photographing instruction transmission unit 26 Dangerous event detection unit 27 Photographing result transmission unit 30 Tablet terminal 40 Computer 41 Processor 42 Memory 43 Storage 44 Input/output Interface (input/output I/F)
45 and communication interface (communication I/F)

Claims (9)

災害現場のマップと、前記災害現場をカメラで撮影する複数の作業者がそれぞれ携帯するカメラの位置、パン角、及びチルト角と、を用いて、前記複数の作業者毎に、該作業者がカメラで撮影を完了した前記マップ上の撮影領域を特定する撮影領域特定部と、
前記複数の作業者毎に、該作業者が単位時間あたりにカメラで撮影を完了した前記マップ上の撮影領域の数を示す撮影速度を算出する撮影速度算出部と、
を備える、撮影制御装置。
Using a map of the disaster site and the positions, pan angles, and tilt angles of the cameras carried by each of the workers who photograph the disaster site, a photographing area identification unit that identifies a photographing area on the map that has been photographed by a camera;
a photographing speed calculation unit that calculates, for each of the plurality of workers, a photographing speed indicating the number of photographing areas on the map that the worker has completed photographing with a camera per unit time;
A shooting control device comprising:
前記マップと、前記撮影領域特定部により特定された撮影領域と、前記撮影速度算出部により算出された前記複数の作業者の各々の撮影速度と、を用いて、前記複数の作業者毎に、該作業者が次の規定時間に撮影を行う前記災害現場の拠点を示す撮影計画を策定する撮影計画策定部と、
前記撮影計画策定部により策定された撮影計画を用いて、前記複数の作業者毎に、該作業者が次の規定時間に撮影を行う拠点を指示する撮影指示を作成する撮影指示作成部と、
前記撮影指示作成部により作成された撮影指示を、前記複数の作業者がそれぞれ携帯する撮影指示受信部に送信する撮影指示送信部と、
をさらに備える、請求項1に記載の撮影制御装置。
For each of the plurality of workers, using the map, the imaging region specified by the imaging region specifying unit, and the imaging speed of each of the plurality of workers calculated by the imaging speed calculation unit, a photography plan formulating unit that formulates a photography plan showing the base of the disaster site where the worker will photograph at the next specified time;
a photographing instruction creating unit that creates, for each of the plurality of workers, a photographing instruction that designates a base where the worker will photograph at the next specified time, using the photographing plan formulated by the photographing plan formulating unit;
a photographing instruction transmitting unit configured to transmit the photographing instruction created by the photographing instruction creating unit to a photographing instruction receiving unit carried by each of the plurality of workers;
The imaging control device according to claim 1, further comprising:
前記撮影計画策定部は、
前記撮影計画を策定する方針を選択する方針選択部と、
前記マップと、前記撮影領域特定部により特定された撮影領域と、を用いて、次の規定時間の前記撮影計画の候補となる複数の候補計画を策定する候補計画策定部と、
前記マップと、前記撮影速度算出部により算出された前記複数の作業者の各々の撮影速度と、を用いて、前記候補計画策定部により策定された前記複数の候補計画毎に、前記方針選択部により選択された方針に応じた評価値を算出する候補計画評価部と、
前記候補計画策定部により策定された前記複数の候補計画の中から、前記候補計画評価部により算出された評価値が最も高い候補計画を、次の規定時間の前記撮影計画として選択する候補計画選択部と、
を備える、請求項2に記載の撮影制御装置。
The shooting plan formulation unit
a policy selection unit that selects a policy for formulating the shooting plan;
a candidate plan formulating unit that formulates a plurality of candidate plans that are candidates for the photographing plan for the next prescribed time using the map and the photographing area specified by the photographing area specifying unit;
The policy selection unit for each of the plurality of candidate plans formulated by the candidate plan formulation unit using the map and the photographing speed of each of the plurality of workers calculated by the photographing speed calculation unit A candidate plan evaluation unit that calculates an evaluation value according to the policy selected by
Candidate plan selection for selecting a candidate plan with the highest evaluation value calculated by the candidate plan evaluation unit from among the plurality of candidate plans formulated by the candidate plan formulation unit as the shooting plan for the next prescribed time. Department and
The imaging control device according to claim 2, comprising:
前記マップ上に、前記撮影領域特定部により特定された撮影領域を識別可能に重畳した撮影結果を作成し、作成された撮影結果を、予め設定された送信先へ送信する撮影結果送信部
をさらに備える、請求項1から3のいずれか1項に記載の撮影制御装置。
a photographing result transmitting unit that creates a photographing result in which the photographing area specified by the photographing area specifying unit is superimposed on the map so as to be identifiable, and transmits the created photographing result to a preset destination. The imaging control device according to any one of claims 1 to 3, comprising:
前記撮影領域特定部により特定された撮影領域でカメラにより撮影された撮影画像を画像認識すると共に、該撮影領域でマイクにより集音された音声を音声認識し、画像認識及び音声認識の結果を用いて、該撮影領域で発生した危険事象を検出する危険事象検出部
をさらに備え、
前記撮影結果送信部は、
前記マップ上に、前記撮影領域特定部により特定された撮影領域と、前記危険事象検出部により検出された危険事象が発生した領域と、を識別可能に重畳した前記撮影結果を作成する、
請求項4に記載の撮影制御装置。
Image recognition of a photographed image photographed by a camera in the photographing area specified by the photographing area specifying unit, speech recognition of sound collected by a microphone in the photographing area, and use of the results of image recognition and speech recognition and further comprising a dangerous event detection unit that detects a dangerous event that has occurred in the imaging area,
The photographing result transmission unit,
creating the photographing result in which the photographing area specified by the photographing area specifying unit and the area in which the dangerous event detected by the dangerous event detecting unit are superimposed so as to be identifiable on the map;
The photographing control device according to claim 4.
撮影制御装置による撮影制御方法であって、
災害現場のマップと、前記災害現場をカメラで撮影する複数の作業者がそれぞれ携帯するカメラの位置、パン角、及びチルト角と、を用いて、前記複数の作業者毎に、該作業者がカメラで撮影を完了した前記マップ上の撮影領域を特定するステップと、
前記複数の作業者毎に、該作業者が単位時間あたりにカメラで撮影を完了した前記マップ上の撮影領域の数を示す撮影速度を算出するステップと、
を含む、撮影制御方法。
A shooting control method by a shooting control device,
Using a map of the disaster site and the positions, pan angles, and tilt angles of the cameras carried by each of the workers who photograph the disaster site, identifying a shooting area on the map that has been shot by a camera;
a step of calculating, for each of the plurality of workers, a photographing speed indicating the number of photographing areas on the map that the worker has completed photographing with a camera per unit time;
A shooting control method, comprising:
前記マップと、前記特定された撮影領域と、前記算出された前記複数の作業者の各々の撮影速度と、を用いて、前記複数の作業者毎に、該作業者が次の規定時間に撮影を行う前記災害現場の拠点を示す撮影計画を策定するステップと、
前記策定された撮影計画を用いて、前記複数の作業者毎に、該作業者が次の規定時間に撮影を行う拠点を指示する撮影指示を作成するステップと、
前記作成された撮影指示を、前記複数の作業者がそれぞれ携帯する撮影指示受信部に送信するステップと、
をさらに含む、請求項6に記載の撮影制御方法。
Using the map, the specified photographing area, and the calculated photographing speed of each of the plurality of workers, each of the plurality of workers is photographed at the next specified time. a step of formulating a shooting plan showing the bases of the disaster site for performing
a step of creating a photographing instruction for each of the plurality of workers using the formulated photographing plan, which indicates a base where the worker will photograph at the next specified time;
a step of transmitting the created photographing instruction to a photographing instruction receiving unit carried by each of the plurality of workers;
7. The imaging control method according to claim 6, further comprising:
コンピュータに、
災害現場のマップと、前記災害現場をカメラで撮影する複数の作業者がそれぞれ携帯するカメラの位置、パン角、及びチルト角と、を用いて、前記複数の作業者毎に、該作業者がカメラで撮影を完了した前記マップ上の撮影領域を特定する手順と、
前記複数の作業者毎に、該作業者が単位時間あたりにカメラで撮影を完了した前記マップ上の撮影領域の数を示す撮影速度を算出する手順と、
を実行させる撮影制御プログラム。
to the computer,
Using a map of the disaster site and the positions, pan angles, and tilt angles of the cameras carried by each of the workers who photograph the disaster site, A procedure of identifying a shooting area on the map that has completed shooting with a camera;
a step of calculating, for each of the plurality of workers, a photographing speed indicating the number of photographing areas on the map that the worker has completed photographing with a camera per unit time;
A shooting control program that executes
前記コンピュータに、
前記マップと、前記特定された撮影領域と、前記算出された前記複数の作業者の各々の撮影速度と、を用いて、前記複数の作業者毎に、該作業者が次の規定時間に撮影を行う前記災害現場の拠点を示す撮影計画を策定する手順と、
前記策定された撮影計画を用いて、前記複数の作業者毎に、該作業者が次の規定時間に撮影を行う拠点を指示する撮影指示を作成する手順と、
前記作成された撮影指示を、前記複数の作業者がそれぞれ携帯する撮影指示受信部に送信する手順と、
をさらに実行させる、請求項8に記載の撮影制御プログラム。
to the computer;
Using the map, the specified photographing area, and the calculated photographing speed of each of the plurality of workers, each of the plurality of workers is photographed at the next specified time. A procedure for formulating a shooting plan showing the bases of the disaster site for performing
a procedure for creating, for each of the plurality of workers, a photographing instruction for instructing a site where the worker will photograph at the next prescribed time using the formulated photographing plan;
a procedure for transmitting the created photographing instruction to a photographing instruction receiving unit carried by each of the plurality of workers;
9. The photographing control program according to claim 8, further executing
JP2019045226A 2019-03-12 2019-03-12 Shooting control device, shooting control method, and shooting control program Active JP7290049B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019045226A JP7290049B2 (en) 2019-03-12 2019-03-12 Shooting control device, shooting control method, and shooting control program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019045226A JP7290049B2 (en) 2019-03-12 2019-03-12 Shooting control device, shooting control method, and shooting control program

Publications (2)

Publication Number Publication Date
JP2020150379A JP2020150379A (en) 2020-09-17
JP7290049B2 true JP7290049B2 (en) 2023-06-13

Family

ID=72430903

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019045226A Active JP7290049B2 (en) 2019-03-12 2019-03-12 Shooting control device, shooting control method, and shooting control program

Country Status (1)

Country Link
JP (1) JP7290049B2 (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012182620A (en) 2011-03-01 2012-09-20 Ricoh Co Ltd Imaging apparatus
WO2015145769A1 (en) 2014-03-28 2015-10-01 富士通株式会社 Imaging device, information processing device, photography assistance system, photography assistance program, and photography assistance method

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003087838A (en) * 2001-09-11 2003-03-20 Nec Access Technica Ltd Remote guidance instruction system
JP2005086238A (en) * 2003-09-04 2005-03-31 Casio Comput Co Ltd Imaging apparatus and program
JP2014093004A (en) * 2012-11-06 2014-05-19 Kenichi Shinjo Server apparatus, information processing method and information processing program

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012182620A (en) 2011-03-01 2012-09-20 Ricoh Co Ltd Imaging apparatus
WO2015145769A1 (en) 2014-03-28 2015-10-01 富士通株式会社 Imaging device, information processing device, photography assistance system, photography assistance program, and photography assistance method

Also Published As

Publication number Publication date
JP2020150379A (en) 2020-09-17

Similar Documents

Publication Publication Date Title
JP7444228B2 (en) program
US20220215742A1 (en) Contextualized augmented reality display system
JP7040580B2 (en) Video collection system, video collection method and program
KR102245769B1 (en) System and method for navigating fire exit using augmented reality
JP2018106326A (en) Disaster prevention support system
US11557196B2 (en) Systems and methods for providing augmented reality emergency response solutions
JP6126778B2 (en) Fire alarm equipment support system
KR101758349B1 (en) A fire controlling method through emergency bell remote control
JP5715775B2 (en) Image monitoring system and image monitoring method
US20220301270A1 (en) Systems and methods for immersive and collaborative video surveillance
CN110956563A (en) Fire-fighting information integration system
JP7290049B2 (en) Shooting control device, shooting control method, and shooting control program
WO2021024388A1 (en) Optical fiber sensing system, optical fiber sensing device, and unmanned aerial vehicle allocation method
JP6322304B2 (en) Fire alarm equipment support system
JP7206647B2 (en) Fire dispatch aid, method and program
JP6877176B2 (en) Monitoring system
WO2023286115A1 (en) Display controller, display system, display method and computer readable medium
KR102482238B1 (en) Apparatus for transmitting lidar scanning 3D data and method thereof and smart system for monitoring fire using the same and method thereof
KR101786225B1 (en) Method of save a life and Rescuing device of save a life for fire using beacon
KR102568443B1 (en) Safety management system using photographing evice and method thereof
KR20200080578A (en) Apparatus and method for providing evacuation routes
TW202011361A (en) Fire protection information integration system including a detector, a fire-alarm control panel, a graphic control host, and a cloud server
JP7453447B1 (en) Information processing system, information processing method and program
JP2019133403A (en) Support system
JP2019169837A (en) Monitoring device, monitoring system, monitoring method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220203

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230502

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230515

R151 Written notification of patent or utility model registration

Ref document number: 7290049

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151