JP2017224917A - Disaster-stricken place specification system - Google Patents

Disaster-stricken place specification system Download PDF

Info

Publication number
JP2017224917A
JP2017224917A JP2016117542A JP2016117542A JP2017224917A JP 2017224917 A JP2017224917 A JP 2017224917A JP 2016117542 A JP2016117542 A JP 2016117542A JP 2016117542 A JP2016117542 A JP 2016117542A JP 2017224917 A JP2017224917 A JP 2017224917A
Authority
JP
Japan
Prior art keywords
camera device
disaster
disaster location
mobile
location
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016117542A
Other languages
Japanese (ja)
Other versions
JP6645701B2 (en
Inventor
立 野村
Ritsu Nomura
立 野村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to JP2016117542A priority Critical patent/JP6645701B2/en
Publication of JP2017224917A publication Critical patent/JP2017224917A/en
Application granted granted Critical
Publication of JP6645701B2 publication Critical patent/JP6645701B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Fire-Detection Mechanisms (AREA)
  • Alarm Systems (AREA)
  • Fire Alarms (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a disaster-stricken place specification system capable of specifying a disaster-stricken place promptly.SOLUTION: A disaster-stricken place specification device 9 of a disaster-stricken place specification system 100 includes: first disaster-stricken place azimuth angle calculation means 91 for calculating a first azimuth angle P1 of a disaster-stricken place H, viewed from a fixed camera device 1a, from the position of the fixed camera device 1a, and the azimuth angle and field angle of the fixed camera device 1a obtained from a camera controller 2a, the position of the disaster-stricken place captured by the fixed camera device 1a on a screen 4a, and the number of pixels of a monitor in the horizontal direction; second disaster-stricken place azimuth angle calculation means 92 for calculating a second azimuth angle P2 of the disaster-stricken place H, viewed from a mobile camera device 10, from positional information of a mobile 6; and disaster-stricken place calculation means 93 for specifying the position of the disaster-stricken place H, from the position of the fixed camera device 1a, the first azimuth angle P1, the position of the mobile camera device 10, and the second azimuth angle P2.SELECTED DRAWING: Figure 1

Description

この発明は、複数のカメラ装置で撮影された映像により災害発生場所の位置を特定する被災場所特定システムに関するものである。   The present invention relates to a disaster location identifying system that identifies the location of a disaster occurrence location based on images taken by a plurality of camera devices.

従来、災害が発生した際に、現場からの映像を送信して表示する映像表示システムは、その災害発生現場の状況を把握するために必要欠くべからざるものとなっている。そのために、国や地方自治体、民間企業では、地域内の複数の場所にカメラ装置を設置し、災害発生時にはその映像を防災拠点等で参照することによって、災害発生場所を特定し、救助、救援活動に役立てている。   Conventionally, when a disaster occurs, a video display system that transmits and displays a video from a site is indispensable for grasping the situation of the disaster site. For this purpose, national, local governments, and private companies install camera devices at multiple locations in the area, and when disasters occur, refer to the images at disaster prevention bases, etc. to identify the location of the disaster and rescue and rescue. Useful for activities.

救助、救援活動を立案するためには、「どこでどれだけの被害が発生しているか」を早急に特定する必要があるが、カメラ装置から送られている映像からのみでは、「どこで」を特定することは非常に困難である。   In order to plan rescue and rescue activities, it is necessary to quickly identify "where and how much damage has occurred", but only from the video sent from the camera device, identify "where" It is very difficult to do.

すなわち、1つのカメラ装置で認識できることは、「ある場所から見て一定の方向で煙が上がっている、建物が倒れている」といった漠然とした情報でしかない。この「どこで」を具体的に特定するための技術、特に、映像上にその地域に関する情報を重畳する技術が求められている。そのような技術として、ビルなどの高所に設置した2台の赤外線カメラの映像を用いて、火災発生場所を特定するための方法が提案されている(例えば、特許文献1参照)。   That is, what can be recognized by one camera device is only vague information such as “smoke is rising in a certain direction as seen from a certain place, or the building is falling”. There is a need for a technique for specifically identifying “where”, in particular, a technique for superimposing information on the area on a video. As such a technique, there has been proposed a method for specifying a fire occurrence place using images of two infrared cameras installed at a high place such as a building (see, for example, Patent Document 1).

一般的に、2台のカメラ装置から同一の対象物を撮影した場合、そのカメラ装置の位置座標や撮影方向が分かれば、その対象物の位置を算出することは可能であり、特許文献1に記載の技術は、その考え方を応用したものである。   In general, when the same object is photographed from two camera devices, the position of the object can be calculated if the position coordinates and photographing direction of the camera device are known. The described technology is an application of this concept.

特開平9−167287号公報JP-A-9-167287

しかしながら、特許文献1に記載の都市防災用監視装置では、2台のカメラ装置により見通すことができる被災地のみ、その位置の特定が可能であるため、高層ビル等により固定カメラ装置の死角となるような場所に発生した災害等については識別が不可能である。従って、自治体防災システムのように、対象地域が広範囲にわたる場合は、十分な見通しを得るために多くのカメラを設置せねばならないという課題がある。しかも、同一エリアを監視するカメラを常に2台設置しなければならず、高コストであるという課題があった。   However, in the city disaster prevention monitoring device described in Patent Document 1, only the disaster area that can be seen by two camera devices can be identified, so that it becomes a blind spot of a fixed camera device due to a high-rise building or the like. It is impossible to identify disasters that occur in such places. Therefore, when the target area covers a wide area like a local government disaster prevention system, there is a problem that many cameras must be installed to obtain a sufficient prospect. In addition, two cameras that monitor the same area must always be installed, and there is a problem of high cost.

また、2台のカメラのセットを複数設置したとしても監視しきれない盲点が多数存在し、監視領域のカバー率が上がれば上がるほど、カバー率の伸びは鈍化するという課題があった。   In addition, there are many blind spots that cannot be monitored even when a plurality of sets of two cameras are installed, and there is a problem that as the coverage rate of the monitoring area increases, the coverage rate slows down.

この発明は、上記のような課題を解決するためになされたものであり、地上のビル等に設置した固定カメラ装置と、移動体に搭載した移動カメラ装置とを併用することにより、災害発生場所を迅速に、漏れなく特定できる被災場所特定システムを提供することを目的とする。   The present invention has been made to solve the above-described problems, and a place where a disaster occurs by using a fixed camera device installed in a building on the ground and a mobile camera device mounted on a moving body in combination. It is an object of the present invention to provide a disaster location identification system that can identify a disaster quickly and without omission.

この発明に係る、被災場所特定システムは、
少なくとも1台の移動体に搭載された移動カメラ装置と、
前記移動体の位置情報、進路情報を有する移動体情報を取得する移動体情報取得装置と、
前記移動カメラ装置で撮影した映像及び、前記移動体情報を送信する無線送信装置と、
前記映像及び、前記移動体情報を受信する無線受信装置と、
少なくとも1台の、特定の位置に設置された固定カメラ装置と、
前記固定カメラ装置の方位角、画角を制御するカメラ制御装置と、
前記固定カメラ装置からの映像を受信する映像受信装置と、
前記移動カメラ装置及び、前記固定カメラ装置からの前記映像を表示するモニタと、
前記モニタの画面に映し出された前記固定カメラ装置からの映像上の被災場所を特定するポインタと、
前記被災場所の位置を特定する被災場所特定装置とを備え、
前記被災場所特定装置は、
前記固定カメラ装置の位置、及び、前記カメラ制御装置から得た前記固定カメラ装置の方位角、画角、及び、前記固定カメラ装置で撮影された前記被災場所の、前記画面上における位置、及び、前記モニタの水平方向の画素数から、前記固定カメラ装置から見た前記被災場所の第一方位角を算出する第一被災場所方位角算出手段と、
前記移動体の前記位置情報から前記移動カメラ装置から見た前記被災場所の第二方位角を算出する第二被災場所方位角算出手段と、
前記固定カメラ装置の位置、前記第一方位角、前記移動カメラ装置の位置、前記第二方位角から、前記被災場所の位置を特定する被災位置算出手段とを備えるものである。
The disaster location identification system according to this invention is
A mobile camera device mounted on at least one mobile body;
Position information of the mobile body, mobile body information acquisition device for acquiring mobile body information having course information,
A wireless transmission device that transmits the video captured by the mobile camera device and the mobile object information;
A wireless receiver for receiving the video and the mobile object information;
At least one fixed camera device installed at a specific position;
A camera control device for controlling the azimuth and angle of view of the fixed camera device;
A video receiving device for receiving video from the fixed camera device;
A monitor for displaying the video from the mobile camera device and the fixed camera device;
A pointer for identifying the disaster location on the image from the fixed camera device displayed on the screen of the monitor;
A disaster location identifying device for identifying the location of the disaster location,
The disaster location identifying device is:
The position of the fixed camera device, the azimuth angle, the angle of view of the fixed camera device obtained from the camera control device, and the position on the screen of the disaster location photographed by the fixed camera device, and First disaster location azimuth calculating means for calculating a first azimuth angle of the disaster location seen from the fixed camera device from the number of pixels in the horizontal direction of the monitor;
Second disaster location azimuth calculating means for calculating a second azimuth of the disaster location seen from the mobile camera device from the position information of the moving body;
And a disaster position calculating means for specifying the position of the disaster location from the position of the fixed camera device, the first azimuth angle, the position of the mobile camera device, and the second azimuth angle.

この発明に係る被災場所特定システムは、上記のように構成されたものなので、災害時において、1つの固定カメラ装置でしか被災位置を見通せない場合であっても、移動体に搭載した移動カメラ装置を用いることにより、被災場所の位置を速やかに特定できる。   Since the disaster location specifying system according to the present invention is configured as described above, even when a disaster location can be seen only with one fixed camera device at the time of a disaster, the mobile camera device mounted on the moving body By using, the location of the affected area can be quickly identified.

この発明の実施の形態1に係る被災場所特定システムのシステム構成図である。It is a system configuration | structure figure of the disaster location specific system which concerns on Embodiment 1 of this invention. この発明の実施の形態1に係る移動体情報の構成を示す図である。It is a figure which shows the structure of the mobile body information which concerns on Embodiment 1 of this invention. この発明の実施の形態1に係る被災場所特定装置の構成を示す図である。It is a figure which shows the structure of the disaster location identification apparatus which concerns on Embodiment 1 of this invention. この発明の実施の形態1に係る固定カメラ装置と被災場所との位置関係を示す図である。It is a figure which shows the positional relationship of the fixed camera apparatus which concerns on Embodiment 1 of this invention, and a disaster location. この発明の実施の形態1に係る移動体の移動カメラ装置と被災場所との位置関係を示す図である。It is a figure which shows the positional relationship of the moving camera apparatus of the moving body which concerns on Embodiment 1 of this invention, and a disaster location. この発明の実施の形態1に係る2つのカメラ装置の直交座標上での位置関係を示す図である。It is a figure which shows the positional relationship on the orthogonal coordinate of the two camera apparatuses which concern on Embodiment 1 of this invention. この発明の実施の形態2に係る被災場所特定システムのシステム構成図である。It is a system configuration | structure figure of the disaster location specific system which concerns on Embodiment 2 of this invention. この発明の実施の形態2にかかる被災場所特定装置の構成を示す図である。It is a figure which shows the structure of the disaster location identification apparatus concerning Embodiment 2 of this invention. この発明の実施の形態2に係る、被災場所特定システムの運用例を示す図である。It is a figure which shows the operation example of the disaster location specific system based on Embodiment 2 of this invention. この発明の実施の形態2に係る要移動体対応データベースの構成を示す図である。It is a figure which shows the structure of the moving body corresponding | compatible database which concerns on Embodiment 2 of this invention. この発明の実施の形態4に係る被災場所特定システムの構成を示す図である。It is a figure which shows the structure of the disaster location specific system which concerns on Embodiment 4 of this invention. この発明の実施の形態4に係る被災場所特定装置の構成を示す図である。It is a figure which shows the structure of the disaster location identification apparatus which concerns on Embodiment 4 of this invention. この発明の実施の形態4に係る撮影可能地域データベースの構成を示す図である。It is a figure which shows the structure of the imaging | photography possible area database which concerns on Embodiment 4 of this invention.

実施の形態1.
以下、本発明の実施の形態1に係る被災場所特定システムを図に基づいて説明する。
図1は、被災場所特定システム100のシステム構成図である。
被災場所特定システム100は、固定側の設備として、固定カメラ装置1a、1bと、カメラ制御装置2a、2bと、映像受信装置3a、3bと、モニタ4a、4bと、カメラ操作卓5a、5bとを備える。
Embodiment 1 FIG.
Hereinafter, a disaster location identifying system according to Embodiment 1 of the present invention will be described with reference to the drawings.
FIG. 1 is a system configuration diagram of a disaster location identification system 100.
The disaster location identifying system 100 includes fixed camera devices 1a and 1b, camera control devices 2a and 2b, video receiving devices 3a and 3b, monitors 4a and 4b, and camera consoles 5a and 5b as fixed-side equipment. Is provided.

操作者は、ビル屋上等に設置され近隣の状況を撮影する固定カメラ装置1a、1bの旋回(方位角)、ズーム(画角)等の操作をカメラ操作卓5a、5bから、カメラ制御装置2a、2bを操作することによっておこなう。固定カメラ装置1a、1bによって撮影された映像は、映像受信装置3a、3bによって受信され、モニタ4a、4bに映し出される。モニタ4a、4b等、それぞれの設備について、2つずつ配置しているが、最低1つずつ有ればよい。   The operator performs operations such as turning (azimuth angle) and zooming (viewing angle) of the fixed camera devices 1a and 1b installed on the rooftop of the building and taking pictures of the situation in the vicinity from the camera consoles 5a and 5b. This is done by operating 2b. Images taken by the fixed camera devices 1a and 1b are received by the image receiving devices 3a and 3b and displayed on the monitors 4a and 4b. Two pieces of equipment such as the monitors 4a and 4b are arranged, but at least one piece of equipment may be provided.

次に、移動体6側の設備を説明する。
図2は、移動体情報65の構成を示す図である。
被災場所特定システム100は、移動体6側の設備として、移動体6と、移動体6に搭載された移動カメラ装置10と、移動体6の位置情報等からなる移動体情報65を取得する移動体情報取得装置61と、移動カメラ装置10で撮影した映像及び、移動体情報取得装置61で取得した移動体情報65を、合わせて地上に送信するための無線送信装置62とを備える。
Next, equipment on the moving body 6 side will be described.
FIG. 2 is a diagram showing the configuration of the mobile object information 65.
The disaster location identifying system 100 acquires the moving body information 65 including the moving body 6, the moving camera device 10 mounted on the moving body 6, and the position information of the moving body 6 as equipment on the moving body 6 side. It includes a body information acquisition device 61, and a wireless transmission device 62 for transmitting the video captured by the mobile camera device 10 and the mobile body information 65 acquired by the mobile body information acquisition device 61 to the ground.

無線送信装置62から配信された映像等は、地上側の設備である無線受信装置7により受信される。無線受信装置7は、映像と移動体情報65を分離する。映像は、モニタ104に表示され、移動体情報65は、被災場所特定装置9に渡される。   The video or the like distributed from the wireless transmission device 62 is received by the wireless reception device 7 which is equipment on the ground side. The wireless reception device 7 separates the video and the moving body information 65. The video is displayed on the monitor 104, and the moving body information 65 is passed to the disaster location identifying device 9.

ポインタ8は、モニタ4a、4b、104と接続されている。モニタ4a、4b、104の画面上に映し出された映像の中から、操作者が、被災場所と考える場所に触れる等することにより、被災場所の画面上の位置を特定するために用いられる。そして、被災場所特定装置9は、ポインタ8から得た画面上の位置座標と、カメラ制御装置2a、2bから得たカメラ制御情報と、無線受信装置7から得た移動体情報65とを元にして、操作者がモニタ4a、4b、104の画面上で指定した被災場所の具体的な位置を特定するために用いられる。   The pointer 8 is connected to the monitors 4a, 4b, and 104. It is used to specify the position of the disaster location on the screen by the operator touching the location considered as the disaster location from the images projected on the screens of the monitors 4a, 4b, 104. Then, the disaster location identifying device 9 is based on the position coordinates on the screen obtained from the pointer 8, the camera control information obtained from the camera control devices 2a and 2b, and the moving body information 65 obtained from the wireless reception device 7. Thus, it is used to specify the specific position of the disaster location designated by the operator on the screens of the monitors 4a, 4b, and 104.

図3は、被災場所特定システム100の被災場所特定装置9の構成を示す図である。
図4は、固定カメラ装置1aと被災場所Hとの位置関係を示す図である。
図4に示す方位角Aは、固定カメラ装置1aが向いている方向の方位角を示す。
角度Bは、固定カメラ装置1aの水平画角(Field of VIEW)の半分を示す。被災場所特定装置9は、カメラ角度情報として、この方位角Aと角度Bを使用する。
FIG. 3 is a diagram illustrating a configuration of the disaster location identifying device 9 of the disaster location identification system 100.
FIG. 4 is a diagram illustrating a positional relationship between the fixed camera device 1a and the disaster location H.
An azimuth angle A shown in FIG. 4 indicates an azimuth angle in a direction in which the fixed camera device 1a is facing.
The angle B indicates a half of the horizontal field angle (Field of VIEW) of the fixed camera device 1a. The disaster location identifying device 9 uses this azimuth angle A and angle B as camera angle information.

次に、図3に示す被災場所特定装置9の第一被災場所方位角算出手段91について固定カメラ装置1aとモニタ4aを用いて説明する。
第一被災場所方位角算出手段91は、被災場所Hを撮影中の固定カメラ装置1aの光軸が向かう方位角Aと、モニタ4aに映し出された映像中の被災場所H等から、固定カメラ装置1aから見た被災場所Hの第一方位角P1を算出する手段である。
Next, the first disaster location azimuth calculation means 91 of the disaster location identification device 9 shown in FIG. 3 will be described using the fixed camera device 1a and the monitor 4a.
The first disaster location azimuth calculation means 91 is a fixed camera device based on the azimuth angle A to which the optical axis of the fixed camera device 1a capturing the disaster location H and the disaster location H in the image projected on the monitor 4a. It is a means for calculating the first azimuth angle P1 of the disaster location H viewed from 1a.

いま、モニタ4aには、図4の破線で示す線分Mで示す画角の範囲の映像が映っている。このときの固定カメラ装置1aの画角は、2B度である。ここでモニタ4aの画面水平方向の画素数を2Wとする。操作者は、ポインタ8を用いてモニタ4aに映し出された被災場所Hの位置をモニタ4aの画面上で特定する。特定したモニタ4aの画面上の位置の水平成分を、画面中心から測った長さ(単位は画素)をXとする。このとき、図4の固定カメラ装置1aの中心位置と線分Mまでの長さLは、L=W/tan(B)で表される。さらに、固定カメラ装置1aの光軸が向かう方位角Aと被災場所Hの第一方位角P1との方位差C=tan^(−1)(X/L)となる。従って固定カメラ装置1aから見た被災場所Hの第一方位角P1は、A+C度となる。   Now, the video of the range of the angle of view indicated by the line segment M indicated by the broken line in FIG. 4 is displayed on the monitor 4a. The angle of view of the fixed camera device 1a at this time is 2B. Here, the number of pixels in the horizontal direction of the screen of the monitor 4a is 2W. The operator uses the pointer 8 to specify the position of the disaster location H displayed on the monitor 4a on the screen of the monitor 4a. Let X be the length (unit: pixel) of the horizontal component of the position on the screen of the specified monitor 4a measured from the screen center. At this time, the center position of the fixed camera device 1a in FIG. 4 and the length L to the line segment M are expressed as L = W / tan (B). Further, the azimuth difference C = tan ^ (− 1) (X / L) between the azimuth angle A toward the optical axis of the fixed camera device 1a and the first azimuth angle P1 of the disaster location H. Accordingly, the first azimuth angle P1 of the disaster location H viewed from the fixed camera device 1a is A + C degrees.

次に、図3に示す第二被災場所方位角算出手段92について説明する。
図5は、移動体6の移動カメラ装置10と被災場所Hとの位置関係を示す図である。
移動体6から送られる図2に示す移動体情報65は、移動体緯度65aと、移動体経度65bと、移動体進路65cと、移動カメラ装置10のパン角65dと、画角65eを有する。第二被災場所方位角算出手段92は、移動体6に搭載する移動カメラ装置10から見た被災場所Hへの第二方位角P2を算出する手段である。移動カメラ装置10が、移動体6に進行方向に対してパン角65d(E)方向を向き、モニタ104の画面中央に被災場所Hを特定しているものとすると、第二方位角P2=移動体進路65c(D)+カメラのパン角65d(E)となる。
Next, the second disaster location azimuth calculating means 92 shown in FIG. 3 will be described.
FIG. 5 is a diagram illustrating a positional relationship between the moving camera device 10 of the moving body 6 and the disaster location H.
The mobile body information 65 shown in FIG. 2 sent from the mobile body 6 has a mobile body latitude 65a, a mobile body longitude 65b, a mobile body path 65c, a pan angle 65d of the mobile camera device 10, and an angle of view 65e. The second struck area azimuth calculating means 92 is a means for calculating the second azimuth angle P2 to the stricken area H viewed from the mobile camera device 10 mounted on the moving body 6. Assuming that the moving camera device 10 is directed to the moving body 6 with the pan angle 65d (E) direction with respect to the traveling direction and specifies the disaster location H at the center of the screen of the monitor 104, the second azimuth angle P2 = moving The body path 65c (D) + the camera pan angle 65d (E).

次に、図3の被災位置算出手段93について説明する。第一被災場所方位角算出手段91と第二被災場所方位角算出手段92による出力、すなわち、固定カメラ装置1a、移動カメラ装置10から見た被災場所Hの方位角は、それぞれ第一方位角P1および第二方位角P2である。
図6は、2つのカメラ装置1a、10の直交座標上での位置関係を示す図である。
例えば、固定カメラ装置1aの緯度経度を(LON1a,LAT1a)とし、それを平面直角座標に変換した座標を(X1a,Y1a)とすると、固定カメラ装置1aの撮影方向は、ここを中心とした第一方位角P1のベクトルで表される。これを2次元の直交座標の方程式に変換すると、
sinP1・X+cosP1・Y=sinP1・X1a+cosP1・Y1a
同様に、移動カメラ装置10の撮影方向は、その緯度経度を(LON10,LAT10)とし、それを平面直角座標に変換した座標を(X10,Y10)とすると、
sinP2・X+cosP2・Y=sinP2・X10+cosP2・Y10
となる。
この連立方程式の解(X,Y)が、求めようとしている被災場所Hの座標であり、それを元に被災場所Hの緯度経度座標を求めることができる。
Next, the damage position calculation means 93 in FIG. 3 will be described. The outputs from the first disaster location azimuth calculation means 91 and the second disaster location azimuth calculation means 92, that is, the azimuth angle of the disaster location H viewed from the fixed camera device 1a and the mobile camera device 10, are respectively the first azimuth angle P1. And the second azimuth angle P2.
FIG. 6 is a diagram showing a positional relationship between the two camera devices 1a and 10 on the orthogonal coordinates.
For example, if the latitude and longitude of the fixed camera device 1a is (LON1a, LAT1a) and the coordinates obtained by converting the latitude and longitude into plane rectangular coordinates are (X1a, Y1a), the shooting direction of the fixed camera device 1a is It is represented by a vector of one position angle P1. Converting this to a two-dimensional Cartesian equation,
sinP1 · X + cosP1 · Y = sinP1 · X1a + cosP1 · Y1a
Similarly, if the shooting direction of the mobile camera device 10 is (LON10, LAT10) as its latitude and longitude, and (X10, Y10) is the coordinate obtained by converting it into plane rectangular coordinates,
sinP2 · X + cosP2 · Y = sinP2 · X10 + cosP2 · Y10
It becomes.
The solution (X, Y) of the simultaneous equations is the coordinates of the disaster location H to be obtained, and the latitude and longitude coordinates of the disaster location H can be obtained based on the coordinates.

これまでの説明では、移動体6に搭載した移動カメラ装置10は、モニタ104の画面中央に被災場所Hを特定しているものとして説明したが、移動体6の移動カメラ装置10についても、固定カメラ装置1aと同様に、ポインタ8を用いて、モニタ104の画面上から被災場所Hをまず特定し、被災位置算出手段93によって具体的な被災場所Hの緯度、経度を特定してもよい。   In the description so far, the mobile camera device 10 mounted on the mobile body 6 has been described as specifying the disaster location H at the center of the screen of the monitor 104. However, the mobile camera device 10 of the mobile body 6 is also fixed. Similarly to the camera device 1 a, the disaster location H may first be identified from the screen of the monitor 104 using the pointer 8, and the specific latitude and longitude of the disaster location H may be identified by the disaster location calculation means 93.

また、移動カメラ装置10自身に地磁気センサを搭載し、移動カメラ装置10の光軸の方位角を直接取得してもよい。   Alternatively, a geomagnetic sensor may be mounted on the mobile camera device 10 itself to directly acquire the azimuth angle of the optical axis of the mobile camera device 10.

この発明の実施の形態1に係る被災場所特定システム100によれば、災害時において、1つの固定カメラ装置1aでしか被災位置を見通せない場合であっても、移動体6に搭載した移動カメラ装置10を用いることにより、被災場所Hの位置を速やかに特定できる。移動体6としては、自動車、船舶、ヘリコプタ、航空機、ドローンなど、有人、無人を問わず利用できる。また、移動カメラ装置10を搭載した移動体6を2つ用いても良い。   According to the disaster location identifying system 100 according to the first embodiment of the present invention, even in the event of a disaster, even if the disaster location can only be seen by one fixed camera device 1a, the mobile camera device mounted on the moving body 6 By using 10, the position of the disaster location H can be quickly identified. The moving body 6 can be used regardless of whether it is manned or unmanned, such as an automobile, a ship, a helicopter, an aircraft, and a drone. Moreover, you may use two moving bodies 6 carrying the moving camera apparatus 10. FIG.

実施の形態2.
以下、本発明の実施の形態2に係る被災場所特定システム200を実施の形態1と異なる部分を中心に説明する。
図7は、被災場所特定システム200のシステム構成図である。
図8は、被災場所特定装置209の構成を示す図である。
図9は、被災場所特定システム200の運用例を示す図である。
図10は、1台の固定カメラ装置でしか見通しできない地域をデータベース化した要移動体対応データベース209dの構成を示す図である。
Embodiment 2. FIG.
Hereinafter, the disaster location identifying system 200 according to the second embodiment of the present invention will be described with a focus on differences from the first embodiment.
FIG. 7 is a system configuration diagram of the disaster location identifying system 200.
FIG. 8 is a diagram illustrating a configuration of the disaster location identifying device 209.
FIG. 9 is a diagram illustrating an operation example of the disaster location identifying system 200.
FIG. 10 is a diagram showing the configuration of the moving object-corresponding database 209d in which areas that can only be viewed with one fixed camera device are stored in a database.

地域に高層ビル等がある場合、固定カメラ装置1a、1bでは見通しが効かない地域が発生する場合がある。例えば、固定カメラ装置1aからでは地域202を撮影することができず、また固定カメラ装置1bからでは地域201を撮影することができないとする。その場合、地域202を移動カメラ装置10で撮影している時には、必ず固定カメラ装置1bを動作させて地域202を撮影する必要がある。また、地域201を移動カメラ装置10で撮影している時は、逆に固定カメラ装置1aを動作させる必要がある。このように、固定カメラ装置1a又は固定カメラ装置1bのいずれかでは撮影できるが、両方のカメラで撮影できない地域の場合、移動体6による撮影が期待される。   When there are high-rise buildings or the like in an area, there may be an area where the fixed camera devices 1a and 1b cannot be seen. For example, it is assumed that the area 202 cannot be imaged from the fixed camera device 1a, and the area 201 cannot be imaged from the fixed camera device 1b. In that case, when the area 202 is photographed by the mobile camera device 10, it is necessary to always photograph the area 202 by operating the fixed camera device 1 b. On the other hand, when shooting the area 201 with the mobile camera device 10, it is necessary to operate the fixed camera device 1a. Thus, although it can image | photograph with either the fixed camera apparatus 1a or the fixed camera apparatus 1b, in the area which cannot image | photograph with both cameras, imaging | photography with the moving body 6 is anticipated.

マルチ入力モニタ204は、複数カメラからの映像を入力できるモニタである。被災場所特定装置209から制御して、マルチ入力モニタ204に表示する入力映像を切り替えることができる。カメラ操作卓205は、複数のカメラ制御装置2a、2bを操作可能であり、被災場所特定装置209から制御するカメラ制御装置2a、2bを指定することができる。被災場所特定装置209には、1台の固定カメラでしか見通しできない地域をレコード化した要移動体対応データベース209dと移動体対応検索手段294とを備えている。要移動体対応データベース209dの1つのレコードには、複数の地点1〜Nの緯度経度を登録できる。そして、これらの地点1〜Nに囲まれた部分が、固定カメラ装置1a〜1Nの内のいずれか1台のみで撮影できる地域である。   The multi-input monitor 204 is a monitor that can input video from a plurality of cameras. The input video displayed on the multi-input monitor 204 can be switched under the control of the disaster location identifying device 209. The camera console 205 can operate the plurality of camera control devices 2a and 2b, and can designate the camera control devices 2a and 2b to be controlled from the disaster location identifying device 209. The disaster location identifying device 209 is provided with a moving object correspondence database 209d and a moving object correspondence search means 294 in which areas that can only be viewed with one fixed camera are recorded. The latitude and longitude of a plurality of points 1 to N can be registered in one record of the moving object correspondence database 209d. And the part enclosed by these points 1-N is an area | region which can image | photograph only with any one of the fixed camera apparatuses 1a-1N.

被災場所特定装置209は、以下のような処理で、固定カメラ装置1a〜1Nの内、1台だけしか見通せない地域を、当該地域、又はその近くを移動中の移動体6に搭載の移動カメラ装置10で捉えて被災場所Hの位置を特定する機能を実現する。   The disaster location identifying device 209 is a mobile camera mounted on a moving body 6 that is moving in or near a region where only one of the fixed camera devices 1a to 1N can be seen by the following processing. The function of identifying the location of the disaster location H by capturing with the device 10 is realized.

まず、被災場所特定装置209は、無線受信装置7からの移動体6の移動体情報65を受信する。次に、移動体対応検索手段294は、移動体情報65の中の移動体緯度65a、移動体経度65bの情報をキーとして、その周辺(例えば数キロメートル内の範囲)に存在する1台の固定カメラ装置1a〜1Nでのみ撮影可能な地域を要移動体対応データベース209dを用いて検索する。該当領域が存在する場合は、移動体対応検索手段294は、その地域を撮影できる固定カメラ装置のカメラIDを取得し、マルチ入力モニタ204、カメラ操作卓205等にそのカメラIDを送り、その固定カメラからの映像をマルチ入力モニタ204に表示する。その後、実施の形態1と同様に被災場所の第一方位角P1を取得する。移動体6は、当該地域を撮影できる位置に移動し、移動カメラ装置10にて撮影する。この映像等を元に、実施の形態1と同様に第二方位角P2を取得し、被災場所Hの位置を特定する。   First, the disaster location identifying device 209 receives the moving body information 65 of the moving body 6 from the wireless reception device 7. Next, the mobile object correspondence search unit 294 uses one piece of information on the mobile body latitude 65a and the mobile body longitude 65b in the mobile body information 65 as a key, and fixes one unit existing in the vicinity (for example, a range within several kilometers). A region that can be photographed only by the camera devices 1a to 1N is searched using the database 209d that requires moving object. If the corresponding area exists, the moving object correspondence search unit 294 acquires the camera ID of the fixed camera device capable of photographing the area, and sends the camera ID to the multi-input monitor 204, the camera console 205, etc. The video from the camera is displayed on the multi-input monitor 204. Thereafter, as in the first embodiment, the first azimuth angle P1 of the disaster location is acquired. The moving body 6 moves to a position where the area can be photographed, and the moving camera device 10 photographs. Based on this image and the like, the second azimuth angle P2 is acquired in the same manner as in the first embodiment, and the position of the disaster location H is specified.

この発明の実施の形態2に係る被災場所特定システム200によれば、平時において、1つの固定カメラでしか見通せない地域の位置データを要移動体対応データベース209dとして蓄積し、災害時において、移動体6が移動中の地域が、要移動体対応データベース209dに登録されている地域に含まれるか、近隣に要移動体対応データベース209dに登録されている地域が存在する場合に、当該地域内の被災地を移動カメラで撮影し、移動体情報65と共に送信することにより、1つの固定カメラ装置1aでしか被災場所Hを見通せない場合であっても、被災場所Hの位置を速やかに特定できる。   According to the disaster location specifying system 200 according to the second embodiment of the present invention, the location data of an area that can only be seen by one fixed camera is accumulated as a moving object-corresponding database 209d in normal times, If the area 6 is moving is included in the area registered in the mobile object correspondence database 209d, or there is an area registered in the mobile object correspondence database 209d nearby, By photographing the ground with a mobile camera and transmitting it together with the moving body information 65, the position of the disaster location H can be quickly identified even when the disaster location H can be seen only with one fixed camera device 1a.

実施の形態3.
以下、本発明の実施の形態3に係る被災場所特定システムを実施の形態1と異なる部分を中心に説明する。
Embodiment 3 FIG.
Hereinafter, the disaster location identifying system according to the third embodiment of the present invention will be described focusing on differences from the first embodiment.

固定カメラ装置1aや移動カメラ装置10などで撮影した映像内には、一度に複数の被災場所が撮影される場合がある。これを一つの画面内で連続して指定すると、より迅速に被災場所を特定することができる。この場合、被災場所特定装置9に以下の処理を追加する。   There may be a case where a plurality of disaster locations are photographed at once in a video photographed by the fixed camera device 1a, the mobile camera device 10, or the like. If this is continuously specified in one screen, the affected area can be identified more quickly. In this case, the following processing is added to the disaster location identifying device 9.

例えば、モニタ4aで確認したN箇所の被災場所を、ポインタ8を用いて連続でN回指定する。この情報は被災場所特定装置9に送られる。次に、モニタ104で確認している同じ被災場所を、ポインタ8を用いて連続してN回指定する。この情報も被災場所特定装置9に送られる。
被災場所特定装置9では、それぞれ、N番目に指定された画面上での位置をセットとして、N箇所の被災場所の具体的な場所を特定する。
For example, N disaster locations confirmed on the monitor 4 a are designated N times consecutively using the pointer 8. This information is sent to the disaster location identifying device 9. Next, the same disaster location confirmed on the monitor 104 is designated N times in succession using the pointer 8. This information is also sent to the disaster location identifying device 9.
Each of the disaster location identifying devices 9 identifies the specific locations of the N disaster locations by setting the position on the Nth designated screen as a set.

実施の形態4.
以下、本発明の実施の形態4に係る被災場所特定システムを実施の形態2と異なる部分を中心に説明する。
実施の形態2では、固定カメラ装置1a〜1Nの内のいずれか1台のみで撮影できる地域についての位置情報である要移動体対応データベース209dを用いて、移動体6を併用しなければ被災場所Hの位置を特定できない場合についての応用を説明した。
Embodiment 4 FIG.
Hereinafter, the disaster location identifying system according to the fourth embodiment of the present invention will be described with a focus on differences from the second embodiment.
In the second embodiment, if the moving body 6 is not used in combination with the moving body 6 corresponding database 209d that is position information about an area that can be photographed by only one of the fixed camera devices 1a to 1N, the disaster area The application in the case where the position of H cannot be specified has been described.

本実施の形態では、予め、各カメラ撮影できる位置をデータベース化して、専ら、固定カメラ装置と移動カメラ装置とを併用する場合について説明する。
図11は、被災場所特定システム400のシステム構成図である。
図12は、被災場所特定装置409の構成を示す図である。
図13は、各固定カメラ装置で撮影可能な地域をデータベース化した撮影可能地域データベース409dの構成を示す図である。
In the present embodiment, a case will be described in which positions where each camera can be photographed are stored in a database in advance, and a fixed camera device and a mobile camera device are used together.
FIG. 11 is a system configuration diagram of the disaster location identification system 400.
FIG. 12 is a diagram showing the configuration of the disaster location identifying device 409. As shown in FIG.
FIG. 13 is a diagram showing a configuration of a shootable area database 409d in which areas that can be shot with each fixed camera device are stored in a database.

被災場所特定装置409には、各固定カメラで見通しできる地域をレコード化した撮影可能地域データベース409dと、撮影可能地域判定手段495とを備えている。撮影可能地域データベース409dの1つのレコードには、複数の地点1〜Nの緯度経度を登録できる。そして、これらの地点1〜Nに囲まれた部分が、固定カメラ装置1a〜1Nで撮影できる地域である。   The disaster location identifying device 409 includes a shootable area database 409d in which areas that can be viewed with each fixed camera are recorded, and a shootable area determination unit 495. The latitude and longitude of a plurality of points 1 to N can be registered in one record of the photographable area database 409d. And the part enclosed by these points 1-N is an area which can image | photograph with the fixed camera apparatuses 1a-1N.

被災場所特定装置409は、以下のような処理で被災場所Hの位置を特定する機能を実現する。   The disaster location identifying device 409 realizes a function of identifying the location of the disaster location H by the following processing.

まず、被災場所特定装置409は、無線受信装置7からの移動体6の移動体情報65を受信する。次に、撮影可能地域判定手段495は、移動体情報65の中の移動体緯度65a、移動体経度65bの情報をキーとして、その位置がいずれかの固定カメラ装置1a〜1Nにより撮影可能な地域であるかを撮影可能地域データベース409dを用いて判定する。移動体6の存在する位置の緯度経度を範囲内に含む固定カメラ装置1a〜1Nが存在する場合は、撮影可能地域判定手段495は、その領域を撮影できる固定カメラ装置のカメラIDを取得する。マルチ入力モニタ204、カメラ操作卓205等にそのカメラIDを送り、その固定カメラからの映像をマルチ入力モニタ204に表示し、そこから実施の形態1と同様に被災場所の第一方位角P1を取得する。移動カメラ装置10からの第二方位角P2も同様に取得し、被災位置算出手段93により被災場所Hの位置を特定する。   First, the disaster location identifying device 409 receives the moving body information 65 of the moving body 6 from the wireless reception device 7. Next, the shootable area determination unit 495 uses the information on the moving body latitude 65a and the moving body longitude 65b in the moving body information 65 as a key, and the position can be captured by any one of the fixed camera devices 1a to 1N. Is determined using the imageable area database 409d. When there are fixed camera apparatuses 1a to 1N that include the latitude and longitude of the position where the moving body 6 exists in the range, the shootable area determination unit 495 acquires the camera ID of the fixed camera apparatus that can shoot the area. The camera ID is sent to the multi-input monitor 204, the camera console 205, etc., and the video from the fixed camera is displayed on the multi-input monitor 204. From there, the first azimuth angle P1 of the disaster location is determined as in the first embodiment. get. Similarly, the second azimuth angle P <b> 2 from the mobile camera device 10 is acquired, and the position of the disaster location H is specified by the disaster location calculation means 93.

この発明の実施の形態2に係る被災場所特定システム400によれば、移動体6の移動ルートに沿って、固定カメラを併用しながら被災場所を特定できるので、移動体6を計画的に走行、飛行させることにより、迅速に漏れなく被災場所の位置を特定できる。   According to the disaster location identifying system 400 according to Embodiment 2 of the present invention, the disaster location can be identified along with the moving route of the moving body 6 while using the fixed camera together. By letting it fly, it is possible to quickly identify the location of the affected area without omission.

尚、本発明は、その発明の範囲内において、各実施の形態を自由に組み合わせたり、各実施の形態を適宜、変形、省略することが可能である。   It should be noted that the present invention can be freely combined with each other within the scope of the invention, and each embodiment can be appropriately modified or omitted.

100,200 被災場所特定システム、1a,1b 固定カメラ装置、
2a,2b カメラ制御装置、10 移動カメラ装置、3a,3b 映像受信装置、
4a,4b,104 モニタ、204 マルチ入力モニタ、
5a,5b,205 カメラ操作卓、6 移動体、61 移動体情報取得装置、
62 無線送信装置、65 移動体情報、65a 移動体緯度、65b 移動体経度、
65c 移動体進路、65d パン角、7 無線受信装置、8 ポインタ、
9,209,409 被災場所特定装置、209d 要移動体対応データベース、
409d 撮影可能地域データベース、91 第一被災場所方位角算出手段、
92 第二被災場所方位角算出手段、93 被災位置算出手段、
294 移動体対応検索手段、495 撮影可能地域判定手段、A 方位角、
P1 第一方位角、P2 第二方位角、B 角度、C 方位差、H 被災場所、
M 線分、201,202 地域。
100,200 Disaster location identification system, 1a, 1b fixed camera device,
2a, 2b camera control device, 10 moving camera device, 3a, 3b video receiving device,
4a, 4b, 104 monitor, 204 multi-input monitor,
5a, 5b, 205 Camera console, 6 mobile body, 61 mobile body information acquisition device,
62 wireless transmission device, 65 moving body information, 65a moving body latitude, 65b moving body longitude,
65c moving body path, 65d pan angle, 7 wireless receiver, 8 pointer,
9, 209, 409 Stricken area identification device, 209d mobile object correspondence database,
409d shootable area database, 91 first damaged place azimuth calculating means,
92 second damage location azimuth calculation means, 93 damage position calculation means,
294 mobile object search means, 495 shootable area determination means, A azimuth,
P1 first azimuth, P2 second azimuth, B angle, C azimuth difference, H disaster location,
M line segment, 201,202 region.

Claims (6)

少なくとも1台の移動体に搭載された移動カメラ装置と、
前記移動体の位置情報、進路情報を有する移動体情報を取得する移動体情報取得装置と、
前記移動カメラ装置で撮影した映像及び、前記移動体情報を送信する無線送信装置と、
前記映像及び、前記移動体情報を受信する無線受信装置と、
少なくとも1台の、特定の位置に設置された固定カメラ装置と、
前記固定カメラ装置の方位角、画角を制御するカメラ制御装置と、
前記固定カメラ装置からの映像を受信する映像受信装置と、
前記移動カメラ装置及び、前記固定カメラ装置からの前記映像を表示するモニタと、
前記モニタの画面に映し出された前記固定カメラ装置からの映像上の被災場所を特定するポインタと、
前記被災場所の位置を特定する被災場所特定装置とを備え、
前記被災場所特定装置は、
前記固定カメラ装置の位置、及び、前記カメラ制御装置から得た前記固定カメラ装置の方位角、画角、及び、前記固定カメラ装置で撮影された前記被災場所の、前記画面上における位置、及び、前記モニタの水平方向の画素数から、前記固定カメラ装置から見た前記被災場所の第一方位角を算出する第一被災場所方位角算出手段と、
前記移動体の前記位置情報から前記移動カメラ装置から見た前記被災場所の第二方位角を算出する第二被災場所方位角算出手段と、
前記固定カメラ装置の位置、前記第一方位角、前記移動カメラ装置の位置、前記第二方位角から、前記被災場所の位置を特定する被災位置算出手段とを備える被災場所特定システム。
A mobile camera device mounted on at least one mobile body;
Position information of the mobile body, mobile body information acquisition device for acquiring mobile body information having course information,
A wireless transmission device that transmits the video captured by the mobile camera device and the mobile object information;
A wireless receiver for receiving the video and the mobile object information;
At least one fixed camera device installed at a specific position;
A camera control device for controlling the azimuth and angle of view of the fixed camera device;
A video receiving device for receiving video from the fixed camera device;
A monitor for displaying the video from the mobile camera device and the fixed camera device;
A pointer for identifying the disaster location on the image from the fixed camera device displayed on the screen of the monitor;
A disaster location identifying device for identifying the location of the disaster location,
The disaster location identifying device is:
The position of the fixed camera device, the azimuth angle, the angle of view of the fixed camera device obtained from the camera control device, and the position on the screen of the disaster location photographed by the fixed camera device, and First disaster location azimuth calculating means for calculating a first azimuth angle of the disaster location seen from the fixed camera device from the number of pixels in the horizontal direction of the monitor;
Second disaster location azimuth calculating means for calculating a second azimuth of the disaster location seen from the mobile camera device from the position information of the moving body;
A disaster location identifying system comprising: a disaster location calculation means for identifying the location of the disaster location from the position of the fixed camera device, the first azimuth angle, the position of the mobile camera device, and the second azimuth angle.
前記移動体情報は、前記移動カメラ装置のパン角情報を有し、
前記第二被災場所方位角算出手段は、前記移動体の進路の方位角に前記移動カメラ装置の光軸の前記進路に対するパン角を加えて前記第二方位角を算出する請求項1に記載の被災場所特定システム。
The mobile body information includes pan angle information of the mobile camera device,
2. The second stricken area azimuth calculation unit according to claim 1, wherein the second azimuth is calculated by adding a pan angle of the optical axis of the mobile camera device to the path to the azimuth of the path of the moving body. Disaster location identification system.
前記移動体情報は、前記移動カメラ装置の画角情報を有し、
前記第二被災場所方位角算出手段は、
前記移動体情報と、前記移動カメラ装置で撮影された前記被災場所の、前記画面上における位置、及び、前記モニタの水平方向の画素数から、前記移動カメラ装置から見た前記被災場所の前記第二方位角を算出する請求項1又は請求項2に記載の被災場所特定システム。
The moving body information includes field angle information of the mobile camera device,
The second disaster location azimuth calculating means is
From the moving body information, the position on the screen of the disaster location photographed by the mobile camera device, and the number of pixels in the horizontal direction of the monitor, the number of the disaster location as seen from the mobile camera device. The disaster location identifying system according to claim 1 or 2, wherein a two-azimuth angle is calculated.
前記被災場所特定装置は、1台の固定カメラ装置のみで撮影可能な地域情報を登録する要移動体対応データベースと、前記移動体の現在位置の周辺の、前記要移動体対応データベースに含まれている地域を検索する移動体対応検索手段とを備え、
前記被災場所特定装置は、前記移動体の前記現在位置の周辺の、前記要移動体対応データベースに含まれている前記地域を撮影可能な前記固定カメラ装置と前記移動カメラ装置とを用いて前記被災場所の位置を特定する請求項1から請求項3のいずれか1項に記載の被災場所特定システム。
The disaster location identifying device is included in a moving object correspondence database that registers area information that can be photographed with only one fixed camera device, and in the moving object correspondence database around the current position of the moving object. A mobile object-compatible search means for searching for an area where
The disaster location identifying device uses the fixed camera device and the mobile camera device capable of photographing the area around the current position of the mobile body and included in the mobile object correspondence database. The disaster location identifying system according to any one of claims 1 to 3, wherein the location of the location is identified.
前記被災場所特定装置は、各前記固定カメラ装置が撮影可能な地域情報を登録する撮影可能地域データベースと、前記移動体の現在位置が、前記撮影可能地域データベースに登録されているか否かを判定する撮影可能地域判定手段とを備え、
前記現在位置が、前記撮影可能地域データベースに含まれている場合は、
前記被災場所特定装置は、前記現在位置を撮影可能な前記固定カメラ装置と前記移動カメラ装置とを用いて前記被災場所の位置を特定する請求項1から請求項3のいずれか1項に記載の被災場所特定システム。
The disaster location identifying device determines whether or not a shootable area database that registers area information that each fixed camera apparatus can shoot and a current position of the moving body is registered in the shootable area database. And a photographable area determination means,
When the current position is included in the photographable area database,
The said disaster location specific apparatus specifies the position of the said disaster location using the said fixed camera apparatus which can image | photograph the said present position, and the said mobile camera apparatus. Disaster location identification system.
前記被災場所特定装置は、前記モニタに映し出された複数の前記被災場所の位置を連続して特定可能である請求項1から請求項5のいずれか1項に記載の被災場所特定システム。 The disaster location identification system according to any one of claims 1 to 5, wherein the disaster location identification device is capable of continuously identifying the positions of a plurality of the disaster locations projected on the monitor.
JP2016117542A 2016-06-14 2016-06-14 Damage location identification system Active JP6645701B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016117542A JP6645701B2 (en) 2016-06-14 2016-06-14 Damage location identification system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016117542A JP6645701B2 (en) 2016-06-14 2016-06-14 Damage location identification system

Publications (2)

Publication Number Publication Date
JP2017224917A true JP2017224917A (en) 2017-12-21
JP6645701B2 JP6645701B2 (en) 2020-02-14

Family

ID=60688469

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016117542A Active JP6645701B2 (en) 2016-06-14 2016-06-14 Damage location identification system

Country Status (1)

Country Link
JP (1) JP6645701B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112883052A (en) * 2021-01-05 2021-06-01 广东云林信息工程技术股份有限公司 Forest fire monitoring and early warning fire point rapid positioning method and device and storage medium

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002202128A (en) * 2000-12-28 2002-07-19 Masayuki Yoshida Measuring and surveying method using digital image
JP2011048736A (en) * 2009-08-28 2011-03-10 Fujitsu Ltd Monitoring and control device, and monitoring system
US20110143707A1 (en) * 2009-12-16 2011-06-16 Darby Jr George Derrick Incident reporting

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002202128A (en) * 2000-12-28 2002-07-19 Masayuki Yoshida Measuring and surveying method using digital image
JP2011048736A (en) * 2009-08-28 2011-03-10 Fujitsu Ltd Monitoring and control device, and monitoring system
US20110143707A1 (en) * 2009-12-16 2011-06-16 Darby Jr George Derrick Incident reporting

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112883052A (en) * 2021-01-05 2021-06-01 广东云林信息工程技术股份有限公司 Forest fire monitoring and early warning fire point rapid positioning method and device and storage medium

Also Published As

Publication number Publication date
JP6645701B2 (en) 2020-02-14

Similar Documents

Publication Publication Date Title
JP3946593B2 (en) Joint shooting system
US10440323B2 (en) Facilitating wide view video conferencing through a drone network
WO2017114504A1 (en) Facilitating wide-view video conferencing through a uav network
US20200106818A1 (en) Drone real-time interactive communications system
US9762864B2 (en) System and method for monitoring at least one observation area
KR101851539B1 (en) Monitoring system using a drone
KR102335994B1 (en) Integrated control apparatus of surveillance devices for drone surveillance
JP7040580B2 (en) Video collection system, video collection method and program
US10397474B2 (en) System and method for remote monitoring at least one observation area
JP6482855B2 (en) Monitoring system
KR100888935B1 (en) Method for cooperation between two cameras in intelligent video surveillance systems
JP2016118996A (en) Monitoring system
CN100562102C (en) Be used to catch the wide field&#39;s image and the method and system of area-of-interest wherein
JP6645701B2 (en) Damage location identification system
US20180007282A1 (en) Camera control apparatus
JP2009301175A (en) Monitoring method
JP5968842B2 (en) Image distribution system and image distribution method
JP6842968B2 (en) Monitoring system
JP2005268972A (en) Video display system and video display method
CN114237094A (en) Intelligent alarm linkage monitoring system, method, electronic equipment and medium
KR20170068956A (en) Apparatus for Providing Image and Method Thereof
JP7184917B2 (en) Monitoring system
JP6244488B1 (en) Monitoring system and control program
KR20150100136A (en) System and method for providing migration route of object by using cctv
KR101614386B1 (en) System for monitoring image

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20181113

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190813

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190820

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190917

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20191210

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200107

R151 Written notification of patent or utility model registration

Ref document number: 6645701

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250