JP2022061154A - Notification system and disaster prevention system using the same - Google Patents

Notification system and disaster prevention system using the same Download PDF

Info

Publication number
JP2022061154A
JP2022061154A JP2020168964A JP2020168964A JP2022061154A JP 2022061154 A JP2022061154 A JP 2022061154A JP 2020168964 A JP2020168964 A JP 2020168964A JP 2020168964 A JP2020168964 A JP 2020168964A JP 2022061154 A JP2022061154 A JP 2022061154A
Authority
JP
Japan
Prior art keywords
data
voice
notification
information
image data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2020168964A
Other languages
Japanese (ja)
Inventor
義直 ▲高▼城
Yoshinao Takagi
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sanyu KK
Original Assignee
Sanyu KK
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sanyu KK filed Critical Sanyu KK
Priority to JP2020168964A priority Critical patent/JP2022061154A/en
Publication of JP2022061154A publication Critical patent/JP2022061154A/en
Pending legal-status Critical Current

Links

Images

Classifications

    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02ATECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
    • Y02A50/00TECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE in human health protection, e.g. against extreme weather

Landscapes

  • Telephonic Communication Services (AREA)
  • Information Transfer Between Computers (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Emergency Alarm Devices (AREA)
  • Alarm Systems (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

To provide a notification system capable of collecting information about voice notification from a resident, receiving image information shot by the resident, processing position information related to these information, displaying the notified voice information and image information on a map, processing time information and adding an event ID, and narrowing down a notification theme, and a disaster prevention system using the same.SOLUTION: A notification system comprises: a voice recognition unit 5 which recognizes notification voice data 17 of a telephone and converts the recognized data to notification voice text data 20; an information generation unit 8 which associates the voice text data with address text data 21 of a telephone source, informer data 15, identifier data 16 according to contents of the notification voice text data 20, and ID data 14 for identifying and extracting the notification voice text data 20; and a mapping unit 10 which collates the address text data 21 with mapping data 23 and associates the address text data 21 with the mapping data 23.SELECTED DRAWING: Figure 1

Description

本発明は行政機関や公益団体に対する第三者からの音声及び画像による通報をその内容によって分類しつつ時間軸と地域に沿って分別し、地図上で通報の内容を識別可能にしながら時間と地域毎に閲覧可能な通報システムと、その通報システムを防災に関する通報に対して利用する防災システムに関する。 The present invention classifies voice and image reports from third parties to government agencies and public interest groups according to their content, sorts them according to the time axis and region, and makes it possible to identify the content of the report on the map. It relates to a reporting system that can be viewed every time and a disaster prevention system that uses the reporting system for reports related to disaster prevention.

台風や地震等の自然災害が多発するわが国では、従来、防災のための様々なシステムが発明されてきた。 In Japan, where natural disasters such as typhoons and earthquakes occur frequently, various systems for disaster prevention have been invented.

例えば、特許文献1には、「河川情報提供システム」という名称で、降雨による河川の氾濫をいち早く予測して住民の安全を確保すべく、レーダによる雨量、雨域移動等を解析して洪水予測、土砂災害予測、氾濫シミュレーションを行った結果を広く関連するプラットフォーム側に報知するようにして迅速かつ的確な対応ができるようにしたシステムが開示されている。 For example, in Patent Document 1, under the name of "river information provision system", in order to promptly predict the flooding of a river due to rainfall and ensure the safety of residents, the amount of rain by a radar, the movement of a rain area, etc. are analyzed to predict the flood. , A system that enables prompt and accurate response by notifying the results of sediment-related disaster prediction and flood simulation to a wide range of related platforms is disclosed.

また、特許文献2には、「土砂災害危機管理システム」という名称で、土砂災害が予測される状況において、関連する行政機関が入手した情報を一元的に収集管理し、これらの情報をリアルタイムに行政機関及び住民が引き出すことにより、土砂災害に対して迅速かつ的確な行政対応を実現する情報システムが開示されている。情報収集には携帯情報端末等を用いて土砂災害予兆現象に関する目撃情報として写真情報や位置情報を取得し、行政機関が把握する降雨量、危険地域、住民の避難場所や避難ルートを収集して、これらを併せて共有化して、リアルタイムに必要な情報を各行政機関及び住民が引き出すことによって降雨による土砂災害に対してスピーディで的確な行政対応を実現することが可能である。 In addition, Patent Document 2 has the name "Sediment-related disaster crisis management system", which centrally collects and manages information obtained by related administrative agencies in situations where sediment-related disasters are predicted, and collects and manages this information in real time. An information system that realizes a swift and accurate administrative response to sediment-related disasters is disclosed by the government agencies and residents. To collect information, use a mobile information terminal, etc. to acquire photo information and location information as witness information on sediment-related disaster precursors, and collect rainfall, dangerous areas, evacuation sites and evacuation routes for residents as grasped by government agencies. By sharing these together and drawing out the necessary information in real time by each administrative agency and residents, it is possible to realize a speedy and accurate administrative response to sediment-related disasters caused by rainfall.

さらに、特許文献3には、「双方向型情報配信システム」という名称で、複数の近距離無線システム用の基地局を用いて無線エリアを設け、この基地局にカメラ装置を備え、また、この基地局に無線回線を通じて接続可能な情報通信機器を通じてカメラ映像等の必要な情報をインターネット網や地域イントラ網等の通信回線網を経由して住民に配信及び必要な情報を住民が投稿可能とする発明が開示されている。
また、この発明では、自治体から報知する音声源がある場合、防災行政無線に接続して音声放送情報の管理、蓄積を可能とし、音声放送情報を再配信可能であり、放送内容に位置情報が含まれる場合に、音声放送情報に位置情報を付加し、位置情報を付加した音声放送情報を位置情報と音声配信日時と関連付けて記憶することも可能である。
Further, in Patent Document 3, under the name of "bidirectional information distribution system", a wireless area is provided by using a base station for a plurality of short-range wireless systems, and the base station is equipped with a camera device. Necessary information such as camera images can be distributed to residents via communication line networks such as the Internet network and regional intra-network through information communication devices that can be connected to base stations via wireless lines, and necessary information can be posted by residents. The invention is disclosed.
Further, in the present invention, when there is an audio source to be notified from the local government, it is possible to manage and store the audio broadcast information by connecting to the disaster prevention administrative radio, and the audio broadcast information can be redistributed, and the location information is included in the broadcast content. When included, it is also possible to add location information to the audio broadcast information and store the audio broadcast information to which the location information is added in association with the location information and the audio distribution date and time.

特開2002-269656号公報Japanese Unexamined Patent Publication No. 2002-269656 特開2003-247238号公報Japanese Patent Application Laid-Open No. 2003-247238 特開2018-22509号公報Japanese Unexamined Patent Publication No. 2018-22509

しかしながら、特許文献1に開示される技術は、レーダによる雨量や雨域移動等を解析することで降雨による河川の氾濫をいち早く予測して住民の安全を確保すべく報知できるものの、リアルタイムで変化する実際の状況把握を行うことができないという課題があった。現代のように各個人が携帯電話を所有し、携帯電話に内蔵されるカメラで撮影した画像を収集できる環境にあるのに、住民によって撮影された画像を情報として活用する発想に欠け、活用できないという課題があった。
これに対して、特許文献2においては、住民からのカメラ情報を収集可能であり、画像情報は活用可能であるものの、画像を説明する音声情報が活用されておらず、また、一般家庭に設置され、カメラ機能を内蔵していない固定電話からは画像情報を送ることができず、災害に関する情報の収集が不十分であるという課題があった。
特許文献3では、行政側からの音声源に対しては再配信等の措置が可能であるものの、住民側からの音声による通報に対しては、行政機関や公益団体の職員がそれを書き留めて対応したり、コンピュータに入力して対応する等の手間がかかることもあって、活用できていないという課題があった。
さらに、これらの特許文献1-3に開示される発明では、台風や地震等の災害に対し、その災害毎に通報をまとめて履歴として残すことが容易にできないという課題があった。
具体的には、情報に付加する時間(期間)情報と位置情報に対して識別可能なフラグ(ID)を付したデータとして自動生成し、これをデータベースに保管しながらIDをキーとしてデータ検索して抽出することで、特定の台風や地震等の災害のみを抽出するといったことができなかったという課題があった。
However, although the technique disclosed in Patent Document 1 can quickly predict the flooding of rivers due to rainfall by analyzing the amount of rainfall and the movement of rain areas by radar, it changes in real time to ensure the safety of residents. There was a problem that it was not possible to grasp the actual situation. Although each individual owns a mobile phone and is in an environment where images taken by the camera built into the mobile phone can be collected as in modern times, the idea of using images taken by residents as information is lacking and cannot be used. There was a problem.
On the other hand, in Patent Document 2, camera information from residents can be collected and image information can be utilized, but audio information explaining an image is not utilized, and it is installed in a general household. However, there is a problem that image information cannot be sent from a landline telephone that does not have a built-in camera function, and information on disasters cannot be collected sufficiently.
In Patent Document 3, measures such as redistribution are possible for audio sources from the administrative side, but officials of administrative agencies and public interest organizations write down the audio reports from the residents. There was a problem that it could not be utilized because it took time and effort to deal with it or input it to a computer to deal with it.
Further, the inventions disclosed in Patent Documents 1-3 have a problem that it is not easy to record a report for each disaster as a history in response to a disaster such as a typhoon or an earthquake.
Specifically, it is automatically generated as data with an identifiable flag (ID) for the time (period) information to be added to the information and the position information, and the data is searched using the ID as a key while storing this in the database. There was a problem that it was not possible to extract only disasters such as specific typhoons and earthquakes.

本発明はかかる従来の事情に対処してなされたものであり、住民からの音声のみの通報についても情報収集しつつ、固定点監視カメラやドローンに搭載されたカメラをはじめ、住民が撮影した画像情報を受信可能であり、これらの情報に関連する位置情報を処理することで通報された音声情報と画像情報を地図上に表示可能とし、さらに、これらの情報に関連する時刻情報を処理して時刻由来の事象IDを付加し通報テーマを絞ることが可能な通報システムとそれを利用した防災システムを提供することを目的としている。 The present invention has been made in response to such conventional circumstances, and while collecting information on voice-only reports from residents, images taken by residents, including fixed-point surveillance cameras and cameras mounted on drones. Information can be received, and by processing the location information related to these information, the reported voice information and image information can be displayed on the map, and further, the time information related to these information can be processed. The purpose is to provide a reporting system that can add a time-derived event ID and narrow down the reporting theme, and a disaster prevention system that uses it.

上記目的を達成するため、第1の発明である通報システムは、オペレータが受信した電話の音声データを認識して音声テキストデータに変換する音声認識部と、この音声テキストデータに、前記電話が発信されたエリアに関する住所データと前記音声データを提供した提供者に関する提供者データと前記音声テキストデータの内容に応じて予め設定される識別子データと前記音声テキストデータを特定又は抽出するためのIDデータとを紐付ける情報生成部と、前記住所データを読み取って地図データと照合し前記地図データ中の該当する位置に前記音声テキストデータを紐付けるマッピング部と、を有することを特徴とするものである。
上記構成の通報システムでは、音声認識部はオペレータが受けた電話の音声データを認識して音声テキストデータに変換することで、情報生成部は住所データ、提供者データ、識別子データ及びIDデータを音声テキストデータに紐付けることができるように作用する。また、マッピング部は音声テキストデータに紐付けられた住所データと地図データを照合して、その地図データの中で住所データに該当する位置に音声テキストデータを出力可能に貼り付けるように作用する。
「ID」とは、付されるあるいは紐付けられる対象となるデータを識別可能な記号をはじめ、数字、文字の他、例えば1次元コードや2次元コードのように意味を付された図形を含み、さらに、付される又は紐付けられる対象となるデータの内容を想定してあるいは内容に基づいて概念される文言を含む概念である。
In order to achieve the above object, the reporting system according to the first invention has a voice recognition unit that recognizes voice data of a telephone received by an operator and converts it into voice text data, and the telephone sends a call to the voice text data. Address data related to the area, provider data related to the provider who provided the voice data, identifier data preset according to the content of the voice text data, and ID data for specifying or extracting the voice text data. It is characterized by having an information generation unit for associating the address data with the data, and a mapping unit for reading the address data, collating it with the map data, and associating the voice text data with the corresponding position in the map data.
In the reporting system having the above configuration, the voice recognition unit recognizes the voice data of the telephone received by the operator and converts it into voice text data, and the information generation unit voices the address data, the provider data, the identifier data and the ID data. It works so that it can be linked to text data. Further, the mapping unit collates the address data associated with the voice text data with the map data, and acts to paste the voice text data at a position corresponding to the address data in the map data so that the voice text data can be output.
The "ID" includes symbols that can identify the data to be attached or associated, numbers, characters, and figures with meanings such as one-dimensional codes and two-dimensional codes. Furthermore, it is a concept including a wording that is conceived by assuming or based on the content of the data to be attached or associated.

また、第2の発明である通報システムは、第1の発明において、前記音声テキストデータを解析して前記住所データを生成するテキスト解析部を有することを特徴とするものである。
上記構成の通報システムでは、第1の発明の作用に加えて、テキスト解析部は音声テキストデータの内容を解析し、その内容から地理的なデータを抽出して住所データを生成するように作用する。
Further, the reporting system according to the second invention is characterized in that, in the first invention, it has a text analysis unit that analyzes the voice text data and generates the address data.
In the reporting system having the above configuration, in addition to the action of the first invention, the text analysis unit acts to analyze the contents of voice text data, extract geographical data from the contents, and generate address data. ..

第3の発明である通報システムは、第1又は第2の発明において、前記情報生成部は、前記電話を受信した時刻に関する受信時刻データを前記音声テキストデータに紐付け、前記受信時刻データを読み取って前記受信時刻データを用いて、又は前記住所データを読み取って前記住所データを用いて、前記音声テキストデータを並べ替える第1のソート部を有することを特徴とするものである。
上記構成の通報システムでは、第1又は第2の発明の作用に加えて、情報生成部が住所データのみならず受信時刻データを音声テキストデータに紐付けるように作用し、第1のソート部は受信時刻データ又は住所データを用いて音声テキストデータを並べ替えるように作用する。
In the notification system according to the third invention, in the first or second invention, the information generation unit associates reception time data relating to the time when the telephone is received with the voice text data, and reads the reception time data. It is characterized by having a first sort unit for rearranging the voice text data by using the reception time data or by reading the address data and using the address data.
In the notification system having the above configuration, in addition to the action of the first or second invention, the information generation unit acts to link not only the address data but also the reception time data to the voice text data, and the first sort unit is It acts to sort the voice text data using the reception time data or the address data.

そして、第4の発明である通報システムは、第3の発明において、起点として選択された一の前記受信時刻データとこの受信時刻データよりも後の他の前記受信時刻データとの間の期間に含まれる前記受信時刻データに紐付けられた前記音声テキストデータに、所望に設定される事象(イベント)名をIDとして生成して紐付ける第1のID生成部を有することを特徴とするものである。
上記構成の通報システムでは、第1のID生成部が音声テキストデータに紐付けられている受信時刻データを読み取り、予め起点として選択された受信時刻データと終点として選択された受信時刻データとの間の期間に含まれる受信時刻データが紐付けられた音声テキストデータに対して所望に設定される事象名をIDとして生成して紐付けるように作用する。
Then, in the third invention, the notification system according to the fourth invention is in the period between the one reception time data selected as the starting point and the other reception time data after the reception time data. It is characterized by having a first ID generation unit that generates and associates an event (event) name that is desired to be desired as an ID with the voice text data associated with the included reception time data. be.
In the notification system having the above configuration, the first ID generation unit reads the reception time data associated with the voice text data, and between the reception time data selected as the starting point and the reception time data selected as the ending point in advance. It acts to generate and associate the event name desiredly set with respect to the voice text data associated with the reception time data included in the period as an ID.

第5の発明である通報システムは、第1乃至第4の発明のうちいずれか1の発明において、前記情報生成部は、時刻データと位置データを付帯した画像データを情報通信網を介して受信し、前記画像データに、前記画像データの内容にも応じて予め設定される前記識別子データと前記画像データを特定又は抽出するための前記IDデータとを紐付け、前記マッピング部は、前記位置データを読み取って前記地図データと照合し前記地図データ中の該当する位置に前記画像データを紐付けることを特徴とするものである。
上記構成の通報システムにおいては、第1乃至第4の発明のうちいずれか1つの発明の作用に加えて、情報生成部が時刻データと位置データを付帯した画像データを情報通信網を介して受信して、画像データに識別子データ及びIDデータを紐付けるように作用する。また、マッピング部は音声テキストデータと同様に、位置データを読み取って地図データと照合し、その地図データの中で位置データに該当する位置に画像データを出力可能に貼り付けるように作用する。
なお、「位置データ」とは全地球測位システム(GPS)を用いて得られる全地球測位データを意味し、具体的には緯度及び経度の数値からなるデータである。さらに、「時刻データと位置データを付帯した画像データ」の「画像データ」とは「動画像に関するデータ」と「静止画像に関するデータ」の両方を意味し、「時刻データと位置データを付帯した」とは撮影されて得られる動画像又は静止画像自体のメタデータとして、時刻データと位置データが付加された状態であることを意味している。したがって、動画像データ及び静止画像データはいずれも時刻データ及び位置データと一体不可分に構成されている。
In the notification system according to the fifth invention, in any one of the first to fourth inventions, the information generation unit receives image data accompanied by time data and position data via an information communication network. Then, the image data is associated with the identifier data preset according to the content of the image data and the ID data for specifying or extracting the image data, and the mapping unit uses the position data. Is read and collated with the map data, and the image data is associated with the corresponding position in the map data.
In the notification system having the above configuration, in addition to the action of any one of the first to fourth inventions, the information generation unit receives image data with time data and position data via the information communication network. Then, it acts to associate the identifier data and the ID data with the image data. Further, the mapping unit acts to read the position data and collate it with the map data in the same manner as the voice text data, and paste the image data at the position corresponding to the position data in the map data so that it can be output.
The "position data" means global positioning data obtained by using the Global Positioning System (GPS), and specifically, it is data consisting of numerical values of latitude and longitude. Furthermore, the "image data" of "image data with time data and position data" means both "data related to moving images" and "data related to still images", and "with time data and position data". Means that time data and position data are added as metadata of the moving image or the still image itself obtained by being photographed. Therefore, both the moving image data and the still image data are inseparably configured with the time data and the position data.

第6の発明である通報システムは、第5の発明において、前記情報生成部は、前記時刻データを読み取ってその時刻データを用いて、又は前記位置データを読み取ってその位置データを用いて、前記画像データを並べ替える第2のソート部を有することを特徴とするものである。
上記構成の通報システムでは、第5の発明における作用に加えて、第2のソート部が時刻データ又は位置データを用いて画像データを並べ替えるように作用する。なお、第2のソート部は第1のソート部と共用されてもよい。
In the fifth aspect of the invention, the notification system according to the sixth aspect is described by the information generation unit reading the time data and using the time data, or reading the position data and using the position data. It is characterized by having a second sort unit for rearranging image data.
In the notification system having the above configuration, in addition to the action in the fifth invention, the second sort unit acts to sort the image data using the time data or the position data. The second sort unit may be shared with the first sort unit.

第7の発明である通報システムは、第5又は第6の発明において、起点として選択された一の前記時刻データとこの時刻データよりも後の他の前記時刻データとの間の期間に含まれる前記時刻データを付帯する前記画像データに、所望に設定される事象名をIDとして生成する第2のID生成部を有することを特徴とするものである。
上記構成の通報システムでは、第5又は第6の発明の作用に加えて、第2のID生成部が画像データに付帯されている時刻データを読み取り、予め起点として選択された時刻データと終点として選択された時刻データとの間の期間に含まれる時刻データが紐付けられた画像データに対して所望に設定される事象名をIDとして生成して紐付けるように作用する。なお、第2のID生成部は第1のID生成部と共用されてもよい。
The notification system according to the seventh invention is included in the period between one said time data selected as a starting point and the other said time data after this time data in the fifth or sixth invention. The image data to which the time data is attached is characterized by having a second ID generation unit that generates an event name that is desired to be set as an ID.
In the notification system having the above configuration, in addition to the operation of the fifth or sixth invention, the second ID generation unit reads the time data attached to the image data and uses the time data and the end point selected in advance as the start point. The time data included in the period between the selected time data and the selected time data acts to generate and associate the event name desiredly set with respect to the associated image data as an ID. The second ID generation unit may be shared with the first ID generation unit.

第8の発明である通報システムは、第5乃至第7の発明のうちいずれか1つの発明において、前記画像データは携帯電話内蔵のカメラ、ドローンに設置されたカメラ又は固定点監視カメラの少なくともいずれか1つによって撮影された画像データであることを特徴とするものである。
上記構成の通報システムの作用は、第5乃至第7の発明のいずれか1つの発明の作用と同様である。
The notification system according to the eighth invention is the invention of any one of the fifth to seventh inventions, wherein the image data is at least one of a camera built in a mobile phone, a camera installed in a drone, or a fixed point surveillance camera. It is characterized in that it is image data taken by one of them.
The operation of the notification system having the above configuration is the same as that of any one of the fifth to seventh inventions.

第9の発明である防災システムは、第1乃至第4のいずれか1つの通報システムにおいて、前記音声テキストデータを防災情報に関する音声テキストデータとして用いることを特徴とするものである。
上記構成の防災システムにおいては、通報の内容が防災に関するものであるという点でのみ異なるが、その作用においては、第1乃至第4の発明のうちいずれか1つの発明の作用と同様である。
The disaster prevention system according to the ninth invention is characterized in that the voice text data is used as voice text data related to disaster prevention information in any one of the first to fourth reporting systems.
The disaster prevention system having the above configuration differs only in that the content of the notification is related to disaster prevention, but its action is the same as that of any one of the first to fourth inventions.

第10の発明である防災システムは、第5乃至第8のいずれか1つの通報システムにおいて、前記音声テキストデータを防災情報に関する音声テキストデータとして用い、前記画像データを防災情報に関する画像データとして用いることを特徴とするものである。
上記構成の防災システムにおいては、通報の内容が防災に関するものであるという点でのみ異なるが、その作用においては、第5乃至第8の発明のうちいずれか1つの発明の作用と同様である。
In the disaster prevention system according to the tenth invention, in any one of the fifth to eighth reporting systems, the voice text data is used as voice text data related to disaster prevention information, and the image data is used as image data related to disaster prevention information. It is characterized by.
The disaster prevention system having the above configuration differs only in that the content of the notification is related to disaster prevention, but its action is the same as that of any one of the fifth to eighth inventions.

第1の発明に係る通報システムでは、電話で受信した音声データの内容をテキストデータ化することで、地図データ上にマッピングすることができ、可視化することができる。また、住所データ、提供者データ、識別子データ及びIDデータを紐付けることで、これらのデータ毎に音声テキストデータを分類、抽出することも可能である。 In the reporting system according to the first invention, the content of the voice data received by the telephone can be converted into text data, which can be mapped and visualized on the map data. Further, by associating the address data, the provider data, the identifier data, and the ID data, it is possible to classify and extract the voice text data for each of these data.

第2の発明に係る通報システムでは、第1の発明の効果に加えて、住所データの内容を別途入力する労力や手間が必要なく、解析された住所データを音声テキストデータに紐付けることが可能である。 In the reporting system according to the second invention, in addition to the effect of the first invention, it is possible to link the analyzed address data to the voice text data without the need for labor and labor to separately input the contents of the address data. Is.

第3の発明に係る通報システムでは、第1又は第2の発明の効果に加えて、受信時刻データや住所データに基づいて、音声テキストデータを並び替えすることが可能である。この並び替えによって、時系列順に音声テキストデータを並べることが可能であり、通報の履歴、歴史といった観点から音声テキストデータを解析することが可能である。また、地域別に音声テキストデータを並べることが可能であり、通報の地域性といった観点から音声テキストデータを解析することが可能である。 In the reporting system according to the third invention, in addition to the effects of the first or second invention, it is possible to sort the voice text data based on the reception time data and the address data. By this sorting, it is possible to arrange the voice text data in chronological order, and it is possible to analyze the voice text data from the viewpoint of the history and history of the report. In addition, it is possible to arrange the voice text data by region, and it is possible to analyze the voice text data from the viewpoint of the regional characteristics of the report.

第4の発明に係る通報システムでは、第3の発明の効果に加えて、ID生成部が、ある期間内に存在する音声テキストデータの内容から想定される所望の事象名をIDとして生成できるので、ある期間に共通した内容が想定される場合にその想定を象徴する事象名をIDとして生成して紐付けることで、その想定される事象に関連する通報をまとめて抽出、管理あるいは解析することが可能である。 In the notification system according to the fourth invention, in addition to the effect of the third invention, the ID generation unit can generate a desired event name assumed from the contents of the voice text data existing within a certain period as an ID. , When the contents common to a certain period are assumed, the event name that symbolizes the assumption is generated as an ID and associated with it, and the reports related to the assumed event are collectively extracted, managed or analyzed. Is possible.

第5の発明に係る通報システムでは、第1乃至第4の発明のうちいずれか1つの発明と同様の効果を発揮することに加えて、音声テキストデータのみならず、時刻データと位置データを付帯した画像データをも受信することで、電話による通報の他、画像による通報も地図データ上にマッピングすることが可能となり、言葉と画像の両方から閲覧者にわかりやすく通報内容を活用してもらうことが可能である。画像データは言葉よりも情報量が多いとも考えられるが、説明がない場合には閲覧者に誤解を与えてしまう可能性も否定できず、言葉による説明が同時にマッピングされることで、誤解の生じる可能性を低減しながら、閲覧者の迅速な理解を助けることができる。 In the notification system according to the fifth invention, in addition to exhibiting the same effect as that of any one of the first to fourth inventions, not only voice text data but also time data and position data are attached. By receiving the image data, it is possible to map the report by image as well as the report by telephone on the map data, so that the viewer can easily understand the content of the report from both words and images. Is possible. It is thought that image data has more information than words, but it cannot be denied that there is a possibility of misunderstanding the viewer if there is no explanation, and misunderstandings occur when the explanations in words are mapped at the same time. It can help the viewer's quick understanding while reducing the possibility.

第6の発明に係る通報システムでは、第5の発明の効果に加えて、第3の発明と同様に、時刻データや位置データに基づいて、画像データを並び替えすることが可能である。この並び替えによって、時系列順に画像データを並べることが可能であり、通報の履歴、歴史といった観点から画像データを解析することが可能である。また、地域別に画像データを並べることが可能であり、通報の地域性といった観点から画像データを解析することが可能である。 In the notification system according to the sixth invention, in addition to the effect of the fifth invention, it is possible to rearrange the image data based on the time data and the position data as in the third invention. By this sorting, it is possible to arrange the image data in chronological order, and it is possible to analyze the image data from the viewpoint of the history and history of the report. In addition, it is possible to arrange the image data by region, and it is possible to analyze the image data from the viewpoint of the regional characteristics of the report.

第7の発明に係る通報システムでは、第5又は第6の発明の効果に加えて、第4の発明と同様に、ID生成部がある期間内に存在する画像データの内容から想定される所望の事象名をIDとして生成できるので、ある期間に共通した内容が想定される場合にその想定を象徴する事象名をIDとして生成して紐付けることで、その想定される事象に関連する通報をまとめて抽出、管理あるいは解析することが可能である。 In the notification system according to the seventh invention, in addition to the effects of the fifth or sixth invention, as in the fourth invention, the ID generator is desired from the contents of the image data existing within a certain period. Since the event name of can be generated as an ID, when common contents are assumed in a certain period, the event name symbolizing the assumption is generated as an ID and associated with the report related to the expected event. It can be collectively extracted, managed or analyzed.

第8の発明に係る通報システムでは、画像データの内容が携帯電話内蔵のカメラ、ドローンに設置されたカメラ又は固定点監視カメラの少なくともいずれか1つによって撮影された画像データということであり、第5乃至第7の発明のうちいずれか1つの発明の効果と同様の効果を奏することが可能である。 In the notification system according to the eighth invention, the content of the image data is the image data taken by at least one of a camera built in the mobile phone, a camera installed in the drone, or a fixed point surveillance camera. It is possible to achieve the same effect as that of any one of the fifth to seventh inventions.

第9の発明に係る防災システムでは、通報の内容が防災に関するものであるという点でのみ異なるが、その効果においては、第1乃至第4の発明のうちいずれか1つの発明の効果と同様である。 The disaster prevention system according to the ninth invention differs only in that the content of the notification is related to disaster prevention, but the effect is the same as the effect of any one of the first to fourth inventions. be.

第10の発明に係る防災システムでは、通報の内容が防災に関するものであるという点でのみ異なるが、その効果においては、第5乃至第8の発明のうちいずれか1つの発明の効果と同様である。 The disaster prevention system according to the tenth invention differs only in that the content of the notification is related to disaster prevention, but the effect is the same as the effect of any one of the fifth to eighth inventions. be.

本発明の実施の形態に係る防災システムのシステム構成図である。It is a system block diagram of the disaster prevention system which concerns on embodiment of this invention. 本発明の実施例に係る防災システムにおいて通報者からの電話を受信している状態を示す概念図である。It is a conceptual diagram which shows the state which receives the telephone call from the whistleblower in the disaster prevention system which concerns on embodiment of this invention. 本発明の実施例に係る防災システムにおいて地図データ上にマッピングされた固定点監視カメラからの画像データが閲覧者によってポップアップされた状態を示す概念図である。It is a conceptual diagram which shows the state which the image data from the fixed point surveillance camera mapped on the map data popped up by a viewer in the disaster prevention system which concerns on embodiment of this invention. 本発明の実施例に係る防災システムに対してドローンに搭載されたカメラを通じて災害現場の画像を送信して自治体庁舎内での会議に提供している状態を示す概念図である。It is a conceptual diagram which shows the state which the image of the disaster site is transmitted through the camera mounted on the drone to the disaster prevention system which concerns on embodiment of this invention, and is provided to the meeting in the municipal office building. 本発明の実施例に係る防災システムにおいて通報者から送信された災害画像が地図データ上にマッピングされる状態とその災害画像に関する画像データが閲覧者によってポップアップされた状態を示す概念図である。FIG. 5 is a conceptual diagram showing a state in which a disaster image transmitted from a whistleblower is mapped on map data and a state in which image data related to the disaster image is popped up by a viewer in the disaster prevention system according to the embodiment of the present invention. 本発明の実施例に係る防災システムにおいて地図データ上にマッピングされた災害画像に関する画像データが閲覧者によってポップアップされた状態を示す概念図である。It is a conceptual diagram which shows the state which the image data about the disaster image mapped on the map data popped up by a viewer in the disaster prevention system which concerns on embodiment of this invention. 本発明の実施例にかかる防災システムのID生成部による事象名をIDとして付加する機能を説明するための概念図である。It is a conceptual diagram for demonstrating the function which adds the event name as ID by the ID generation part of the disaster prevention system which concerns on embodiment of this invention. 本発明の実施例にかかる防災システムにおいてある期間内に存在する画像データの内容から想定される所望の事象名をIDとして付して一覧表としてまとめたものである。In the disaster prevention system according to the embodiment of the present invention, a desired event name assumed from the contents of image data existing within a certain period is attached as an ID and summarized as a list.

以下に、本発明の実施の形態に係る通報システムについて図1を参照しながら説明する。発明を実施するための通報システムの形態としては、災害の発生や予兆に関する情報を取り扱う防災システムを採用して説明する。図1は防災システムのシステム構成図である。
図1において、防災システム1は、外部とのやりとりを行うための入力部2と出力部3、防災システム1に関わるデータを処理するための処理部4を備え、入力されるデータや処理後のデータを格納するための通報音声データベース13、文字変換データベース19、地図データベース22、フォームデータベース24及び通報画像データベース26を備えている。
処理部4には、音声認識部5、テキスト解析部6、ID生成部7、情報生成部8、ソート部9、マッピング部10が備えられている。
通報音声データベース13は通報者(提供者)の携帯電話42や固定電話からの音声通報に関するデータを読み出し可能に格納するデータベースであり、IDデータ14、通報者データ15、識別子データ16、受信時刻データ18が通報音声データ17に紐付けられて格納されている。
文字変換データベース19は通報音声データベース13に格納されている通報音声データ17を音声認識部5によってテキスト変換した通報音声テキストデータ20を格納するデータベースであり、通報音声テキストデータ20にはIDデータ14、通報者データ15、識別子データ16及び受信時刻データ18が紐付けられると共に、処理部4のテキスト解析部6によって通報音声テキストデータ20の内容を解析することで得られる住所テキストデータ21が紐付けられている。
通報画像データベース26は、通報者の携帯電話42やコンピュータ43からの画像通報に関するデータを読み出し可能に格納するデータベースであり、動画像と静止画像のいずれもそれぞれIDデータ27,34、通報者データ28,35、識別子データ29,36を紐付けられた通報動画像データ30あるいは通報静止画像データ37が格納されており、それぞれ撮影時刻データ32,39及び撮影時位置データ33,40を付帯データ31,38として付帯している。
Hereinafter, the notification system according to the embodiment of the present invention will be described with reference to FIG. As a form of the notification system for carrying out the invention, a disaster prevention system that handles information on the occurrence and signs of a disaster will be adopted and explained. FIG. 1 is a system configuration diagram of a disaster prevention system.
In FIG. 1, the disaster prevention system 1 includes an input unit 2 and an output unit 3 for communicating with the outside, and a processing unit 4 for processing data related to the disaster prevention system 1, and is provided with input data and post-processing data. It includes a notification voice database 13, a character conversion database 19, a map database 22, a form database 24, and a notification image database 26 for storing data.
The processing unit 4 includes a voice recognition unit 5, a text analysis unit 6, an ID generation unit 7, an information generation unit 8, a sort unit 9, and a mapping unit 10.
The report voice database 13 is a database that readablely stores data related to voice reports from the whistleblower (provider) mobile phone 42 or fixed telephone, and includes ID data 14, whistleblower data 15, identifier data 16, and reception time data. 18 is associated with and stored in the report voice data 17.
The character conversion database 19 is a database that stores the report voice text data 20 in which the report voice data 17 stored in the report voice database 13 is text-converted by the voice recognition unit 5, and the report voice text data 20 includes the ID data 14 and The reporter data 15, the identifier data 16 and the reception time data 18 are associated with each other, and the address text data 21 obtained by analyzing the contents of the report voice text data 20 by the text analysis unit 6 of the processing unit 4 is associated with the reporter data 15. ing.
The report image database 26 is a database that readablely stores data related to image reports from the reporter's mobile phone 42 or computer 43, and has ID data 27 and 34 and reporter data 28 for both moving images and still images, respectively. , 35, notification moving image data 30 or notification still image data 37 associated with identifier data 29, 36 are stored, and shooting time data 32, 39 and shooting position data 33, 40 are attached to incidental data 31, respectively. It is attached as 38.

地図データベース22には地図データ23が格納されており、マッピング部10によって、通報音声テキストデータ20に紐付けられた住所テキストデータ21あるいは通報動画像データ30や通報静止画像データ37に紐付けられた撮影時位置データ33,40と地図データ23とが照合され、地図データ23中の該当する位置データに通報音声テキストデータ20あるいは通報動画像データ30や通報静止画像データ37が紐付けられる。この処理の実行によってマッピングが完了し、防災システム1の利用者の携帯電話42やコンピュータ43の画面上に地図データ23を表示した際にマッピングされた位置にアイコンが表示され、そのアイコンをクリックすることで、その位置に紐付けられた通報音声テキストデータ20あるいは通報動画像データ30や通報静止画像データ37が表示される。
フォームデータベース24にはフォームデータ25が格納されており、音声認識部5で通報音声データ17を通報音声テキストデータ20に変換し、それをテキスト解析部6が解析する際に、テキスト解析部6がフォームデータベース24から音声受付用のフォームデータ25を読み出して、そのフォームデータ25に変換後の通報音声テキストデータ20や解析して抽出された通報者データ15や住所テキストデータ21を紐付けて文字変換データベース19に格納したり、通報者が携帯電話42やコンピュータ43から通報動画像データ30や通報静止画像データ37を投稿する際に、情報生成部8がフォームデータベース24からフォームデータ25を読み出して、出力部3を介して表示させ、そのフォームデータ25に応じて投稿してもらい、フォームデータ25に通報動画像データ30や通報静止画像データ37を紐付けて通報画像データベース26に格納する。なお、そのフォームデータ25に通報動画像データ30や通報静止画像データ37に関する説明テキスト文を追加するよう促す文言を加えてもよい。その場合には通報動画像データ30や通報静止画像データ37にテキスト説明文のデータが紐付けられ通報動画像データ30や通報静止画像データ37と同時に閲覧させることができる。
The map data 23 is stored in the map database 22, and is associated with the address text data 21 associated with the notification voice text data 20, the notification moving image data 30, or the notification still image data 37 by the mapping unit 10. The position data 33 and 40 at the time of shooting are collated with the map data 23, and the notification voice text data 20, the notification moving image data 30, and the notification still image data 37 are associated with the corresponding position data in the map data 23. By executing this process, mapping is completed, and an icon is displayed at the mapped position when the map data 23 is displayed on the screen of the mobile phone 42 or computer 43 of the user of the disaster prevention system 1, and the icon is clicked. As a result, the notification voice text data 20, the notification moving image data 30, and the notification still image data 37 associated with the position are displayed.
The form data 25 is stored in the form database 24, and when the voice recognition unit 5 converts the report voice data 17 into the report voice text data 20 and the text analysis unit 6 analyzes it, the text analysis unit 6 performs it. Form data 25 for voice reception is read from the form database 24, and the form data 25 is associated with the converted report voice text data 20, the analyzed and extracted reporter data 15, and the address text data 21 for character conversion. When the reporter posts the report moving image data 30 or the report still image data 37 from the mobile phone 42 or the computer 43, the information generation unit 8 reads the form data 25 from the form database 24 and stores the data in the database 19. It is displayed via the output unit 3, posted according to the form data 25, and the report moving image data 30 and the report still image data 37 are associated with the form data 25 and stored in the report image database 26. In addition, a wording urging to add an explanatory text sentence regarding the notification moving image data 30 and the notification still image data 37 may be added to the form data 25. In that case, the data of the text explanation is associated with the notification moving image data 30 and the notification still image data 37, and can be viewed at the same time as the notification moving image data 30 and the notification still image data 37.

入力部2は、情報通信網41に接続されるドローンカメラ11や固定点監視カメラ12、あるいはこの防災システム1の利用者の携帯電話42や固定電話から送信される音声や画像、利用者(通報者)のコンピュータ43から送信される画像やテキストデータを入力するためのものであるが、入力部2とこれらの情報の入力を行うための装置との接続は有線によっても無線によってもよい。また、入力部2は防災システム1のオペレータによるデータ入力にも利用される。
例えば、オペレータが受信した電話による通報に対して、音声認識部5がフォームデータベース24から読み出すフォームデータ25を、出力部3を介して表示させ、これにテキスト解析部6によって認識できない通報の内容を、入力部2を介して補足するように入力する場合がある。あるいは、地図データベース22に対して地図データ23を、フォームデータベース24に対してフォームデータ25を予め格納するためにも用いられる。
入力部2として具体的には、キーボード、マウス、ペンタブレット、光学式の読み取り装置あるいはデータ受信部としての他の装置や情報通信網41からの受信端子が相当する。
出力部3は処理部4の各部で処理を実行するためにデータ入力を促すフォームデータ25を用いた画面(インターフェース画面)、処理命令の内容、処理の結果得られるデータ等を出力(表示)したり、各データベースに格納されるデータを処理部4を介して選択して、あるいは検索・抽出して出力(表示)することができるものである。具体的にはCRT、液晶、プラズマあるいは有機ELなどによるディスプレイ装置、あるいはプリンタ装置などの出力装置、さらには外部装置への伝送を行うためのトランスミッタなどの発信装置などが考えられる。もちろん、外部装置への伝送のための出力に対するインターフェースのようなものであってもよい。
The input unit 2 is a drone camera 11 or a fixed point monitoring camera 12 connected to the information communication network 41, or a voice or image transmitted from a mobile phone 42 or a fixed telephone of a user of the disaster prevention system 1, and a user (report). The purpose is to input images and text data transmitted from the computer 43 of the person), but the connection between the input unit 2 and the device for inputting these information may be wired or wireless. The input unit 2 is also used for data input by the operator of the disaster prevention system 1.
For example, in response to a telephone report received by the operator, the form data 25 read from the form database 24 by the voice recognition unit 5 is displayed via the output unit 3, and the content of the report that cannot be recognized by the text analysis unit 6 is displayed on the form data 25. , May be input to be supplemented via the input unit 2. Alternatively, it is also used to store the map data 23 in the map database 22 and the form data 25 in the form database 24 in advance.
Specifically, the input unit 2 corresponds to a keyboard, a mouse, a pen tablet, an optical reading device, another device as a data receiving unit, or a receiving terminal from an information communication network 41.
The output unit 3 outputs (displays) a screen (interface screen) using the form data 25 for prompting data input in each unit of the processing unit 4, the contents of the processing instruction, the data obtained as a result of the processing, and the like. Alternatively, the data stored in each database can be selected via the processing unit 4, or searched / extracted and output (displayed). Specifically, a display device such as a CRT, a liquid crystal display, a plasma or an organic EL, an output device such as a printer device, and a transmission device such as a transmitter for transmitting to an external device can be considered. Of course, it may be something like an interface to the output for transmission to an external device.

処理部4としては、音声認識部5、テキスト解析部6、ID生成部7、情報生成部8、ソート部9及びマッピング部10が含まれる。
音声認識部5は災害の発生や予兆に関して携帯電話42や電話等を用いて音声で行った通報者の通報音声データ17を認識して通報音声テキストデータ20へ変換する機能を有する装置である。
また、テキスト解析部6は音声認識部5によって通報音声テキストデータ20へ変換された通報音声データ17の内容を解析する装置であり、具体的には、予め氏名、防災システム1が包含するエリアに存在する地名及び通報内容に関連する単語をメモリに格納しておき、テキストへ変換された通報音声データ17の内容を照合することで、通報者氏名等に関する通報者データ15、通報音声テキストデータ20及び災害発生地に関する住所テキストデータ21を抽出することができる。
なお、例えば電話によらずメールで受信される通報もあると考えられるが、その場合は、音声認識部5を介すことなく、テキスト解析部6で処理して通報者氏名等に関する通報者データ15、通報音声テキストデータ20及び住所テキストデータ21を抽出することが可能である。また、携帯電話42やコンピュータ43からフォームデータ25に沿ってテキストデータで通報する場合は、予めフォームデータ25に通報者氏名、住所、通報内容の欄が設けられているので、テキスト解析部6はそれぞれの欄からデータを読み出して通報者氏名等に関する通報者データ15、通報音声テキストデータ20及び住所テキストデータ21を抽出することが可能である。
ID生成部7は、入力部2を介して受信された通報者による通報音声データ17、ドローンカメラ11や固定点監視カメラ12あるいは通報者による通報動画像データ30及び通報静止画像データ37に対して、それぞれIDデータ14,27,34を生成する装置である。ID生成部7によって生成されるIDデータ14,27,34の種類は表1に示される4種類のIDデータ14,27,34である。データ認識連番IDはすべての受信されたデータに対して自動的に発番されるIDデータ14,27,34である。情報ソースIDは通報の手段に関するIDデータ14,27,34であり、ID生成部7によって受信されるデータの内容によって自動的に生成されるもので、通報者からの電話、通報者からの(電子)メール(携帯電話42及びコンピュータ43からフォームデータ25に沿って受信されるメールも含む)、ドローンカメラ11、固定点監視カメラ12等が挙げられる。
The processing unit 4 includes a voice recognition unit 5, a text analysis unit 6, an ID generation unit 7, an information generation unit 8, a sort unit 9, and a mapping unit 10.
The voice recognition unit 5 is a device having a function of recognizing the report voice data 17 of the caller who made a voice using a mobile phone 42, a telephone, or the like regarding the occurrence or sign of a disaster and converting it into the report voice text data 20.
Further, the text analysis unit 6 is a device that analyzes the content of the notification voice data 17 converted into the notification voice text data 20 by the voice recognition unit 5, and specifically, the name and the area included in the disaster prevention system 1 in advance. By storing the existing place name and the word related to the report content in the memory and collating the content of the report voice data 17 converted into text, the reporter data 15 and the report voice text data 20 regarding the reporter's name and the like are collated. And the address text data 21 regarding the disaster occurrence place can be extracted.
In addition, for example, it is considered that there is a report received by e-mail regardless of the telephone, but in that case, the reporter data regarding the reporter's name etc. is processed by the text analysis unit 6 without going through the voice recognition unit 5. 15. It is possible to extract the report voice text data 20 and the address text data 21. Further, when a report is made from the mobile phone 42 or the computer 43 by text data along with the form data 25, the form data 25 is provided with columns for the name, address, and report content of the reporter in advance, so that the text analysis unit 6 may use the text analysis unit 6. It is possible to read data from each column and extract the whistleblower data 15, the whistleblower voice text data 20 and the address text data 21 regarding the whistleblower name and the like.
The ID generation unit 7 receives the report voice data 17 by the caller, the drone camera 11, the fixed point monitoring camera 12, the report moving image data 30 by the reporter, and the report still image data 37 received via the input unit 2. , Is a device that generates ID data 14, 27, 34, respectively. The types of ID data 14, 27, 34 generated by the ID generation unit 7 are the four types of ID data 14, 27, 34 shown in Table 1. The data recognition serial number IDs are ID data 14, 27, 34 that are automatically numbered for all received data. The information source IDs are ID data 14, 27, 34 relating to the means of reporting, which are automatically generated according to the contents of the data received by the ID generation unit 7, and are called from the whistleblower and (from the whistleblower). Examples include electronic) mail (including mail received from the mobile phone 42 and the computer 43 along the form data 25), a drone camera 11, a fixed point monitoring camera 12, and the like.

Figure 2022061154000002
Figure 2022061154000002

事象IDはオペレータから入力部2を介して入力されてID生成部7が生成するIDデータ14,27,34である。この事象IDは通報された災害を端的に表現するものであり、例えば、「令和2年〇〇県央豪雨」や「令和2年台風10号」等が該当する。
また、エリアIDは地図データ23中の都道府県、市町村、あるいは所望に設定されるエリア毎に予め定められてID生成部7が格納するIDデータ14,27,34であり、例えば受信される通報動画像データ30や通報静止画像データ37に付帯される撮影時位置データ33,40に含まれる位置情報や通報音声テキストデータ20から解析して得られる住所テキストデータ21に含まれる住所名から該当するエリアに関するIDとして抽出し生成されるIDデータ14,27,34である。
The event ID is ID data 14, 27, 34 input from the operator via the input unit 2 and generated by the ID generation unit 7. This event ID simply expresses the reported disaster, and corresponds to, for example, "Reiwa 2nd year XX prefecture heavy rain" and "Reiwa 2nd year typhoon No. 10".
Further, the area IDs are ID data 14, 27, 34 that are predetermined and stored by the ID generation unit 7 for each prefecture, city, town, or village in the map data 23, or for each area that is desired to be set, and are, for example, received reports. Corresponding from the position information included in the shooting position data 33 and 40 attached to the moving image data 30 and the reporting still image data 37 and the address name included in the address text data 21 obtained by analyzing from the reporting voice text data 20. ID data 14, 27, 34 extracted and generated as an ID related to the area.

次に、情報生成部8は災害の発生や予兆に関して携帯電話42や電話等を用いて音声で行った通報者の通報音声データ17、ドローンカメラ11又は固定点監視カメラ12から受信される通報動画像データ30及び通報静止画像データ37、さらには通報者から投稿される通報動画像データ30及び通報静止画像データ37を入力部2を介して受信し、防災システム1内で活用されるデータの形式として通報音声データベース13、文字変換データベース19、通報画像データベース26に読み出し可能に格納するための装置である。
具体的には、入力部2に入力された通報音声データ17に対しては、ID生成部7によって自動的にデータ認識連番ID及び情報ソースIDがIDデータ14として生成されるので、情報生成部8はこのID生成部7で生成されたIDデータ14を通報音声データ17に対して紐付ける。また、情報生成部8は電話を受信したオペレータによって入力部2を介して入力されるかあるいはテキスト解析部6による解析によって得られる通報者氏名等に関する通報者データ15も通報音声データ17に対して紐付ける。さらに、情報生成部8はオペレータによって入力部2を介して入力される災害内容に関する識別子データ16と電話機の時刻生成機能を利用して受信する受信時刻データ18を通報音声データ17に対して紐付ける。情報生成部8は、これらのデータを通報音声データ17に紐付けて読み出し可能に通報音声データベース13に格納する。
Next, the information generation unit 8 makes a voice report voice data 17 of a whistleblower using a mobile phone 42, a telephone, or the like regarding the occurrence or sign of a disaster, and a report video received from the drone camera 11 or the fixed point monitoring camera 12. The format of the data used in the disaster prevention system 1 by receiving the image data 30 and the notification still image data 37, as well as the notification moving image data 30 and the notification still image data 37 posted by the reporter via the input unit 2. It is a device for readable storage in the notification voice database 13, the character conversion database 19, and the notification image database 26.
Specifically, for the notification voice data 17 input to the input unit 2, the ID generation unit 7 automatically generates the data recognition serial number ID and the information source ID as the ID data 14, so that the information is generated. The unit 8 associates the ID data 14 generated by the ID generation unit 7 with the report voice data 17. Further, the information generation unit 8 is input via the input unit 2 by the operator who received the telephone, or the whistleblower data 15 regarding the whistleblower name or the like obtained by the analysis by the text analysis unit 6 is also for the report voice data 17. Link. Further, the information generation unit 8 associates the identifier data 16 regarding the disaster content input by the operator via the input unit 2 with the reception time data 18 received by using the time generation function of the telephone with the report voice data 17. .. The information generation unit 8 associates these data with the notification voice data 17 and stores them in the notification voice database 13 so as to be readable.

また、情報生成部8は、音声認識部5によって変換された通報音声テキストデータ20に対しては、IDデータ14、通報者データ15、識別子データ16及び受信時刻データ18の他、テキスト解析部6によって抽出された住所テキストデータ21も紐付ける。さらに、情報生成部8は、住所テキストデータ21を受信するID生成部7によって生成されるエリアIDも受信して通報音声テキストデータ20に紐付ける。そして、種々のデータが紐付けられた住所テキストデータ21を読み出し可能に文字変換データベース19へ格納する。
なお、通報音声データ17には住所テキストデータ21が紐付けられていないが、これは後述するマッピング部10による地図データ23への紐付けを行うのはテキストに変換された後の通報音声テキストデータ20のみであることによる。したがって、通報音声データ17に対してはテキスト解析部6で得られた住所テキストデータ21を紐付ける必要性はないものの紐付けることを除外するものでもない。
Further, the information generation unit 8 has a text analysis unit 6 in addition to the ID data 14, the reporter data 15, the identifier data 16 and the reception time data 18 for the notification voice text data 20 converted by the voice recognition unit 5. The address text data 21 extracted by is also associated. Further, the information generation unit 8 also receives the area ID generated by the ID generation unit 7 that receives the address text data 21 and associates it with the report voice text data 20. Then, the address text data 21 to which various data are associated is stored in the character conversion database 19 so as to be readable.
Although the address text data 21 is not associated with the report voice data 17, it is the report voice text data after being converted into text that is associated with the map data 23 by the mapping unit 10 described later. Because it is only 20. Therefore, although it is not necessary to associate the address text data 21 obtained by the text analysis unit 6 with the report voice data 17, it does not exclude the association.

また、ドローンカメラ11、固定点監視カメラ12あるいは通報者から入力部2を介して受信する通報動画像データ30や通報静止画像データ37に対しては、ID生成部7によって自動的にデータ認識連番ID及び情報ソースIDがIDデータ27,34として生成されるので、情報生成部8はこのID生成部7で生成されたIDデータ27,34を通報動画像データ30や通報静止画像データ37に対して紐付ける。
さらに、ドローンカメラ11や固定点監視カメラ12には予めGPS装置及び通信装置を搭載させておくことで、衛星による測位に基づく正確な位置情報のほか、GPSの基本時刻系をベースに得られる正確な時刻情報も受信可能なので、通報動画像データ30や通報静止画像データ37に撮影時刻データ32,39や撮影時位置データ33,40を付帯データ31,38として防災システム1の入力部2へ送信することが可能である。なお、時刻情報についてはGPSの基本時刻系に代えてNITZ(Network Identify and Time Zone)規格に対応可能な機能を用いてもよい。情報生成部8は、このようにして得られる撮影時刻データ32,39及び撮影時位置データ33,40を付帯する通報動画像データ30や通報静止画像データ37に対して、IDデータ27,34を紐付ける。
Further, for the notification moving image data 30 and the notification still image data 37 received from the drone camera 11, the fixed point monitoring camera 12, or the reporter via the input unit 2, the ID generation unit 7 automatically recognizes the data. Since the number ID and the information source ID are generated as the ID data 27 and 34, the information generation unit 8 converts the ID data 27 and 34 generated by the ID generation unit 7 into the notification moving image data 30 and the notification still image data 37. Link to it.
Furthermore, by equipping the drone camera 11 and the fixed point monitoring camera 12 with a GPS device and a communication device in advance, in addition to accurate position information based on positioning by satellite, accurate information obtained based on the basic time system of GPS can be obtained. Since various time information can be received, the shooting time data 32, 39 and the shooting position data 33, 40 are transmitted to the input unit 2 of the disaster prevention system 1 as incidental data 31, 38 to the notification moving image data 30 and the notification still image data 37. It is possible to do. As for the time information, a function compatible with the NITZ (Network Identity and Time Zone) standard may be used instead of the basic time system of GPS. The information generation unit 8 generates ID data 27, 34 for the notification moving image data 30 and the notification still image data 37, which are accompanied by the shooting time data 32, 39 and the shooting position data 33, 40 obtained in this way. Link.

さらに、ドローンカメラ11や固定点監視カメラ12はそれぞれ通報者データ28,35として予めドローンカメラ11や固定点監視カメラ12に関するデータが認識されるので、情報生成部8によって通報動画像データ30や通報静止画像データ37に紐付けることが可能である。さらに、災害内容に関する識別子データ29,36はオペレータによって入力部2から入力され、情報生成部8はその入力を受けて通報動画像データ30及び通報静止画像データ37に紐付ける。
また、ID生成部7が、付帯される撮影時位置データ33,40を読み込んで、それらに含まれる位置情報から、予めエリア毎に設定して格納されているエリアIDを選定し、これを撮影時位置データ33,40に対するエリアIDとして生成する。情報生成部8はこのエリアIDを受信してIDデータ27,34として通報動画像データ30や通報静止画像データ37に紐付ける。種々のデータを紐付けた通報動画像データ30や通報静止画像データ37は情報生成部8によって読み出し可能に通報画像データベース26へ格納される。
同様に、通報者によって入力される通報動画像データ30や通報静止画像データ37もGPS機能を搭載したスマートフォン、デジタルカメラやビデオカメラ等から受信する場合には、同様に撮影時刻データ32,39や撮影時位置データ33,40がメタデータとして付帯されるので、情報生成部8は、これらの通報動画像データ30や通報静止画像データ37に対しても、IDデータ27,34、通報者データ28,35、識別子データ29,36を紐付けるが、通報者データ28,35は通報者によって通報動画像データ30や通報静止画像データ37が送信される場合に入力されるものをそのまま紐付ける。
なお、通報者データ15、受信時刻データ18においては、予め通報音声データ17や音声認識部5によって変換された通報音声テキストデータ20に対して紐付けて扱うことができる場合には、情報生成部8はこれらのデータに対して紐付ける必要はない。通報者データ28,35における通報動画像データ30や通報静止画像データ37に対しても同様である。また、スマートフォンやデジタルカメラあるいはビデオカメラにおいてはGPSの基本時刻系に代えてNITZが採用されているものでもよい。
Further, since the drone camera 11 and the fixed point monitoring camera 12 recognize the data related to the drone camera 11 and the fixed point monitoring camera 12 in advance as the reporter data 28 and 35, respectively, the information generation unit 8 reports the notification moving image data 30 and the notification. It is possible to associate with the still image data 37. Further, the identifier data 29 and 36 relating to the disaster content are input from the input unit 2 by the operator, and the information generation unit 8 receives the input and associates it with the notification moving image data 30 and the notification still image data 37.
Further, the ID generation unit 7 reads the incidental shooting position data 33 and 40, selects an area ID set and stored for each area in advance from the position information included in the data, and shoots the area ID. It is generated as an area ID for the time position data 33 and 40. The information generation unit 8 receives this area ID and associates it with the notification moving image data 30 and the notification still image data 37 as ID data 27 and 34. The notification moving image data 30 and the notification still image data 37 associated with various data are readable and stored in the notification image database 26 by the information generation unit 8.
Similarly, when the notification moving image data 30 and the notification still image data 37 input by the reporter are also received from a smartphone, digital camera, video camera, etc. equipped with a GPS function, the shooting time data 32, 39 and the same are used. Since the position data 33 and 40 at the time of shooting are attached as metadata, the information generation unit 8 also receives the ID data 27 and 34 and the reporter data 28 for the report moving image data 30 and the report still image data 37. , 35, and identifier data 29, 36 are associated, but the reporter data 28, 35 is associated with what is input when the reporter moving image data 30 or report still image data 37 is transmitted by the reporter.
If the reporter data 15 and the reception time data 18 can be handled in association with the report voice data 17 and the report voice text data 20 converted in advance by the voice recognition unit 5, the information generation unit 8 does not need to be associated with these data. The same applies to the report moving image data 30 and the report still image data 37 in the reporter data 28 and 35. Further, in a smartphone, a digital camera or a video camera, NITZ may be adopted instead of the basic time system of GPS.

ソート部9は、まず、通報音声データベース13から通報音声データ17を読み出し、文字変換データベース19から通報音声テキストデータ20を読み出し、通報画像データベース26から通報動画像データ30又は通報静止画像データ37を読み出す。そして、通報音声データ17及び通報音声テキストデータ20に紐付けられた受信時刻データ18や通報動画像データ30及び通報静止画像データ37に付帯された撮影時刻データ32,39の時刻情報の時系列に基づいて、通報音声データ17、通報音声テキストデータ20、通報動画像データ30及び通報静止画像データ37を並べ替える機能を備えた装置である。
ソート部9は、時系列に沿った並べ替えのみならず、例えばエリアID等のIDデータ14,27,34、通報者データ15,28,35、識別子データ16,29,36、さらに、住所テキストデータ21、撮影時位置データ33,40を検索キーとして通報音声データ17、通報音声テキストデータ20及び通報静止画像データ37を特定あるいは抽出することも可能である。
具体的にはIDデータ14,27,34であれば、表1に示されるIDで絞込みが可能であり、例えばエリアIDが防府市であるもののみを抽出することが可能である。また、通報者データ15,28,35であれば、後述する表2のいずれかのデータに基づいて抽出することが可能であり、さらに、災害内容に関する識別子データ16,29,36であれば、後述する表3に示される災害内容のもののみを抽出することも可能である。住所テキストデータ21や撮影時位置データ33,40に対しては、例えば地図データ23上である一点を選択し、その周囲として半径1km以内など自由に範囲を設定して抽出することが可能である。
First, the sort unit 9 reads the report voice data 17 from the report voice database 13, reads the report voice text data 20 from the character conversion database 19, and reads the report video data 30 or the report still image data 37 from the report image database 26. .. Then, in the time series of the time information of the reception time data 18 associated with the report voice data 17 and the report voice text data 20, the shooting time data 32 and 39 attached to the report moving image data 30 and the report still image data 37. Based on this, it is a device having a function of rearranging the report voice data 17, the report voice text data 20, the report moving image data 30, and the report still image data 37.
The sorting unit 9 not only sorts in chronological order, but also has ID data 14, 27, 34 such as area ID, whistleblower data 15, 28, 35, identifier data 16, 29, 36, and address text. It is also possible to specify or extract the notification voice data 17, the notification voice text data 20, and the notification still image data 37 using the data 21, the shooting position data 33, and 40 as search keys.
Specifically, if the ID data is 14, 27, 34, it is possible to narrow down by the IDs shown in Table 1, and for example, it is possible to extract only those whose area ID is Hofu City. Further, the whistleblower data 15, 28, 35 can be extracted based on any of the data in Table 2 described later, and further, the identifier data 16, 29, 36 relating to the disaster content can be extracted. It is also possible to extract only the disaster contents shown in Table 3 described later. For the address text data 21 and the shooting position data 33 and 40, for example, one point on the map data 23 can be selected, and a range can be freely set and extracted such as within a radius of 1 km around the point. ..

マッピング部10は、まず、文字変換データベース19から通報音声テキストデータ20を読み出し、通報画像データベース26から通報動画像データ30又は通報静止画像データ37を読み出す。そして、通報音声テキストデータ20に紐付けられた住所テキストデータ21や通報動画像データ30及び通報静止画像データ37に付帯された撮影時位置データ33,40の位置情報に対し、地図データベース22から地図データ23を読み出して、地図データ23の位置情報と照合し、地図データ23中の該当する位置にそれぞれ通報音声テキストデータ20、通報動画像データ30及び通報静止画像データ37を紐付けて読み出し可能にそれぞれのデータベースに格納する機能を備えた装置である。
また、それらのデータに対してマッピング部10はアイコンを付して、外部の利用者が出力部3を介して地図データ23を閲覧する際にそのアイコンをクリックすることで通報音声テキストデータ20、通報動画像データ30及び通報静止画像データ37とそれに紐付けられた種々のデータを閲覧することを可能としている。
したがって、地図データ23の該当する位置に通報音声テキストデータ20、通報動画像データ30及び通報静止画像データ37が紐付けられた地図データ23を、防災システム1の外部の利用者が、出力部3を介して地図データベース22から地図データ23を読み出すと、地図データ23中にそれぞれのデータがクリックして閲覧が可能なようにアイコンが表示される。なお、マッピング部10によるマッピングは、文字変換データベース19に通報音声テキストデータ20が格納されたタイミング、通報画像データベース26に通報動画像データ30又は通報静止画像データ37が格納されたタイミングで実行されることが望ましいが、所望のタイミングで実行が可能である。
First, the mapping unit 10 reads the notification voice text data 20 from the character conversion database 19 and reads the notification moving image data 30 or the notification still image data 37 from the notification image database 26. Then, the map database 22 maps the address text data 21 associated with the report voice text data 20, the report moving image data 30, and the position data 33 and 40 at the time of shooting attached to the report still image data 37. The data 23 is read out, collated with the position information of the map data 23, and the report voice text data 20, the report moving image data 30 and the report still image data 37 can be linked and read to the corresponding positions in the map data 23, respectively. It is a device with a function to store in each database.
Further, the mapping unit 10 attaches an icon to the data, and when an external user browses the map data 23 via the output unit 3, the mapping unit 10 clicks the icon to report the voice text data 20. It is possible to browse the notification moving image data 30, the notification still image data 37, and various data associated therewith.
Therefore, an external user of the disaster prevention system 1 outputs the map data 23 in which the notification voice text data 20, the notification moving image data 30, and the notification still image data 37 are linked to the corresponding position of the map data 23. When the map data 23 is read from the map database 22 via the above, an icon is displayed in the map data 23 so that each data can be clicked and viewed. The mapping by the mapping unit 10 is executed at the timing when the notification voice text data 20 is stored in the character conversion database 19 and at the timing when the notification moving image data 30 or the notification still image data 37 is stored in the notification image database 26. It is desirable, but it can be executed at the desired timing.

さらに、本実施の形態に係る防災システム1のマッピング部10では災害時等に発生現場に関する情報の提供や投稿が集中することが予想されるため、所望に設定される距離に含まれるエリア内に紐付けされた複数の住所テキストデータ21、撮影時位置データ33,40をまとめて1つの地図データ23中の位置データに紐付けるまとめ機能を備えている。例えば、ドローンカメラ11が撮影した画像情報、一般住民の通報による画像情報や音声テキスト情報に紐付けあるいは付帯される撮影時位置データ33,40、住所テキストデータ21は厳密には一致していないので災害現場においては地図上で多数のアイコンが乱立する可能性が高い。この場合、防災システム1の利用者がそれぞれの情報を確認しようとすると、それぞれのアイコンをクリックする必要があるため煩雑であり、急いで災害に関する情報を入手しようとしても困難である。
そこで、マッピング部10では、所望の地図上の範囲にある住所テキストデータ21、撮影時位置データ33,40に関しては代表としてまとめて地図データ23の位置データを選択し、その位置データに対して通報音声テキストデータ20、通報動画像データ30及び通報静止画像データ37を紐付けることができるようにしている。具体的には、既に紐付けられている地図データ23の位置データから所望の距離離れた位置データを有する住所テキストデータ21、通報動画像データ30あるいは通報静止画像データ37を既に紐付けられている位置データに紐付けるようにしてまとめる。所望の距離はマッピング部10において自由に設定可能であるので、地図上の表示位置の精度とまとめられる通報音声テキストデータ20、通報動画像データ30又は通報静止画像データ37の数のバランスによって設定されるとよい。
このようなまとめ機能を備えることで、1つのアイコンをクリックすることで複数の情報を入手することができ、迅速に避難活動や救済活動を行うことが可能である。
Further, since it is expected that the mapping unit 10 of the disaster prevention system 1 according to the present embodiment will concentrate the provision and posting of information on the site of occurrence in the event of a disaster or the like, it is expected that the information will be provided and posted within the area included in the desired distance. It has a summarizing function of linking a plurality of linked address text data 21 and shooting position data 33 and 40 to the position data in one map data 23. For example, the image information taken by the drone camera 11, the shooting position data 33 and 40 associated with or attached to the image information and the voice text information reported by the general public, and the address text data 21 do not exactly match. At the disaster site, there is a high possibility that many icons will be scattered on the map. In this case, when the user of the disaster prevention system 1 tries to confirm each information, it is complicated because it is necessary to click each icon, and it is difficult to obtain the information about the disaster in a hurry.
Therefore, the mapping unit 10 collectively selects the position data of the map data 23 as a representative for the address text data 21 and the shooting position data 33 and 40 within a desired range on the map, and notifies the position data. The voice text data 20, the report moving image data 30, and the report still image data 37 can be linked. Specifically, the address text data 21, the report moving image data 30, or the report still image data 37, which has position data at a desired distance away from the position data of the map data 23 that has already been linked, are already linked. Summarize by associating with position data. Since the desired distance can be freely set in the mapping unit 10, it is set by the balance of the number of the report voice text data 20, the report moving image data 30, or the report still image data 37, which is summarized with the accuracy of the display position on the map. It is good.
By providing such a summary function, it is possible to obtain a plurality of information by clicking one icon, and it is possible to quickly carry out evacuation activities and relief activities.

ドローンカメラ11はドローンに搭載されたカメラであり、前述のとおりドローンにはこのカメラで撮影された動画像及び静止画像を防災システム1の入力部2へ送信するための通信装置が搭載されており、さらに、GPS装置が搭載されることで撮影される通報動画像データ30や通報静止画像データ37に時刻情報(撮影時刻データ32,39)及び位置情報(撮影時位置データ33,40)がメタデータ(付帯データ31,38)として付帯される。
このドローンカメラ11は例えば自治体職員や予め契約したオペレータ等が現場に近い安全な場所から操縦することでリアルタイムに災害に関する現況を配信することが可能であり、遠隔の自治体の災害対策本部における関係者による視聴はもちろんのこと広く地域住民による視聴も可能である。
また、このドローンカメラ11を複数機備えて、二次災害の恐れのある箇所にも飛行させて通報動画像データ30や通報静止画像データ37による情報を収集することで、自治体による早期の避難勧告の発令や地域住民の自主的な早めの避難を促すことが可能である。
The drone camera 11 is a camera mounted on the drone, and as described above, the drone is equipped with a communication device for transmitting moving images and still images taken by this camera to the input unit 2 of the disaster prevention system 1. Furthermore, the time information (shooting time data 32, 39) and the position information (shooting position data 33, 40) are meta in the notification moving image data 30 and the notification still image data 37 taken by mounting the GPS device. It is incidental as data (incidental data 31, 38).
This drone camera 11 can deliver the current status of disasters in real time by, for example, a local government employee or a pre-contracted operator operating from a safe place near the site, and is a person concerned at the disaster countermeasures headquarters of a remote local government. Not only can it be viewed by local residents, but it can also be viewed by local residents.
In addition, by equipping a plurality of these drone cameras 11 and flying them to a place where there is a risk of a secondary disaster and collecting information from the notification moving image data 30 and the notification still image data 37, an early evacuation advisory by the local government It is possible to urge local residents to voluntarily evacuate as soon as possible.

固定点監視カメラ12は災害が発生する可能性の高い危険個所や万一災害が発生すると甚大な被害をもたらす可能性のある箇所に設置されるカメラであり、ドローンカメラ11と同様に動画像及び静止画像を防災システム1の入力部2へ送信するための通信装置とGPS装置が搭載されており、撮影された通報動画像データ30や通報静止画像データ37に時刻情報(撮影時刻データ32,39)及び位置情報(撮影時位置データ33,40)をメタデータ(付帯データ31,38)として付帯した状態で防災システム1の入力部2へ送信することが可能である。
固定点監視カメラ12は常時通報動画像データ30あるいは通報静止画像データ37を送信可能であることから、河川の水位上昇やダムの貯水量の増加等において、災害が発生する前の状態と経時的に比較することが可能である。また、ドローンカメラ11や一般の通報者による動画像や静止画像が届くまでの間における重要な情報源となる可能性が高い。
The fixed point monitoring camera 12 is a camera installed in a dangerous place where a disaster is likely to occur or a place where a disaster may cause great damage, and is a moving image and a moving image like the drone camera 11. A communication device and a GPS device for transmitting a still image to the input unit 2 of the disaster prevention system 1 are installed, and time information (shooting time data 32, 39) is added to the reported moving image data 30 and the reported still image data 37 taken. ) And the position information (position data 33, 40 at the time of shooting) can be transmitted to the input unit 2 of the disaster prevention system 1 in a state of being attached as metadata (incidental data 31, 38).
Since the fixed point monitoring camera 12 can constantly transmit the notification moving image data 30 or the notification still image data 37, it is in a state before a disaster occurs and over time due to an increase in the water level of a river or an increase in the amount of water stored in a dam. It is possible to compare to. In addition, it is highly possible that it will be an important source of information until the moving image or still image by the drone camera 11 or a general whistleblower arrives.

次に、通報音声データベース13に格納されるデータについて説明する。
通報音声データベース13に情報生成部8によって読み出し可能に格納されるIDデータ14は、表1を用いて説明したとおり、ID生成部7によって生成される4種類のIDの総称である。
Next, the data stored in the notification voice database 13 will be described.
The ID data 14 readable and stored in the notification voice database 13 by the information generation unit 8 is a general term for four types of IDs generated by the ID generation unit 7, as described with reference to Table 1.

通報音声データベース13に情報生成部8によって読み出し可能に格納される通報者データ15は、携帯電話42や固定電話からの音声による通報者の氏名等に関するデータである。具体的には例えば表2に示される項目を含むデータであり、この表2に示される項目は予め定められて情報生成部8に格納されている。表2中、アカウントは防災システム1に対して通報者が登録することで付与されるもので、任意に通報者が定めてもよいし、防災システム1の情報生成部8が自動的に付与してもよい。
携帯電話42や固定電話等からの音声通報によって通報音声データ17を受信する場合には、防災システム1のオペレータによって、表2に示される項目を確認して入力部2を介して情報生成部8に入力されるか、あるいは音声認識部5によって得られる通報音声テキストデータ20をテキスト解析部6が解析して抽出することで通報者データ15を得て、テキスト解析部6から情報生成部8に入力される。
なお、表2に記載される内容は一例であり、適宜地域の地形等によって追加や削除の項目があってもよい。
The whistleblower data 15 readable and stored in the whistleblower database 13 by the information generation unit 8 is data relating to the name and the like of the whistleblower by voice from the mobile phone 42 or the landline telephone. Specifically, the data includes, for example, the items shown in Table 2, and the items shown in Table 2 are predetermined and stored in the information generation unit 8. In Table 2, the account is assigned by the whistleblower registering with the disaster prevention system 1, and may be arbitrarily determined by the whistleblower, or automatically assigned by the information generation unit 8 of the disaster prevention system 1. You may.
When receiving the report voice data 17 by voice report from a mobile phone 42, a fixed telephone, or the like, the operator of the disaster prevention system 1 confirms the items shown in Table 2 and confirms the items shown in Table 2, and the information generation unit 8 via the input unit 2. The reporter voice data 15 is obtained by the text analysis unit 6 analyzing and extracting the report voice text data 20 input to or obtained by the voice recognition unit 5, and the text analysis unit 6 transfers the report to the information generation unit 8. Entered.
The contents shown in Table 2 are examples, and there may be items to be added or deleted depending on the topography of the area and the like.

Figure 2022061154000003
Figure 2022061154000003

通報音声データベース13に情報生成部8によって読み出し可能に格納される識別子データ16は、携帯電話42や固定電話からの音声による通報者の通報音声データ17に含まれる災害内容を識別するためのデータである。
これらの識別子データ16の項目は予め定められて情報生成部8に格納されており、通報者によって通報音声データ17が提供される場合に、出力部3としてのオペレータの受信ディスプレイに表3の内容が表示され、その中から選択されたものが入力部2を介して情報生成部8に送信され、情報生成部8が通報音声データ17に対して紐付ける。
The identifier data 16 readable and stored in the report voice database 13 by the information generation unit 8 is data for identifying the disaster content included in the report voice data 17 of the reporter by voice from the mobile phone 42 or the fixed telephone. be.
These items of the identifier data 16 are predetermined and stored in the information generation unit 8, and when the notification voice data 17 is provided by the whistleblower, the contents of Table 3 are displayed on the reception display of the operator as the output unit 3. Is displayed, and the one selected from them is transmitted to the information generation unit 8 via the input unit 2, and the information generation unit 8 associates with the notification voice data 17.

Figure 2022061154000004
Figure 2022061154000004

通報音声データベース13に情報生成部8によって読み出し可能に格納される通報音声データ17は、通報者が携帯電話42や固定電話を用いて防災システム1の運営者側へ災害に関する通報を行った場合の入力部2を介して受信される通話内容に関する音声データである。防災システム1を運営するオペレータは、通報音声データ17を音声認識部5によって通報音声テキストデータ20へ変換することも考慮して、表2に示される通報者データ15に含まれる内容を問い合わせつつ、災害発生場所の住所や表3に示される災害内容に関する識別子データ16のいずれに該当する災害かについて問い合わせることで、通報音声データ17中にはテキスト解析部6によって解析される通報者氏名等に関する通報者データ15、通報音声テキストデータ20及び住所テキストデータ21をより高い確率で含めることができる。 The report voice data 17, which is readable and stored in the report voice database 13 by the information generation unit 8, is a case where the whistleblower reports a disaster to the operator of the disaster prevention system 1 using a mobile phone 42 or a landline telephone. This is voice data related to the contents of a call received via the input unit 2. The operator who operates the disaster prevention system 1 inquires about the contents included in the reporter data 15 shown in Table 2, considering that the report voice data 17 is converted into the report voice text data 20 by the voice recognition unit 5. By inquiring about which of the address of the disaster occurrence location and the identifier data 16 regarding the disaster content shown in Table 3 corresponds to the disaster, the report voice data 17 includes the report regarding the name of the whistleblower analyzed by the text analysis unit 6. Person data 15, report voice text data 20, and address text data 21 can be included with a higher probability.

通報音声データベース13に情報生成部8によって読み出し可能に格納される受信時刻データ18は、通報者が携帯電話42や固定電話を用いて防災システムの運営者柄へ災害に関する通報を行った場合の入力部2を介して受信される通話の着信時刻に関するデータであり、入力部2によって生成され情報生成部8に入力される。
以上説明したとおり、通報音声データベース13に読み出し可能に格納される通報音声データ17に対し、情報生成部8は、ID生成部7によって生成され情報生成部8に入力されるIDデータ14、防災システム1のオペレータによって入力部2を介して情報生成部8に入力されるかあるいは音声認識部5によって変換された通報音声テキストデータ20の内容を解析するテキスト解析部6によって抽出されて情報生成部8に入力される通報者データ15、防災システム1のオペレータによって入力部2を介して情報生成部8に入力される識別子データ16、入力部2によって生成され情報生成部8に入力される受信時刻データ18を紐付ける。
The reception time data 18 readable and stored by the information generation unit 8 in the notification voice database 13 is input when the reporter makes a report regarding a disaster to the operator of the disaster prevention system using a mobile phone 42 or a fixed telephone. It is data about the arrival time of the call received through the unit 2, is generated by the input unit 2, and is input to the information generation unit 8.
As described above, with respect to the report voice data 17 readable and stored in the report voice database 13, the information generation unit 8 is the ID data 14 generated by the ID generation unit 7 and input to the information generation unit 8, and the disaster prevention system. The information generation unit 8 is extracted by the text analysis unit 6 that analyzes the contents of the notification voice text data 20 that is input to the information generation unit 8 via the input unit 2 by the operator of 1 or converted by the voice recognition unit 5. Reporter data 15 input to, identifier data 16 input by the operator of the disaster prevention system 1 to the information generation unit 8 via the input unit 2, reception time data generated by the input unit 2 and input to the information generation unit 8. 18 is linked.

次に、文字変換データベース19に格納されるデータについて説明する。
文字変換データベース19においては、音声認識部5が通報音声データベース13からIDデータ14等が紐付いた通報音声データ17を読み出して通報音声テキストデータ20に変換して情報生成部8に入力する。テキスト解析部6は、その通報音声テキストデータ20を音声認識部5又は情報生成部8から読み出して、既に通報音声データ17に紐付けられている通報者データ15以外のデータを解析し、住所テキストデータ21を抽出して情報生成部8に入力する。
文字変換データベース19に読み出し可能に格納される通報音声テキストデータ20に対し、情報生成部8は、通報音声データ17に紐付けされていたIDデータ14、通報者データ15、識別子データ16及び受信時刻データ18を紐付けると同時に、テキスト解析部6によって解析・抽出された住所テキストデータ21を紐付ける。
Next, the data stored in the character conversion database 19 will be described.
In the character conversion database 19, the voice recognition unit 5 reads out the notification voice data 17 associated with the ID data 14 and the like from the notification voice database 13, converts it into the notification voice text data 20, and inputs it to the information generation unit 8. The text analysis unit 6 reads the report voice text data 20 from the voice recognition unit 5 or the information generation unit 8, analyzes data other than the reporter data 15 already associated with the report voice data 17, and addresses text. The data 21 is extracted and input to the information generation unit 8.
For the report voice text data 20 readable and stored in the character conversion database 19, the information generation unit 8 has ID data 14, reporter data 15, identifier data 16 and reception time associated with the report voice data 17. At the same time as associating the data 18, the address text data 21 analyzed and extracted by the text analysis unit 6 is associated.

次に、地図データベース22に格納される地図データ23について説明する。
地図データ23は国土地理院のデータを利用するものであり、地形や県境や市境等の自治体の境界を示す線が経度と緯度の数値データに対応させて示されているものである。したがって、この地図データ23に対して、災害発生地点に関する経度と緯度を含む位置データが得られると、その位置データに含まれる経度と緯度を地図データ23内で照合して紐付けることで地図上に災害発生地点を表示することが可能である。
そのほかGPS装置によって得られる経度と緯度を含む位置データに対しても地図データ23内で経度と緯度を照合し、該当する経度と緯度に対して紐付けることで、そのGPS装置が存在している地点を地図上で表示することが可能である。したがって、ドローンカメラ11や固定点監視カメラ12、また、通報者によってGPS機能を搭載したスマートフォンやカメラで撮影された通報動画像データ30や通報静止画像データ37においてもその撮影場所に関する経度と緯度の数値から地図上で撮影場所を表示することが可能である。
Next, the map data 23 stored in the map database 22 will be described.
The map data 23 uses the data of the Geographical Survey Institute, and the line indicating the boundary of the local government such as the topography, the prefectural border, and the city border is shown corresponding to the numerical data of longitude and latitude. Therefore, when position data including the longitude and latitude related to the disaster occurrence point is obtained for this map data 23, the longitude and latitude included in the position data are collated and linked in the map data 23 on the map. It is possible to display the disaster occurrence point in.
In addition, the GPS device exists by collating the longitude and latitude in the map data 23 with respect to the position data including the longitude and latitude obtained by the GPS device and linking the corresponding longitude and latitude. It is possible to display the points on a map. Therefore, in the drone camera 11, the fixed point monitoring camera 12, the report moving image data 30 and the report still image data 37 taken by the whistleblower with a smartphone or camera equipped with a GPS function, the longitude and latitude of the shooting location are It is possible to display the shooting location on the map from the numerical values.

フォームデータベース24に格納されるフォームデータ25について説明する。
フォームデータ25には種類がある。例えば、通報者が通報動画像データ30や通報静止画像データ37を送信する際に、通報者が使用する携帯電話42やコンピュータ43にフォームデータ25を送信し、それに沿って通報動画像データ30や通報静止画像データ37を送信してもらうためのフォームデータ25がある。このフォームデータ25の場合は、通報者データ28,35の入力や識別子データ29,36の選択入力や画像情報に対する説明テキスト文を入力させるように促すものである。
また、携帯電話42や固定電話からの通報者に対しては、テキスト解析部6がフォームデータベース24から読み出して、音声認識部5によって変換された通報音声テキストデータ20を解析したのちに、それぞれフォームデータ25に沿って入力する場合もある。
The form data 25 stored in the form database 24 will be described.
There are different types of form data 25. For example, when the whistleblower sends the whistleblower image data 30 or the whistleblower still image data 37, the form data 25 is sent to the mobile phone 42 or the computer 43 used by the whistleblower, and the whistleblower video data 30 or There is form data 25 for transmitting the report still image data 37. In the case of this form data 25, it is urged to input the whistleblower data 28 and 35, select the identifier data 29 and 36, and input the explanatory text text for the image information.
Further, for the caller from the mobile phone 42 or the fixed telephone, the text analysis unit 6 reads out from the form database 24, analyzes the report voice text data 20 converted by the voice recognition unit 5, and then forms each form. It may be input according to the data 25.

次に、通報画像データベース26に格納されるデータについて説明する。
通報動画像データ30に紐付けられるIDデータ27及び通報静止画像データ37に紐付けられるIDデータ34は、表1を用いて説明したとおり、ID生成部7によって生成される4種類のIDの総称である。これらのIDデータ27,34は通報画像データベース26に情報生成部8によって読み出し可能に格納される。
Next, the data stored in the report image database 26 will be described.
The ID data 27 associated with the notification moving image data 30 and the ID data 34 associated with the notification still image data 37 are a general term for four types of IDs generated by the ID generation unit 7, as described with reference to Table 1. Is. These ID data 27 and 34 are readable and stored in the report image database 26 by the information generation unit 8.

通報画像データベース26に入力部2を介して情報生成部8によって読み出し可能に格納される通報者データ28,35は、携帯電話42やコンピュータ43からの画像による通報者の氏名等に関するデータである。具体的には例えば表2に示される項目を含むデータであり、この表2に示される項目は予め定められて情報生成部8に格納されている。表2中、アカウントは防災システム1に対して通報者が登録することで付与されるもので、任意に通報者が定めてもよいし、防災システム1の情報生成部8が自動的に付与してもよい。
これらの通報者データ28,35は、情報生成部8によって通報者の使用する携帯電話42やコンピュータ43に出力部3を介して送信されるフォームデータ25を用いて入力されることで通報動画像データ30や通報静止画像データ37と同時に紐付けされた状態で入力部2を介して情報生成部8が受信できる。すなわち、フォームデータ25に表2に示される通報者データ28,35の内容を含めておくことで情報生成部8は容易に受信することが可能である。
また、通報動画像データ30や通報静止画像データ37と同時でなくとも、予め通報者がフォームデータ25を用いて自己の情報を防災システム1に対して送信しておいてもよい。その場合には通報者データ28,35は情報生成部8に入力部2を介して読み出し可能に格納される。その場合には、通報者は通報動画像データ30や通報静止画像データ37を送信する際には、例えばアカウントのみを入力することでその他の通報者データ28,35については入力の必要なく、情報生成部8がアカウントをキー情報として、情報生成部8内で検索し、抽出された通報者データ28,35を通報動画像データ30や通報静止画像データ37に対して紐付ける。
なお、ドローンカメラ11や固定点監視カメラ12に対しては、前述のとおりそれぞれ通報者データ28,35として予めドローンカメラ11や固定点監視カメラ12に関するデータが認識されるので、通報動画像データ30や通報静止画像データ37に紐付けることが可能であるが、IDデータ27に含まれる情報ソースIDによって個々のドローンカメラ11や固定点監視カメラ12まで認識可能な場合には、必ずしも通報者データ28,35は含まれなくともよい。
The reporter data 28 and 35, which are readable and stored in the report image database 26 by the information generation unit 8 via the input unit 2, are data related to the name of the reporter based on images from the mobile phone 42 or the computer 43. Specifically, the data includes, for example, the items shown in Table 2, and the items shown in Table 2 are predetermined and stored in the information generation unit 8. In Table 2, the account is assigned by the whistleblower registering with the disaster prevention system 1, and may be arbitrarily determined by the whistleblower, or automatically assigned by the information generation unit 8 of the disaster prevention system 1. You may.
These reporter data 28 and 35 are input by the information generation unit 8 to the mobile phone 42 or computer 43 used by the reporter using the form data 25 transmitted via the output unit 3 to provide a report motion image. The information generation unit 8 can receive data via the input unit 2 in a state of being associated with the data 30 and the notification still image data 37 at the same time. That is, the information generation unit 8 can easily receive the form data 25 by including the contents of the whistleblower data 28 and 35 shown in Table 2.
Further, the whistleblower may transmit his / her own information to the disaster prevention system 1 in advance using the form data 25, even if it is not at the same time as the whistleblower video data 30 and the whistleblower still image data 37. In that case, the whistleblower data 28 and 35 are readable and stored in the information generation unit 8 via the input unit 2. In that case, when the whistleblower sends the whistleblower image data 30 and the whistleblower still image data 37, for example, by inputting only the account, it is not necessary to input the other whistleblower data 28 and 35, and the information is available. The generation unit 8 searches in the information generation unit 8 using the account as key information, and associates the extracted reporter data 28 and 35 with the report video data 30 and the report still image data 37.
Since the data related to the drone camera 11 and the fixed point monitoring camera 12 are recognized in advance as the reporter data 28 and 35, respectively, for the drone camera 11 and the fixed point monitoring camera 12, the notification moving image data 30 Although it is possible to link to the still image data 37, if the information source ID included in the ID data 27 can recognize the individual drone camera 11 and the fixed point monitoring camera 12, the reporter data 28 is not always available. , 35 need not be included.

通報画像データベース26に入力部2を介して情報生成部8によって読み出し可能に格納される識別子データ29,36は、通報動画像データ30や通報静止画像データ37に含まれる災害内容、あるいはドローンカメラ11や固定点監視カメラ12から受信される通報動画像データ30や通報静止画像データ37に含まれる災害内容を識別するためのデータである。具体的には例えば表3に示される項目を含むデータであり、この表3に示される項目は予め定められて情報生成部8に格納されている。
これらの識別子データ29,36は、情報生成部8によって通報者の使用する携帯電話42やコンピュータ43に出力部3を介して送信されるフォームデータ25を用いて入力されることで通報動画像データ30や通報静止画像データ37と同時に紐付けされた状態で入力部2を介して情報生成部8が受信できる。すなわち、フォームデータ25に表3に示される災害内容に関する識別子データ29,36の内容を含めておくことで情報生成部8は容易に受信することが可能である。
但し、フォームデータ25を送信しない場合やフォームデータ25を受信できない携帯電話42等の端末を使用した通報者からの通報に対しては、防災システム1のオペレータによって、通報画像データベース26から通報動画像データ30や通報静止画像データ37の災害内容が確認され、表3に示される識別子データ16の中から該当するものが選択され、入力部2を介して情報生成部8に送信され、情報生成部8が通報動画像データ30や通報静止画像データ37に紐付ける。
The identifier data 29 and 36 readable and stored in the report image database 26 by the information generation unit 8 via the input unit 2 are the disaster content included in the report moving image data 30 and the report still image data 37, or the drone camera 11. This is data for identifying the disaster content included in the notification moving image data 30 and the notification still image data 37 received from the fixed point monitoring camera 12. Specifically, the data includes, for example, the items shown in Table 3, and the items shown in Table 3 are predetermined and stored in the information generation unit 8.
These identifier data 29 and 36 are input by the information generation unit 8 to the mobile phone 42 and the computer 43 used by the reporter using the form data 25 transmitted via the output unit 3 to report the moving image data. The information generation unit 8 can receive the information via the input unit 2 in a state of being associated with the 30 and the notification still image data 37 at the same time. That is, the information generation unit 8 can easily receive the form data 25 by including the contents of the identifier data 29 and 36 relating to the disaster contents shown in Table 3.
However, if the form data 25 is not transmitted or the reporter uses a terminal such as a mobile phone 42 that cannot receive the form data 25, the operator of the disaster prevention system 1 will use the report image database 26 to report the moving image. The disaster content of the data 30 and the report still image data 37 is confirmed, the corresponding identifier data 16 is selected from the identifier data 16 shown in Table 3, and is transmitted to the information generation unit 8 via the input unit 2 to be transmitted to the information generation unit 8. 8 is associated with the report moving image data 30 and the report still image data 37.

通報動画像データ30にメタデータとして付帯される撮影時刻データ32と撮影時位置データ33からなる付帯データ31、及び通報静止画像データ37にメタデータとして付帯される撮影時刻データ39と撮影時位置データ40からなる付帯データ38は、前述のとおり通報動画像データ30又は通報静止画像データ37に対して撮影時から付帯されるものであり、すなわちデータが生成される際に既に紐付けられた状態となっているので、情報生成部8によって受信した際に紐付ける必要がない。
以上説明したとおり、通報画像データベース26に読み出し可能に格納される撮影時刻データ32,39及び撮影時位置データ33,40を付帯データ31,38とする通報動画像データ30と通報静止画像データ37に対し、情報生成部8は、ID生成部7によって生成され情報生成部8に入力されるIDデータ27,34、フォームデータ25を用いて通報動画像データ30や通報静止画像データ37に紐付けされた状態で情報生成部8に入力される通報者データ28,35、フォームデータ25を用いて通報動画像データ30や通報静止画像データ37に紐付けされた状態で情報生成部8に入力されるか防災システム1のオペレータによって入力部2を介して情報生成部8に入力される識別子データ29,36を紐付ける。
Ancillary data 31 consisting of shooting time data 32 and shooting position data 33 attached to the notification moving image data 30 as metadata, and shooting time data 39 and shooting position data attached to the notification still image data 37 as metadata. As described above, the incidental data 38 composed of 40 is attached to the notification moving image data 30 or the notification still image data 37 from the time of shooting, that is, the state in which the data is already associated with the data is generated. Therefore, it is not necessary to associate the data when it is received by the information generation unit 8.
As described above, the notification moving image data 30 and the notification still image data 37 using the shooting time data 32 and 39 and the shooting position data 33 and 40 as incidental data 31 and 38 readable and stored in the notification image database 26. On the other hand, the information generation unit 8 is associated with the notification video data 30 and the notification still image data 37 using the ID data 27, 34 and the form data 25 generated by the ID generation unit 7 and input to the information generation unit 8. The reporter data 28, 35 and the form data 25, which are input to the information generation unit 8 in the state of being linked to the reporter moving image data 30 and the report still image data 37, are input to the information generation unit 8. The identifier data 29 and 36 input to the information generation unit 8 via the input unit 2 by the operator of the disaster prevention system 1 are associated with each other.

以下、図1を参照して説明した実施の形態を具体的にした実施例について図2乃至図8を参照しながら説明する。本実施例は、例えば行政機関や公益団体が防災システムを運営する場合である。
図2は実施例に係る防災システムにおいて第三者(通報者)からの電話通報を受信している状態を示す概念図である。
図2において、防災システム1は専用コンピュータ44に格納されている状態が示されており、入力部2、出力部3、処理部4、通報音声データベース13、文字変換データベース19及び通報画像データベース26も専用コンピュータ44内に格納されている。したがって、通報者51の使用する通報者携帯電話52からの通報は専用コンピュータ44が受信し、入力部2として機能している。また、防災システム1のオペレータが使用する出力部3としてのディスプレイが示されている。さらに、図示しないが、専用コンピュータ44からオペレータのための別個の入力部2及び出力部3としてマイクとヘッドフォンのセット(図示せず)が設けられており、通報者51の通報者携帯電話52と通話することが可能である。
通報者51が通報者携帯電話52を用いて通報音声データ17を通報する場合は、防災システム1の入力部2として専用コンピュータ44で受信し、専用コンピュータ44内で通報音声データ17は処理部4の音声認識部5に送信される。その際には、オペレータはマイクとヘッドフォンを入力部2及び出力部3として用いて、前述のとおり音声認識部5による通報音声テキストデータ20への変換を意識しながら、表2に示される通報者データ15の内容を問い合わせつつ、災害発生場所の住所や表3に示される災害内容に関する識別子データ16のいずれに該当する災害かについて問い合わせるとよい。
Hereinafter, an embodiment embodying the embodiment described with reference to FIG. 1 will be described with reference to FIGS. 2 to 8. This embodiment is, for example, a case where an administrative agency or a public interest organization operates a disaster prevention system.
FIG. 2 is a conceptual diagram showing a state in which a telephone report from a third party (reporter) is received in the disaster prevention system according to the embodiment.
FIG. 2 shows a state in which the disaster prevention system 1 is stored in the dedicated computer 44, and the input unit 2, the output unit 3, the processing unit 4, the notification voice database 13, the character conversion database 19, and the notification image database 26 are also shown. It is stored in the dedicated computer 44. Therefore, the report from the whistleblower mobile phone 52 used by the whistleblower 51 is received by the dedicated computer 44 and functions as the input unit 2. Further, a display as an output unit 3 used by the operator of the disaster prevention system 1 is shown. Further, although not shown, a microphone and headphone set (not shown) is provided as a separate input unit 2 and output unit 3 for the operator from the dedicated computer 44, and the whistleblower mobile phone 52 of the whistleblower 51 is provided. It is possible to make a call.
When the whistleblower 51 reports the whistleblower voice data 17 using the whistleblower mobile phone 52, it is received by the dedicated computer 44 as the input unit 2 of the disaster prevention system 1, and the whistleblower voice data 17 is the processing unit 4 in the dedicated computer 44. It is transmitted to the voice recognition unit 5 of. At that time, the operator uses the microphone and the headphone as the input unit 2 and the output unit 3, and while being aware of the conversion to the notification voice text data 20 by the voice recognition unit 5 as described above, the reporter shown in Table 2 While inquiring about the contents of the data 15, it is advisable to inquire about which of the address of the disaster occurrence place and the identifier data 16 regarding the disaster contents shown in Table 3 corresponds to.

処理部4の音声認識部5によって通報音声データ17は通報音声テキストデータ20に変換され、さらに、テキスト解析部6によって通報音声テキストデータ20の内容が解析される。テキスト解析部6では、フォームデータベース24に格納されたフォームデータ25の中から電話内容テキストデータフォーム53を読み出して、テキスト解析部6によって解析された内容をそれぞれ自動で入力する。その状態が図2においては出力部3としてのディスプレイに示されている。
具体的には、通報内容として通報者電話番号、通報時刻、災害現場の場所、災害内容が電話内容テキストデータフォーム53に格納された状態で表示されている。なお、派遣優先順位の欄はオペレータによる状況判断の結果として入力される。
図2中では、さらに災害名の欄に「2020年令和2年7月豪雨」がIDデータ14のうち事象IDとしてオペレータによって選択され表示されている。この事象IDは前述のとおりID生成部7によって生成され、オペレータによって選択され入力部2を介して入力されることが可能である。
また、被災地住所の欄は空欄となっているが、これはテキスト解析部6によって通報音声テキストデータ20内から住所テキストデータ21が抽出できなかった場合を示している。このような場合には、オペレータによって入力部2となるキーボードを通じて入力されることになる。
災害内容の欄には「〇〇川が決壊しそうです」として音声認識部5によって変換された通報音声テキストデータ20が表示されている。
投稿日時の欄には2020/07/14/11:16として受信時刻データ18が表示されている。
このように通報音声テキストデータ20に紐付けされたIDデータ14、通報音声テキストデータ20及び受信時刻データ18が示されている。通報者データ15、識別子データ16及び住所テキストデータ21は図2では示されていないが、実際にはそれぞれ情報生成部8によって紐付けされて文字変換データベース19に格納されている。また、通報音声データ17自体も同様に情報生成部8によって種々のデータが紐付けられて通報音声データベース13に格納される。
文字変換データベース19や通報音声データベース13に格納することによって関係者による閲覧が可能となり、災害派遣業務を効率化することができる。なお、通報音声テキストデータ20が文字変換データベース19に格納された状態となった時点で、マッピング部10によるマッピングが実行されるので、防災システム1の出力部3としてのディプレイ上で地図表示が可能であり、災害現場を確認することができる。
The voice recognition unit 5 of the processing unit 4 converts the notification voice data 17 into the notification voice text data 20, and the text analysis unit 6 further analyzes the contents of the notification voice text data 20. The text analysis unit 6 reads out the telephone content text data form 53 from the form data 25 stored in the form database 24, and automatically inputs the contents analyzed by the text analysis unit 6. The state is shown on the display as the output unit 3 in FIG.
Specifically, the reporter's telephone number, the report time, the location of the disaster site, and the disaster content are displayed in the state of being stored in the telephone content text data form 53 as the report content. The dispatch priority column is input as a result of the situation judgment by the operator.
In FIG. 2, in the column of the disaster name, "Heavy rain in July 2020" is selected and displayed by the operator as the event ID in the ID data 14. As described above, this event ID is generated by the ID generation unit 7, is selected by the operator, and can be input via the input unit 2.
Further, the field of the disaster area address is blank, which indicates the case where the address text data 21 could not be extracted from the report voice text data 20 by the text analysis unit 6. In such a case, the input is performed by the operator through the keyboard serving as the input unit 2.
In the disaster content column, the report voice text data 20 converted by the voice recognition unit 5 is displayed as "The river is about to collapse".
The reception time data 18 is displayed as 2020/07/14/11: 16 in the posting date and time column.
The ID data 14, the report voice text data 20, and the reception time data 18 associated with the report voice text data 20 are shown in this way. Although the whistleblower data 15, the identifier data 16 and the address text data 21 are not shown in FIG. 2, they are actually associated with each other by the information generation unit 8 and stored in the character conversion database 19. Further, the notification voice data 17 itself is also stored in the notification voice database 13 in association with various data by the information generation unit 8.
By storing it in the character conversion database 19 or the report voice database 13, it can be browsed by the persons concerned, and the disaster dispatch work can be made more efficient. When the notification voice text data 20 is stored in the character conversion database 19, the mapping is executed by the mapping unit 10, so that the map is displayed on the display as the output unit 3 of the disaster prevention system 1. It is possible and the disaster site can be confirmed.

次に、図3を参照しながら、固定点監視カメラ12によって撮影された画像が閲覧される様子を説明する。図3は実施例に係る防災システムにおいて地図データ上にマッピングされた固定点監視カメラからの画像データが閲覧者によってポップアップされた状態を示す概念図である。
図3において、表示画面54には防災システム1がカバーしているエリアの地図55が示されており、その地図55上には固定点監視カメラ12が設置されている位置が地図データ23に紐付けられてカメラの形状をしたアイコンが表示されている。この固定点監視カメラ12のアイコンをクリックすると、ポップアップ画面56が表示される。このポップアップ画面56に示されている画像が固定点監視カメラ12によって撮影される通報動画像データ30である。また、固定点監視カメラ12のアイコンが示されている位置が、固定点監視カメラ12の付帯データ38の撮影時位置データ40と一致する地図データ23中の位置データと一致する地点ということになる。
Next, with reference to FIG. 3, a state in which an image taken by the fixed point surveillance camera 12 is viewed will be described. FIG. 3 is a conceptual diagram showing a state in which image data from a fixed point surveillance camera mapped on map data is popped up by a viewer in the disaster prevention system according to the embodiment.
In FIG. 3, the display screen 54 shows a map 55 of the area covered by the disaster prevention system 1, and the position where the fixed point monitoring camera 12 is installed is linked to the map data 23 on the map 55. An icon in the shape of a camera is displayed. When the icon of the fixed point surveillance camera 12 is clicked, a pop-up screen 56 is displayed. The image shown on the pop-up screen 56 is the notification moving image data 30 taken by the fixed point monitoring camera 12. Further, the position where the icon of the fixed point monitoring camera 12 is shown is a point that matches the position data in the map data 23 that matches the shooting position data 40 of the incidental data 38 of the fixed point monitoring camera 12. ..

図4を参照しながら、ドローンカメラ11を用いたリアルタイム撮影の活用について説明する。図4は実施例に係る防災システムに対してドローンに搭載されたカメラを通じて災害現場の画像を送信して自治体庁舎内での会議に提供している状態を示す概念図である。
ドローンカメラ11は自由に空中を移動して撮影することが可能であることから安全を確保すれば災害現場近辺への急行が可能である。また、ドローンカメラ11で撮影される画像情報は、情報通信網41を介してクラウド57として構築された防災システム1にリアルタイムで通報動画像データ30や通報静止画像データ37を送信することが可能である。
したがって、自治体撮影職員61が現場近くで安全を確保しながらドローンカメラ11を操縦し、災害現場の撮影を行って撮影画像62を得て、これを通報動画像データ30や通報静止画像データ37として防災システム1に送信することで、自治体庁舎58内で開催される自治体職員60による災害現場の確認作業や災害復旧に向けた対応策の検討等の討議を行う際にも大型ディスプレイ59で現場の現状を迅速かつ詳細に把握することが可能である。
また、図4には示されていないが、ドローンにもGPS装置が搭載されており、送信される通報動画像データ30や通報静止画像データ37には撮影時刻データ32,39や撮影時位置データ33,40が付帯されているため、災害現場の時系列に沿った記録を取ることも可能であるし、地図データ23上にマッピングされることから大型ディスプレイ59に災害現場近くのエリアに関する地図データ23を表示することでドローンカメラ11の位置を確認することも可能である。これは図3を用いて説明した固定点監視カメラ12も同様である。
防災システム1を用いることで、リアルタイムに災害現場や災害が発生しそうな箇所に関する情報を得ることができ、自治体による災害発生前の避難警報等の発令や災害発生後の対応策の決定等を迅速に行うことが可能である。
The utilization of real-time photography using the drone camera 11 will be described with reference to FIG. FIG. 4 is a conceptual diagram showing a state in which an image of a disaster site is transmitted to a disaster prevention system according to an embodiment through a camera mounted on a drone and provided to a meeting in a local government office building.
Since the drone camera 11 can freely move in the air and take a picture, it is possible to rush to the vicinity of the disaster site if safety is ensured. Further, the image information taken by the drone camera 11 can transmit the notification moving image data 30 and the notification still image data 37 in real time to the disaster prevention system 1 constructed as the cloud 57 via the information communication network 41. be.
Therefore, the local government photography staff 61 operates the drone camera 11 while ensuring safety near the site, photographs the disaster site, obtains a photographed image 62, and uses this as the report moving image data 30 and the report still image data 37. By transmitting to the disaster prevention system 1, the large display 59 can be used for discussions such as confirmation work of the disaster site by the local government employee 60 held in the municipal office building 58 and examination of countermeasures for disaster recovery. It is possible to grasp the current situation quickly and in detail.
Further, although not shown in FIG. 4, the drone is also equipped with a GPS device, and the reported moving image data 30 and the reported still image data 37 include the shooting time data 32 and 39 and the shooting position data. Since 33 and 40 are attached, it is possible to take a record along the time series of the disaster site, and since it is mapped on the map data 23, the large display 59 shows the map data about the area near the disaster site. It is also possible to confirm the position of the drone camera 11 by displaying 23. This also applies to the fixed point surveillance camera 12 described with reference to FIG.
By using the disaster prevention system 1, it is possible to obtain information on disaster sites and places where disasters are likely to occur in real time, and the local government can quickly issue evacuation warnings before a disaster occurs and decide on countermeasures after a disaster occurs. It is possible to do it.

図5は実施例に係る防災システムにおいて通報者から送信された災害画像が地図データ上にマッピングされる状態とその災害画像に関する画像データが閲覧者によってポップアップされた状態を示す概念図である。この図5を参照しながら、防災システム1における一般市民から投稿される画像情報の処理について説明する。
図5において、災害が発生している現場に居合わせた市民である通報者65が画像情報を撮影して投稿しようとすると、防災システム1からは画像情報を投稿するためのフォームデータ25である送信用フォーム67が、情報生成部8によって出力部3を介して通報者携帯電話66に送信される。この送信用フォーム67を用いて通報者データ15に相当する必要な入力事項を入力して通報者送信画像68を情報通信網41経由でクラウド57として構築された防災システム1に送信する。通報者送信画像68には通報者携帯電話66に搭載されているGPS装置によって撮影時位置データ33,40がメタデータとして付帯されるので、通報者送信画像68を防災システム1内の地図データ23の相当する位置の位置データに紐付けることができる。
したがって、送信された通報者送信画像68は、防災システム1の利用者のコンピュータ43上の表示画面63の地図64中にアイコン70として表示され、そのアイコン70をクリックするとポップアップ画像69として通報者送信画像68が表示される。このようにして通報者65によって投稿された通報者送信画像68を防災システム1の利用者は迅速かつ容易に閲覧することができ、迅速な避難活動や防災活動を実行することが可能である。
FIG. 5 is a conceptual diagram showing a state in which a disaster image transmitted from a whistleblower is mapped on map data and a state in which image data related to the disaster image is popped up by a viewer in the disaster prevention system according to the embodiment. With reference to FIG. 5, the processing of image information posted by the general public in the disaster prevention system 1 will be described.
In FIG. 5, when the whistleblower 65, who is a citizen present at the site where the disaster is occurring, tries to shoot and post the image information, the disaster prevention system 1 sends the form data 25 for posting the image information. The credit form 67 is transmitted by the information generation unit 8 to the whistleblower mobile phone 66 via the output unit 3. Using this transmission form 67, necessary input items corresponding to the whistleblower data 15 are input, and the whistleblower transmission image 68 is transmitted to the disaster prevention system 1 constructed as the cloud 57 via the information communication network 41. Since the shooting position data 33 and 40 are attached as metadata to the whistleblower transmission image 68 by the GPS device mounted on the whistleblower mobile phone 66, the whistleblower transmission image 68 is used as the map data 23 in the disaster prevention system 1. It can be linked to the position data of the corresponding position of.
Therefore, the transmitted whistleblower transmission image 68 is displayed as an icon 70 in the map 64 of the display screen 63 on the computer 43 of the user of the disaster prevention system 1, and when the icon 70 is clicked, the whistleblower transmission image 68 is transmitted as a pop-up image 69. Image 68 is displayed. In this way, the user of the disaster prevention system 1 can quickly and easily view the whistleblower transmission image 68 posted by the whistleblower 65, and can carry out swift evacuation activities and disaster prevention activities.

次に図6を参照しながら、防災システム1の閲覧について説明を追加する。利用者は携帯電話42あるいはコンピュータ43から防災システム1にアクセスし、表示画面71を閲覧することで、多数の災害や防災に関する通報音声テキストデータ20や通報動画像データ30あるいは通報静止画像データ37が紐付けられているアイコンを地図72上に見つけることが可能である。
表示画面71の左上には災害内容に関する識別子データ29に基づいて閲覧したい災害の種類の一例が表示されており、利用者は「川の増水/氾濫」、「床下浸水/床上浸水」、「崖崩れ/雪崩」の中から希望する災害の種類を選択することが可能である。図6では「川の増水/氾濫」が選択され、さらに見えにくいが、「床下浸水/床上浸水」、「崖崩れ/雪崩」も選択されているので、防災システム1のソート部9は、表3に示される増水、氾濫、床下浸水、床上浸水、崖崩れ、雪崩を検索キーとして、地図データ23中に紐付けられている通報音声テキストデータ20、通報動画像データ30、通報静止画像データ37の識別子データ16,29,36を検索し、上記の検索キーと一致している識別子データ16,29,36が紐付けられた通報音声テキストデータ20、通報動画像データ30及び通報静止画像データ37を抽出して地図72上にアイコンで示している。
利用者はそのアイコンの中から例えばアイコン73aを選択すると、崖崩れに関するポップアップ画面74aが表示され、ポップアップ画像75a、投稿日時欄76a、被災地住所欄77a及び通報内容欄78aを閲覧することが可能である。一方、アイコン73bを選択すると、床下浸水に関するポップアップ画面74bが表示され、同様に、ポップアップ画像75b、投稿日時欄76b、被災地住所欄77b及び通報内容欄78bを閲覧することができる。
この表示画面71の上部には、閲覧可能な通報音声テキストデータ20、通報動画像データ30及び通報静止画像データ37に共通する災害名として「2020年令和2年7月豪雨」が表示されているが、これは表1における事象IDである。この事象IDについては、図7を参照しながら後述する。災害発生日として2020/07/14とされているが、これは受信時刻データ18、撮影時刻データ32,39がこの日となっている通報音声テキストデータ20、通報動画像データ30及び通報静止画像データ37をソート部9が抽出したことによる。
Next, with reference to FIG. 6, a description about browsing the disaster prevention system 1 will be added. By accessing the disaster prevention system 1 from the mobile phone 42 or the computer 43 and viewing the display screen 71, a large number of disasters and disaster prevention related notification voice text data 20, notification moving image data 30, or notification still image data 37 can be obtained. It is possible to find the associated icon on the map 72.
An example of the type of disaster to be viewed based on the identifier data 29 related to the disaster content is displayed on the upper left of the display screen 71, and the user can see "river flooding / flooding", "underfloor flooding / above-floor flooding", and "cliff". It is possible to select the desired type of disaster from "Collapse / Avalanche". In FIG. 6, "River flooding / flooding" is selected, and it is more difficult to see, but "underfloor inundation / above-floor inundation" and "cliff collapse / avalanche" are also selected, so the sort unit 9 of the disaster prevention system 1 is shown in the table. Report voice text data 20, report moving image data 30, report still image data 37 linked in map data 23 using the flood, flood, underfloor inundation, above-floor inundation, cliff collapse, and avalanche shown in 3 as search keys. The identifier data 16, 29, 36 of the above are searched, and the notification voice text data 20, the notification moving image data 30, and the notification still image data 37 associated with the identifier data 16, 29, 36 that match the above search key are linked. Is extracted and shown as an icon on the map 72.
When the user selects, for example, the icon 73a from the icons, a pop-up screen 74a regarding the landslide is displayed, and the pop-up image 75a, the posting date and time column 76a, the disaster area address column 77a, and the report content column 78a can be viewed. Is. On the other hand, when the icon 73b is selected, a pop-up screen 74b relating to underfloor flooding is displayed, and similarly, the pop-up image 75b, the posting date and time column 76b, the disaster area address column 77b, and the report content column 78b can be browsed.
At the upper part of the display screen 71, "Heavy rain in July 2020" is displayed as a disaster name common to the viewable report voice text data 20, the report moving image data 30, and the report still image data 37. However, this is the event ID in Table 1. This event ID will be described later with reference to FIG. 7. The disaster occurrence date is set to 2020/07/14, but this is the notification voice text data 20, the notification moving image data 30, and the notification still image whose reception time data 18 and shooting time data 32 and 39 are the same day. This is because the sorting unit 9 has extracted the data 37.

次に、図7及び図8を参照しながら防災システム1のソート部9について説明を加える。
図7は、本発明の実施例に係る防災システムのID生成部によって事象名をIDとして付加するまとめ機能を説明するための概念図である。
図7において、水平に右方向に延びる時間軸に対して、台風15号、〇〇地域豪雨、〇〇地震という3つの災害の事象が発生し、様々な情報画像a-iが投稿されている状態が示されている。これらの情報画像a-iは投稿時期に関わらず地図データ23上に表示されてしまうと、いずれの事象が原因となっているかがすぐには理解できず、時間の経過と共に煩雑となってしまう。また、ある地域の災害の歴史を知ることで長期に亘る防災計画を立案しようとすると、災害発生の事象毎にどのような災害内容が生じたかについてまとめておくことが重要である。
そこで、防災システム1のID生成部7はIDデータ14のうちの事象IDを生成する際に、例えば、令和2年の台風15号が発生した場合に、その事象該当期間93aの起点時刻91aと終点時刻92aの入力と、その事象名称94aの入力によって、その事象該当期間93aに該当する受信時刻データ18が紐付けられた通報音声テキストデータ20、撮影時位置データ33,40が付帯される通報動画像データ30及び通報静止画像データ37に対して、事象IDとして「令和2年台風15号」を生成してIDデータ14,27,34に含めて通報音声テキストデータ20、通報動画像データ30及び通報静止画像データ37に紐付ける。同様に起点時刻91b,91cと終点時刻92b,92cで規定される事象該当期間93b,93cに該当する受信時刻データ18や撮影時位置データ33,40に対しても、事象名称94bとして〇〇地域豪雨、事象名称94cとして〇〇地震という事象IDを生成してIDデータ14,27,34に含めてそれぞれ通報音声テキストデータ20、通報動画像データ30及び通報静止画像データ37に紐付ける。
このように事象IDをID生成部7が生成することで、この事象IDを検索キーとしてソート部9は通報音声テキストデータ20、通報動画像データ30又は通報静止画像データ37を検索して抽出することができる。
Next, the sort unit 9 of the disaster prevention system 1 will be described with reference to FIGS. 7 and 8.
FIG. 7 is a conceptual diagram for explaining a summary function of adding an event name as an ID by the ID generation unit of the disaster prevention system according to the embodiment of the present invention.
In FIG. 7, three disaster events such as typhoon No. 15, heavy rain in XX area, and XX earthquake occurred on the time axis extending horizontally to the right, and various information images ai are posted. The state is shown. If these information images ai are displayed on the map data 23 regardless of the posting time, it cannot be immediately understood which event is the cause, and it becomes complicated with the passage of time. .. In addition, when trying to formulate a long-term disaster prevention plan by knowing the history of disasters in a certain area, it is important to summarize what kind of disaster occurred for each disaster occurrence event.
Therefore, when the ID generation unit 7 of the disaster prevention system 1 generates the event ID in the ID data 14, for example, when the typhoon No. 15 in the second year of the decree occurs, the starting time 91a of the event corresponding period 93a By inputting the end point time 92a and the event name 94a, the notification voice text data 20 and the shooting position data 33, 40 associated with the reception time data 18 corresponding to the event corresponding period 93a are attached. For the notification video data 30 and the notification still image data 37, "Reiwa 2nd year typhoon No. 15" is generated as the event ID and included in the ID data 14, 27, 34. It is associated with the data 30 and the report still image data 37. Similarly, for the reception time data 18 and the shooting position data 33, 40 corresponding to the event applicable periods 93b, 93c specified by the start time 91b, 91c and the end time 92b, 92c, the event name 94b is XX area. The event ID of heavy rain and event name 94c is generated and included in the ID data 14, 27, 34, and linked to the notification voice text data 20, the notification moving image data 30, and the notification still image data 37, respectively.
In this way, the event ID is generated by the ID generation unit 7, and the sort unit 9 searches for and extracts the notification voice text data 20, the notification moving image data 30, or the notification still image data 37 using this event ID as a search key. be able to.

図8は、防災システムにおいてある期間内に存在する画像データの内容から想定される所望の事象名をIDとしてID生成部7が生成して付して、ソート部9がその事業IDを検索キーとして抽出し一覧表80としてまとめたものである。
図8の一覧表80において、事象IDとしては災害名称欄81に記載されている「2020年令和2年7月豪雨」であり、この事象IDを有する通報音声テキストデータ20、通報動画像データ30及び通報静止画像データ37が抽出されている。災害内容欄82には通報動画像データ30及び通報静止画像データ37の投稿時に添付されたテキストデータによって災害内容が記されている。投稿者(通報者)が携帯電話42や固定電話によって通報音声データ17を送信した場合にも通報音声テキストデータ20がこの災害内容欄82に表示される。
被災地住所欄83には通報音声テキストデータ20に紐付けられた住所テキストデータ21、通報動画像データ30や通報静止画像データ37に付帯される撮影時位置データ33,40又は撮影時位置データ33,40からID生成部7によって生成されたIDデータ14のエリアIDが表示される。
被災日時欄84には通報音声テキストデータ20に紐付けられた受信時刻データ18、通報動画像データ30や通報静止画像データ37に付帯される撮影時刻データ32,39が表示される。この一覧表80では時系列に沿って表示され、直近のデータが上方に表示されるようになっているが、逆にしてもよい。
情報ソース欄85には通報音声テキストデータ20、通報動画像データ30及び通報静止画像データ37に紐付けられるIDデータ14の情報ソースIDが表示される。メール添付で画像情報が送信されたことが理解できる。電話による通報の場合には「電話」、ドローンカメラ11による場合は「ドローン」、固定点監視カメラ12による場合は「固定点監視カメラ」等として表示される。
投稿ファイル欄86には通報動画像データ30や通報静止画像データ37に関するサムネイル画像が表示される。
再生時間欄87は図8ではすべて通報静止画像データ37であるため表示されていないが、通報動画像データ30の場合にその再生時間が表示される。通報音声テキストデータ20の場合も空欄である。
投稿者名欄88は通報者データ15,28,35に含まれる投稿者名(通報者氏名)が表示される欄である。
メールアドレス欄89は通報者データ15,28,35に含まれる投稿者(通報者)のメールアドレスが表示される欄である。
操作指示欄90はこの一覧表80に対する操作内容が示されており、一覧表80から地図データ23を表示させるための「地図表示」、この一覧表80を印刷するための「印刷」、情報を削除するための「削除」、それぞれのアイコンが表示されている。利用者はこれらのアイコンをクリックすることで容易に操作を実行することが可能である。
なお、この図8に示される一覧表80はプライバシー保護の観点からも一般の住民に対して公開されるものではなく、防災システム1の運用者、例えば自治体が災害の履歴を調査して災害発生の傾向を把握して、防災計画を立案するために使用するものである。但し、一覧表80からプライバシー保護を配慮した別の一覧表を一般の住民に公開してもよい。
In FIG. 8, the ID generation unit 7 generates and attaches a desired event name assumed from the contents of image data existing in a certain period in the disaster prevention system as an ID, and the sort unit 9 searches for the business ID. It is extracted as a list 80 and summarized as a list 80.
In the list 80 of FIG. 8, the event ID is "Heavy rain in July 2020" described in the disaster name column 81, and the notification voice text data 20 and the notification moving image data having this event ID. 30 and the report still image data 37 are extracted. In the disaster content column 82, the disaster content is described by the text data attached at the time of posting the report moving image data 30 and the report still image data 37. Even when the poster (reporter) transmits the report voice data 17 by the mobile phone 42 or the fixed telephone, the report voice text data 20 is displayed in the disaster content column 82.
In the disaster area address field 83, the address text data 21, the report moving image data 30, and the report still image data 37 attached to the report voice text data 20, the shooting position data 33, 40, or the shooting position data 33 are attached. , 40 displays the area ID of the ID data 14 generated by the ID generation unit 7.
In the disaster date / time column 84, the reception time data 18 associated with the notification voice text data 20, the notification moving image data 30, and the shooting time data 32 and 39 attached to the notification still image data 37 are displayed. In this list 80, it is displayed in chronological order and the latest data is displayed at the top, but it may be reversed.
In the information source column 85, the information source ID of the ID data 14 associated with the notification voice text data 20, the notification moving image data 30, and the notification still image data 37 is displayed. It can be understood that the image information was sent by e-mail attachment. In the case of a report by telephone, it is displayed as "telephone", in the case of a drone camera 11, it is displayed as "drone", in the case of a fixed point surveillance camera 12, it is displayed as "fixed point surveillance camera" and the like.
Thumbnail images related to the notification video data 30 and the notification still image data 37 are displayed in the posting file column 86.
The reproduction time column 87 is not displayed in FIG. 8 because it is all reported still image data 37, but the reproduction time is displayed in the case of the reported moving image data 30. The report voice text data 20 is also blank.
The contributor name column 88 is a column in which the contributor name (reporter name) included in the whistleblower data 15, 28, 35 is displayed.
The e-mail address column 89 is a column in which the e-mail address of the poster (reporter) included in the whistleblower data 15, 28, 35 is displayed.
The operation instruction column 90 shows the operation contents for the list 80, and displays "map display" for displaying the map data 23 from the list 80, "print" for printing the list 80, and information. "Delete" to delete, each icon is displayed. The user can easily execute the operation by clicking these icons.
The list 80 shown in FIG. 8 is not open to the general public from the viewpoint of privacy protection, and the operator of the disaster prevention system 1, for example, the local government investigates the history of the disaster and a disaster occurs. It is used to grasp the tendency of the disaster prevention plan. However, another list in consideration of privacy protection may be disclosed to the general public from the list 80.

以上説明したとおり、本実施の形態に係る防災システム1は、住民からの音声のみの通報についても情報収集して通報音声データ17を通報音声テキストデータ20へ変換し、通報動画像データ30や通報静止画像データ37と共に地図データ23上にマッピングすることが可能であり、画像情報とテキスト情報の両方を広く収集して閲覧可能に表示させることが可能であるため、災害の状況把握が迅速かつ容易に可能であり、さらに、固定点監視カメラ12やドローンカメラ11によって得られる画像情報や住民からの画像情報も併せて総合的に収集することでより迅速かつ詳細な情報を閲覧することが可能である。
また、ドローンカメラ11や固定点監視カメラ12はライブ映像の受信と配信も可能であることから自治体に設置される災害対策本部等での災害把握や救助活動や災害復旧活動のための対策立案が迅速かつ容易に可能である。さらに地域住民にも災害の現状を速やかに伝達できる。
さらに、ID生成部7がIDデータ14として災害の集合体として時系列にまとめることが可能な事象IDを生成し、ソート部9がその事象ID毎に検索して該当する通報音声テキストデータ20、通報動画像データ30及び通報静止画像データ37を抽出することが可能であるので、災害直後の復旧作業のための計画立案が容易であるし、さらに長期間の経過後では、ソート部9のまとめ機能によって、エリア毎にどのような災害被害が生じたか等の履歴、歴史を振り返ることが可能であり、長期に亘る防災計画の立案や河川の護岸等の土木工事の立案等に供することが可能である。
防災システム1のマッピング部10では、同一災害で多数の通報者による集中的な通報があった場合に、まとめ機能によって1つのアイコンが示す地図データ23上の位置データに複数の通報音声テキストデータ20、通報動画像データ30あるいは通報静止画像データ37を紐付けることができるので、1つのアイコンに複数のデータが閲覧可能となり、迅速な閲覧と災害状況の把握、災害状況によっては避難行動を迅速に取ることも可能である。
As described above, the disaster prevention system 1 according to the present embodiment collects information on the voice-only report from the residents, converts the report voice data 17 into the report voice text data 20, and reports the report video image data 30 and the report. Since it is possible to map on the map data 23 together with the still image data 37, and it is possible to widely collect both image information and text information and display them for viewing, it is possible to quickly and easily grasp the situation of a disaster. Furthermore, it is possible to browse more quickly and detailed information by comprehensively collecting the image information obtained by the fixed point monitoring camera 12 and the drone camera 11 and the image information from the residents. be.
In addition, since the drone camera 11 and the fixed point surveillance camera 12 can also receive and distribute live images, it is possible to grasp disasters, rescue activities, and disaster recovery activities at the disaster countermeasures headquarters set up in the local government. It is possible quickly and easily. Furthermore, the current state of the disaster can be promptly communicated to local residents.
Further, the ID generation unit 7 generates event IDs that can be summarized in time series as a collection of disasters as ID data 14, and the sort unit 9 searches for each event ID and corresponds to the report voice text data 20. Since it is possible to extract the notification video data 30 and the notification still image data 37, it is easy to make a plan for the recovery work immediately after the disaster, and after a long period of time, the sorting unit 9 is summarized. Depending on the function, it is possible to look back on the history and history of what kind of disaster damage occurred in each area, and it is possible to use it for planning long-term disaster prevention plans and civil engineering works such as river bank protection. Is.
In the mapping unit 10 of the disaster prevention system 1, when a large number of reporters make intensive reports in the same disaster, a plurality of report voice text data 20 are added to the position data on the map data 23 indicated by one icon by the summary function. Since the report moving image data 30 or the report still image data 37 can be linked, multiple data can be viewed on one icon, and quick browsing and understanding of the disaster situation, and depending on the disaster situation, quick evacuation action can be performed. It is also possible to take it.

したがって、いつどの時期に発生した災害であっても簡単に検索して抽出することが可能である。また、例えばエリアを限定し、さらに、識別子データ29も限定して、時系列で例えば台風に係る事象IDを検索キーとして長期間に亘るデータを検索・抽出することで、その地域が台風時にどのような被害を受けるかの特性を知ることも可能であり、エリア毎に精度の高い防災計画を立案することが可能である。
なお、本実施の形態及び実施例では防災に関する情報の収集と閲覧を可能とする防災システムを用いて説明したが、防災に代えて観光に関する情報の収集と閲覧もそのまま可能であり、通報システムは観光案内システムとしても利用可能である。
Therefore, it is possible to easily search and extract disasters that occurred at any time. Further, for example, the area is limited, and the identifier data 29 is also limited, and by searching and extracting data over a long period of time using, for example, an event ID related to a typhoon as a search key, which area is in the event of a typhoon. It is also possible to know the characteristics of such damage, and it is possible to formulate a highly accurate disaster prevention plan for each area.
In this embodiment and the embodiment, the disaster prevention system that enables the collection and browsing of information on disaster prevention has been described, but instead of disaster prevention, the collection and browsing of information on tourism can be done as it is, and the reporting system is It can also be used as a tourist information system.

以上説明したように、本発明の請求項1乃至請求項10に記載された発明は、自治体や公的機関等が運営し、これらの団体による情報の提供の他、一般住民による通報や投稿による音声情報や画像情報の提供を可能とし、さらにこれらの情報を閲覧することが可能で避難活動や防災活動に際して広く利用が可能である。また、防災情報に代えて例えば観光情報を取り扱うことで観光案内システムとしても広く利用が可能である。 As described above, the invention according to claim 1 to 10 of the present invention is operated by a local government, a public institution, etc., and information is provided by these organizations, as well as by reporting or posting by the general public. It is possible to provide audio information and image information, and it is also possible to browse these information, which can be widely used for evacuation activities and disaster prevention activities. In addition, it can be widely used as a tourist information system by handling, for example, tourist information instead of disaster prevention information.

1…防災システム 2…入力部 3…出力部 4…処理部 5…音声認識部 6…テキスト解析部 7…ID生成部 8…情報生成部 9…ソート部 10…マッピング部 11…ドローンカメラ 12…固定点監視カメラ 13…通報音声データベース 14…IDデータ 15…通報者データ 16…識別子データ 17…通報音声データ 18…受信時刻データ 19…文字変換データベース 20…通報音声テキストデータ 21…住所テキストデータ 22…地図データベース 23…地図データ 24…フォームデータベース 25…フォームデータ 26…通報画像データベース 27…IDデータ 28…通報者データ 29…識別子データ 30…通報動画像データ 31…付帯データ 32…撮影時刻データ 33…撮影時位置データ 34…IDデータ 35…通報者データ 36…識別子データ 37…通報静止画像データ 38…付帯データ 39…撮影時刻データ 40…撮影時位置データ 41…情報通信網 42…携帯電話 43…コンピュータ 44…専用コンピュータ 51…通報者 52…通報者携帯電話 53…電話内容テキストデータフォーム 54…表示画面 55…地図 56…ポップアップ画面 57…クラウド 58…自治体庁舎 59…大型ディスプレイ 60…自治体職員 61…自治体撮影職員 62…撮影画像 63…表示画面 64…地図 65…通報者 66…通報者携帯電話 67…送信用フォーム 68…通報者送信画像 69…ポップアップ画像 70…アイコン 71…表示画面 72…地図 73a,73b…アイコン 74a,74b…ポップアップ画面 75a,75b…ポップアップ画像 76a,76b…投稿日時欄 77a,77b…被災地住所欄 78a,78b…通報内容欄 80…一覧表 81…災害名称欄 82…災害内容欄 83…被災地住所欄 84…被災日時欄 85…情報ソース欄 86…投稿ファイル欄 87…再生時間欄 88…投稿者名欄 89…メールアドレス欄 90…操作指示欄 91a-91c…起点時刻 92a-92c…終点時刻 93a-93c…事象該当期間 94a-94c…事象名称 1 ... Disaster prevention system 2 ... Input unit 3 ... Output unit 4 ... Processing unit 5 ... Voice recognition unit 6 ... Text analysis unit 7 ... ID generation unit 8 ... Information generation unit 9 ... Sort unit 10 ... Mapping unit 11 ... Drone camera 12 ... Fixed point monitoring camera 13 ... Report voice database 14 ... ID data 15 ... Reporter data 16 ... Identifier data 17 ... Report voice data 18 ... Reception time data 19 ... Character conversion database 20 ... Report voice text data 21 ... Address text data 22 ... Map database 23 ... Map data 24 ... Form database 25 ... Form data 26 ... Report image database 27 ... ID data 28 ... Reporter data 29 ... Identifier data 30 ... Report motion image data 31 ... Ancillary data 32 ... Shooting time data 33 ... Shooting Time position data 34 ... ID data 35 ... Reporter data 36 ... Identifier data 37 ... Report still image data 38 ... Ancillary data 39 ... Shooting time data 40 ... Shooting position data 41 ... Information communication network 42 ... Mobile phone 43 ... Computer 44 … Dedicated computer 51… Reporter 52… Reporter mobile phone 53… Telephone content text data form 54… Display screen 55… Map 56… Pop-up screen 57… Cloud 58… Municipal office building 59… Large display 60… Municipal staff 61… Municipal photography Staff 62 ... Photographed image 63 ... Display screen 64 ... Map 65 ... Reporter 66 ... Reporter mobile phone 67 ... Sending form 68 ... Reporter sending image 69 ... Pop-up image 70 ... Icon 71 ... Display screen 72 ... Map 73a, 73b … Icon 74a, 74b… Pop-up screen 75a, 75b… Pop-up image 76a, 76b… Post date and time column 77a, 77b… Disaster area address column 78a, 78b… Report content column 80… List 81… Disaster name column 82… Disaster content column 83 ... Disaster area address column 84 ... Damage date and time column 85 ... Information source column 86 ... Post file column 87 ... Playback time column 88 ... Poster name column 89 ... Email address column 90 ... Operation instruction column 91a-91c ... Starting time 92a- 92c ... End point time 93a-93c ... Event applicable period 94a-94c ... Event name

Claims (10)

オペレータが受信した電話の音声データを認識して音声テキストデータに変換する音声認識部と、この音声テキストデータに、前記電話が発信されたエリアに関する住所データと前記音声データを提供した提供者に関する提供者データと前記音声テキストデータの内容に応じて予め設定される識別子データと前記音声テキストデータを特定又は抽出するためのIDデータとを紐付ける情報生成部と、前記住所データを読み取って地図データと照合し前記地図データ中の該当する位置に前記音声テキストデータを紐付けるマッピング部と、を有することを特徴とする通報システム。 Provision of a voice recognition unit that recognizes the voice data of the phone received by the operator and converts it into voice text data, and the provider who provided the address data and the voice data regarding the area where the phone was made to the voice text data. An information generation unit that associates the person data, the identifier data preset according to the content of the voice text data, and the ID data for specifying or extracting the voice text data, and the map data by reading the address data. A reporting system characterized by having a mapping unit for collating and associating the voice text data with a corresponding position in the map data. 前記音声テキストデータを解析して前記住所データを生成するテキスト解析部を有することを特徴とする請求項1記載の通報システム。 The reporting system according to claim 1, further comprising a text analysis unit that analyzes the voice text data and generates the address data. 前記情報生成部は、前記電話を受信した時刻に関する受信時刻データを前記音声テキストデータに紐付け、前記受信時刻データを読み取って前記受信時刻データを用いて、又は前記住所データを読み取って前記住所データを用いて、前記音声テキストデータを並べ替える第1のソート部を有することを特徴とする請求項1又は請求項2に記載の通報システム。 The information generation unit associates reception time data relating to the time when the telephone is received with the voice text data, reads the reception time data and uses the reception time data, or reads the address data and the address data. The reporting system according to claim 1 or 2, further comprising a first sort unit for sorting the voice text data using the above. 起点として選択された一の前記受信時刻データとこの受信時刻データよりも後の他の前記受信時刻データとの間の期間に含まれる前記受信時刻データに紐付けられた前記音声テキストデータに、所望に設定される事象名をIDとして生成して紐付ける第1のID生成部を有することを特徴とする請求項3記載の通報システム。 Desirable for the voice text data associated with the reception time data included in the period between the reception time data selected as the starting point and the other reception time data after the reception time data. The reporting system according to claim 3, further comprising a first ID generation unit that generates and associates an event name set in 1 as an ID. 前記情報生成部は、時刻データと位置データを付帯した画像データを情報通信網を介して受信し、前記画像データに、前記画像データの内容にも応じて予め設定される前記識別子データと前記画像データを特定又は抽出するための前記IDデータとを紐付け、前記マッピング部は、前記位置データを読み取って前記地図データと照合し前記地図データ中の該当する位置に前記画像データを紐付けることを特徴とする請求項1乃至請求項4のいずれか1項に記載の通報システム。 The information generation unit receives image data accompanied by time data and position data via an information communication network, and the identifier data and the image that are preset in the image data according to the content of the image data. The ID data for specifying or extracting the data is associated with the ID data, and the mapping unit reads the position data, collates it with the map data, and associates the image data with the corresponding position in the map data. The reporting system according to any one of claims 1 to 4, which is characterized. 前記情報生成部は、前記時刻データを読み取ってその時刻データを用いて、又は前記位置データを読み取ってその位置データを用いて、前記画像データを並べ替える第2のソート部を有することを特徴とする請求項5記載の通報システム。 The information generation unit is characterized by having a second sort unit that sorts the image data by reading the time data and using the time data, or by reading the position data and using the position data. The reporting system according to claim 5. 起点として選択された一の前記時刻データとこの時刻データよりも後の他の前記時刻データとの間の期間に含まれる前記時刻データを付帯する前記画像データに、所望に設定される事象名をIDとして生成する第2のID生成部を有することを特徴とする請求項5又は請求項6に記載の通報システム。 An event name desired to be set in the image data accompanying the time data included in the period between the time data selected as the starting point and the other time data after this time data. The reporting system according to claim 5 or 6, characterized in that it has a second ID generation unit that generates an ID. 前記画像データは携帯電話内蔵のカメラ、ドローンに設置されたカメラ又は固定点監視カメラの少なくともいずれか1つによって撮影された画像データであることを特徴とする請求項5乃至請求項7のいずれか1項に記載の通報システム。 Any one of claims 5 to 7, wherein the image data is image data taken by at least one of a camera built in a mobile phone, a camera installed in a drone, or a fixed point surveillance camera. The reporting system described in Section 1. 請求項1乃至請求項4のいずれか1項に記載の通報システムにおいて、前記音声テキストデータを防災情報に関する音声テキストデータとして用いることを特徴とする防災システム。 The disaster prevention system according to any one of claims 1 to 4, wherein the voice text data is used as voice text data related to disaster prevention information. 請求項5乃至請求項8のいずれか1項に記載の通報システムにおいて、前記音声テキストデータを防災情報に関する音声テキストデータとして用い、前記画像データを防災情報に関する画像データとして用いることを特徴とする防災システム。 In the reporting system according to any one of claims 5 to 8, the voice text data is used as voice text data related to disaster prevention information, and the image data is used as image data related to disaster prevention information. system.
JP2020168964A 2020-10-06 2020-10-06 Notification system and disaster prevention system using the same Pending JP2022061154A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020168964A JP2022061154A (en) 2020-10-06 2020-10-06 Notification system and disaster prevention system using the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020168964A JP2022061154A (en) 2020-10-06 2020-10-06 Notification system and disaster prevention system using the same

Publications (1)

Publication Number Publication Date
JP2022061154A true JP2022061154A (en) 2022-04-18

Family

ID=81206633

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020168964A Pending JP2022061154A (en) 2020-10-06 2020-10-06 Notification system and disaster prevention system using the same

Country Status (1)

Country Link
JP (1) JP2022061154A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115731681A (en) * 2022-11-17 2023-03-03 安胜(天津)飞行模拟系统有限公司 Intelligent voice prompt method for flight simulator

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115731681A (en) * 2022-11-17 2023-03-03 安胜(天津)飞行模拟系统有限公司 Intelligent voice prompt method for flight simulator

Similar Documents

Publication Publication Date Title
JP6094132B2 (en) Disaster information management apparatus, disaster information system, disaster information management method, disaster information management program, portable terminal, portable terminal control method, and control program for controlling portable terminal operation
US10904696B2 (en) Emergency preparation and response systems and related methods
Slamet et al. Social media-based identifier for natural disaster
Kosugi et al. Improvement of Twitter-based disaster-related information sharing system
KR20130043422A (en) Realtime disaster information service based on map using mobile device
KR101265834B1 (en) System for providing underground facility information using augmented reality of mobile terminal
US9679539B1 (en) Real-time presentation of geolocated entities for emergency response
JP2007102263A (en) Disaster action support system and management server for the same
JP5945112B2 (en) Area monitoring system
JP4627719B2 (en) Disaster prevention information sharing system
US20140100891A1 (en) First Responder Dispatch System
Morreale et al. Mobile ad hoc network communication for disaster recovery
JP2009099024A (en) Disaster information collection device, system and program, and its method
Kosugi et al. A Twitter-based disaster information sharing system
JP2009094954A (en) Disaster information management device, its disaster information collection method, program, and its recording medium
JP6620369B2 (en) Integrated information provision system
CN108169792A (en) A kind of earthquake disaster data capture management method and system
JP2022061154A (en) Notification system and disaster prevention system using the same
JP6387202B1 (en) Information sharing system and information sharing method
Thomas et al. Use of spatial data and geographic technologies in response to the September 11 terrorist attack
JP2006309472A (en) Geographic information providing program, and geographic information providing system using network
JP7191620B2 (en) DISASTER INFORMATION MANAGEMENT DEVICE, DISASTER INFORMATION MANAGEMENT SYSTEM AND DISASTER INFORMATION MANAGEMENT METHOD
Hong Utilization of crowdsourced maps in catastrophic disasters
Ishida et al. The Real-time Disaster Damage Information Sharing System for Information Acquiring in Large-scale Natural Disaster.
Ishida et al. The information sharing system using web-gis at the time of wide-scale disaster

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230629

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20240327

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240329

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20240917