WO2021124552A1 - 情報提供方法 - Google Patents

情報提供方法 Download PDF

Info

Publication number
WO2021124552A1
WO2021124552A1 PCT/JP2019/050113 JP2019050113W WO2021124552A1 WO 2021124552 A1 WO2021124552 A1 WO 2021124552A1 JP 2019050113 W JP2019050113 W JP 2019050113W WO 2021124552 A1 WO2021124552 A1 WO 2021124552A1
Authority
WO
WIPO (PCT)
Prior art keywords
information
disaster
image
user
person
Prior art date
Application number
PCT/JP2019/050113
Other languages
English (en)
French (fr)
Inventor
大典 生藤
茂樹 篠田
美樹子 牧瀬
規史 山崎
中川 哲夫
章子 田代
真規 澤田
真一朗 池田
Original Assignee
日本電気株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日本電気株式会社 filed Critical 日本電気株式会社
Priority to PCT/JP2019/050113 priority Critical patent/WO2021124552A1/ja
Priority to US17/782,918 priority patent/US20230017248A1/en
Priority to JP2021565288A priority patent/JPWO2021124552A1/ja
Publication of WO2021124552A1 publication Critical patent/WO2021124552A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B21/00Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
    • G08B21/02Alarms for ensuring the safety of persons
    • G08B21/10Alarms for ensuring the safety of persons responsive to calamitous events, e.g. tornados or earthquakes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B27/00Alarm systems in which the alarm condition is signalled from a central station to a plurality of substations
    • G08B27/006Alarm systems in which the alarm condition is signalled from a central station to a plurality of substations with transmission via telephone network
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30232Surveillance
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02ATECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
    • Y02A50/00TECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE in human health protection, e.g. against extreme weather

Definitions

  • the present invention relates to an information providing method, an information providing system, and a program for providing information on a disaster.
  • Disasters may occur due to natural phenomena such as earthquakes and typhoons and human causes.
  • Information on such disasters is collected by local governments, the national government, and organizations such as specialists, and such organizations provide warning information on disasters through means such as street broadcasting, television, radio, and the Internet. It is provided to general users using media such as images.
  • the warning information includes images and videos indicating the situation of a disaster, and characters and voices indicating that evacuation is necessary.
  • Patent Document 1 describes that the disaster information providing device calculates the degree of danger based on the disaster information and outputs the alarm information corresponding to the degree of danger from the presentation unit.
  • the disaster information providing device provides general users with warning sounds, voice messages, videos, and images as warning information.
  • the alarm information provided to the general users by the disaster information providing device is provided to all the general users, so that the contents are uniform. Therefore, the general user may not be able to determine whether or not the provided alarm information is the content corresponding to himself / herself, and may not be able to clearly recognize the degree of danger due to a disaster. Then, even if the content of the warning information is content that encourages evacuation or taking measures, there is a problem that general users may not take appropriate actions such as evacuating or taking measures according to such contents. Occurs.
  • an object of the present invention is to provide an information providing method, an information providing system, and a program capable of solving the above-mentioned problems that the user may not take an appropriate response to a disaster. To provide.
  • the information providing method which is one embodiment of the present invention, is Acquire disaster information, and also acquire user information, which is information related to the user. Based on the disaster information and the user information, provide information including a captured image which is an image captured at a predetermined location is generated. Providing the provided information to the information processing device of the user. It takes the configuration.
  • the information providing system which is one form of the present invention, is An acquisition method for acquiring user information, which is information related to the user, as well as acquiring disaster information.
  • the program which is one form of the present invention is For information processing equipment Acquire disaster information, and also acquire user information, which is information related to the user. Based on the disaster information and the user information, provide information including a captured image which is an image captured at a predetermined location is generated. Providing the provided information to the information processing device of the user. To execute the process, It takes the configuration.
  • the present invention is configured as described above, so that the user can take an appropriate response to a disaster.
  • FIG. 1 It is a block diagram which shows the structure of the information providing system in Embodiment 1 of this invention. It is a block diagram which shows the structure of the information providing system disclosed in FIG. It is a figure which shows an example of the information stored in the information providing system disclosed in FIG. It is a figure which shows an example of the information stored in the information providing system disclosed in FIG. It is a figure which shows an example of the information stored in the information providing system disclosed in FIG. It is a figure which shows an example of the information stored in the information providing system disclosed in FIG. It is a figure which shows an example of the information stored in the information providing system disclosed in FIG. It is a figure which shows an example of the processing by the information providing system disclosed in FIG. It is a figure which shows an example of the processing by the information providing system disclosed in FIG.
  • FIGS. 1 to 10 are diagrams for explaining the configuration of the information providing system
  • FIGS. 7 to 10 are diagrams for explaining the processing operation of the information providing system.
  • the information providing system in the present invention is for providing information on a disaster to a person U who is a general user.
  • the information providing system provides image information so that the person U can recognize the content of the disaster.
  • the information providing system 1 includes an issuance determination device 10 that determines whether or not to issue an alarm due to a disaster, an issuance transmission device 20 that issues an alarm due to a disaster, and when issuing an issuance. It is provided with an image processing device 30 for processing an image included in the provided information provided to the person U. Further, the command transmission device 20 is connected to the person terminal UT, which is an information processing terminal such as a smartphone owned by the person U, via a network.
  • the person terminal UT is an information processing terminal such as a smartphone owned by the person U, via a network.
  • the person terminal UT has a function of registering person information (user information), which is information related to the person U, to the command transmission device 20 automatically or in response to an operation by the person U. For example, when the person U wishes to provide the information provided regarding the disaster, the person U transmits the person information to the issuance transmission device 20 in advance and registers the person U.
  • person information as shown in FIG. 3, there are personal information which is information about an individual and relatives of the person U, attribute information which represents the attribute of the person U, and action information which represents the behavior of the person U.
  • FIG. 3 shows an example of the person information stored in the person information storage unit 24 formed in the command transmission device 20.
  • the personal information is, for example, a name, an address, a family name, a family address, a contact information (email address, etc.), and the like.
  • Attribute information includes, for example, gender, age, residential area, house type (house, condominium, etc.), family structure, presence / absence of vehicle, commuting status (train commuting, car commuting, walking commuting, etc.).
  • the action information is, for example, the home address, the company address, the parents' home address, the visited place, the current position, and the like of the person U.
  • the person terminal UT sends the personal information registered in the embedded application and the action information based on the action of the person U acquired by the application to the command transmission device 20 automatically or in response to the operation by the person U. Send and register.
  • the above-mentioned person information may be registered in the announcement transmission device 20 by any method.
  • the person terminal UT has a function of receiving the provided information provided in the event of a disaster from the announcement transmission device 20 and outputting it to the person U.
  • the person terminal UT outputs sound information provided as provided information from a speaker, or displays and outputs image information such as a still image or a moving image on a display screen.
  • the person terminal UT may receive and output the provided information provided by the command transmission device 20 not only in the event of a disaster but also in the normal state. In this case, the person terminal UT requests the information to be provided from the command transmission device 20 at the normal time, and the information to be provided is provided from the command transmission device 20.
  • the issuance determination device 10 is an information processing device managed by an organization such as a local government, the national government, or a specialist company. Then, the issuance determination device 10 analyzes information on natural phenomena such as earthquakes, tsunamis, typhoons, heavy rains, floods, snow, landslides, and disasters caused by human causes by executing a program by the equipped arithmetic unit. It has a function to determine whether or not to issue an alarm. Then, the issuance determination device 10 has a function of notifying the issuance transmission device 20 of the disaster content information indicating the content of the disaster together with the instruction to generate the alarm when it is determined that the alarm is to be issued.
  • Disaster content information includes, for example, the location where a disaster can occur (region, address, etc.), the type of disaster (earthquake, tsunami, typhoon, heavy rain, flood, snow, landslide, etc.), and the level of disaster (seismic intensity, precipitation). , Wind speed, wave height, alert level, etc.).
  • the disaster content information includes, for example, meteorological information for each location (region) as information related to the disaster.
  • the disaster content information is not limited to the information described above.
  • the command transmission device 20 has a function of receiving a notification of disaster content information from the command determination device 10 and providing information provided regarding the disaster to the person terminal UT.
  • the command transmission device 20 is composed of one or a plurality of information processing devices installed on the network. Then, as shown in FIG. 2, the command transmission device 20 includes an information acquisition unit 21, a provision information generation unit 22, and an information provision unit 23, which are constructed by the arithmetic unit executing a program. Further, the command transmission device 20 includes a person information storage unit 24, a disaster information storage unit 25, an evacuation information storage unit 26, and a provision information storage unit 27 formed in the storage device.
  • each configuration will be described in detail.
  • the information acquisition unit 21 (acquisition means) is a person who is information related to the person U transmitted from the person terminal UT by the registration operation using the person terminal UT by the person U who wants to provide the information provided about the disaster. Information is acquired and stored in the person information storage unit 24. As shown in FIG. 3 described above, the person information includes personal information, attribute information, and behavior information. However, the information acquisition unit 21 does not necessarily acquire the person information at the time of registration from the person U who wants to provide the provided information, and may acquire the person information at any time. For example, the information acquisition unit 21 may acquire the person information together with the request for the provision of the provided information from the person terminal UT of the person U when a disaster occurs or when the person U is normal.
  • the information acquisition unit 21 does not necessarily acquire the person information from the person terminal UT operated by the person U, but may acquire the person information from another information processing system.
  • the information acquisition unit 21 may always acquire information representing the current position of the person terminal UT of the person U in which the person information is registered, include it in the action information, and store it.
  • the information acquisition unit 21 acquires the disaster content information notified from the issuance determination device 10 and stores it in the disaster information storage unit 25.
  • disaster content information includes, for example, the location where a disaster can occur (region, address, etc.), the type of disaster (earthquake, tsunami, typhoon, heavy rain, flood, snow, landslide, etc.), and the level of the disaster. Includes (seismic intensity, precipitation, wind speed, wave height, alert level, etc.), weather information, etc.
  • the information acquisition unit 21 acquires evacuation shelter information, which is information about the evacuation shelter, and stores it in the evacuation information storage unit 26.
  • the evacuation shelter information is, for example, map information including road information as shown in FIG. 4, and includes the evacuation shelter name and the positions of the evacuation shelters A1 and A2 on the map.
  • the evacuation shelter information may be obtained by the issuance transmission device 20 from an information processing device operated by an organization such as the national or local government via a network, but it may be obtained by any method. May be good.
  • the provided information generation unit 22 (generation means) receives the notification of the disaster content information from the issuance determination device 10 and generates the provided information regarding the disaster to be provided to the person U.
  • the provided information generation unit 22 generates provided information including a disaster image (photographed image) for the person U so that the person U can recognize the situation of the disaster.
  • the provided information generation unit 22 first, first, the person information of the person U to be provided with the provided information stored in the person information storage unit 24 and the disaster content stored in the disaster information storage unit 25. Read information and. Then, the provision information generation unit 22 acquires a contact information such as an e-mail address from the personal information of the person U, and sets it as a transmission destination of the provision information to be generated. Further, the provided information generation unit 22 notifies the image processing device 30 of the attribute information, the action information, and the disaster content information among the person information, and requests the image processing device 30 to generate the disaster image. The generation of the disaster image by the image processing device 30 will be described in detail later when the configuration of the image processing device 30 is described.
  • the provided information generation unit 22 when the provided information generation unit 22 receives the disaster image generated and transmitted by the image processing device 30, the provided information generation unit 22 includes the disaster image in the provided information and stores it in the provided information storage unit 27. At the same time, the provided information generation unit 22 uses the evacuation center information and the person information to generate evacuation information including the evacuation center and the evacuation route to be evacuated by the person U, and includes the provided information in the provided information storage unit. Store in 27. Specifically, the provided information generation unit 22 uses the home address UH of the person U included in the person information as the starting point on the map information as shown in FIG. 4, as shown in FIG. 5, and one evacuation center A1. , Generate an evacuation route with A2 as the destination.
  • the provided information generation unit 22 generates an evacuation route to the evacuation shelters A1 and A2 that can reach the evacuation route A1 and A2 in the shortest distance from the home route UH of the person U as an example, but the evacuation route is generated by any method.
  • the provided information generation unit 22 refers to the action information in the person information of the person U to generate an evacuation route starting from the current position of the person U, or an evacuation center near a place where the person U often goes.
  • An evacuation route may be generated with the destination as the destination, or an evacuation route avoiding the area where the disaster is occurring may be generated by referring to the disaster content information.
  • the provided information generation unit 22 stores the provided information including the disaster image and the evacuation information generated as described above in the provided information storage unit 27 including the disaster content information.
  • the provided information also includes information such as the location where a disaster can occur, the type of disaster, and the level of disaster.
  • the provided information generation unit 22 is not necessarily limited to generating the provided information having the above-mentioned contents.
  • the provided information may be composed of only a part of the above-mentioned information such as including only the disaster image, or may include information other than the above-mentioned information.
  • the information providing unit 23 (providing means) transmits the provided information generated as described above and stored in the provided information storage unit 27 to the person terminal UT of the person U. At this time, the information providing unit 23 transmits the provided information including the disaster image generated based on the person information of the person U of the e-mail address to the e-mail address set as the destination as described above.
  • the image processing device 30 has a function of collecting and accumulating images and processing images.
  • the image processing device 30 is composed of one or a plurality of information processing devices installed on the network. Then, as shown in FIG. 2, the image processing device 30 includes an image generation unit 31 constructed by the arithmetic unit executing a program. Further, the image processing device 30 includes an image storage unit 32 formed in the storage device.
  • the image processing device 30 includes an image generation unit 31 constructed by the arithmetic unit executing a program.
  • an image processing device 30 includes an image storage unit 32 formed in the storage device.
  • the image storage unit 32 stores a captured image which is an image captured at a predetermined location.
  • the photographed image is, for example, an image of a person U's home as shown in FIG. 6 (1) or a “detached house” which is a house at a predetermined address, and an old building as shown in FIG. 6 (2).
  • the captured image stored in the image storage unit 32 may be captured at any place.
  • the captured image is associated with the metadata as shown in FIG. 6, and is stored in the image storage unit 32.
  • the metadata includes, for example, information such as the shooting position (address) of the shot image, the attribute corresponding to the attribute information of the person U, and the type of disaster corresponding to the disaster content information.
  • the "shooting position (address)" of the metadata is measured by a position measuring device such as GPS (Global Positioning System) mounted on the camera at the time of shooting, and information and images automatically associated with the shot image. This is information manually associated with the operator of the processing device 30.
  • the "attribute” of the metadata is information manually associated by the operator of the image processing device 30, and considers which attribute the photographed image is appropriate for the person U to be used as a disaster image. It is the information set in. For example, the photographed image of the "detached house” in FIG. 6 (1) is associated with the attribute of the "residential area" corresponding to the position, or the attribute of the house type is “detached house”. In addition, in the photographed image of "AA Tower" in Fig.
  • the image generation unit 31 (generation means) generates a disaster image using the image stored in the image storage unit 32 in response to a request for generation of a disaster image from the command transmission device 20 described above. Then, the image generation unit 31 returns the disaster image generated as described above to the requesting command transmission device 20.
  • the image generation unit 31 selects a captured image stored in the image storage unit 32 based on the attribute information, the action information, and the disaster content information among the person information notified from the command transmission device 20. , Generate a disaster image using the selected captured image. For example, the image generation unit 31 selects a captured image associated with a shooting position or attribute corresponding to the attribute information (residential area, age, house type, etc.) of the notified person U, or the notified person U. Select a shot image associated with the shooting position corresponding to the behavior information (home, office, etc.) of, and further, shoot corresponding to the notified disaster content information (disaster position, disaster type, etc.) Select a captured image with an associated location and disaster type. The image generation unit 31 may select a photographed image corresponding to only one of the information notified from the command transmission device 20, or may select a photographed image corresponding to a plurality of pieces of information. Good.
  • the image generation unit 31 adds image information representing a situation that may occur due to a disaster based on the disaster content information to the selected captured image to generate a disaster image. For example, when the type of disaster in the disaster content information is "typhoon", image information indicating the "inundation” situation is added, or when the type of disaster in the disaster content information is "earthquake”. Adds image information indicating the situation of "landslide”. At this time, image information in which the degree of "inundation” and the degree of "landslide" may be set according to the degree of disaster level among the disaster content information may be added.
  • the image generation unit 31 may generate a disaster image by adding image information representing a situation that may occur due to a disaster every time a predetermined time elapses to the selected photographed image. For example, when a disaster image with "inundation" image information added is generated as a disaster image one hour after the present, the disaster image two hours later has image information with an increased degree of "inundation” added. Generate a disaster image. Further, the image generation unit 31 may generate a disaster image by adding image information representing a situation that can occur due to the weather information to the selected captured image based on the weather information included in the disaster content information. For example, a disaster image to which image information of rain may be added may be generated, or a disaster image to which image information with an increased degree of "inundation" due to rain may be generated may be generated.
  • the image generation unit 31 has an image processing function according to the disaster content information in advance, which is executed by executing the program.
  • the image generation unit 31 stores an image of "inundation” in advance corresponding to the type of disaster "typhoon”, further sets the degree of inundation, and synthesizes the image of "inundation” with the captured image. It has a function.
  • the image generation unit 31 stores images of "rain” and “inundation” in advance in response to the weather information "rain”, and further sets the degree of inundation and "inundates” the captured image. It has a function to combine images of "" and "rain”.
  • the image generation unit 31 has a function of detecting a cliff in a captured image and performing image conversion to cause the cliff to collapse in response to the type of disaster "landslide”.
  • the image generation unit 31 pays attention to the home address in the notified person U's behavior information and the location of the disaster in the notified disaster content information, and focuses on the home and the disaster.
  • Select the captured image (upper figure) whose metadata includes the shooting position corresponding to the position.
  • the image generation unit 31 pays attention to the type of disaster and the level of the disaster in the notified disaster content information, and when the type of disaster is a typhoon, the degree of "inundation" corresponding to the level of the disaster Image information indicating the degree is added to the selected captured image to generate a disaster image (shown below). After that, the image generation unit 31 adds the content of the added image information (in this case, flooding) to the metadata of the generated disaster image.
  • the content of the added image information in this case, flooding
  • the image generation unit 31 pays attention to the commuting status in the attribute information of the notified person U, and when the information is "car commuting", the same information is included in the metadata. Select the captured image (above). Next, the image generation unit 31 pays attention to the type of disaster and the level of the disaster in the notified disaster content information, and since the type of disaster is an earthquake, the degree of "landslide" corresponding to the level of the disaster.
  • the image information representing the above is added to the selected captured image to generate a disaster image (shown below).
  • the image generation unit 31 pays attention to the house type in the attribute information of the notified person U, and when the information is "detached house", the same information is included in the metadata. Select the captured image (above). Next, the image generation unit 31 pays attention to the type of disaster and the level of the disaster in the notified disaster content information, and since the type of disaster is a typhoon, it responds to the level of the disaster and is one hour from the present.
  • a disaster image (middle figure) is generated by adding image information representing "inundation” corresponding to the amount of rain afterwards to the selected captured image. At this time, the image generation unit 31 may add image information representing the image of the person U to the captured image. Further, the image generation unit 31 further adds image information representing "inundation” corresponding to the amount of rainfall two hours after the present, that is, image information representing "inundation” in which the water level has increased (see the figure below). ) Is generated.
  • the image generation unit 31 pays attention to the house type in the attribute information of the notified person U, and when the information is "detached house", the same information is included in the metadata. Select the captured image (above). Next, the image generation unit 31 pays attention to the type of disaster and the level of the disaster in the notified disaster content information, and since the type of disaster is a typhoon, the degree of "inundation” corresponding to the level of the disaster. The image information representing the above is added to the selected captured image (middle figure). Further, the image generation unit 31 pays attention to the home address in the notified behavior information of the person U and the weather information in the notified disaster content information, because the weather at the home address of the person U is rainy. , Image information representing "rain” is further added to the captured image to generate a disaster image (shown below).
  • the image generation unit 31 may generate a disaster image in which image information indicating the situation of the disaster is added to the captured image in advance and store it in the image storage unit 32. That is, the image generation unit 31 is not limited to the presence or absence of a disaster, and is not limited to whether or not there is a request to generate a disaster image from the command transmission device 20, and the disaster as shown in FIGS. 7A to 7D from the captured image shown in FIG. An image may be generated.
  • the image generation unit 31 generates a disaster image by adding image information representing a situation that can occur due to each disaster or weather to the captured image in response to all types of disasters and weather information. Then, the image generation unit 31 adds information representing the content of the added image information, for example, information such as inundation, landslide, and rain, to the metadata of the disaster image as additional data.
  • the image generation unit 31 receives the attribute information, action information, disaster content information, etc. of the person notified from the command transmission device 20. Based on, the already generated disaster image stored in the image storage unit 32 is selected. For example, the image generation unit 31 first selects a disaster image in which the information corresponding to the notified person's attribute information, behavior information, and disaster type in the disaster content information is associated with metadata, and further. Finally, select the disaster image to which the additional data corresponding to the type of disaster in the disaster content information is added.
  • the image generation unit 31 returns the finally selected disaster image to the requesting command transmission device 20.
  • FIG. 8 is a diagram showing the flow of information between devices in the information processing system
  • FIGS. 9 to 10 are flowcharts showing the operation of the entire information processing system.
  • the flowchart of FIG. 9 shows a case where a disaster image is generated when a disaster occurs
  • the flowchart of FIG. 10 shows a case where a disaster image is generated in advance.
  • the issuance determination device 10 collects and analyzes information on the disaster, and determines whether or not to issue an alarm. Then, when the issuance determination device 10 decides to issue an alarm, the issuance determination device 10 notifies the issuance transmission device 20 of the disaster content information indicating the content of the disaster together with the instruction to issue the alarm (arrow Y1 in FIG. 8). , Step S1) in FIG.
  • the disaster content information includes, for example, the location where the disaster can occur (region, address, etc.), the type of disaster (earthquake, tsunami, typhoon, heavy rain, flood, snow, landslide, etc.), and the level of the disaster (seismic intensity). , Precipitation, wind speed, wave height, alert level, etc.).
  • the disaster content information includes, for example, meteorological information for each location (region) as information related to the disaster.
  • the command transmission device 20 acquires the disaster content information and the person information of the person U registered in advance (FIG. 9). Step S2).
  • the command transmission device 20 is a person transmitted from the person terminal UT when the person U requests information to be provided by the person terminal UT in response to a disaster or at an arbitrary timing in a normal state.
  • the person information of U may be acquired.
  • the announcement transmission device 20 notifies the image processing device 30 of the acquired disaster content information and the person information, and requests the image processing device 30 to generate a disaster image (arrow Y2 in FIG. 8 and step S3 in FIG. 9).
  • the image processing device 30 selects a captured image corresponding to the disaster content information and the person information from the captured images stored in advance (step S4 in FIG. 9).
  • the image processing device 30 stores captured images as shown in FIG. 6 in advance, and each captured image has a captured position, an attribute, and a type of disaster according to the content of the image. Associated as metadata.
  • the image processing device 30 obtains a captured image associated with metadata corresponding to the location and type of disaster included in the notified disaster content information, attribute information and action information among the notified person information. select.
  • the image processing device 30 selects the captured image of the "detached house” in FIG. 6 (1), and the attribute of the person U is "age: If it is "60 or more”, select the photographed image of "AA Tower” in Fig. 6 (2), which is a famous old building that even people over 60 know, and the attribute of person U is "commuting". Situation: In the case of "car commuting", the photographed image of "forest road” in FIG. 6 (3) is selected.
  • the image processing device 30 may specify the "home” from the behavior information of the person U and select the captured image of the "detached house” in FIG. 6 (2) corresponding to the home address. Good.
  • the image processing device 30 may specify the type of disaster from the disaster content information and select a captured image in which the same type of disaster is associated with the type of such disaster.
  • the image processing device 30 may select a captured image corresponding to a plurality of pieces of information from the notified disaster content information and person information.
  • the command transmission device 20 adds image information representing a situation that may occur due to a disaster to the selected captured image according to the notified disaster content information, and generates a disaster image (step of FIG. 9). S5).
  • the announcement transmission device 20 adds image information indicating the "inundation" situation as shown in FIG. 7A, or adds disaster content information.
  • image information indicating the situation of "landslide” is added.
  • FIG. 7B image information indicating the situation of "landslide” is added.
  • the issuance transmission device 20 is an image showing a state of "inundation" that is assumed 1 hour and 2 hours after the present, that is, every time a predetermined time elapses.
  • Disaster images with added information may be generated respectively.
  • the announcement transmission device 20 generates a disaster image to which a situation that can occur due to the weather information included in the disaster content information, for example, as shown in FIG. 7D, is added with image information that it is raining. You may.
  • the image processing device 30 returns the disaster image generated as described above to the command transmission device 20 (arrow Y3 in FIG. 8). Then, the command transmission device 20 receives the disaster image and generates the provided information including the disaster image (step S6 in FIG. 9). Before and after the generation of the disaster image described above, the command transmission device 20 uses the evacuation shelter information and the person information to generate evacuation information including the evacuation shelter and the evacuation route to be evacuated by the person U. Include in the provided information.
  • the command transmission device 20 provides the provided information to the person terminal UT of the person U by transmitting the provided information including the disaster image and the evacuation information to the e-mail address from the person information (FIG. 8). Arrow Y4, step S7 in FIG. 9).
  • the person U can display the disaster image and the evacuation information on the display device of the person terminal UT.
  • the display device is provided with an operation unit such as a slide bar for operating the elapse of time. By displaying and setting the passage of time by operating the slide bar on which the person U is applied, an image corresponding to the set time may be displayed.
  • the person terminal UT is displaying a disaster image showing "inundation” one hour after the present, and the slide bar is operated to set the time "two hours later", it is 2 from the present. Display a disaster image showing "inundation” after an hour.
  • the command transmission device 20 is transmitted from the person terminal UT at this time.
  • the person information of the person U may be acquired and the person information may be transmitted to the image processing device 30 to request the generation of a disaster image.
  • the image processing device 30 selects a captured image corresponding to the person information in the same manner as described above, and corresponds to the type of disaster specified by the person U or any type of disaster with respect to the captured image.
  • a disaster image may be generated to which image information representing the situation of the disaster is added. As a result, the person U can display the disaster image even when the disaster has not actually occurred.
  • the image processing device 30 generates and stores in advance a disaster image in which image information representing the disaster situation according to the type of disaster is added to the captured image in the same manner as described above. (Step S11 in FIG. 10). Specifically, the image processing device 30 generates a disaster image in which image information representing the situation of such a disaster is added to the captured image according to the type of disaster associated with the captured image in advance. However, the image processing device 30 may generate a disaster image in which image information representing the situation of any type of disaster is added to the captured image, and in that case, the situation corresponding to the added image information is represented. Associate the information with the disaster image.
  • the image processing device 30 may store a captured image captured in advance when the photographing location is a disaster as a disaster image.
  • the disaster image is associated with metadata including information such as the shooting position of the shot image, the attribute corresponding to the attribute information of the person U, and the type of disaster corresponding to the disaster content information.
  • the issuance determination device 10 collects and analyzes information on the disaster, and determines whether or not to issue an alarm. Then, when the issuance determination device 10 decides to issue an alarm, the issuance determination device 10 notifies the issuance transmission device 20 of the disaster content information indicating the content of the disaster together with the instruction to generate the alarm (arrow Y1 in FIG. 8). , Step S12 in FIG.
  • the command transmission device 20 acquires the disaster content information and the person information of the person U registered in advance (FIG. 10). Step S13).
  • the command transmission device 20 is a person transmitted from the person terminal UT when the person U requests information to be provided by the person terminal UT in response to a disaster or at an arbitrary timing in a normal state.
  • the person information of U may be acquired.
  • the announcement transmission device 20 notifies the image processing device 30 of the acquired disaster content information and the person information, and requests the image processing device 30 to generate a disaster image (arrow Y2 in FIG. 8, step S14).
  • the image processing device 30 selects a disaster image corresponding to the disaster content information and the person information from the disaster images stored in advance (step S15 in FIG. 10).
  • the disaster image has already been generated by the image processing device 30, and the captured position, attribute, and disaster type according to the content of the image are associated as metadata. .. Therefore, the image processing device 30 has a disaster image associated with metadata corresponding to the location and type of disaster included in the notified disaster content information, attribute information and behavior information among the notified person information. Select.
  • the image processing device 30 returns the selected disaster image to the command transmission device 20 (arrow Y3 in FIG. 8). Then, the command transmission device 20 receives the disaster image and generates the provided information including the disaster image (step S16 in FIG. 10). Before and after the generation of the disaster image described above, the command transmission device 20 uses the evacuation shelter information and the person information to generate evacuation information including the evacuation shelter and the evacuation route to be evacuated by the person U. Include in the provided information.
  • the command transmission device 20 provides the provided information to the person terminal UT of the person U by transmitting the provided information including the disaster image and the evacuation information to the e-mail address from the person information (FIG. 8). Arrow Y4, step S17 in FIG. 10). As a result, the person U can display the disaster image and the evacuation information on the display device of the person terminal UT.
  • the command transmission device 20 is transmitted from the person terminal UT at this time.
  • the person information of the person U may be acquired and the person information may be transmitted to the image processing device 30 to request the generation of a disaster image.
  • the image processing device 30 selects the disaster image corresponding to the person information as described above, and further determines the disaster situation corresponding to the disaster type specified by the person U or any disaster type.
  • the disaster image to which the image information to be represented is added is finally selected. As a result, the person U can display the disaster image even when the disaster has not actually occurred.
  • a captured image of a place corresponding to the person information according to the attribute and behavior of the person U is used as a disaster image reflecting the situation of the disaster, and the provided information including the disaster image is provided.
  • a disaster image is obtained by using a photographed image of the person U's home, a photographed image of a place related to the lifestyle of the person U, a photographed image of a building that even an elderly person knows, and the like. Therefore, the person U can visually recognize the disaster image of the place corresponding to himself / herself, such as a place close to him / herself or a place he / she knows. Then, the person U becomes more interested in the disaster image and can clearly recognize the degree of danger due to the disaster. As a result, it can be expected that the person U will take appropriate actions such as actively evacuating and taking measures against the disaster.
  • FIGS. 11 to 13 are block diagrams showing the configuration of the information providing system according to the second embodiment
  • FIG. 13 is a flowchart showing the operation of the information providing system.
  • the outline of the configuration of the information providing system and the information providing method described in the first embodiment is shown.
  • the information providing system 100 is composed of one or a plurality of general information processing devices, and is equipped with the following hardware configuration as an example.
  • -CPU Central Processing Unit
  • -ROM Read Only Memory
  • RAM Random Access Memory
  • 103 storage device
  • -Program group 104 loaded into RAM 303
  • a storage device 105 that stores the program group 304.
  • a drive device 106 that reads and writes the storage medium 110 external to the information processing device.
  • -Communication interface 107 that connects to the communication network 111 outside the information processing device -I / O interface 108 for inputting / outputting data -Bus 109 connecting each component
  • the information providing system 100 can construct and equip the acquiring means 121, the generating means 122, and the providing means 123 shown in FIG. 12 by acquiring the program group 104 by the CPU 101 and executing the program group 104. ..
  • the program group 104 is stored in, for example, a storage device 105 or a ROM 102 in advance, and the CPU 101 loads the program group 104 into the RAM 103 and executes the program group 104 as needed. Further, the program group 104 may be supplied to the CPU 101 via the communication network 111, or may be stored in the storage medium 110 in advance, and the drive device 106 may read the program and supply the program to the CPU 101.
  • the above-mentioned acquisition means 121, generation means 122, and provision means 123 may be constructed by an electronic circuit.
  • FIG. 11 shows an example of the hardware configuration of the information providing system 100, and the hardware configuration of the information providing system is not limited to the above case.
  • the information providing system may be composed of a part of the above-described configuration, such as not having the drive device 106.
  • the information providing system 100 executes the information providing method shown in the flowchart of FIG. 13 by the functions of the acquiring means 121, the generating means 122, and the providing means 123 constructed by the program as described above.
  • the information providing system 100 is In addition to acquiring disaster information, user information, which is information related to the user, is acquired (step S101). Based on the disaster information and the user information, the provided information including the captured image, which is an image captured at a predetermined location, is generated (step S102). The provided information is provided to the user's information processing device (step S103).
  • the present embodiment is configured as described above, and provides the user with provided information reflecting the situation of the disaster by using the photographed image of the place corresponding to the user information. For this reason, the user can visually recognize the image of the place corresponding to himself / herself, such as a place close to him / herself, a place he / she knows, etc., and the interest in the disaster is increased and the degree of danger due to the disaster is clarified. Can be recognized. As a result, it can be expected that the user will take appropriate actions such as actively evacuating and taking measures against the disaster.
  • (Appendix 1) Acquire disaster information, and also acquire user information, which is information related to the user. Based on the disaster information and the user information, provide information including a captured image which is an image captured at a predetermined location is generated. Providing the provided information to the information processing device of the user. Information provision method.
  • Appendix 2 The information provision method described in Appendix 1.
  • the attribute information representing the attribute of the user is acquired as the user information, and the attribute information is obtained.
  • the provided information is generated based on the disaster information and the attribute information.
  • Information provision method The information provision method described in Appendix 1.
  • Appendix 3 The information provision method described in Appendix 2, The photographed image obtained by photographing the place corresponding to the attribute information is acquired, and the provided information including the photographed image is generated. Information provision method.
  • Appendix 5 The information provision method described in Appendix 4, The photographed image of a place corresponding to the action information is acquired, and the provided information including the photographed image is generated. Information provision method.
  • the information providing method according to any one of Supplementary notes 1 to 5.
  • the disaster information the disaster content information, which is the information indicating the content of the disaster, is acquired. Generate the provided information based on the disaster content information. Information provision method.
  • Appendix 7 The information provision method described in Appendix 6 Based on the disaster content information, the photographed image including the image information representing a situation that may occur due to the disaster is acquired, and the provided information including the photographed image is generated. Information provision method.
  • Appendix 8 The information provision method described in Appendix 6 Based on the disaster content information, the provided information is generated by adding image information representing a situation that may occur due to a disaster to the captured image. Information provision method.
  • Appendix 9 The information provision method described in Appendix 8 Based on the disaster content information, the provided information is generated by adding image information representing a situation that may occur after a lapse of a predetermined time due to a disaster to the captured image. Information provision method.
  • Appendix 11 The information providing method according to any one of Appendix 1 to 10.
  • the photographed image including the position information of the photographed place is acquired and stored, and the photographed image is stored.
  • the stored captured image is acquired and the provided information including the captured image is generated.
  • Information provision method is
  • Appendix 13 The information providing system described in Appendix 12
  • the acquisition means acquires attribute information representing the attribute of the user as the user information, and obtains the attribute information.
  • the generation means generates the provided information based on the disaster information and the attribute information. Information provision system.
  • Appendix 14 The information providing system described in Appendix 13 The generation means acquires the photographed image obtained by photographing the place corresponding to the attribute information, and generates the provided information including the photographed image. Information provision system.
  • Appendix 15 The information providing system according to any one of Appendix 12 to 14.
  • the acquisition means acquires behavior information, which is information representing the behavior of the user, as the user information.
  • the generation means generates the provided information based on the disaster information and the action information. Information provision system.
  • Appendix 16 The information providing system described in Appendix 15 The generation means acquires the photographed image of a place corresponding to the action information and generates the provided information including the photographed image. Information provision system.
  • the information providing system according to any one of Appendix 12 to 16.
  • the acquisition means acquires disaster content information, which is information representing the content of the disaster, as the disaster information.
  • the generation means generates the provided information based on the disaster content information.
  • Information provision system is information that provides information to the disaster content information.
  • Appendix 18 The information providing system described in Appendix 17, Based on the disaster content information, the generation means acquires the captured image including image information representing a situation that may occur due to a disaster, and generates the provided information including the captured image. Information provision system.
  • the information providing system described in Appendix 17 The information providing system described in Appendix 17, The generation means generates the provided information by adding image information representing a situation that may occur due to a disaster to the captured image based on the disaster content information. Information provision system.
  • Appendix 20 The information providing system described in Appendix 19, The generation means generates the provided information by adding image information representing a situation that may occur after a lapse of a predetermined time due to a disaster to the captured image based on the disaster content information. Information provision system.
  • the information providing system according to any one of Appendix 12 to 20.
  • the acquisition means acquires position information representing the position of the user as the user information, and obtains the position information.
  • the providing means generates evacuation information including at least information specifying an evacuation site based on the position information, and provides the evacuation information to the information processing device of the user. Information provision system.
  • the information providing system according to any one of Supplementary note 12 to 21.
  • the acquisition means acquires and stores the photographed image including the position information of the photographed place, and stores the photographed image.
  • the generation means acquires the stored photographed image and generates the provided information including the photographed image based on the disaster information and the user information. Information provision system.
  • Non-temporary computer-readable media include various types of tangible storage media.
  • Examples of non-temporary computer-readable media include magnetic recording media (eg, flexible disks, magnetic tapes, hard disk drives), magneto-optical recording media (eg, magneto-optical disks), CD-ROMs (Read Only Memory), CD-Rs, It includes a CD-R / W and a semiconductor memory (for example, a mask ROM, a PROM (Programmable ROM), an EPROM (Erasable PROM), a flash ROM, and a RAM (Random Access Memory)).
  • a semiconductor memory for example, a mask ROM, a PROM (Programmable ROM), an EPROM (Erasable PROM), a flash ROM, and a RAM (Random Access Memory)
  • the program may also be supplied to the computer by various types of temporary computer readable medium.
  • temporary computer-readable media include electrical, optical, and electromagnetic waves.
  • the temporary computer-readable medium can supply the program to the computer via a wired communication path such as an electric wire and an optical fiber, or a wireless communication path.
  • Information provision system 10 Issuance judgment device 20 Issuance transmission device 21 Information acquisition unit 22 Providing information generation unit 23 Information provision unit 24 Person information storage unit 25 Disaster information storage unit 26 Evacuation information storage unit 27 Provision information storage unit 30 Image processing device 31 Image generation unit 32 Image storage unit U Person UT Person terminal 100 Information providing system 101 CPU 102 ROM 103 RAM 104 Program group 105 Storage device 106 Drive device 107 Communication interface 108 Input / output interface 109 Bus 110 Storage medium 111 Communication network 121 Acquisition means 122 Generation means 123 Providing means

Abstract

本発明の情報提供システム100は、災害情報を取得すると共に、ユーザに関連する情報であるユーザ情報を取得する取得手段121と、災害情報とユーザ情報とに基づいて、所定場所を撮影した画像である撮影画像を含む提供情報を生成する生成手段122と提供情報をユーザの情報処理装置に提供する提供手段123と、を備える。

Description

情報提供方法
 本発明は、災害に関する情報を提供する情報提供方法、情報提供システム、プログラムに関する。
 地震や台風などの自然現象や人為的な原因によって災害が発生することがある。このような災害は、地方自治体や国、さらには専門業者などの機関によって情報収集が行われ、かかる機関が、災害に関する警報情報を、街頭放送、テレビ、ラジオ、インターネットなどの手段を通じて、音声、画像といった媒体を用いて一般ユーザに提供している。例えば、警報情報としては、災害の状況を表す画像や映像、避難が必要である旨を表す文字や音声、による情報がある。
 ここで、災害に関する警報情報を提供するシステムとして、特許文献1に開示のものがある。特許文献1では、災害情報提供装置が、災害情報に基づいて危険度を算出し、危険度に対応した警報情報を提示部から出力する、ことが記載されている。一例として、災害情報提供装置は、警報情報として、警報音や音声によるメッセージ、映像や画像、を一般ユーザに提供することとしている。
国際公開第2014/097607号
 しかしながら、上述した特許文献1の技術では、災害情報提供装置から一般ユーザに提供される警報情報は、一般ユーザ全員に対して提供されるものであるため、内容が画一的である。このため、一般ユーザは、提供された警報情報が自身に対応する内容であるかどうか判断できず、また、災害による危険度合いを明確に認識できない場合がある。すると、警報情報の内容が避難や対策をとることを促す内容であっても、かかる内容に従って、一般ユーザが、避難したり、対策をとる、といった適切な行動をとらないことがある、という問題が生じる。
 このため、本発明の目的は、上述した課題である、災害に対してユーザが適切な対応をとらないことがある、ということを解決することができる情報提供方法、情報提供システム、プログラム、を提供することにある。
 本発明の一形態である情報提供方法は、
 災害情報を取得すると共に、ユーザに関連する情報であるユーザ情報を取得し、
 前記災害情報と前記ユーザ情報とに基づいて、所定場所を撮影した画像である撮影画像を含む提供情報を生成し、
 前記提供情報を前記ユーザの情報処理装置に提供する、
という構成をとる。
 また、本発明の一形態である情報提供システムは、
 災害情報を取得すると共に、ユーザに関連する情報であるユーザ情報を取得する取得手段と、
 前記災害情報と前記ユーザ情報とに基づいて、所定場所を撮影した画像である撮影画像を含む提供情報を生成する生成手段と、
 前記提供情報を前記ユーザの情報処理装置に提供する提供手段と、
を備えた、
という構成をとる。
 また、本発明の一形態であるプログラムは、
 情報処理装置に、
 災害情報を取得すると共に、ユーザに関連する情報であるユーザ情報を取得し、
 前記災害情報と前記ユーザ情報とに基づいて、所定場所を撮影した画像である撮影画像を含む提供情報を生成し、
 前記提供情報を前記ユーザの情報処理装置に提供する、
処理を実行させる、
という構成をとる。
 本発明は、以上のように構成されることにより、災害に対してユーザが適切な対応をとることができる。
本発明の実施形態1における情報提供システムの構成を示すブロック図である。 図1に開示した情報提供システムの構成を示すブロック図である。 図1に開示した情報提供システムに記憶される情報の一例を示す図である。 図1に開示した情報提供システムに記憶される情報の一例を示す図である。 図1に開示した情報提供システムに記憶される情報の一例を示す図である。 図1に開示した情報提供システムに記憶される情報の一例を示す図である。 図1に開示した情報提供システムによる処理の一例を示す図である。 図1に開示した情報提供システムによる処理の一例を示す図である。 図1に開示した情報提供システムによる処理の一例を示す図である。 図1に開示した情報提供システムによる処理の一例を示す図である。 図1に開示した情報提供システムを構成する装置間の情報の流れを示す図である。 図1に開示した情報提供システムの動作を示すフローチャートである。 図1に開示した情報提供システムの動作を示すフローチャートである。 本発明の実施形態2における情報提供システムのハードウェア構成を示すブロック図である。 本発明の実施形態2における情報提供システムの構成を示すブロック図である。 本発明の実施形態2における情報提供システムの動作を示すフローチャートである。
 <実施形態1>
 本発明の第1の実施形態を、図1乃至図10を参照して説明する。図1乃至図6は、情報提供システムの構成を説明するための図であり、図7乃至図10は、情報提供システムの処理動作を説明するための図である。
 本発明における情報提供システムは、災害に関する情報を一般ユーザである人物Uに対して提供するためのものである。特に、本実施形態では、情報提供システムは、人物Uが災害の内容を認識することができるような画像情報を提供する。
 [構成]
 図1に示すように、情報提供システム1は、災害による警報の発令を行うか否かを判断する発令判断装置10と、災害による警報の発令を行う発令発信装置20と、発令を発信する際に人物Uに提供する提供情報に含まれる画像を処理する画像処理装置30と、を備えている。また、発令発信装置20は、人物Uが所持するスマートフォンなどの情報処理端末である人物端末UTにネットワークを介して接続される。以下、各構成について詳述する。
 上記人物端末UTは、自動的あるいは人物Uによる操作に応じて、発令発信装置20に対して人物Uに関連する情報である人物情報(ユーザ情報)を登録する機能を有する。例えば、人物Uは、災害に関する提供情報の提供を希望する場合に、事前に発令発信装置20に対して人物情報を送信して登録する。ここで、人物情報としては、図3に示すように、人物U個人や身内に関する情報である個人情報、人物Uの属性を表す属性情報、人物Uの行動を表す行動情報、などがある。なお、図3は、発令発信装置20に形成される人物情報記憶部24に記憶される人物情報の一例を示している。そして、上記個人情報は、例えば、氏名、住所、家族の氏名、家族の住所、連絡先(メールアドレスなど)、などである。属性情報は、例えば、性別、年齢、居住地区、家タイプ(一軒家、マンションなど)、家族構成、車両の有無、通勤状態(電車通勤、車通勤、徒歩通勤など)、などである。行動情報は、例えば、人物Uの自宅住所、会社住所、実家住所、訪問した場所、現在位置、などである。
 なお、人物端末UTは、組み込まれたアプリケーションに登録された個人情報や、アプリケーションによって取得された人物Uの行動に基づく行動情報を、自動的あるいは人物Uによる操作に応じて、発令発信装置20に送信して登録する。但し、上述した人物情報は、いかなる方法で発令発信装置20に登録されてもよい。
 また、人物端末UTは、発令発信装置20から災害時に提供される提供情報を受信して、人物Uに対して出力する機能を有する。例えば、人物端末UTは、提供情報として提供される音情報をスピーカから出力したり、静止画や動画といった画像情報を表示画面に表示出力する。但し、人物端末UTは、災害時に限らず、正常時にも発令発信装置20から提供される提供情報を受信して出力してもよい。この場合、人物端末UTは、正常時に発令発信装置20に対して提供情報を要求することで、当該発令発信装置20から提供情報が提供される。
 上記発令判断装置10は、地方自治体や国、さらには専門業者などの機関が管理する情報処理装置である。そして、発令判断装置10は、装備された演算装置がプログラムを実行することで、地震、津波、台風、大雨、洪水、雪、土砂崩れ、などの自然現象や人為的な原因による災害の情報を分析し、警報を発するか否かを判断する機能を有する。そして、発令判断装置10は、警報を発令すると判断した際に、警報を発生することの指示と併せて、災害の内容を表す災害内容情報を発令発信装置20に通知する機能を有する。災害内容情報としては、例えば、災害が生じうる位置(地域、住所、など)、災害の種類(地震、津波、台風、大雨、洪水、雪、土砂崩れ、など)、災害のレベル(震度、降水量、風速、波の高さ、警戒レベル、など)を含む。なお、災害内容情報には、災害に関連する内容の情報として、例えば、位置(地域)毎の気象情報も含む。但し、災害内容情報は、上述した内容の情報であることに限定されない。
 上記発令発信装置20は、発令判断装置10から災害内容情報の通知を受けて、災害に関する提供情報を人物端末UTに提供する機能を有する。例えば、発令発信装置20は、ネットワーク上に設置された1台または複数の情報処理装置にて構成されている。そして、発令発信装置20は、図2に示すように、演算装置がプログラムを実行することで構築された、情報取得部21と、提供情報生成部22と、情報提供部23と、を備える。また、発令発信装置20は、記憶装置に形成された、人物情報記憶部24と、災害情報記憶部25と、避難情報記憶部26と、提供情報記憶部27と、備える。以下、各構成について詳述する。
 上記情報取得部21(取得手段)は、災害に関する提供情報の提供を希望する人物Uによる人物端末UTを用いた登録操作により、当該人物端末UTから送信された人物Uに関連する情報である人物情報を取得して、人物情報記憶部24に記憶する。人物情報としては、上記で説明した図3に示すように、個人情報、属性情報、行動情報、を含む。但し、情報取得部21は、人物情報を、必ずしも提供情報の提供を希望する人物Uからの登録時に取得することに限らず、任意のタイミングで取得してもよい。例えば、情報取得部21は、災害発生時、あるいは、正常時に、人物Uの人物端末UTから、提供情報の提供の要求と共に人物情報を取得してもよい。また、情報取得部21は、人物情報を、必ずしも人物Uが操作する人物端末UTから取得することに限らず、他の情報処理システムから取得してもよい。なお、情報取得部21は、人物情報が登録されている人物Uの人物端末UTの現在の位置を表す情報を常に取得して、行動情報に含めて記憶してもよい。
 また、情報取得部21は、発令判断装置10から通知された災害内容情報を取得して、災害情報記憶部25に記憶する。災害内容情報は、上述したように、例えば、災害が生じうる位置(地域、住所、など)、災害の種類(地震、津波、台風、大雨、洪水、雪、土砂崩れ、など)や、災害のレベル(震度、降水量、風速、波の高さ、警戒レベル、など)、気象情報、などを含む。
 また、情報取得部21は、避難所に関する情報である避難所情報を取得して、避難情報記憶部26に記憶する。避難所情報は、例えば、図4に示すような道路情報を含む地図情報であり、地図上に、避難所名や避難所A1,A2の位置、を含む。なお、避難所情報は、発令発信装置20が、国や地方自治体などの機関が運営する情報処理装置からネットワークを介して取得したものであってもよいが、いかなる方法で取得したものであってもよい。
 上記提供情報生成部22(生成手段)は、発令判断装置10から災害内容情報の通知を受けて、人物Uに提供する災害に関する提供情報を生成する。特に、提供情報生成部22は、人物Uに対して、当該人物Uが災害の状況を認識できるような災害画像(撮影画像)を含む提供情報を生成する。
 具体的に、提供情報生成部22は、まず、人物情報記憶部24に記憶されている、提供情報の提供対象となる人物Uの人物情報と、災害情報記憶部25に記憶されている災害内容情報と、を読み出す。そして、提供情報生成部22は、人物Uの人物情報のうち個人情報内からメールアドレスといった連絡先を取得し、生成する提供情報の送信先として設定する。さらに、提供情報生成部22は、人物情報のうち属性情報及び行動情報と災害内容情報とを画像処理装置30に通知して、災害画像の生成を依頼する。なお、画像処理装置30による災害画像の生成については、後の画像処理装置30の構成説明時に詳述する。
 そして、提供情報生成部22は、その後、画像処理装置30にて生成され送信された災害画像を受け取ると、当該災害画像を提供情報に含めて、提供情報記憶部27に記憶する。併せて、提供情報生成部22は、避難所情報と人物情報とを用いて、人物Uが避難すべき避難所及び避難経路を含む避難情報を生成して、提供情報に含めて提供情報記憶部27に記憶する。具体的に、提供情報生成部22は、図4に示すような地図情報上において、図5に示すように、人物情報に含まれる人物Uの自宅住所UHを出発地とし、1つの避難所A1,A2を目的地とする避難経路を生成する。このとき、提供情報生成部22は、一例として、人物Uの自宅経路UHから最短距離でたどり着くことができる避難所A1,A2まで避難経路を生成するが、いかなる方法で避難経路を生成してもよい。例えば、提供情報生成部22は、人物Uの人物情報内の行動情報を参照して、人物Uの現在位置を出発地とした避難経路を生成したり、人物Uがよく行く場所付近の避難所を目的地とするような避難経路を生成してもよく、災害内容情報を参照して災害が生じている地域を避けた避難経路を生成してもよい。
 なお、提供情報生成部22は、上述したように生成した災害画像と避難情報とを含む提供情報に、災害内容情報も含めて提供情報記憶部27に記憶する。つまり、提供情報には、災害が生じうる位置、災害の種類、災害のレベル、といった情報も含まれる。但し、提供情報生成部22は、必ずしも上述した内容の提供情報を生成することに限定されない。例えば、提供情報は、災害画像のみを含むというように上述した情報の一部のみで構成されていてもよく、あるいは、上述した情報以外の他の情報を含んでいてもよい。
 上記情報提供部23(提供手段)は、上述したように生成して提供情報記憶部27に記憶されている提供情報を、人物Uの人物端末UTに送信する。このとき、情報提供部23は、上述したように送信先として設定したメールアドレス宛に、当該メールアドレスの人物Uの人物情報に基づいて生成された災害画像を含む提供情報を送信する。
 上記画像処理装置30は、画像を収集して蓄積したり、画像を処理する機能を有する。例えば、画像処理装置30は、ネットワーク上に設置された1台または複数の情報処理装置にて構成されている。そして、画像処理装置30は、図2に示すように、演算装置がプログラムを実行することで構築された画像生成部31を備える。また、画像処理装置30は、記憶装置に形成された画像記憶部32を備える。以下、各構成について詳述する。
 上記画像記憶部32は、所定場所を撮影した画像である撮影画像を記憶している。撮影画像は、例えば、図6(1)に示すような人物Uの自宅や所定住所の住宅である「一戸建て」を撮影した画像、図6(2)に示すような古くからある建物であり一般市民に認知されている「AAタワー」を撮影した画像、図6(3)に示すような「林道」を撮影した画像、などである。但し、画像記憶部32に記憶されている撮影画像は、いかなる場所を撮影したものであってもよい。そして、撮影画像には、図6に示すようなメタデータが関連付けられており、画像記憶部32に記憶されている。メタデータは、例えば、撮影画像の撮影位置(住所)、人物Uの属性情報に対応する属性、災害内容情報に対応する災害の種類、といった情報を含む。
 なお、メタデータの「撮影位置(住所)」は、撮影時にカメラに搭載されたGPS(Global Positioning System)などの位置測定装置にて測定され、撮影画像に自動的に関連付けられた情報や、画像処理装置30のオペレータにて手動で関連付けられた情報である。また、メタデータの「属性」は、画像処理装置30のオペレータにて手動で関連付けられた情報であり、撮影画像がどの属性の人物Uに対して災害画像として用いることが適切であるかを考慮して設定された情報である。例えば、図6(1)の「一戸建て」の撮影画像には、その位置に対応する「居住地区」の属性が関連付けられたり、家タイプが「一戸建て」の属性が関連付けられる。また、図6(2)の「AAタワー」の撮影画像には、その位置に対応する「居住地区」や、高齢者でも見たことがある有名な建物という理由から、「年齢(60以上)」の属性が関連付けられる。また、図6(3)の「林道」の撮影画像には、その位置に対応する「居住地区」や、通勤状況が「車通勤」の属性が関連付けられる。また、メタデータの「災害」は、画像処理装置30のオペレータにて手動で関連付けられた情報であり、撮影画像がどの種類の災害に対する災害画像として用いることが適切であるかを考慮して設定された情報である。なお、上述したメタデータは一例であって、撮影画像に他の情報が関連付けられてもよい。
 上記画像生成部31(生成手段)は、上述した発令発信装置20からの災害画像の生成の依頼を受けて、画像記憶部32に記憶されている画像を用いて、災害画像を生成する。そして、画像生成部31は、上述したように生成した災害画像を、依頼してきた発令発信装置20に対して返送する。
 具体的に、画像生成部31は、発令発信装置20から通知された人物情報のうち属性情報、行動情報、災害内容情報、に基づいて、画像記憶部32に記憶されている撮影画像を選択し、選択した撮影画像を用いて災害画像を生成する。例えば、画像生成部31は、通知された人物Uの属性情報(居住地区、年齢、家タイプ、など)に対応する撮影位置や属性が関連付けられた撮影画像を選択したり、通知された人物Uの行動情報(自宅、会社、など)に対応する撮影位置が関連付けられた撮影画像を選択したり、さらには、通知された災害内容情報(災害の位置、災害の種類、など)に対応する撮影位置や災害の種類が関連付けられた撮影画像を選択する。なお、画像生成部31は、発令発信装置20から通知された情報のうち、いずれかの情報のみに対応する撮影画像を選択してもよく、複数の情報に対応する撮影画像を選択してもよい。
 そして、画像生成部31は、災害内容情報に基づいて災害により起こりうる状況を表す画像情報を、選択した撮影画像に対して付加して、災害画像を生成する。例えば、災害内容情報のうち災害の種類が「台風」である場合には、「浸水」の状況を表す画像情報を付加したり、災害内容情報のうち災害の種類が「地震」である場合には、「土砂崩れ」の状況を表す画像情報を付加する。このとき、災害内容情報うち災害レベルの度合いに応じて、「浸水」の度合いや「土砂崩れ」の度合いを設定した画像情報を付加してもよい。
 また、画像生成部31は、所定時間が経過毎に災害により起こりうる状況を表す画像情報を、選択した撮影画像に付加して災害画像を生成してもよい。例えば、現在から1時間後の災害画像として、「浸水」の画像情報を付加した災害画像を生成した場合に、2時間後の災害画像は、「浸水」の度合いを増加させた画像情報を付加した災害画像を生成する。また、画像生成部31は、災害内容情報に含まれる気象情報に基づいて、かかる気象情報により起こりうる状況を表す画像情報を、選択した撮影画像に付加して災害画像を生成してもよい。例えば、雨が降っている画像情報を付加した災害画像を生成したり、雨により「浸水」の度合いを増加させた画像情報を付加した災害画像を生成してもよい。
 なお、画像生成部31は、プログラムを実行することにより実行される、予め災害内容情報に応じた画像処理機能を有している。一例として、画像生成部31は、災害の種類「台風」に対応して「浸水」の画像を予め記憶しており、さらに、浸水度合いを設定して撮影画像に「浸水」の画像を合成する機能を有している。別の例として、画像生成部31は、気象情報「雨」に対応して、「雨」及び「浸水」の画像を予め記憶しており、さらに、浸水度合いを設定して撮影画像に「浸水」及び「雨」の画像を合成する機能を有している。さらに、別の例として、画像生成部31は、災害の種類「土砂崩れ」に対応して、撮影画像中の崖を検出して当該崖を崩れさせる画像変換を行う機能を有している。
 ここで、図7を参照して、画像生成部31による撮影画像の選択と、当該撮影画像から災害画像を生成する一例を説明する。図7Aの例では、まず、画像生成部31は、通知された人物Uの行動情報内の自宅住所と、通知された災害内容情報内の災害の位置と、に着目し、かかる自宅と災害の位置に対応する撮影位置がメタデータに含まれる撮影画像(上図)を選択する。続いて、画像生成部31は、通知された災害内容情報内の災害の種類、災害のレベルに着目し、災害の種類が台風である場合に、災害のレベルに対応する程度の「浸水」の度合いを表す画像情報を、選択した撮影画像に付加して、災害画像(下図)を生成する。なお、その後、画像生成部31は、付加した画像情報の内容(この場合、浸水)を、生成した災害画像のメタデータに追加しておく。
 図7Bの例では、まず、画像生成部31は、通知された人物Uの属性情報内の通勤状況に着目し、かかる情報が「車通勤」である場合に、同一の情報がメタデータに含まれる撮影画像(上図)を選択する。続いて、画像生成部31は、通知された災害内容情報内の災害の種類、災害のレベルに着目し、災害の種類が地震であるため、災害のレベルに対応する程度の「土砂崩れ」の度合いを表す画像情報を、選択した撮影画像に付加して、災害画像(下図)を生成する。
 図7Cの例では、まず、画像生成部31は、通知された人物Uの属性情報内の家タイプに着目し、かかる情報が「一戸建て」である場合に、同一の情報がメタデータに含まれる撮影画像(上図)を選択する。続いて、画像生成部31は、通知された災害内容情報内の災害の種類、災害のレベルに着目し、災害の種類が台風であるため、災害のレベルに対応し、かつ、現在から1時間後の雨量に相当する程度の「浸水」を表す画像情報を、選択した撮影画像に付加した災害画像(中図)を生成する。このとき、画像生成部31は、人物Uの画像を表す画像情報を、撮影画像に付加してもよい。そしてさらに、画像生成部31は、現在から2時間後の雨量に相当する程度の「浸水」を表す画像情報、つまり、水位が増した「浸水」を表す画像情報をさらに付加した災害画像(下図)を生成する。
 図7Dの例では、まず、画像生成部31は、通知された人物Uの属性情報内の家タイプに着目し、かかる情報が「一戸建て」である場合に、同一の情報がメタデータに含まれる撮影画像(上図)を選択する。続いて、画像生成部31は、通知された災害内容情報内の災害の種類、災害のレベルに着目し、災害の種類が台風であるため、災害のレベルに対応する程度の「浸水」の度合いを表す画像情報を、選択した撮影画像に付加する(中図)を生成する。さらに、画像生成部31は、通知された人物Uの行動情報内の自宅住所と、通知された災害内容情報内の気象情報と、に着目し、人物Uの自宅住所の天気が雨であるため、「雨」を表す画像情報をさらに撮影画像に付加して、災害画像(下図)を生成する。
 なお、画像生成部31は、上述したように、撮影画像に災害の状況を表す画像情報を付加した災害画像を事前に生成しておき、画像記憶部32に記憶しておいてもよい。つまり、画像生成部31は、災害の有無に限らず、また、発令発信装置20から災害画像の生成依頼の有無見限らず、図6に示す撮影画像から図7A乃至図7Dに示すような災害画像を生成しておいてもよい。この場合、画像生成部31は、あらゆる災害の種類や気象情報に対応して、各災害や気象により起こりうる状況を表す画像情報を撮影画像に付加して、災害画像を生成する。そして、画像生成部31は、付加した画像情報の内容を表す情報、例えば、浸水や土砂崩れ、雨、といった情報を、災害画像のメタデータに付加データとして追加しておく。
 そして、画像生成部31は、その後に、発令発信装置20からの災害画像の生成の依頼を受けた際には、発令発信装置20から通知された人物の属性情報や行動情報、災害内容情報、に基づいて、画像記憶部32に記憶されているすでに生成された災害画像を選択する。例えば、画像生成部31は、まず、通知された人物の属性情報や行動情報、災害内容情報内の災害の種類、に対応する情報が、メタデータが関連付けられた災害画像を選択し、さらに、災害内容情報内の災害の種類に対応する付加データが付加されている災害画像を、最終的に選択する。一例として、災害内容情報内の災害の種類が「台風」である場合には、付加データとして「浸水」の情報が追加されている災害画像が最終的に選択されることとなる。そして、画像生成部31は、最終的に選択した災害画像を、依頼してきた発令発信装置20に対して返送する。
 [動作]
 次に、上述した情報処理システムの動作を、主に図8乃至図10を参照して説明する。図8は、情報処理システム内における装置間の情報の流れを示す図であり、図9乃至図10は、情報処理システム全体の動作を示すフローチャートである。特に、図9のフローチャートは、災害発生時に災害画像を生成する場合を示し、図10のフローチャートは、事前に災害画像を生成しておく場合を示している。まず、図9のフローチャートの場合を説明する。
 発令判断装置10は、災害に関する情報を収集して分析し、警報を発するか否かを判断する。そして、発令判断装置10は、警報を発令することを決定すると、警報を発令することの指示と併せて、災害の内容を表す災害内容情報を発令発信装置20に通知する(図8の矢印Y1、図9のステップS1)。このとき、災害内容情報としては、例えば、災害が生じうる位置(地域、住所、など)、災害の種類(地震、津波、台風、大雨、洪水、雪、土砂崩れ、など)、災害のレベル(震度、降水量、風速、波の高さ、警戒レベル、など)を含む。なお、災害内容情報には、災害に関連する内容の情報として、例えば、位置(地域)毎の気象情報も含む。
 続いて、発令発信装置20は、発令判断装置10から災害内容情報の通知を受けると、かかる災害内容情報を取得すると共に、事前に登録されている人物Uの人物情報を取得する(図9のステップS2)。なお、発令発信装置20は、災害の発生に応じて、あるいは、正常時に任意のタイミングで、人物Uが人物端末UTにて提供情報を要求してきた際に、当該人物端末UTから送信された人物Uの人物情報を取得してもよい。
 続いて、発令発信装置20は、取得した災害内容情報と人物情報とを画像処理装置30に通知して、災害画像の生成を依頼する(図8の矢印Y2、図9のステップS3)。かかる依頼を受けて、画像処理装置30は、予め記憶している撮影画像から、災害内容情報と人物情報とに対応する撮影画像を選択する(図9のステップS4)。ここで、例えば、画像処理装置30は、図6に示すような撮影画像を予め記憶しており、各撮影画像には、画像の内容に応じた撮影された位置、属性、災害の種類、がメタデータとして関連付けられている。そして、画像処理装置30は、通知された災害内容情報に含まれる災害の位置や災害の種類、通知された人物情報のうち属性情報や行動情報、に対応するメタデータが関連付けられた撮影画像を選択する。
 一例として、画像処理装置30は、人物Uの属性が「家タイプ:一戸建て」である場合には、図6(1)の「一戸建て」の撮影画像を選択し、人物Uの属性が「年齢:60以上」である場合には、60歳以上でも知っているような古くからある有名な建物である図6(2)の「AAタワー」の撮影画像を選択し、人物Uの属性が「通勤状況:車通勤」である場合には、図6(3)の「林道」の撮影画像を選択する。また、別の例としては、画像処理装置30は、人物Uの行動情報から「自宅」を特定し、かかる自宅住所に対応する図6(2)の「一戸建て」の撮影画像を選択してもよい。さらに別の例としては、画像処理装置30は、災害内容情報から災害の種類を特定し、かかる災害の種類と同一の災害の種類が関連付けられている撮影画像を選択してもよい。なお、画像処理装置30は、通知された災害内容情報と人物情報のうち、複数の情報が対応する撮影画像を選択してもよい。
 続いて、発令発信装置20は、選択した撮影画像に対して、通知された災害内容情報に応じて災害により起こりうる状況を表す画像情報を付加して、災害画像を生成する(図9のステップS5)。一例として、発令発信装置20は、災害内容情報のうち災害の種類が「台風」である場合には、図7Aに示すように「浸水」の状況を表す画像情報を付加したり、災害内容情報のうち災害の種類が「地震」である場合には、図7Bに示すように、「土砂崩れ」の状況を表す画像情報を付加する。また、他の例として、発令発信装置20は、図7Cに示すように、現在から1時間後と2時間後、つまり、所定時間が経過する毎に想定される「浸水」の状況を表す画像情報を付加した災害画像をそれぞれ生成してもよい。さらに、他の例として、発令発信装置20は、災害内容情報に含まれる気象情報により起こりうる状況、例えば、図7Dに示すように、雨が降っている画像情報を付加した災害画像を生成してもよい。
 続いて、画像処理装置30は、上述したように生成した災害画像を発令発信装置20に対して返送する(図8の矢印Y3)。そして、発令発信装置20は、災害画像を受け取り、かかる災害画像を含む提供情報を生成する(図9のステップS6)。なお、発令発信装置20は、上述した災害画像の生成に前後して、避難所情報と人物情報とを用いて、人物Uが避難すべき避難所及び避難経路を含む避難情報を生成して、提供情報に含める。
 その後、発令発信装置20は、人物情報内からメールアドレスを送信先として、災害画像と避難情報とを含む提供情報を送信することで、人物Uの人物端末UTに提供情報を提供する(図8の矢印Y4、図9のステップS7)。これにより、人物Uは、人物端末UTの表示装置に、災害画像と避難情報を表示させることができる。なお、人物端末UTは、災害画像として、図7Cに示すような所定時間が経過する毎の状況を表す画像を表示する際に、表示装置に時間の経過を操作するスライドバーなどの操作部を表示し、人物Uがかかるスライドバーを操作して時間の経過を設定することで、設定された時間に対応した画像を表示してもよい。例えば、人物端末UTは、現在から1時間後の「浸水」を表す災害画像を表示している状態で、スライドバーが操作されて「2時間後」の時間が設定されると、現在から2時間後の「浸水」を表す災害画像を表示する。
 なお、発令発信装置20は、警報の発令の指示がなく、正常時に任意のタイミングで、人物Uの人物端末UTから提供情報が要求された場合には、このときに人物端末UTから送信された人物Uの人物情報を取得し、かかる人物情報を画像処理装置30に送信して災害画像の生成を依頼してもよい。この場合、画像処理装置30は、上述同様に、人物情報に対応する撮影画像を選択し、かかる撮影画像に対して、人物Uにて指定された災害の種類や任意の災害の種類に対応する災害の状況を表す画像情報を付加した災害画像を生成してもよい。これにより、人物Uは、災害が実際に生じていないときでも、災害画像を表示させることができる。
 次に、図10のフローチャートを参照して、情報処理システムの他の動作を説明する。この例では、まず、画像処理装置30は、事前に、上述同様に撮影画像に対して災害の種類に応じた災害の状況を表す画像情報を付加した災害画像を生成して、記憶しておく(図10のステップS11)。具体的に、画像処理装置30は、撮影画像に予め関連付けられている災害の種類に応じて、かかる災害の状況を表す画像情報を撮影画像に付加した災害画像を生成する。但し、画像処理装置30は、撮影画像に対してあらゆる災害の種類の状況を表す画像情報を付加した災害画像を生成してもよく、その場合には、付加した画像情報に対応する状況を表す情報を、災害画像に関連付けておく。
 なお、画像処理装置30は、予め撮影場所が災害時であったときを撮影した撮影画像を、災害画像として記憶してもよい。この場合にも、災害画像に、撮影画像の撮影位置、人物Uの属性情報に対応する属性、災害内容情報に対応する災害の種類、といった情報を含むメタデータが関連付けられる。
 その後、発令判断装置10は、災害に関する情報を収集して分析し、警報を発するか否かを判断する。そして、発令判断装置10は、警報を発令することを決定すると、警報を発生することの指示と併せて、災害の内容を表す災害内容情報を発令発信装置20に通知する(図8の矢印Y1、図10のステップS12)。
 続いて、発令発信装置20は、発令判断装置10から災害内容情報の通知を受けると、かかる災害内容情報を取得すると共に、事前に登録されている人物Uの人物情報を取得する(図10のステップS13)。なお、発令発信装置20は、災害の発生に応じて、あるいは、正常時に任意のタイミングで、人物Uが人物端末UTにて提供情報を要求してきた際に、当該人物端末UTから送信された人物Uの人物情報を取得してもよい。
 続いて、発令発信装置20は、取得した災害内容情報と人物情報とを画像処理装置30に通知して、災害画像の生成を依頼する(図8の矢印Y2、ステップS14)。かかる依頼を受けて、画像処理装置30は、予め記憶している災害画像から、災害内容情報と人物情報とに対応する災害画像を選択する(図10のステップS15)。なお、この例では、上述したように既に画像処理装置30にて災害画像が生成されており、画像の内容に応じた撮影された位置、属性、災害の種類、がメタデータとして関連付けられている。このため、画像処理装置30は、通知された災害内容情報に含まれる災害の位置や災害の種類、通知された人物情報のうち属性情報や行動情報、に対応するメタデータが関連付けられた災害画像を選択する。
 続いて、画像処理装置30は、選択した災害画像を発令発信装置20に対して返送する(図8の矢印Y3)。そして、発令発信装置20は、災害画像を受け取り、かかる災害画像を含む提供情報を生成する(図10のステップS16)。なお、発令発信装置20は、上述した災害画像の生成に前後して、避難所情報と人物情報とを用いて、人物Uが避難すべき避難所及び避難経路を含む避難情報を生成して、提供情報に含める。
 その後、発令発信装置20は、人物情報内からメールアドレスを送信先として、災害画像と避難情報とを含む提供情報を送信することで、人物Uの人物端末UTに提供情報を提供する(図8の矢印Y4、図10のステップS17)。これにより、人物Uは、人物端末UTの表示装置に、災害画像と避難情報を表示させることができる。
 なお、発令発信装置20は、警報の発令の指示がなく、正常時に任意のタイミングで、人物Uの人物端末UTから提供情報が要求された場合には、このときに人物端末UTから送信された人物Uの人物情報を取得し、かかる人物情報を画像処理装置30に送信して災害画像の生成を依頼してもよい。この場合、画像処理装置30は、上述同様に、人物情報に対応する災害画像を選択すると共に、さらに、人物Uにて指定された災害の種類や任意の災害の種類に対応する災害の状況を表す画像情報が付加された災害画像を最終的に選択する。これにより、人物Uは、災害が実際に生じていないときでも、災害画像を表示させることができる。
 以上のように、本発明では、人物Uの属性や行動に応じた人物情報に対応する場所を撮影した撮影画像を用いて、災害の状況を反映した災害画像とし、かかる災害画像を含む提供情報を人物Uに提供している。例えば、人物Uの自宅の撮影画像や、人物Uの生活スタイルに関連する場所を撮影した撮影画像、高齢者であっても知っている建物の撮影画像、などを用いて災害画像としている。このため、人物Uは、自身に身近な場所、自身が知っている場所、というように、自身に対応する場所の災害画像を視認することができる。すると、人物Uは、災害画像に対する関心が高まり、災害による危険度合いを明確に認識することができる。その結果、人物Uが、積極的に災害に対して避難や対策をとる、といった適切な行動をとることが期待できる。
 <実施形態2>
 次に、本発明の第2の実施形態を、図11乃至図13を参照して説明する。図11乃至図12は、実施形態2における情報提供システムの構成を示すブロック図であり、図13は、情報提供システムの動作を示すフローチャートである。なお、本実施形態では、実施形態1で説明した情報提供システム及び情報提供方法の構成の概略を示している。
 まず、図11を参照して、本実施形態における情報提供システム100のハードウェア構成を説明する。情報提供システム100は、1台又は複数台の一般的な情報処理装置にて構成されており、一例として、以下のようなハードウェア構成を装備している。
 ・CPU(Central Processing Unit)101(演算装置)
 ・ROM(Read Only Memory)102(記憶装置)
 ・RAM(Random Access Memory)103(記憶装置)
 ・RAM303にロードされるプログラム群104
 ・プログラム群304を格納する記憶装置105
 ・情報処理装置外部の記憶媒体110の読み書きを行うドライブ装置106
 ・情報処理装置外部の通信ネットワーク111と接続する通信インタフェース107
 ・データの入出力を行う入出力インタフェース108
 ・各構成要素を接続するバス109
 そして、情報提供システム100は、プログラム群104をCPU101が取得して当該CPU101が実行することで、図12に示す取得手段121と生成手段122と提供手段123とを構築して装備することができる。なお、プログラム群104は、例えば、予め記憶装置105やROM102に格納されており、必要に応じてCPU101がRAM103にロードして実行する。また、プログラム群104は、通信ネットワーク111を介してCPU101に供給されてもよいし、予め記憶媒体110に格納されており、ドライブ装置106が該プログラムを読み出してCPU101に供給してもよい。但し、上述した取得手段121と生成手段122と提供手段123とは、電子回路で構築されるものであってもよい。
 なお、図11は、情報提供システム100のハードウェア構成の一例を示しており、情報提供システムのハードウェア構成は上述した場合に限定されない。例えば、情報提供システムは、ドライブ装置106を有さないなど、上述した構成の一部から構成されてもよい。
 そして、情報提供システム100は、上述したようにプログラムによって構築された取得手段121と生成手段122と提供手段123との機能により、図13のフローチャートに示す情報提供方法を実行する。
 図13に示すように、情報提供システム100は、
 災害情報を取得すると共に、ユーザに関連する情報であるユーザ情報を取得し(ステップS101)、
 災害情報とユーザ情報とに基づいて、所定場所を撮影した画像である撮影画像を含む提供情報を生成し(ステップS102)、
 提供情報をユーザの情報処理装置に提供する(ステップS103)。
 本実施形態は、以上のように構成されることにより、ユーザ情報に対応する場所を撮影した撮影画像を用いて、災害の状況を反映した提供情報をユーザに提供している。このため、ユーザは、自身に身近な場所、自身が知っている場所、というように、自身に対応する場所の画像を視認することができ、災害に対する関心が高まり、災害による危険度合いを明確に認識することができる。その結果、ユーザが、積極的に災害に対して避難や対策をとる、といった適切な行動をとることが期待できる。
 <付記>
 上記実施形態の一部又は全部は、以下の付記のようにも記載されうる。以下、本発明における情報提供方法、情報提供システム、プログラムの構成の概略を説明する。但し、本発明は、以下の構成に限定されない。
(付記1)
 災害情報を取得すると共に、ユーザに関連する情報であるユーザ情報を取得し、
 前記災害情報と前記ユーザ情報とに基づいて、所定場所を撮影した画像である撮影画像を含む提供情報を生成し、
 前記提供情報を前記ユーザの情報処理装置に提供する、
情報提供方法。
(付記2)
 付記1に記載の情報提供方法であって、
 前記ユーザ情報として前記ユーザの属性を表す属性情報を取得し、
 前記災害情報と前記属性情報とに基づいて前記提供情報を生成する、
情報提供方法。
(付記3)
 付記2に記載の情報提供方法であって、
 前記属性情報に対応する場所を撮影した前記撮影画像を取得し、当該撮影画像を含む前記提供情報を生成する、
情報提供方法。
(付記4)
 付記1乃至3のいずれかに記載の情報提供方法であって、
 前記ユーザ情報として前記ユーザの行動を表す情報である行動情報を取得し、
 前記災害情報と前記行動情報とに基づいて前記提供情報を生成する、
情報提供方法。
(付記5)
 付記4に記載の情報提供方法であって、
 前記行動情報に対応する場所を撮影した前記撮影画像を取得し、当該撮影画像を含む前記提供情報を生成する、
情報提供方法。
(付記6)
 付記1乃至5のいずれかに記載の情報提供方法であって、
 前記災害情報として災害の内容を表す情報である災害内容情報を取得し、
 前記災害内容情報に基づいて前記提供情報を生成する、
情報提供方法。
(付記7)
 付記6に記載の情報提供方法であって、
 前記災害内容情報に基づいて、災害により起こりうる状況を表す画像情報を含む前記撮影画像を取得し、当該撮影画像を含む前記提供情報を生成する、
情報提供方法。
(付記8)
 付記6に記載の情報提供方法であって、
 前記災害内容情報に基づいて、災害により起こりうる状況を表す画像情報を前記撮影画像に付加した前記提供情報を生成する、
情報提供方法。
(付記9)
 付記8に記載の情報提供方法であって、
 前記災害内容情報に基づいて、災害により所定時間経過後に起こりうる状況を表す画像情報を前記撮影画像に付加した前記提供情報を生成する、
情報提供方法。
(付記10)
 付記1乃至9のいずれかに記載の情報提供方法であって、
 前記ユーザ情報として前記ユーザの位置を表す位置情報を取得し、
 前記位置情報に基づいて、少なくとも避難場所を特定する情報を含む避難情報を生成して、当該避難情報を前記ユーザの情報処理装置に提供する、
情報提供方法。
(付記11)
 付記1乃至10のいずれかに記載の情報提供方法であって、
 撮影した場所の位置情報を含む前記撮影画像を取得して記憶し、
 前記災害情報と前記ユーザ情報とに基づいて、記憶されている前記撮影画像を取得すると共に当該撮影画像を含む前記提供情報を生成する、
情報提供方法。
(付記12)
 災害情報を取得すると共に、ユーザに関連する情報であるユーザ情報を取得する取得手段と、
 前記災害情報と前記ユーザ情報とに基づいて、所定場所を撮影した画像である撮影画像を含む提供情報を生成する生成手段と、
 前記提供情報を前記ユーザの情報処理装置に提供する提供手段と、
を備えた情報提供システム。
(付記13)
 付記12に記載の情報提供システムであって、
 前記取得手段は、前記ユーザ情報として前記ユーザの属性を表す属性情報を取得し、
 前記生成手段は、前記災害情報と前記属性情報とに基づいて前記提供情報を生成する、
情報提供システム。
(付記14)
 付記13に記載の情報提供システムであって、
 前記生成手段は、前記属性情報に対応する場所を撮影した前記撮影画像を取得し、当該撮影画像を含む前記提供情報を生成する、
情報提供システム。
(付記15)
 付記12乃至14のいずれかに記載の情報提供システムであって、
 前記取得手段は、前記ユーザ情報として前記ユーザの行動を表す情報である行動情報を取得し、
 前記生成手段は、前記災害情報と前記行動情報とに基づいて前記提供情報を生成する、
情報提供システム。
(付記16)
 付記15に記載の情報提供システムであって、
 前記生成手段は、前記行動情報に対応する場所を撮影した前記撮影画像を取得し、当該撮影画像を含む前記提供情報を生成する、
情報提供システム。
(付記17)
 付記12乃至16のいずれかに記載の情報提供システムであって、
 前記取得手段は、前記災害情報として災害の内容を表す情報である災害内容情報を取得し、
 前記生成手段は、前記災害内容情報に基づいて前記提供情報を生成する、
情報提供システム。
(付記18)
 付記17に記載の情報提供システムであって、
 前記生成手段は、前記災害内容情報に基づいて、災害により起こりうる状況を表す画像情報を含む前記撮影画像を取得し、当該撮影画像を含む前記提供情報を生成する、
情報提供システム。
(付記19)
 付記17に記載の情報提供システムであって、
 前記生成手段は、前記災害内容情報に基づいて、災害により起こりうる状況を表す画像情報を前記撮影画像に付加した前記提供情報を生成する、
情報提供システム。
(付記20)
 付記19に記載の情報提供システムであって、
 前記生成手段は、前記災害内容情報に基づいて、災害により所定時間経過後に起こりうる状況を表す画像情報を前記撮影画像に付加した前記提供情報を生成する、
情報提供システム。
(付記21)
 付記12乃至20のいずれかに記載の情報提供システムであって、
 前記取得手段は、前記ユーザ情報として前記ユーザの位置を表す位置情報を取得し、
 前記提供手段は、前記位置情報に基づいて、少なくとも避難場所を特定する情報を含む避難情報を生成して、当該避難情報を前記ユーザの情報処理装置に提供する、
情報提供システム。
(付記22)
 付記12乃至21のいずれかに記載の情報提供システムであって、
 前記取得手段は、撮影した場所の位置情報を含む前記撮影画像を取得して記憶し、
 前記生成手段は、前記災害情報と前記ユーザ情報とに基づいて、記憶されている前記撮影画像を取得すると共に当該撮影画像を含む前記提供情報を生成する、
情報提供システム。
(付記23)
 情報処理装置に、
 災害情報を取得すると共に、ユーザに関連する情報であるユーザ情報を取得し、
 前記災害情報と前記ユーザ情報とに基づいて、所定場所を撮影した画像である撮影画像を含む提供情報を生成し、
 前記提供情報を前記ユーザの情報処理装置に提供する、
処理を実行させるためのプログラム。
 なお、上述したプログラムは、様々なタイプの非一時的なコンピュータ可読媒体(non-transitory computer readable medium)を用いて格納され、コンピュータに供給することができる。非一時的なコンピュータ可読媒体は、様々なタイプの実体のある記録媒体(tangible storage medium)を含む。非一時的なコンピュータ可読媒体の例は、磁気記録媒体(例えばフレキシブルディスク、磁気テープ、ハードディスクドライブ)、光磁気記録媒体(例えば光磁気ディスク)、CD-ROM(Read Only Memory)、CD-R、CD-R/W、半導体メモリ(例えば、マスクROM、PROM(Programmable ROM)、EPROM(Erasable PROM)、フラッシュROM、RAM(Random Access Memory))を含む。また、プログラムは、様々なタイプの一時的なコンピュータ可読媒体(transitory computer readable medium)によってコンピュータに供給されてもよい。一時的なコンピュータ可読媒体の例は、電気信号、光信号、及び電磁波を含む。一時的なコンピュータ可読媒体は、電線及び光ファイバ等の有線通信路、又は無線通信路を介して、プログラムをコンピュータに供給できる。
 以上、上記実施形態等を参照して本願発明を説明したが、本願発明は、上述した実施形態に限定されるものではない。本願発明の構成や詳細には、本願発明の範囲内で当業者が理解しうる様々な変更をすることができる。
1 情報提供システム
10 発令判断装置
20 発令発信装置
21 情報取得部
22 提供情報生成部
23 情報提供部
24 人物情報記憶部
25 災害情報記憶部
26 避難情報記憶部
27 提供情報記憶部
30 画像処理装置
31 画像生成部
32 画像記憶部
U 人物
UT 人物端末
100 情報提供システム
101 CPU
102 ROM
103 RAM
104 プログラム群
105 記憶装置
106 ドライブ装置
107 通信インタフェース
108 入出力インタフェース
109 バス
110 記憶媒体
111 通信ネットワーク
121 取得手段
122 生成手段
123 提供手段
 

Claims (23)

  1.  災害情報を取得すると共に、ユーザに関連する情報であるユーザ情報を取得し、
     前記災害情報と前記ユーザ情報とに基づいて、所定場所を撮影した画像である撮影画像を含む提供情報を生成し、
     前記提供情報を前記ユーザの情報処理装置に提供する、
    情報提供方法。
  2.  請求項1に記載の情報提供方法であって、
     前記ユーザ情報として前記ユーザの属性を表す属性情報を取得し、
     前記災害情報と前記属性情報とに基づいて前記提供情報を生成する、
    情報提供方法。
  3.  請求項2に記載の情報提供方法であって、
     前記属性情報に対応する場所を撮影した前記撮影画像を取得し、当該撮影画像を含む前記提供情報を生成する、
    情報提供方法。
  4.  請求項1乃至3のいずれかに記載の情報提供方法であって、
     前記ユーザ情報として前記ユーザの行動を表す情報である行動情報を取得し、
     前記災害情報と前記行動情報とに基づいて前記提供情報を生成する、
    情報提供方法。
  5.  請求項4に記載の情報提供方法であって、
     前記行動情報に対応する場所を撮影した前記撮影画像を取得し、当該撮影画像を含む前記提供情報を生成する、
    情報提供方法。
  6.  請求項1乃至5のいずれかに記載の情報提供方法であって、
     前記災害情報として災害の内容を表す情報である災害内容情報を取得し、
     前記災害内容情報に基づいて前記提供情報を生成する、
    情報提供方法。
  7.  請求項6に記載の情報提供方法であって、
     前記災害内容情報に基づいて、災害により起こりうる状況を表す画像情報を含む前記撮影画像を取得し、当該撮影画像を含む前記提供情報を生成する、
    情報提供方法。
  8.  請求項6に記載の情報提供方法であって、
     前記災害内容情報に基づいて、災害により起こりうる状況を表す画像情報を前記撮影画像に付加した前記提供情報を生成する、
    情報提供方法。
  9.  請求項8に記載の情報提供方法であって、
     前記災害内容情報に基づいて、災害により所定時間経過後に起こりうる状況を表す画像情報を前記撮影画像に付加した前記提供情報を生成する、
    情報提供方法。
  10.  請求項1乃至9のいずれかに記載の情報提供方法であって、
     前記ユーザ情報として前記ユーザの位置を表す位置情報を取得し、
     前記位置情報に基づいて、少なくとも避難場所を特定する情報を含む避難情報を生成して、当該避難情報を前記ユーザの情報処理装置に提供する、
    情報提供方法。
  11.  請求項1乃至10のいずれかに記載の情報提供方法であって、
     撮影した場所の位置情報を含む前記撮影画像を取得して記憶し、
     前記災害情報と前記ユーザ情報とに基づいて、記憶されている前記撮影画像を取得すると共に当該撮影画像を含む前記提供情報を生成する、
    情報提供方法。
  12.  災害情報を取得すると共に、ユーザに関連する情報であるユーザ情報を取得する取得手段と、
     前記災害情報と前記ユーザ情報とに基づいて、所定場所を撮影した画像である撮影画像を含む提供情報を生成する生成手段と、
     前記提供情報を前記ユーザの情報処理装置に提供する提供手段と、
    を備えた情報提供システム。
  13.  請求項12に記載の情報提供システムであって、
     前記取得手段は、前記ユーザ情報として前記ユーザの属性を表す属性情報を取得し、
     前記生成手段は、前記災害情報と前記属性情報とに基づいて前記提供情報を生成する、
    情報提供システム。
  14.  請求項13に記載の情報提供システムであって、
     前記生成手段は、前記属性情報に対応する場所を撮影した前記撮影画像を取得し、当該撮影画像を含む前記提供情報を生成する、
    情報提供システム。
  15.  請求項12乃至14のいずれかに記載の情報提供システムであって、
     前記取得手段は、前記ユーザ情報として前記ユーザの行動を表す情報である行動情報を取得し、
     前記生成手段は、前記災害情報と前記行動情報とに基づいて前記提供情報を生成する、
    情報提供システム。
  16.  請求項15に記載の情報提供システムであって、
     前記生成手段は、前記行動情報に対応する場所を撮影した前記撮影画像を取得し、当該撮影画像を含む前記提供情報を生成する、
    情報提供システム。
  17.  請求項12乃至16のいずれかに記載の情報提供システムであって、
     前記取得手段は、前記災害情報として災害の内容を表す情報である災害内容情報を取得し、
     前記生成手段は、前記災害内容情報に基づいて前記提供情報を生成する、
    情報提供システム。
  18.  請求項17に記載の情報提供システムであって、
     前記生成手段は、前記災害内容情報に基づいて、災害により起こりうる状況を表す画像情報を含む前記撮影画像を取得し、当該撮影画像を含む前記提供情報を生成する、
    情報提供システム。
  19.  請求項17に記載の情報提供システムであって、
     前記生成手段は、前記災害内容情報に基づいて、災害により起こりうる状況を表す画像情報を前記撮影画像に付加した前記提供情報を生成する、
    情報提供システム。
  20.  請求項19に記載の情報提供システムであって、
     前記生成手段は、前記災害内容情報に基づいて、災害により所定時間経過後に起こりうる状況を表す画像情報を前記撮影画像に付加した前記提供情報を生成する、
    情報提供システム。
  21.  請求項12乃至20のいずれかに記載の情報提供システムであって、
     前記取得手段は、前記ユーザ情報として前記ユーザの位置を表す位置情報を取得し、
     前記提供手段は、前記位置情報に基づいて、少なくとも避難場所を特定する情報を含む避難情報を生成して、当該避難情報を前記ユーザの情報処理装置に提供する、
    情報提供システム。
  22.  請求項12乃至21のいずれかに記載の情報提供システムであって、
     前記取得手段は、撮影した場所の位置情報を含む前記撮影画像を取得して記憶し、
     前記生成手段は、前記災害情報と前記ユーザ情報とに基づいて、記憶されている前記撮影画像を取得すると共に当該撮影画像を含む前記提供情報を生成する、
    情報提供システム。
  23.  情報処理装置に、
     災害情報を取得すると共に、ユーザに関連する情報であるユーザ情報を取得し、
     前記災害情報と前記ユーザ情報とに基づいて、所定場所を撮影した画像である撮影画像を含む提供情報を生成し、
     前記提供情報を前記ユーザの情報処理装置に提供する、
    処理を実行させるためのプログラム。
     
PCT/JP2019/050113 2019-12-20 2019-12-20 情報提供方法 WO2021124552A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
PCT/JP2019/050113 WO2021124552A1 (ja) 2019-12-20 2019-12-20 情報提供方法
US17/782,918 US20230017248A1 (en) 2019-12-20 2019-12-20 Information providing method
JP2021565288A JPWO2021124552A1 (ja) 2019-12-20 2019-12-20

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2019/050113 WO2021124552A1 (ja) 2019-12-20 2019-12-20 情報提供方法

Publications (1)

Publication Number Publication Date
WO2021124552A1 true WO2021124552A1 (ja) 2021-06-24

Family

ID=76478691

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2019/050113 WO2021124552A1 (ja) 2019-12-20 2019-12-20 情報提供方法

Country Status (3)

Country Link
US (1) US20230017248A1 (ja)
JP (1) JPWO2021124552A1 (ja)
WO (1) WO2021124552A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7066032B1 (ja) 2021-07-30 2022-05-12 株式会社Jx通信社 情報処理装置、情報処理システムおよびプログラム

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004349749A (ja) * 2003-05-20 2004-12-09 Nippon Hoso Kyokai <Nhk> カメラ映像モニタ装置及びカメラ映像モニタ方法
JP2005301547A (ja) * 2004-04-09 2005-10-27 Mitsubishi Electric Corp 防災システム
JP2010244407A (ja) * 2009-04-08 2010-10-28 Sony Ericsson Mobile Communications Ab 避難誘導システム、避難誘導方法、避難誘導サーバ、携帯情報端末、及び、その携帯情報端末の避難誘導プログラム
JP2013089078A (ja) * 2011-10-19 2013-05-13 Ism Corp 津波避難支援システム、津波避難支援方法、津波避難支援装置およびその制御方法と制御プログラム
WO2014097607A1 (ja) * 2012-12-18 2014-06-26 日本電気株式会社 災害情報提供装置、災害情報提供方法、防災無線システム、並びに記憶媒体
JP2019185307A (ja) * 2018-04-06 2019-10-24 株式会社楽しいチリビジ 災害情報提供システム

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004349749A (ja) * 2003-05-20 2004-12-09 Nippon Hoso Kyokai <Nhk> カメラ映像モニタ装置及びカメラ映像モニタ方法
JP2005301547A (ja) * 2004-04-09 2005-10-27 Mitsubishi Electric Corp 防災システム
JP2010244407A (ja) * 2009-04-08 2010-10-28 Sony Ericsson Mobile Communications Ab 避難誘導システム、避難誘導方法、避難誘導サーバ、携帯情報端末、及び、その携帯情報端末の避難誘導プログラム
JP2013089078A (ja) * 2011-10-19 2013-05-13 Ism Corp 津波避難支援システム、津波避難支援方法、津波避難支援装置およびその制御方法と制御プログラム
WO2014097607A1 (ja) * 2012-12-18 2014-06-26 日本電気株式会社 災害情報提供装置、災害情報提供方法、防災無線システム、並びに記憶媒体
JP2019185307A (ja) * 2018-04-06 2019-10-24 株式会社楽しいチリビジ 災害情報提供システム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
"Major Shift in Disaster Risk Reduction, ''Never give up'', Evolving NHK Responses by Announcers", SANKEI NEWS, SANKEI SHIMBUNSHA, 16 March 2018 (2018-03-16), XP055835731, Retrieved from the Internet <URL:https://www.sankei.com/entertainments/news/180306/ent1803060002-n1.html> [retrieved on 20200124] *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7066032B1 (ja) 2021-07-30 2022-05-12 株式会社Jx通信社 情報処理装置、情報処理システムおよびプログラム
JP2023020372A (ja) * 2021-07-30 2023-02-09 株式会社Jx通信社 情報処理装置、情報処理システムおよびプログラム

Also Published As

Publication number Publication date
JPWO2021124552A1 (ja) 2021-06-24
US20230017248A1 (en) 2023-01-19

Similar Documents

Publication Publication Date Title
JP5021171B2 (ja) 河川情報提供サーバ
KR20130012430A (ko) 위치기반 현장위험정보 제공 및 재난대처 서비스 시스템 및 그 방법
US9609479B1 (en) Geo-fenced event alerts
JP2016197343A (ja) 危機管理情報共有装置、危機管理情報共有方法及び危機管理情報共有プログラム
US20210209605A1 (en) Method and system for multi-trigger parametric data management and associated transactions
JP2013254402A (ja) 情報収集提供システム、プログラム、および方法
JP2007199851A (ja) 避難行動支援システムとそのサーバ装置
JP6927193B2 (ja) 誘導支援装置、誘導支援方法及びプログラム
WO2021124552A1 (ja) 情報提供方法
JP7020100B2 (ja) 情報処理装置、ハザードマップ生成方法およびプログラム
JP6707012B2 (ja) 情報提供システム、情報提供システムの制御方法、およびプログラム
JP7218827B2 (ja) 情報処理装置、ハザードマップ生成方法およびプログラム
WO2021124436A1 (ja) 予測方法
JP5487006B2 (ja) カメラ選択システム、及びカメラ選択装置
JP6915015B2 (ja) 提供装置、提供方法及び提供プログラム
JP2019101803A (ja) 危険判定通知システムおよびその端末装置
WO2021192014A1 (ja) 判断支援装置、判断支援方法及びコンピュータ読み取り可能な記録媒体
JP7111397B1 (ja) プログラム、方法及び情報処理装置
JP7379429B2 (ja) 防災情報管理システム、防災情報管理システムの制御方法、及び防災情報管理システムの制御プログラム
JP2020098582A (ja) 災害対応サーバ、災害対応方法およびプログラム
JP2016224710A (ja) 解析システム、解析方法及び解析プログラム
JP2017053139A (ja) ダム管理システム及びダム情報管理方法
JP2020098579A (ja) 情報提供サーバ、情報提供システム、情報提供方法およびプログラム
JP2020064433A (ja) 情報共有装置、および情報共有方法
JP2019185307A (ja) 災害情報提供システム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19956794

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2021565288

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 19956794

Country of ref document: EP

Kind code of ref document: A1