WO2021024388A1 - 光ファイバセンシングシステム、光ファイバセンシング機器、及び無人機配置方法 - Google Patents

光ファイバセンシングシステム、光ファイバセンシング機器、及び無人機配置方法 Download PDF

Info

Publication number
WO2021024388A1
WO2021024388A1 PCT/JP2019/030952 JP2019030952W WO2021024388A1 WO 2021024388 A1 WO2021024388 A1 WO 2021024388A1 JP 2019030952 W JP2019030952 W JP 2019030952W WO 2021024388 A1 WO2021024388 A1 WO 2021024388A1
Authority
WO
WIPO (PCT)
Prior art keywords
predetermined event
optical fiber
unmanned aerial
aerial vehicle
event occurs
Prior art date
Application number
PCT/JP2019/030952
Other languages
English (en)
French (fr)
Inventor
小島 崇
Original Assignee
日本電気株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日本電気株式会社 filed Critical 日本電気株式会社
Priority to US17/631,718 priority Critical patent/US11914399B2/en
Priority to JP2021538594A priority patent/JP7298693B2/ja
Priority to PCT/JP2019/030952 priority patent/WO2021024388A1/ja
Publication of WO2021024388A1 publication Critical patent/WO2021024388A1/ja
Priority to US18/495,312 priority patent/US20240061446A1/en

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/60Intended control result
    • G05D1/652Take-off
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01HMEASUREMENT OF MECHANICAL VIBRATIONS OR ULTRASONIC, SONIC OR INFRASONIC WAVES
    • G01H9/00Measuring mechanical vibrations or ultrasonic, sonic or infrasonic waves by using radiation-sensitive means, e.g. optical means
    • G01H9/004Measuring mechanical vibrations or ultrasonic, sonic or infrasonic waves by using radiation-sensitive means, e.g. optical means using fibre optic sensors
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64CAEROPLANES; HELICOPTERS
    • B64C39/00Aircraft not otherwise provided for
    • B64C39/02Aircraft not otherwise provided for characterised by special use
    • B64C39/024Aircraft not otherwise provided for characterised by special use of the remote controlled vehicle type, i.e. RPV
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01HMEASUREMENT OF MECHANICAL VIBRATIONS OR ULTRASONIC, SONIC OR INFRASONIC WAVES
    • G01H9/00Measuring mechanical vibrations or ultrasonic, sonic or infrasonic waves by using radiation-sensitive means, e.g. optical means
    • G01H9/004Measuring mechanical vibrations or ultrasonic, sonic or infrasonic waves by using radiation-sensitive means, e.g. optical means using fibre optic sensors
    • G01H9/006Measuring mechanical vibrations or ultrasonic, sonic or infrasonic waves by using radiation-sensitive means, e.g. optical means using fibre optic sensors the vibrations causing a variation in the relative position of the end of a fibre and another element
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/0094Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots involving pointing a payload, e.g. camera, weapon, sensor, towards a fixed or moving target
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/10Simultaneous control of position or course in three dimensions
    • G05D1/101Simultaneous control of position or course in three dimensions specially adapted for aircraft
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/60Intended control result
    • G05D1/656Interaction with payloads or external entities
    • G05D1/689Pointing payloads towards fixed or moving targets
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/181Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using active radiation detection systems
    • G08B13/183Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using active radiation detection systems by interruption of a radiation beam or barrier
    • G08B13/186Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using active radiation detection systems by interruption of a radiation beam or barrier using light guides, e.g. optical fibres
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B25/00Alarm systems in which the location of the alarm condition is signalled to a central station, e.g. fire or police telegraphic systems
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B25/00Alarm systems in which the location of the alarm condition is signalled to a central station, e.g. fire or police telegraphic systems
    • G08B25/01Alarm systems in which the location of the alarm condition is signalled to a central station, e.g. fire or police telegraphic systems characterised by the transmission medium
    • G08B25/04Alarm systems in which the location of the alarm condition is signalled to a central station, e.g. fire or police telegraphic systems characterised by the transmission medium using a single signalling line, e.g. in a closed loop
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U2101/00UAVs specially adapted for particular uses or applications
    • B64U2101/30UAVs specially adapted for particular uses or applications for imaging, photography or videography
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U2201/00UAVs characterised by their flight controls
    • B64U2201/10UAVs characterised by their flight controls autonomous, i.e. by navigating independently from ground or air stations, e.g. by using inertial navigation systems [INS]
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U50/00Propulsion; Power supply
    • B64U50/30Supply or distribution of electrical power
    • B64U50/31Supply or distribution of electrical power generated by photovoltaics

Definitions

  • the present disclosure relates to an optical fiber sensing system, an optical fiber sensing device, and an unmanned aerial vehicle placement method.
  • Patent Document 1 discloses a technique for detecting the displacement of a monitored portion by using an optical fiber embedded in a monitored portion such as an inclined ground.
  • Patent Document 2 discloses a technique for photographing a monitored person with a drone based on the position information of an information terminal device possessed by the monitored person.
  • Patent Document 2 The technology disclosed in Patent Document 2 is premised on monitoring the monitored object with a drone in a state where the monitored person to be monitored is specified in advance.
  • the place where a predetermined event occurs may be specified as a monitoring target when a predetermined event occurs.
  • the technique disclosed in Patent Document 2 has a problem that the monitored object cannot be appropriately monitored when a predetermined event occurs.
  • an object of the present disclosure is to provide an optical fiber sensing system, an optical fiber sensing device, and an unmanned aerial vehicle arrangement method capable of solving the above-mentioned problems and appropriately monitoring a monitoring target when a predetermined event occurs. To do.
  • the optical fiber sensing system is An optical fiber that detects vibration and A detection unit that detects the occurrence of a predetermined event based on an optical signal on which vibrations detected by the optical fiber are superimposed. Based on the optical signal, the location where the predetermined event occurs is specified, and based on the location where the predetermined event occurs, the destination region where the unmanned aerial vehicle moves to monitor the location where the predetermined event occurs. With a specific part that identifies A control unit that controls the unmanned aerial vehicle so as to move to the destination area, To be equipped.
  • the optical fiber sensing device is A detector that detects the occurrence of a predetermined event based on an optical signal on which vibrations detected by an optical fiber are superimposed. Based on the optical signal, the location where the predetermined event occurs is specified, and based on the location where the predetermined event occurs, the destination region where the unmanned aerial vehicle moves to monitor the location where the predetermined event occurs. With a specific part that identifies A control unit that controls the unmanned aerial vehicle so as to move to the destination area, To be equipped.
  • the unmanned aerial vehicle placement method is It is an unmanned aerial vehicle placement method using an optical fiber sensing system.
  • the first detection step in which the optical fiber detects vibration
  • a second detection step of detecting the occurrence of a predetermined event based on an optical signal on which vibrations detected by the optical fiber are superimposed, Based on the optical signal, the location where the predetermined event occurs is specified, and based on the location where the predetermined event occurs, the destination region where the unmanned aerial vehicle moves to monitor the location where the predetermined event occurs.
  • a control step that controls the unmanned aerial vehicle to move to the destination area including.
  • an optical fiber sensing system an optical fiber sensing device, and an unmanned aerial vehicle arrangement method that can appropriately monitor the monitoring target when a predetermined event occurs.
  • FIG. 1 It is a figure which shows the configuration example of the optical fiber sensing system which concerns on Embodiment 1.
  • FIG. It is a flow figure which shows the example of the flow of the whole operation of the optical fiber sensing system which concerns on Embodiment 1.
  • FIG. It is a figure which shows the configuration example of the optical fiber sensing system which concerns on Embodiment 2.
  • FIG. It is a figure which shows the configuration example of the optical fiber sensing system which concerns on Embodiment 2.
  • It is a flow chart which shows the example of the flow of the whole operation of the optical fiber sensing system which concerns on Embodiment 2.
  • FIG. 1 shows the configuration example of the optical fiber sensing system which concerns on Embodiment 3. It is a flow chart which shows the example of the method in which the specific part which concerns on Embodiment 3 determines the monitoring means which monitors the occurrence place of a predetermined event. It is a flow chart which shows the example of the method in which the specific part which concerns on Embodiment 3 determines the monitoring means which monitors the occurrence place of a predetermined event. It is a flow chart which shows the example of the flow of the whole operation of the optical fiber sensing system which concerns on Embodiment 3. It is a flow chart which shows the example of the flow of the whole operation of the optical fiber sensing system which concerns on Embodiment 4. FIG.
  • the optical fiber sensing system includes an optical fiber 10 and an optical fiber sensing device 20. Further, the optical fiber sensing device 20 includes a detection unit 21, a specific unit 22, and a control unit 23.
  • the optical fiber 10 is laid in the monitoring area, and one end thereof is connected to the optical fiber sensing device 20.
  • Surveillance areas may include, but are not limited to, for example borders, facilities, theme parks, prisons, airports, and their surroundings. Further, all of the optical fibers 10 may be laid underground, all of them may be laid above ground, some of them may be laid underground, and other parts may be laid above ground. Is also good.
  • the optical fiber 10 can detect the vibration generated in or near the monitoring area.
  • the detection unit 21 receives from the optical fiber 10 the return light on which the vibration detected by the optical fiber 10 is superimposed. For example, the detection unit 21 injects pulsed light into the optical fiber 10 and uses the reflected light or scattered light generated as the pulsed light is transmitted through the optical fiber 10 as return light via the optical fiber 10. Receive.
  • the vibration superimposed on the return light is the vibration generated in response to the event that occurred in the monitoring area as described above. Therefore, the detection unit 21 can detect the occurrence of a predetermined event based on the return light.
  • a predetermined event is, for example, a suspicious behavior of a person.
  • the identification unit 22 identifies the place where a predetermined event occurs based on the return light received by the detection unit 21. For example, in the specific unit 22, the time when the detection unit 21 incidents the pulsed light on the optical fiber 10 and the time when the detection unit 21 receives the return light on which the vibration generated in response to a predetermined event is superimposed from the optical fiber 10. Based on the time difference between, and, the position on the optical fiber 10 (distance from the optical fiber sensing device 20) where the vibration was detected is specified, and a predetermined event occurs based on the specified position on the optical fiber 10. Identify the location. For example, the identification unit 22 specifies the position on the optical fiber 10 specified above as the place where a predetermined event occurs.
  • the specifying unit 22 specifies a destination area to be a destination of the unmanned aerial vehicle that monitors the location of the predetermined event based on the location of the predetermined event specified above.
  • the identification unit 22 specifies an area where the location where a predetermined event occurs can be photographed by the unmanned aerial vehicle as a destination area of the unmanned aerial vehicle.
  • An unmanned aerial vehicle is an unmanned aerial vehicle equipped with a camera and capable of autonomous flight, for example, a drone, a stealth aircraft, or the like.
  • a drone can take a detailed picture of a part of an area, and a stealth aircraft can take a comprehensive picture of an entire area.
  • the unmanned aerial vehicle can acquire the position information of its own aircraft.
  • an unmanned aerial vehicle can calculate its own position information based on a GPS signal from a GPS (Global positioning system) satellite.
  • the control unit 23 wirelessly transmits various instructions to the unmanned aerial vehicle to control the unmanned aerial vehicle.
  • the control unit 23 controls the unmanned aerial vehicle so as to move to the movement destination area after designating the position information of the movement destination area specified by the specific unit 22.
  • the unmanned aerial vehicle moves to the destination region by autonomous flight based on the position information of the destination region designated by the control unit 23 and the position information of the own aircraft acquired by the own aircraft.
  • the detection unit 21 receives the return light on which the vibration detected by the optical fiber 10 is superimposed from the optical fiber 10, and detects the occurrence of a predetermined event based on the received return light. (Step S101).
  • the identification unit 22 identifies the occurrence location of the predetermined event based on the return light received by the detection unit 21 (step S102), and further, the identification unit 22 determines the occurrence location of the predetermined event based on the occurrence location of the predetermined event.
  • the destination area of the unmanned aerial vehicle for which the occurrence location is monitored is specified (step S103).
  • the control unit 23 controls the unmanned aerial vehicle so that the specific unit 22 moves to the specified destination area (step S104).
  • the detection unit 21 detects the occurrence of a predetermined event based on the return light on which the vibration detected by the optical fiber 10 is superimposed.
  • the identification unit 22 identifies the place where a predetermined event occurs based on the return light, and also specifies the destination area of the unmanned aerial vehicle that monitors the place where the predetermined event occurs based on the place where the predetermined event occurs. ..
  • the control unit 23 controls the unmanned aerial vehicle so as to move to the destination area. Therefore, when a predetermined event occurs, the location of the predetermined event to be monitored can be appropriately monitored by the unmanned aerial vehicle.
  • the second embodiment is a more specific version of the first embodiment described above, and the monitoring area is a fence F installed on a border, a facility, or the like, and more specifically, a fence F installed on the outer periphery of the border or the facility, and its surroundings. Is an example. Further, the second embodiment is an example in which the unmanned aerial vehicle is a drone D.
  • the optical fiber sensing system according to the second embodiment includes the optical fiber 10 and the optical fiber sensing device 20 as in the first embodiment described above. Further, the optical fiber sensing device 20 includes a detection unit 21, a specific unit 22, and a control unit 23, as in the first embodiment described above.
  • the fence F is installed along a boundary line such as a border or the outer circumference of a facility.
  • the optical fiber 10 is laid on the fence F on the ground, and one end thereof is connected to the optical fiber sensing device 20.
  • both ends of the optical fiber 10 are connected to the optical fiber sensing device 20, a part of the optical fiber 10 is laid on the fence F on the ground, and the rest is laid in the ground around the fence F.
  • the method of laying the optical fiber 10 shown in FIGS. 3 and 4 is an example and is not limited to this.
  • all of the optical fibers 10 may be laid in the ground around the fence F.
  • the detection unit 21 receives the return light on which the vibration detected by the optical fiber 10 is superimposed from the optical fiber 10, and detects the occurrence of a predetermined event in the fence F and its surroundings based on the received return light.
  • the predetermined event is, for example, a suspicious behavior of a person occurring in and around the fence F. Specifically, for example, the following can be considered as a predetermined event.
  • a person grabs and shakes the fence F A person hits the fence F
  • C A person climbs the fence F
  • D A person climbs the fence F with a ladder
  • E A person is around the fence F
  • the vibration superimposed on the return light is the vibration generated in response to the event that occurred in and around the fence F. Therefore, the return light has a unique vibration pattern in which the strength of vibration, the position of vibration, the transition of fluctuations in frequency, and the like differ depending on the events occurring in and around the fence F. Therefore, by analyzing the dynamic change of the vibration pattern of the return light, it is possible to identify the event that caused the vibration. Therefore, the detection unit 21 detects the occurrence of a predetermined event based on the vibration pattern of the return light.
  • the detection unit 21 may detect the occurrence of a predetermined event by using pattern matching. For example, for each predetermined event to be detected, the vibration pattern when the predetermined event occurs is stored in advance in a storage unit (not shown) as a matching pattern. The detection unit 21 compares the vibration pattern of the return light with the matching pattern. When there is a matching pattern in the matching pattern in which the matching rate with the vibration pattern of the return light is equal to or higher than the threshold value, the detection unit 21 determines that a predetermined event corresponding to the matching pattern has occurred. To do.
  • the identification unit 22 identifies the place where a predetermined event occurs based on the return light received by the detection unit 21. For example, in the specific unit 22, the detection unit 21 receives from the optical fiber 10 the time when the detection unit 21 incidents the pulsed light on the optical fiber 10 and the return light in which the vibration of the vibration pattern corresponding to a predetermined event is superimposed. The position (distance from the optical fiber sensing device 20) on the optical fiber 10 where the vibration is detected is specified based on the time difference from the time, and based on the specified position on the optical fiber 10, a predetermined event occurs. Identify the location of the occurrence. For example, the identification unit 22 specifies the position on the optical fiber 10 specified above as the place where a predetermined event occurs.
  • the specifying unit 22 specifies a destination area to be a destination of the drone D that monitors the location of the predetermined event based on the location of the predetermined event specified above.
  • the specifying unit 22 may specify an area where the place where a predetermined event occurs can be photographed by the drone D as a moving destination area of the drone D.
  • the specific unit 22 determines that the place where the predetermined event occurs is included in the preset important area based on the map information stored in the storage unit (not shown), or when the specific unit 22 determines that the predetermined event occurs.
  • the region where the occurrence location and the important region of a predetermined event can be photographed by the drone D may be set as the movement destination region of the drone D.
  • the specifying unit 22 may specify the destination region of the drone D so as to follow the position change.
  • Drone D is an unmanned aerial vehicle equipped with a camera and capable of autonomous flight. Further, the drone D can take a picture with a camera and wirelessly transmit the shot image to the control unit 23. In addition, the drone D can acquire the position information of its own machine. For example, the drone D can calculate the position information of its own machine based on the GPS signal from the GPS satellite. In addition, the drone D can send an alert. For example, the drone D is provided with a speaker, and it is possible to send an alarm sound from the speaker. Further, the drone D can wirelessly receive various instructions from the control unit 23, and moves, sends an alert, shoots, wirelessly transmits a captured image, and the like according to various instructions from the control unit 23.
  • the drone D waits in the drone pot while waiting for various instructions from the control unit 23.
  • a large number of drone pots may be arranged in the vicinity of an area where a predetermined event occurs frequently, and a small number may be arranged in the vicinity of an area where a predetermined event occurs infrequently.
  • the drone D is equipped with a battery and is driven by the battery.
  • the drone D includes a solar panel, and the battery of the drone D may be charged with the electric power generated by the solar panel. Further, the battery of the drone D may be charged by a charger built in or connected to the drone pot.
  • a base station may be installed in and around the fence F so that wireless communication between the drone D and the control unit 23 is possible, or a Wifi (registered trademark. Wireless Fidelity) spot is installed. Is also good.
  • the control unit 23 wirelessly transmits various instructions to the drone D to control the drone D. For example, when the detection unit 21 detects the occurrence of a predetermined event, the control unit 23 specifies the position information of the movement destination area specified by the specific unit 22 and then moves the drone D to the movement destination area. Control. Under this control, the drone D autonomously flies to the destination area based on the position information of the destination area designated by the control unit 23 and the position information of the own aircraft acquired by the own aircraft.
  • the control unit 23 first controls the drone D so as to send an alert. Under this control, Drone D sends an alert. Subsequently, the control unit 23 controls the drone D so as to photograph the place where a predetermined event occurs. Under this control, the drone D photographs the place where a predetermined event occurs with a camera, and wirelessly transmits the captured image to the control unit 23. If the control unit 23 finds a person in the shot image during shooting with the drone D, the control unit 23 may control the drone D so as to zoom in on the person. Under this control, Drone D zooms in on the person.
  • the detection unit 21 receives the return light on which the vibration detected by the optical fiber 10 is superimposed from the optical fiber 10, and a predetermined event is based on the vibration pattern of the received return light. Is detected (step S201).
  • the identification unit 22 identifies the occurrence location of the predetermined event based on the return light received by the detection unit 21 (step S202), and further, the identification unit 22 determines the occurrence location of the predetermined event based on the occurrence location of the predetermined event.
  • the destination area of the drone D for monitoring the occurrence location is specified (step S203).
  • control unit 23 controls the drone D so that the specific unit 22 moves to the specified destination area (step S204). Further, when the drone D arrives at the destination area, the control unit 23 first controls the drone D so as to send an alert (step S205), and then the drone so as to photograph the place where a predetermined event occurs. Control D (step S206).
  • step S202 When the position of the occurrence location of the predetermined event specified in step S202 changes after step S206, the specific unit 22 of the drone D so as to follow the position change of the occurrence location of the predetermined event.
  • the movement destination area may be sequentially specified, and the control unit 23 may move the drone D to the movement destination area sequentially specified by the specific unit 22.
  • step S206 when a person is found in the captured image as a result of shooting the place where the predetermined event occurs with the drone D, the specific unit 22 sets the monitoring target as the place where the predetermined event occurs after step S206.
  • the movement destination area of the drone D is sequentially specified so as to change to the found person and follow the position change of the person, and the control unit 23 sequentially specifies the drone D to the movement destination area specified by the specific unit 22. You may move it.
  • the detection unit 21 detects the occurrence of a predetermined event based on the vibration pattern of the return light on which the vibration detected by the optical fiber 10 is superimposed.
  • the identification unit 22 identifies the place where a predetermined event occurs based on the return light, and also specifies the destination area of the drone D which monitors the place where the predetermined event occurs based on the place where the predetermined event occurs. ..
  • the control unit 23 moves to the destination area, sends an alert, and controls the drone D so as to photograph the place where a predetermined event occurs. Therefore, when a predetermined event occurs, the location where the predetermined event to be monitored can occur can be appropriately monitored by the drone D.
  • the above-described second embodiment is premised on monitoring the place where a predetermined event occurs with the drone D.
  • the place where a predetermined event occurs can be monitored not only by the drone D but also by a person such as a guard (hereinafter referred to as a guard) or a camera installed in the monitoring area.
  • a guard hereinafter referred to as a guard
  • the guard is located closer to the place where the predetermined event occurs than the drone D, or if a camera that can shoot the place where the predetermined event occurs is installed, the drone D
  • guards and cameras can start monitoring sooner.
  • the specific unit 22 first provides a monitoring means for monitoring the occurrence location of the predetermined event from the drone D, the camera, and the guard, based on the occurrence location of the predetermined event.
  • the drone D is decided as the monitoring means, the destination area of the drone D is specified.
  • the optical fiber sensing system according to the third embodiment is different in that the camera 30 is added as compared with FIG. 3 of the second embodiment described above. Although only one camera 30 is provided in FIG. 7, a plurality of cameras 30 may be provided.
  • the camera 30 is a camera capable of photographing at least a part of the fence F and the monitoring area around the fence F, and is realized by, for example, a fixed camera, a PTZ (Pan Tilt Zoom) camera, or the like.
  • the control unit 23 can control the angle (azimuth, elevation), zoom magnification, etc. of the camera 30.
  • the specific unit 22 holds camera information indicating the installation position of the camera 30 (distance from the optical fiber sensing device 20), the imageable area, and the like. When a plurality of cameras 30 are provided, the specific unit 22 holds camera information for each of the plurality of cameras 30.
  • the specific unit 22 acquires the position information of the drone D regularly or irregularly.
  • the drone D is configured to periodically wirelessly transmit the position information to the specific unit 22, or wirelessly transmit the position information to the specific unit 22 in response to a request from the specific unit 22.
  • the specific unit 22 acquires position information for each of the plurality of drones D periodically or irregularly.
  • the specific unit 22 acquires the position information of the guards regularly or irregularly.
  • the terminal possessed by the guard is configured to periodically wirelessly transmit the position information to the specific unit 22, or wirelessly transmit the position information to the specific unit 22 as a response to the request from the specific unit 22. To do.
  • the specific unit 22 acquires position information for each of the plurality of guards on a regular or irregular basis.
  • the specific unit 22 has a predetermined event from the drone D, the camera 30, and the guard based on the place where the predetermined event occurs, the position information of the drone D, the camera information of the camera 30, the position information of the guard, and the like. Determine the monitoring means to monitor the location of the occurrence of.
  • the specific unit 22 subsequently has a guard near the place where the predetermined event occurs based on the position information of the guard. It is determined whether or not the position is located (step S302). For example, if the guard is located within a predetermined distance from the place where the predetermined event occurs, step S302 is Yes. When a guard is located near the place where a predetermined event occurs (Yes in step S302), the identification unit 22 determines the guard as the monitoring means (step S306).
  • the specific unit 22 determines whether or not there is a camera 30 capable of photographing the place where a predetermined event occurs based on the camera information of the camera 30 (step S303). If there is a camera 30 capable of photographing the place where a predetermined event occurs (Yes in step S303), the specific unit 22 determines the camera 30 as the monitoring means (step S304). On the other hand, when there is no camera 30 capable of photographing the place where a predetermined event occurs (No in step S303), the specific unit 22 determines the drone D as the monitoring means (step S305).
  • the specific unit 22 determines whether or not there is a camera 30 capable of photographing the place where a predetermined event occurs based on the camera information of the camera 30 (step S401). If there is a camera 30 capable of photographing the place where a predetermined event occurs (Yes in step S401), the specific unit 22 determines the camera 30 as the monitoring means (step S403).
  • the specific unit 22 subsequently determines the drone D based on the position information of the drone D and the position information of the guard. And among the guards, it is determined whether or not the guard is located closest to the place where the predetermined event occurs (step S402). If the guard is closest (Yes in step S402), the identifying unit 22 determines that guard as the monitoring means (step S405). On the other hand, when the drone D is located closest (No in step S402), the specific unit 22 determines the drone D as the monitoring means (step S405).
  • the method for determining the monitoring means is not limited to the above-mentioned methods A1 and A2.
  • the predetermined event is, for example, the above-mentioned event (E) "a person roams around the fence F"
  • the position of the place where the above-mentioned event (E) occurs changes.
  • the specific unit 22 may determine the monitoring means based on the position change speed at which the position of the place where the predetermined event occurs changes. For example, when the position change speed is slow, if there is a camera 30 capable of photographing the place where a predetermined event occurs, the specific unit 22 determines the camera 30 as the monitoring means.
  • the specific unit 22 determines the guard as a monitoring means, and the guard is located nearby. If not, the specific unit 22 determines the drone D as a monitoring means.
  • the third embodiment it is possible to monitor the place where a predetermined event occurs with the camera 30. Therefore, a large number of drone pots on which the drone D stands by may be arranged near an area where the number of cameras 30 is small.
  • steps S501 to S502 similar to steps S201 to S202 of FIG. 6 are performed.
  • the specific unit 22 determines a monitoring means for monitoring the occurrence location of the predetermined event from the drone D, the camera 30, and the guard based on the occurrence location of the predetermined event (step S503). For this determination, for example, the above-mentioned methods A1, A2 and the like may be used. Subsequently, in step S504, the monitoring means determined in step S503 is determined. When the monitoring means determined in step S503 is the drone D, the same steps S505 to S508 as in steps S203 to S206 of FIG. 6 are subsequently performed.
  • step S503 When the monitoring means determined in step S503 is the camera 30, the control unit 23 subsequently controls the angle (azimuth, elevation), zoom magnification, etc. of the camera 30 to monitor the place where a predetermined event occurs. (Step S509).
  • step S503 When the monitoring means determined in step S503 is a guard, the control unit 23 specifies the position information of the place where the predetermined event occurs to the terminal possessed by the guard, and then the occurrence of the predetermined event. An instruction to go to the place is transmitted wirelessly (step S510).
  • step S509 when a person is found in the captured image as a result of photographing the place where the predetermined event occurs with the camera 30, the specific unit 22 finds the monitoring target from the place where the predetermined event occurs.
  • the drone D is also determined as a monitoring means, the movement destination area of the drone D is sequentially specified so as to follow the position change of the person, and the control unit 23 sequentially specifies the movement specified by the specific unit 22. Drone D may be moved to the destination area.
  • the specific unit 22 monitors the place where the predetermined event occurs from the drone D, the camera 30, and the guard based on the place where the predetermined event occurs. Determine the means of monitoring. Therefore, for example, if the guard is located closer to the place where the predetermined event occurs than the drone D, or if a camera capable of shooting the place where the predetermined event occurs is installed, the camera It will be possible to monitor by 30 or guards. Therefore, when a predetermined event occurs, the place where the predetermined event to be monitored can occur can be monitored more quickly.
  • the specific unit 22 determines a monitoring means for monitoring the occurrence location of a predetermined event from the drone D, the camera 30, and the guard, and determines the drone D as the monitoring means. In this case, the destination area of the drone D was specified.
  • a plurality of drones D as monitoring means. Further, in order to appropriately monitor the place where a predetermined event occurs, it is preferable to dispatch and monitor the drone D located near the destination area.
  • the specific unit 22 determines the number of drones D as the monitoring means and selects the drone D as the monitoring means. ..
  • the configuration of the fourth embodiment is the same as that of the third embodiment described above.
  • the identification unit 22 may specify the urgency based on the vibration pattern of the return light received by the detection unit 21, and determine the number of drones D to be the monitoring means based on the specified urgency. good.
  • the specific unit 22 determines the number of people existing at the place where a predetermined event occurs based on the vibration pattern of the return light, and the larger the number, the higher the urgency, and the higher the urgency, the more the number of drones D. May be increased.
  • the specific unit 22 sets the urgency level in advance for each predetermined event to be detected, determines the urgency level according to the type of the predetermined event detected by the detection unit 21, and has a high urgency level.
  • the number of drones D may be increased as much as possible.
  • the specific unit 22 may determine the frequency of occurrence of a predetermined event at the place where the predetermined event occurs, and may increase the number of drones D as the frequency of occurrence increases.
  • the specific unit 22 may select the drones D for the number of units determined above as the monitoring means in order from the movement destination area based on the position information of the drone D.
  • the identification unit 22 identifies the drone D located within a predetermined distance from the destination area based on the position information of the drone D, and from the specified drones D, the number of drones determined above is determined. D may be selected as the monitoring means.
  • the number of drones D to be monitored is determined to be a plurality of drones D by the specific unit 22, at least one drone D located on both sides of the movement destination area is set based on the position information of the drones D. As the units are selected, the number of drones D determined above may be selected by monitoring means.
  • steps S601 to S604 similar to steps S501 to S504 in FIG. 10 are performed.
  • step S605 similar to step S505 in FIG. 10 is performed.
  • the specific unit 22 determines the number of drones D to be the monitoring means and selects the drone D to be the monitoring means (step S606). For this determination and selection, for example, the above-mentioned method or the like may be used. After that, steps S607 to S609 similar to steps S506 to S508 of FIG. 10 are performed.
  • step S610 similar to step S509 in FIG. 10 is performed. If the monitoring means determined in step S603 is a security guard, step S611 similar to step S510 in FIG. 10 is performed.
  • the specific unit 22 may monitor whether or not the selected drone D has become unmonitorable, and if there is a drone D that has become unmonitorable, an alternative drone D may be selected. For this selection, for example, the above-mentioned method or the like may be used. Further, the specific unit 22 determines whether or not the drone D has become unmonitorable, for example, if it communicates with the drone D on a regular basis and determines that the drone D has become unmonitorable when the communication becomes impossible. good.
  • the specific unit 22 determines the number of drones D as the monitoring means and selects the drone D as the monitoring means. To do. Therefore, since it is possible to monitor the occurrence location of a predetermined event with the optimum number of drones D and the optimum drone D, it is possible to perform faster and more accurate monitoring.
  • the optical fiber sensing device 20 may further include a notification unit 24 that notifies that a predetermined event has occurred when a predetermined event has occurred.
  • the notification destination may be, for example, a monitoring system that monitors the monitoring area, a monitoring terminal in a monitoring room that monitors the monitoring area, or the like.
  • the notification method may be, for example, a method of displaying a GUI (Graphical User Interface) screen on a display or monitor of the notification destination, or a method of outputting a message by voice from the speaker of the notification destination.
  • FIG. 13 shows an example of a GUI screen that notifies that a predetermined event has occurred. In the example of FIG.
  • the place where a predetermined event occurs and the position of the drone D are superimposed on the map.
  • the GUI screen of FIG. 13 is an example, and the present invention is not limited to this.
  • the GUI screen may indicate whether the drone D superimposed on the map is being monitored or waiting, or may add a captured image taken by the drone D being monitored.
  • the notification unit 24 may notify the terminal possessed by the guard that a predetermined event has occurred.
  • the notification method may be a method of displaying the GUI screen described above, or a method of outputting a message by voice.
  • the GUI screen at this time may be the same as the GUI screen of FIG. 13 described above.
  • the optical fiber sensing device 20 has a plurality of components (detection unit 21, identification unit 22, control unit 23, and notification unit 24). It is provided, but is not limited to this.
  • the components provided in the optical fiber sensing device 20 are not limited to being provided in one device, and may be distributed in a plurality of devices.
  • the computer 40 includes a processor 401, a memory 402, a storage 403, an input / output interface (input / output I / F) 404, a communication interface (communication I / F) 405, and the like.
  • the processor 401, the memory 402, the storage 403, the input / output interface 404, and the communication interface 405 are connected by a data transmission line for transmitting and receiving data to and from each other.
  • the processor 401 is, for example, an arithmetic processing unit such as a CPU (Central Processing Unit) or a GPU (Graphics Processing Unit).
  • the memory 402 is, for example, a memory such as a RAM (Random Access Memory) or a ROM (Read Only Memory).
  • the storage 403 is, for example, a storage device such as an HDD (Hard Disk Drive), an SSD (Solid State Drive), or a memory card. Further, the storage 403 may be a memory such as a RAM or a ROM.
  • the storage 403 stores a program that realizes the functions of the components (detection unit 21, specific unit 22, control unit 23, and notification unit 24) included in the optical fiber sensing device 20. By executing each of these programs, the processor 401 realizes the functions of the components included in the optical fiber sensing device 20. Here, when executing each of the above programs, the processor 401 may read these programs onto the memory 402 and then execute the programs, or may execute the programs without reading them onto the memory 402. The memory 402 and the storage 403 also play a role of storing information and data held by the components included in the optical fiber sensing device 20.
  • Non-temporary computer-readable media include various types of tangible storage media.
  • Examples of non-temporary computer-readable media include magnetic recording media (eg, flexible disks, magnetic tapes, hard disk drives), optomagnetic recording media (eg, optomagnetic disks), CD-ROMs (Compact Disc-ROMs), CDs. -R (CD-Recordable), CD-R / W (CD-ReWritable), semiconductor memory (for example, mask ROM, PROM (Programmable ROM), EPROM (Erasable PROM), flash ROM, RAM.
  • the program also includes.
  • the computer-readable medium can supply the program to the computer via a wired communication path such as an electric wire and an optical fiber, or a wireless communication path.
  • the input / output interface 404 is connected to a display device 4041, an input device 4042, a sound output device 4043, and the like.
  • the display device 4041 is a device that displays a screen corresponding to drawing data processed by the processor 401, such as an LCD (Liquid Crystal Display), a CRT (Cathode Ray Tube) display, and a monitor.
  • the input device 4042 is a device that receives an operator's operation input, and is, for example, a keyboard, a mouse, a touch sensor, and the like.
  • the display device 4041 and the input device 4042 may be integrated and realized as a touch panel.
  • the sound output device 4043 is a device such as a speaker that acoustically outputs sound corresponding to acoustic data processed by the processor 401.
  • the communication interface 405 sends and receives data to and from an external device.
  • the communication interface 405 communicates with an external device via a wired communication path or a wireless communication path.
  • Appendix 1 An optical fiber that detects vibration and A detection unit that detects the occurrence of a predetermined event based on an optical signal on which vibrations detected by the optical fiber are superimposed. Based on the optical signal, the location where the predetermined event occurs is specified, and based on the location where the predetermined event occurs, the destination region where the unmanned aerial vehicle moves to monitor the location where the predetermined event occurs. With a specific part that identifies A control unit that controls the unmanned aerial vehicle so as to move to the destination area, An optical fiber sensing system. (Appendix 2) The detection unit detects the occurrence of the predetermined event based on the vibration pattern of the optical signal.
  • the optical fiber sensing system according to Appendix 1. (Appendix 3) The specific unit specifies the destination region so as to follow a change in the position of the place where the predetermined event occurs.
  • the optical fiber sensing system according to Appendix 1 or 2. (Appendix 4) With more cameras The specific part is Based on the place where the predetermined event occurs, a monitoring means for monitoring the place where the predetermined event occurs is determined from the unmanned aerial vehicle, the camera, and a person. When the unmanned aerial vehicle is determined to be the monitoring means, the destination area is specified.
  • the optical fiber sensing system according to Appendix 4.
  • the drone is a drone, The optical fiber sensing system according to any one of Appendix 1 to 5.
  • a detector that detects the occurrence of a predetermined event based on an optical signal on which vibrations detected by an optical fiber are superimposed. Based on the optical signal, the location where the predetermined event occurs is specified, and based on the location where the predetermined event occurs, the destination region where the unmanned aerial vehicle moves to monitor the location where the predetermined event occurs.
  • An optical fiber sensing device equipped with (Appendix 8) The detection unit detects the occurrence of the predetermined event based on the vibration pattern of the optical signal.
  • the optical fiber sensing device according to Appendix 7. (Appendix 9) The specific unit specifies the destination region so as to follow a change in the position of the place where the predetermined event occurs.
  • the optical fiber sensing device according to Appendix 7 or 8. (Appendix 10) The specific part is Based on the place where the predetermined event occurs, the monitoring means for monitoring the place where the predetermined event occurs is determined from the unmanned aerial vehicle, the camera, and the person.
  • the optical fiber sensing device according to any one of Appendix 7 to 9.
  • the specific unit determines the number of the unmanned aerial vehicles based on the vibration pattern of the optical signal.
  • the drone is a drone, The optical fiber sensing device according to any one of Appendix 7 to 11.
  • Appendix 13 It is an unmanned aerial vehicle placement method using an optical fiber sensing system.
  • the first detection step in which the optical fiber detects vibration A second detection step of detecting the occurrence of a predetermined event based on an optical signal on which vibrations detected by the optical fiber are superimposed, Based on the optical signal, the location where the predetermined event occurs is specified, and based on the location where the predetermined event occurs, the destination region where the unmanned aerial vehicle moves to monitor the location where the predetermined event occurs.
  • Unmanned aerial vehicle placement methods including. (Appendix 14)
  • the second detection step the occurrence of the predetermined event is detected based on the vibration pattern of the optical signal.
  • the unmanned aerial vehicle arrangement method according to Appendix 13.
  • the destination region is specified so as to follow the position change of the place where the predetermined event occurs.
  • the monitoring means for monitoring the place where the predetermined event occurs is determined from the unmanned aerial vehicle, the camera, and the person.
  • the destination area is specified.
  • Appendix 17 In the specific step, when the unmanned aerial vehicle is determined as the monitoring means, the number of the unmanned aerial vehicles is determined based on the vibration pattern of the optical signal.
  • the drone is a drone, The method for arranging an unmanned aerial vehicle according to any one of Appendix 13 to 17.

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Automation & Control Theory (AREA)
  • Business, Economics & Management (AREA)
  • Emergency Management (AREA)
  • Alarm Systems (AREA)

Abstract

本開示に係る光ファイバセンシングシステムは、振動を検出する光ファイバ(10)と、光ファイバ(10)が検出した振動が重畳された光信号に基づいて、所定の事象の発生を検出する検出部(21)と、光信号に基づいて、所定の事象の発生場所を特定すると共に、所定の事象の発生場所に基づいて、所定の事象の発生場所を監視する無人機の移動先となる移動先領域を特定する特定部(22)と、移動先領域に移動するように無人機を制御する制御部(23)と、を備える。

Description

光ファイバセンシングシステム、光ファイバセンシング機器、及び無人機配置方法
 本開示は、光ファイバセンシングシステム、光ファイバセンシング機器、及び無人機配置方法に関する。
 光ファイバは、通信用に用いるだけではなく、監視用に用いることも可能である。例えば、特許文献1は、傾斜地盤等の監視対象部に埋設した光ファイバを用いて、監視対象部の変位を検出する技術を開示している。
 一方、ドローンで予め決められた人物を監視する技術がある。例えば、特許文献2は、被監視者が所持する情報端末装置の位置情報に基づいて、被監視者をドローンで撮影する技術を開示している。
特開2001-304822号公報 特開2015-207149号公報
 特許文献2に開示された技術は、あくまで監視対象となる被監視者が予め特定されている状態で、その監視対象をドローンで監視することが前提となっている。しかし、光ファイバで監視を行う場合、所定の事象が発生したことを契機に、所定の事象の発生場所等を監視対象として特定する場合がある。しかし、特許文献2に開示された技術は、所定の事象が発生した場合に、監視対象を適切に監視することができないという問題がある。
 そこで本開示の目的は、上述した課題を解決し、所定の事象が発生した場合に、監視対象を適切に監視することができる光ファイバセンシングシステム、光ファイバセンシング機器、及び無人機配置方法を提供することにある。
 一態様による光ファイバセンシングシステムは、
 振動を検出する光ファイバと、
 前記光ファイバが検出した振動が重畳された光信号に基づいて、所定の事象の発生を検出する検出部と、
 前記光信号に基づいて、前記所定の事象の発生場所を特定すると共に、前記所定の事象の発生場所に基づいて、前記所定の事象の発生場所を監視する無人機の移動先となる移動先領域を特定する特定部と、
 前記移動先領域に移動するように前記無人機を制御する制御部と、
 を備える。
 一態様による光ファイバセンシング機器は、
 光ファイバが検出した振動が重畳された光信号に基づいて、所定の事象の発生を検出する検出部と、
 前記光信号に基づいて、前記所定の事象の発生場所を特定すると共に、前記所定の事象の発生場所に基づいて、前記所定の事象の発生場所を監視する無人機の移動先となる移動先領域を特定する特定部と、
 前記移動先領域に移動するように前記無人機を制御する制御部と、
 を備える。
 一態様による無人機配置方法は、
 光ファイバセンシングシステムによる無人機配置方法であって、
 光ファイバが振動を検出する第1検出ステップと、
 前記光ファイバが検出した振動が重畳された光信号に基づいて、所定の事象の発生を検出する第2検出ステップと、
 前記光信号に基づいて、前記所定の事象の発生場所を特定すると共に、前記所定の事象の発生場所に基づいて、前記所定の事象の発生場所を監視する無人機の移動先となる移動先領域を特定する特定ステップと、
 前記移動先領域に移動するように前記無人機を制御する制御ステップと、
 を含む。
 上述の態様によれば、所定の事象が発生した場合に、監視対象を適切に監視できる光ファイバセンシングシステム、光ファイバセンシング機器、及び無人機配置方法を提供できるという効果が得られる。
実施の形態1に係る光ファイバセンシングシステムの構成例を示す図である。 実施の形態1に係る光ファイバセンシングシステムの全体的な動作の流れの例を示すフロー図である。 実施の形態2に係る光ファイバセンシングシステムの構成例を示す図である。 実施の形態2に係る光ファイバセンシングシステムの構成例を示す図である。 所定の事象の発生場所の位置が変化する例を示す図である。 実施の形態2に係る光ファイバセンシングシステムの全体的な動作の流れの例を示すフロー図である。 実施の形態3に係る光ファイバセンシングシステムの構成例を示す図である。 実施の形態3に係る特定部が所定の事象の発生場所を監視する監視手段を決定する方法の例を示すフロー図である。 実施の形態3に係る特定部が所定の事象の発生場所を監視する監視手段を決定する方法の例を示すフロー図である。 実施の形態3に係る光ファイバセンシングシステムの全体的な動作の流れの例を示すフロー図である。 実施の形態4に係る光ファイバセンシングシステムの全体的な動作の流れの例を示すフロー図である。 他の実施の形態に係る光ファイバセンシングシステムの構成例を示す図である。 他の実施の形態に係る報知部が報知に用いるGUI画面の例を示す図である。 光ファイバセンシング機器を実現するコンピュータのハードウェア構成の例を示すブロック図である。
 以下、図面を参照して本開示の実施の形態について説明する。なお、以下の記載及び図面は、説明の明確化のため、適宜、省略及び簡略化がなされている。また、以下の各図面において、同一の要素には同一の符号が付されており、必要に応じて重複説明は省略されている。
<実施の形態1>
 まず、図1を参照して、本実施の形態1に係る光ファイバセンシングシステムの構成例について説明する。
 図1に示されるように、本実施の形態1に係る光ファイバセンシングシステムは、光ファイバ10及び光ファイバセンシング機器20を備えている。また、光ファイバセンシング機器20は、検出部21、特定部22、及び制御部23を備えている。
 光ファイバ10は、監視エリアに敷設され、一端が光ファイバセンシング機器20に接続されている。監視エリアは、例えば、国境、施設、テーマパーク、刑務所、空港、及びこれらの周辺等が考えられるが、これには限定されない。また、光ファイバ10は、全てが地中に敷設されていても良いし、全てが地上に敷設されても良いし、一部が地中に敷設され、その他の部分は地上に敷設されていても良い。
 監視エリアで何らかの事象が発生すると、その事象に応じた振動が発生する。この振動は、光ファイバ10により伝送される後述の戻り光(光信号)に重畳される。そのため、光ファイバ10は、監視エリア又はその近傍で発生した振動を検出可能である。
 検出部21は、光ファイバ10から、光ファイバ10が検出した振動が重畳された戻り光を受信する。例えば、検出部21は、光ファイバ10にパルス光を入射し、パルス光が光ファイバ10を伝送されることに伴い発生した反射光や散乱光を、光ファイバ10を経由して、戻り光として受信する。
 ここで、戻り光に重畳された振動は、上述のように、監視エリアで発生した事象に応じて発生した振動である。そのため、検出部21は、戻り光に基づいて、所定の事象の発生を検出することが可能である。所定の事象は、例えば、人物の不審行動等である。
 特定部22は、検出部21が受信した戻り光に基づいて、所定の事象の発生場所を特定する。例えば、特定部22は、検出部21が光ファイバ10にパルス光を入射した時刻と、所定の事象に応じて発生した振動が重畳された戻り光を検出部21が光ファイバ10から受信した時刻と、の時間差に基づいて、その振動を検出した光ファイバ10上の位置(光ファイバセンシング機器20からの距離)を特定し、特定した光ファイバ10上の位置に基づいて、所定の事象の発生場所を特定する。例えば、特定部22は、上記で特定した光ファイバ10上の位置を、所定の事象の発生場所として特定する。
 さらに、特定部22は、上記で特定した所定の事象の発生場所に基づいて、所定の事象の発生場所を監視する無人機の移動先となる移動先領域を特定する。例えば、特定部22は、所定の事象の発生場所を無人機で撮影可能な領域を、無人機の移動先領域として特定する。
 無人機は、カメラを具備し、自律飛行が可能な無人航空機であり、例えば、ドローン、ステルス機等である。ドローンは、ある領域の一部を詳細に撮影可能であり、また、ステルス機は、ある領域の全体を網羅的に撮影可能である。また、無人機は、自機の位置情報を取得することが可能である。例えば、無人機は、GPS(Global positioning system)衛星からのGPS信号に基づいて自機の位置情報を算出することが可能である。
 制御部23は、無人機に各種指示を無線送信して、無人機を制御する。
 例えば、制御部23は、特定部22が特定した移動先領域の位置情報を指定した上で、移動先領域へ移動するように無人機を制御する。この制御の下で、無人機は、制御部23が指定した移動先領域の位置情報と、自機が取得した自機の位置情報と、に基づいて、移動先領域へ自律飛行により移動する。
 続いて、図2を参照して、本実施の形態1に係る光ファイバセンシングシステムの全体的な動作の流れの例について説明する。
 図2に示されるように、検出部21は、光ファイバ10から、光ファイバ10が検出した振動が重畳された戻り光を受信し、受信した戻り光に基づいて、所定の事象の発生を検出する(ステップS101)。
 続いて、特定部22は、検出部21が受信した戻り光に基づいて、所定の事象の発生場所を特定し(ステップS102)、さらに、所定の事象の発生場所に基づいて、所定の事象の発生場所を監視する無人機の移動先領域を特定する(ステップS103)。
 その後、制御部23は、特定部22が特定した移動先領域に移動するように無人機を制御する(ステップS104)。
 上述したように本実施の形態1によれば、検出部21は、光ファイバ10が検出した振動が重畳された戻り光に基づいて、所定の事象の発生を検出する。特定部22は、戻り光に基づいて、所定の事象の発生場所を特定すると共に、所定の事象の発生場所に基づいて、所定の事象の発生場所を監視する無人機の移動先領域を特定する。制御部23は、移動先領域に移動するように無人機を制御する。したがって、所定の事象が発生した場合に、監視対象となる所定の事象の発生場所を、無人機で適切に監視することができる。
<実施の形態2>
 本実施の形態2は、上述した実施の形態1をより具体化したもので、監視エリアが、国境や施設等、より詳細には、国境や施設の外周等に設置されたフェンスF及びその周辺である例である。また、本実施の形態2は、無人機がドローンDである例である。
 以下、図3及び図4を参照して、本実施の形態2に係る光ファイバセンシングシステムの構成例について説明する。
 図3及び図4に示されるように、本実施の形態2に係る光ファイバセンシングシステムは、上述した実施の形態1と同様に、光ファイバ10及び光ファイバセンシング機器20を備えている。また、光ファイバセンシング機器20は、上述した実施の形態1と同様に、検出部21、特定部22、及び制御部23を備えている。
 フェンスFは、国境や施設の外周等の境界線に沿って設置されている。
 図3の例では、光ファイバ10は、地上のフェンスFに敷設され、一端が光ファイバセンシング機器20に接続されている。
 図4の例では、光ファイバ10は、両端が光ファイバセンシング機器20に接続され、一部が地上のフェンスFに敷設され、残りの部分がフェンスFの周辺の地中に敷設されている。
 ただし、図3及び図4に示される光ファイバ10の敷設方法は、一例であって、これに限定されるものではない。例えば、光ファイバ10の全てが、フェンスFの周辺の地中に敷設されていても良い。
 検出部21は、光ファイバ10から、光ファイバ10が検出した振動が重畳された戻り光を受信し、受信した戻り光に基づいて、フェンスF及びその周辺における所定の事象の発生を検出する。所定の事象は、例えば、フェンスF及びその周辺で発生した人物の不審行動である。具体的には、所定の事象としては、例えば、以下が考えられる。
(A)人物がフェンスFを掴み揺らす
(B)人物がフェンスFを叩く
(C)人物がフェンスFをよじ登る
(D)人物がフェンスFに梯子を掛けて登る
(E)人物がフェンスFの周辺を徘徊する
(F)人物がフェンスFの周辺を掘る
 ここで、戻り光に重畳された振動は、フェンスF及びその周辺で発生した事象に応じて発生した振動である。そのため、戻り光は、フェンスF及びその周辺で発生した事象に応じて、振動の強弱、振動位置、振動数の変動の推移等が異なる固有の振動パターンを有している。そのため、戻り光が有する振動パターンの動的変化を分析することにより、振動の要因となった事象を特定することが可能となる。そこで、検出部21は、戻り光が有する振動パターンに基づいて、所定の事象の発生を検出する。
 このとき、検出部21は、パターンマッチングを利用して、所定の事象の発生を検出しても良い。例えば、検出対象とする所定の事象毎に、所定の事象が発生したときの振動パターンを、マッチング用パターンとして、不図示の記憶部に予め記憶させておく。検出部21は、戻り光が有する振動パターンをマッチング用パターンと比較する。マッチング用パターンの中に、戻り光が有する振動パターンとの適合率が閾値以上となったマッチング用パターンがある場合、検出部21は、そのマッチング用パターンに対応する所定の事象が発生したと判断する。
 特定部22は、検出部21が受信した戻り光に基づいて、所定の事象の発生場所を特定する。例えば、特定部22は、検出部21が光ファイバ10にパルス光を入射した時刻と、所定の事象に応じた振動パターンの振動が重畳された戻り光を検出部21が光ファイバ10から受信した時刻と、の時間差に基づいて、その振動を検出した光ファイバ10上の位置(光ファイバセンシング機器20からの距離)を特定し、特定した光ファイバ10上の位置に基づいて、所定の事象の発生場所を特定する。例えば、特定部22は、上記で特定した光ファイバ10上の位置を、所定の事象の発生場所として特定する。
 さらに、特定部22は、上記で特定した所定の事象の発生場所に基づいて、所定の事象の発生場所を監視するドローンDの移動先となる移動先領域を特定する。例えば、特定部22は、所定の事象の発生場所をドローンDで撮影可能な領域を、ドローンDの移動先領域として特定しても良い。また、特定部22は、不図示の記憶部に記憶されている地図情報に基づいて、所定の事象の発生場所が予め設定された重要領域に含まれると判断した場合、又は、所定の事象の発生場所の近傍に重要領域が存在すると判断した場合、所定の事象の発生場所及び重要領域をドローンDで撮影可能な領域を、ドローンDの移動先領域としても良い。
 また、所定の事象が、例えば、上述の(E)の「人物がフェンスFの周辺を徘徊する」という事象である場合、上述の(E)の事象を検出した後も、図5に示されるように、人物は移動する。その結果、所定の事象の発生場所の位置も変化することになる。そこで、特定部22は、所定の事象の発生場所の位置が変化した場合には、その位置変化に追従するように、ドローンDの移動先領域を特定しても良い。
 ドローンDは、カメラを具備し、自律飛行が可能な無人航空機である。また、ドローンDは、カメラで撮影を行い、その撮影映像を制御部23に無線送信することが可能である。また、ドローンDは、自機の位置情報を取得することが可能である。例えば、ドローンDは、GPS衛星からのGPS信号に基づいて自機の位置情報を算出することが可能である。また、ドローンDは、アラートを送出することが可能である。例えば、ドローンDは、スピーカを具備し、スピーカから警報音を送出することが可能である。また、ドローンDは、制御部23からの各種指示を無線受信することが可能であり、制御部23からの各種指示に従って、移動、アラートの送出、撮影、撮影映像の無線送信等を行う。
 また、ドローンDは、制御部23からの各種指示を待っている間は、ドローン用ポットで待機する。ドローン用ポットは、所定の事象の発生頻度が高い領域付近には多く配置し、所定の事象の発生頻度が低い領域付近には少なく配置しても良い。
 また、ドローンDは、バッテリを具備し、バッテリで駆動される。ドローンDは、ソーラーパネルを具備し、ドローンDのバッテリは、ソーラーパネルで発電した電力で充電されても良い。また、ドローンDのバッテリは、ドローン用ポットに内蔵又は接続された充電器により充電されても良い。
 また、ドローンDと制御部23との無線通信が可能なように、フェンスF及びその周辺には、基地局を設置しても良いし、Wifi(登録商標。Wireless Fidelity)のスポットを設置しても良い。
 制御部23は、ドローンDに各種指示を無線送信して、ドローンDを制御する。
 例えば、制御部23は、検出部21が所定の事象の発生を検出した場合、特定部22が特定した移動先領域の位置情報を指定した上で、移動先領域へ移動するようにドローンDを制御する。この制御の下で、ドローンDは、制御部23が指定した移動先領域の位置情報と、自機が取得した自機の位置情報と、に基づいて、移動先領域へ自律飛行により移動する。
 また、制御部23は、ドローンDが移動先領域に到着すると、まず、アラートを送出するようにドローンDを制御する。この制御の下で、ドローンDは、アラートを送出する。続いて、制御部23は、所定の事象の発生場所を撮影するようにドローンDを制御する。この制御の下で、ドローンDは、所定の事象の発生場所をカメラにより撮影し、その撮影映像を制御部23に無線送信する。なお、制御部23は、ドローンDでの撮影中、撮影映像に人物を発見した場合、その人物をズームアップするようにドローンDを制御しても良い。この制御の下で、ドローンDは、その人物をズームアップする。
 続いて、図6を参照して、本実施の形態2に係る光ファイバセンシングシステムの全体的な動作の流れの例について説明する。
 図6に示されるように、検出部21は、光ファイバ10から、光ファイバ10が検出した振動が重畳された戻り光を受信し、受信した戻り光が有する振動パターンに基づいて、所定の事象の発生を検出する(ステップS201)。
 続いて、特定部22は、検出部21が受信した戻り光に基づいて、所定の事象の発生場所を特定し(ステップS202)、さらに、所定の事象の発生場所に基づいて、所定の事象の発生場所を監視するドローンDの移動先領域を特定する(ステップS203)。
 続いて、制御部23は、特定部22が特定した移動先領域に移動するようにドローンDを制御する(ステップS204)。さらに、ドローンDが移動先領域に到着すると、制御部23は、まず、アラートを送出するようにドローンDを制御し(ステップS205)、続いて、所定の事象の発生場所を撮影するようにドローンDを制御する(ステップS206)。
 なお、ステップS206以降に、ステップS202で特定した所定の事象の発生場所の位置が変化した場合には、特定部22は、所定の事象の発生場所の位置変化に追従するように、ドローンDの移動先領域を順次特定し、制御部23は、特定部22が順次特定した移動先領域にドローンDを移動させても良い。
 また、ステップS206において、所定の事象の発生場所をドローンDで撮影した結果、撮影映像に人物を発見した場合には、ステップS206以降、特定部22は、監視対象を、所定の事象の発生場所から、発見した人物に変更し、その人物の位置変化に追従するように、ドローンDの移動先領域を順次特定し、制御部23は、特定部22が順次特定した移動先領域にドローンDを移動させても良い。
 上述したように本実施の形態2によれば、検出部21は、光ファイバ10が検出した振動が重畳された戻り光が有する振動パターンに基づいて、所定の事象の発生を検出する。特定部22は、戻り光に基づいて、所定の事象の発生場所を特定すると共に、所定の事象の発生場所に基づいて、所定の事象の発生場所を監視するドローンDの移動先領域を特定する。制御部23は、移動先領域に移動し、アラートを送出し、所定の事象の発生場所を撮影するようにドローンDを制御する。したがって、所定の事象が発生した場合に、監視対象となる所定の事象の発生場所を、ドローンDで適切に監視することができる。
<実施の形態3>
 上述した実施の形態2は、所定の事象の発生場所をドローンDで監視することを前提としていた。しかし、所定の事象の発生場所は、ドローンDだけでなく、警備員等の人(以下、警備員であるものとする)や、監視エリアに設置されたカメラでも監視することが可能である。また、ドローンDよりも警備員の方が所定の事象の発生場所の近くに位置している場合や、所定の事象の発生場所を撮影可能なカメラが設置されている場合には、ドローンDよりも、警備員やカメラの方が早く、監視を開始することができると考えられる。
 そこで本実施の形態3においては、特定部22は、所定の事象の発生場所に基づいて、まず、ドローンD、カメラ、及び警備員の中から、所定の事象の発生場所を監視する監視手段を決定し、ドローンDを監視手段に決定した場合に、ドローンDの移動先領域を特定することとする。
 以下、図7を参照して、本実施の形態3に係る光ファイバセンシングシステムの構成例について説明する。
 図7に示されるように、本実施の形態3に係る光ファイバセンシングシステムは、上述した実施の形態2の図3と比較して、カメラ30が追加されている点が異なる。なお、図7においては、カメラ30が1台だけ設けられているが、カメラ30は複数台設けられても良い。
 カメラ30は、フェンスF及びその周辺となる監視エリアの少なくとも一部を撮影可能なカメラであり、例えば、固定カメラ、PTZ(Pan Tilt Zoom)カメラ等で実現される。制御部23は、カメラ30の角度(方位角、仰角)、ズーム倍率等を制御可能である。
 特定部22は、カメラ30の設置位置(光ファイバセンシング機器20からの距離)、撮影可能エリア等を示すカメラ情報を保持する。なお、複数台のカメラ30が設けられている場合は、特定部22は、複数台のカメラ30の各々についてカメラ情報を保持する。
 また、特定部22は、定期的に又は不定期に、ドローンDの位置情報を取得する。例えば、ドローンDは、定期的に位置情報を特定部22に無線送信するか、又は、特定部22からの要求に対する応答として、位置情報を特定部22に無線送信するように構成する。なお、複数台のドローンDが配備されている場合は、特定部22は、定期的に又は不定期に、複数台のドローンDの各々について位置情報を取得する。
 また、特定部22は、定期的に又は不定期に、警備員の位置情報を取得する。例えば、警備員が所持する端末は、定期的に位置情報を特定部22に無線送信するか、又は、特定部22からの要求に対する応答として、位置情報を特定部22に無線送信するように構成する。なお、複数人の警備員が配備されている場合は、特定部22は、定期的に又は不定期に、複数人の警備員の各々について位置情報を取得する。
 特定部22は、所定の事象の発生場所、ドローンDの位置情報、カメラ30のカメラ情報、警備員の位置情報等に基づいて、ドローンD、カメラ30、及び警備員の中から、所定の事象の発生場所を監視する監視手段を決定する。
 ここで、特定部22において、所定の事象の発生場所を監視する監視手段を決定する方法の例について説明する。なお、以下で説明する方法は、特定部22が所定の事象の発生場所を特定した後に行われるものとする。
(A1)方法A1
 まず、図8を参照して、方法A1について説明する。
 図8に示されるように、まず、特定部22は、不図示の記憶部に記憶されている地図情報に基づいて、所定の事象の発生場所は人が入れる領域(例えば、川や湖等ではない領域)であるか否かを判断する(ステップS301)。
 所定の事象の発生場所が人が入れる領域である場合(ステップS301のYes)、続いて、特定部22は、警備員の位置情報に基づいて、所定の事象の発生場所の近くに警備員が位置しているか否かを判断する(ステップS302)。例えば、所定の事象の発生場所から所定距離以内に警備員が位置している場合は、ステップS302はYesとなる。所定の事象の発生場所の近くに警備員が位置している場合は(ステップS302のYes)、特定部22は、その警備員を監視手段に決定する(ステップS306)。
 一方、所定の事象の発生場所が人が入れる領域ではない場合(ステップS301のNo)や、所定の事象の発生場所の近くに警備員が位置していない場合は(ステップS302のNo)、続いて、特定部22は、カメラ30のカメラ情報に基づいて、所定の事象の発生場所を撮影可能なカメラ30があるか否かを判断する(ステップS303)。所定の事象の発生場所を撮影可能なカメラ30がある場合は(ステップS303のYes)、特定部22は、そのカメラ30を監視手段に決定する(ステップS304)。一方、所定の事象の発生場所を撮影可能なカメラ30がない場合は(ステップS303のNo)、特定部22は、ドローンDを監視手段に決定する(ステップS305)。
(A2)方法A2
 続いて、図9を参照して、方法A2について説明する。
 図9に示されるように、まず、特定部22は、カメラ30のカメラ情報に基づいて、所定の事象の発生場所を撮影可能なカメラ30があるか否かを判断する(ステップS401)。所定の事象の発生場所を撮影可能なカメラ30がある場合は(ステップS401のYes)、特定部22は、そのカメラ30を監視手段に決定する(ステップS403)。
 一方、所定の事象の発生場所を撮影可能なカメラ30がない場合は(ステップS401のNo)、続いて、特定部22は、ドローンDの位置情報及び警備員の位置情報に基づいて、ドローンD及び警備員のうち、所定の事象の発生場所の最も近くに位置しているのは警備員であるか否かを判断する(ステップS402)。警備員が最も近くに位置している場合は(ステップS402のYes)、特定部22は、その警備員を監視手段に決定する(ステップS405)。一方、ドローンDが最も近くに位置している場合は(ステップS402のNo)、特定部22は、そのドローンDを監視手段に決定する(ステップS405)。
 ただし、監視手段を決定する方法は、上述の方法A1,A2には限定されない。
 例えば、所定の事象が、例えば、上述の(E)の「人物がフェンスFの周辺を徘徊する」という事象である場合、上述の(E)の事象の発生場所の位置は変化する。この場合、特定部22は、所定の事象の発生場所の位置が変化する位置変化速度に基づいて、監視手段を決定しても良い。例えば、位置変化速度が遅い場合、所定の事象の発生場所を撮影可能なカメラ30があれば、特定部22は、そのカメラ30を監視手段に決定する。一方、位置変化速度が速い場合、所定の事象の発生場所の近くに警備員が位置していれば、特定部22は、その警備員を監視手段に決定し、近くに警備員が位置していなければ、特定部22は、ドローンDを監視手段に決定する。
 なお、本実施の形態3においては、カメラ30で所定の事象の発生場所を監視することが可能である。そのため、ドローンDが待機するドローン用ポットは、カメラ30の台数が少ない領域付近に多く配置しても良い。
 続いて、図10を参照して、本実施の形態3に係る光ファイバセンシングシステムの全体的な動作の流れの例について説明する。
 図10に示されるように、まず、図6のステップS201~S202と同様のステップS501~S502が行われる。
 続いて、特定部22は、所定の事象の発生場所に基づいて、ドローンD、カメラ30、及び警備員の中から、所定の事象の発生場所を監視する監視手段を決定する(ステップS503)。この決定は、例えば、上述の方法A1,A2等を利用すれば良い。
 続いて、ステップS504において、ステップS503で決定された監視手段が判断される。
 ステップS503で決定された監視手段がドローンDであった場合、以降、図6のステップS203~S206と同様のステップS505~S508が行われる。
 ステップS503で決定された監視手段がカメラ30であった場合、以降、制御部23は、カメラ30の角度(方位角、仰角)、ズーム倍率等を制御して、所定の事象の発生場所を監視する(ステップS509)。
 ステップS503で決定された監視手段が警備員であった場合、制御部23は、警備員が所持する端末に対し、所定の事象の発生場所の位置情報を指定した上で、所定の事象の発生場所へ向かう旨の指示を無線送信する(ステップS510)。
 なお、ステップS509において、所定の事象の発生場所をカメラ30で撮影した結果、撮影映像に人物を発見した場合には、特定部22は、監視対象を、所定の事象の発生場所から、発見した人物に変更すると共に、ドローンDも監視手段に決定し、その人物の位置変化に追従するように、ドローンDの移動先領域を順次特定し、制御部23は、特定部22が順次特定した移動先領域にドローンDを移動させても良い。
 上述したように本実施の形態3によれば、特定部22は、所定の事象の発生場所に基づいて、ドローンD、カメラ30、及び警備員の中から、所定の事象の発生場所を監視する監視手段を決定する。そのため、例えば、ドローンDよりも警備員の方が所定の事象の発生場所の近くに位置している場合や、所定の事象の発生場所を撮影可能なカメラが設置されている場合には、カメラ30又は警備員で監視を行うことが可能になる。したがって、所定の事象が発生した場合に、監視対象となる所定の事象の発生場所を、より迅速に監視することができる。
<実施の形態4>
 上述した実施の形態3においては、特定部22は、ドローンD、カメラ30、及び警備員の中から、所定の事象の発生場所を監視する監視手段を決定し、ドローンDを監視手段に決定した場合に、ドローンDの移動先領域を特定していた。
 このとき、緊急度等によっては、監視手段とするドローンDの台数を複数台とした方が好適である場合がある。また、所定の事象の発生場所を適切に監視するには、移動先領域の近くに位置しているドローンDを派遣して監視をすることが好適である。
 そこで本実施の形態4においては、特定部22は、ドローンDを監視手段に決定した場合に、監視手段とするドローンDの台数を決定すると共に、監視手段とするドローンDを選択することとする。
 なお、本実施の形態4は、構成自体は上述した実施の形態3と同様である。
 まず、特定部22において、監視手段とするドローンDの台数を決定する方法の例について説明する。
 例えば、特定部22は、検出部21が受信した戻り光が有する振動パターンに基づいて、緊急度を特定し、特定した緊急度に基づいて、監視手段とするドローンDの台数を決定しても良い。例えば、特定部22は、戻り光が有する振動パターンに基づいて、所定の事象の発生場所に存在する人数を判断し、人数が多いほど緊急度を高くし、緊急度が高いほどドローンDの台数を多くしても良い。
 また、特定部22は、検出対象とする所定の事象毎に、予め緊急度を設定しておき、検出部21が検出した所定の事象の種類に応じて緊急度を判断し、緊急度が高いほどドローンDの台数を多くしても良い。
 また、特定部22は、所定の事象の発生場所における所定の事象の発生頻度を判断し、発生頻度が高いほどドローンDの台数を多くしても良い。
 続いて、特定部22において、監視手段とするドローンDを選択する方法の例について説明する。
 例えば、特定部22は、ドローンDの位置情報に基づいて、移動先領域から近い順に、上記で決定した台数分のドローンDを、監視手段として選択しても良い。
 また、特定部22は、ドローンDの位置情報に基づいて、移動先領域から所定距離以内に位置しているドローンDを特定し、特定したドローンDの中から、上記で決定した台数分のドローンDを、監視手段として選択しても良い。
 また、特定部22は、監視手段とするドローンDの台数を複数台に決定した場合、ドローンDの位置情報に基づいて、移動先領域を挟んで両側に位置しているドローンDがそれぞれ少なくとも1台は選択されるように、上記で決定した台数分のドローンDを、監視手段して選択しても良い。
 続いて、図11を参照して、本実施の形態4に係る光ファイバセンシングシステムの全体的な動作の流れの例について説明する。
 図11に示されるように、まず、図10のステップS501~S504と同様のステップS601~S604が行われる。
 ステップS603で決定された監視手段がドローンDであった場合、まず、図10のステップS505と同様のステップS605が行われる。続いて、特定部22は、監視手段とするドローンDの台数を決定すると共に、監視手段とするドローンDを選択する(ステップS606)。この決定及び選択は、例えば、上述の方法等を利用すれば良い。以降、図10のステップS506~S508と同様のステップS607~S609が行われる。
 ステップS603で決定された監視手段がカメラ30であった場合、図10のステップS509と同様のステップS610が行われる。
 ステップS603で決定された監視手段が警備員であった場合、図10のステップS510と同様のステップS611が行われる。
 なお、ステップS606において、監視手段とするドローンDを選択した後に、選択したドローンDが故障等により監視不可になった場合は、上記で決定した台数のドローンDで監視をすることができなくなってしまう。そのため、特定部22は、選択したドローンDが監視不可になったか否かを監視し、監視不可になったドローンDがある場合は、代替のドローンDを選択しても良い。この選択は、例えば、上述の方法等を利用すれば良い。また、特定部22は、ドローンDが監視不可になったか否かは、例えば、ドローンDと定期的に通信を行い、通信不可になった場合に、ドローンDが監視不可になったと判断すれば良い。
 上述したように本実施の形態4によれば、特定部22は、ドローンDを監視手段に決定した場合に、監視手段とするドローンDの台数を決定すると共に、監視手段とするドローンDを選択する。したがって、最適なドローンDの台数でかつ最適なドローンDで所定の事象の発生場所を監視することができるため、より迅速かつより高精度な監視を行うことができる。
<他の実施の形態>
 図12に示されるように、光ファイバセンシング機器20は、所定の事象が発生した場合に、所定の事象が発生したことを報知する報知部24をさらに備えていても良い。報知先は、例えば、監視エリアを監視する監視システムや、監視エリアを監視する監視室等にある監視端末としても良い。また、報知方法は、例えば、報知先のディスプレイやモニター等にGUI(Graphical User Interface)画面を表示する方法でも良いし、報知先のスピーカからメッセージを音声出力する方法でも良い。図13に、所定の事象が発生したことを報知するGUI画面の例を示す。図13の例では、地図上に、所定の事象の発生場所と、ドローンDの位置と、を重畳している。ただし、図13のGUI画面は一例であって、これに限定されるものではない。例えば、GUI画面は、地図上に重畳されたドローンDが監視中又は待機中のどちらであるかを示しても良いし、監視中のドローンDで撮影された撮影画像を追加しても良い。
 また、報知部24は、警備員が所持する端末に対し、所定の事象が発生したことを報知しても良い。報知方法は、上述したGUI画面を表示する方法でも良いし、メッセージを音声出力する方法でも良い。このときのGUI画面は、上述した図13のGUI画面と同様でも良い。
 また、図1、図3、図4、図7、及び図12の例では、光ファイバセンシング機器20に複数の構成要素(検出部21、特定部22、制御部23、及び報知部24)が設けられているが、これには限定されない。光ファイバセンシング機器20に設けられていた構成要素は、1つの装置に設けることには限定されず、複数の装置に分散して設けられていても良い。
<光ファイバセンシング機器のハードウェア構成>
 続いて以下では、図14を参照して、光ファイバセンシング機器20を実現するコンピュータ40のハードウェア構成について説明する。
 図14に示されるように、コンピュータ40は、プロセッサ401、メモリ402、ストレージ403、入出力インタフェース(入出力I/F)404、及び通信インタフェース(通信I/F)405等を備える。プロセッサ401、メモリ402、ストレージ403、入出力インタフェース404、及び通信インタフェース405は、相互にデータを送受信するためのデータ伝送路で接続されている。
 プロセッサ401は、例えばCPU(Central Processing Unit)やGPU(Graphics Processing Unit)等の演算処理装置である。メモリ402は、例えばRAM(Random Access Memory)やROM(Read Only Memory)等のメモリである。ストレージ403は、例えばHDD(Hard Disk Drive)、SSD(Solid State Drive)、またはメモリカード等の記憶装置である。また、ストレージ403は、RAMやROM等のメモリであっても良い。
 ストレージ403は、光ファイバセンシング機器20が備える構成要素(検出部21、特定部22、制御部23、及び報知部24)の機能を実現するプログラムを記憶している。プロセッサ401は、これら各プログラムを実行することで、光ファイバセンシング機器20が備える構成要素の機能をそれぞれ実現する。ここで、プロセッサ401は、上記各プログラムを実行する際、これらのプログラムをメモリ402上に読み出してから実行しても良いし、メモリ402上に読み出さずに実行しても良い。また、メモリ402やストレージ403は、光ファイバセンシング機器20が備える構成要素が保持する情報やデータを記憶する役割も果たす。
 また、上述したプログラムは、様々なタイプの非一時的なコンピュータ可読媒体(non-transitory computer readable medium)を用いて格納され、コンピュータ(コンピュータ40を含む)に供給することができる。非一時的なコンピュータ可読媒体は、様々なタイプの実体のある記録媒体(tangible storage medium)を含む。非一時的なコンピュータ可読媒体の例は、磁気記録媒体(例えば、フレキシブルディスク、磁気テープ、ハードディスクドライブ)、光磁気記録媒体(例えば、光磁気ディスク)、CD-ROM(Compact Disc-ROM)、CD-R(CD-Recordable)、CD-R/W(CD-ReWritable)、半導体メモリ(例えば、マスクROM、PROM(Programmable ROM)、EPROM(Erasable PROM)、フラッシュROM、RAMを含む。また、プログラムは、様々なタイプの一時的なコンピュータ可読媒体(transitory computer readable medium)によってコンピュータに供給されても良い。一時的なコンピュータ可読媒体の例は、電気信号、光信号、及び電磁波を含む。一時的なコンピュータ可読媒体は、電線及び光ファイバ等の有線通信路、又は無線通信路を介して、プログラムをコンピュータに供給できる。
 入出力インタフェース404は、表示装置4041、入力装置4042、音出力装置4043等と接続される。表示装置4041は、LCD(Liquid Crystal Display)、CRT(Cathode Ray Tube)ディスプレイ、モニターのような、プロセッサ401により処理された描画データに対応する画面を表示する装置である。入力装置4042は、オペレータの操作入力を受け付ける装置であり、例えば、キーボード、マウス、及びタッチセンサ等である。表示装置4041及び入力装置4042は一体化され、タッチパネルとして実現されていても良い。音出力装置4043は、スピーカのような、プロセッサ401により処理された音響データに対応する音を音響出力する装置である。
 通信インタフェース405は、外部の装置との間でデータを送受信する。例えば、通信インタフェース405は、有線通信路または無線通信路を介して外部装置と通信する。
 以上、実施の形態を参照して本開示を説明したが、本開示は上述した実施の形態に限定されるものではない。本開示の構成や詳細には、本開示のスコープ内で当業者が理解し得る様々な変更をすることができる。
 例えば、上述した実施の形態は、一部又は全部を相互に組み合わせて用いても良い。
 また、上記の実施の形態の一部又は全部は、以下の付記のようにも記載されうるが、以下には限られない。
   (付記1)
 振動を検出する光ファイバと、
 前記光ファイバが検出した振動が重畳された光信号に基づいて、所定の事象の発生を検出する検出部と、
 前記光信号に基づいて、前記所定の事象の発生場所を特定すると共に、前記所定の事象の発生場所に基づいて、前記所定の事象の発生場所を監視する無人機の移動先となる移動先領域を特定する特定部と、
 前記移動先領域に移動するように前記無人機を制御する制御部と、
 を備える、光ファイバセンシングシステム。
   (付記2)
 前記検出部は、前記光信号が有する振動パターンに基づいて、前記所定の事象の発生を検出する、
 付記1に記載の光ファイバセンシングシステム。
   (付記3)
 前記特定部は、前記所定の事象の発生場所の位置変化に追従するように、前記移動先領域を特定する、
 付記1又は2に記載の光ファイバセンシングシステム。
   (付記4)
 カメラをさらに備え、
 前記特定部は、
 前記所定の事象の発生場所に基づいて、前記無人機、前記カメラ、及び人の中から、前記所定の事象の発生場所を監視する監視手段を決定し、
 前記無人機を前記監視手段に決定した場合に、前記移動先領域を特定する、
 付記1から3のいずれか1項に記載の光ファイバセンシングシステム。
   (付記5)
 前記特定部は、前記無人機を前記監視手段に決定した場合に、前記光信号が有する振動パターンに基づいて、前記無人機の台数を決定する、
 付記4に記載の光ファイバセンシングシステム。
   (付記6)
 前記無人機は、ドローンである、
 付記1から5のいずれか1項に記載の光ファイバセンシングシステム。
   (付記7)
 光ファイバが検出した振動が重畳された光信号に基づいて、所定の事象の発生を検出する検出部と、
 前記光信号に基づいて、前記所定の事象の発生場所を特定すると共に、前記所定の事象の発生場所に基づいて、前記所定の事象の発生場所を監視する無人機の移動先となる移動先領域を特定する特定部と、
 前記移動先領域に移動するように前記無人機を制御する制御部と、
 を備える、光ファイバセンシング機器。
   (付記8)
 前記検出部は、前記光信号が有する振動パターンに基づいて、前記所定の事象の発生を検出する、
 付記7に記載の光ファイバセンシング機器。
   (付記9)
 前記特定部は、前記所定の事象の発生場所の位置変化に追従するように、前記移動先領域を特定する、
 付記7又は8に記載の光ファイバセンシング機器。
   (付記10)
 前記特定部は、
 前記所定の事象の発生場所に基づいて、前記無人機、カメラ、及び人の中から、前記所定の事象の発生場所を監視する監視手段を決定し、
 前記無人機を前記監視手段に決定した場合に、前記移動先領域を特定する、
 付記7から9のいずれか1項に記載の光ファイバセンシング機器。
   (付記11)
 前記特定部は、前記無人機を前記監視手段に決定した場合に、前記光信号が有する振動パターンに基づいて、前記無人機の台数を決定する、
 付記10に記載の光ファイバセンシング機器。
   (付記12)
 前記無人機は、ドローンである、
 付記7から11のいずれか1項に記載の光ファイバセンシング機器。
   (付記13)
 光ファイバセンシングシステムによる無人機配置方法であって、
 光ファイバが振動を検出する第1検出ステップと、
 前記光ファイバが検出した振動が重畳された光信号に基づいて、所定の事象の発生を検出する第2検出ステップと、
 前記光信号に基づいて、前記所定の事象の発生場所を特定すると共に、前記所定の事象の発生場所に基づいて、前記所定の事象の発生場所を監視する無人機の移動先となる移動先領域を特定する特定ステップと、
 前記移動先領域に移動するように前記無人機を制御する制御ステップと、
 を含む、無人機配置方法。
   (付記14)
 前記第2検出ステップでは、前記光信号が有する振動パターンに基づいて、前記所定の事象の発生を検出する、
 付記13に記載の無人機配置方法。
   (付記15)
 前記特定ステップでは、前記所定の事象の発生場所の位置変化に追従するように、前記移動先領域を特定する、
 付記13又は14に記載の無人機配置方法。
   (付記16)
 前記特定ステップでは、
 前記所定の事象の発生場所に基づいて、前記無人機、カメラ、及び人の中から、前記所定の事象の発生場所を監視する監視手段を決定し、
 前記無人機を前記監視手段に決定した場合に、前記移動先領域を特定する、
 付記13から15のいずれか1項に記載の無人機配置方法。
   (付記17)
 前記特定ステップでは、前記無人機を前記監視手段に決定した場合に、前記光信号が有する振動パターンに基づいて、前記無人機の台数を決定する、
 付記16に記載の無人機配置方法。
   (付記18)
 前記無人機は、ドローンである、
 付記13から17のいずれか1項に記載の無人機配置方法。
 10 光ファイバ
 20 光ファイバセンシング機器
 21 検出部
 22 特定部
 23 制御部
 24 報知部
 30 カメラ
 40 コンピュータ
 401 プロセッサ
 402 メモリ
 403 ストレージ
 404 入出力インタフェース
 4041 表示装置
 4042 入力装置
 4043 音出力装置
 405 通信インタフェース
 D ドローン
 F フェンス

Claims (15)

  1.  振動を検出する光ファイバと、
     前記光ファイバが検出した振動が重畳された光信号に基づいて、所定の事象の発生を検出する検出部と、
     前記光信号に基づいて、前記所定の事象の発生場所を特定すると共に、前記所定の事象の発生場所に基づいて、前記所定の事象の発生場所を監視する無人機の移動先となる移動先領域を特定する特定部と、
     前記移動先領域に移動するように前記無人機を制御する制御部と、
     を備える、光ファイバセンシングシステム。
  2.  前記検出部は、前記光信号が有する振動パターンに基づいて、前記所定の事象の発生を検出する、
     請求項1に記載の光ファイバセンシングシステム。
  3.  前記特定部は、前記所定の事象の発生場所の位置変化に追従するように、前記移動先領域を特定する、
     請求項1又は2に記載の光ファイバセンシングシステム。
  4.  カメラをさらに備え、
     前記特定部は、
     前記所定の事象の発生場所に基づいて、前記無人機、前記カメラ、及び人の中から、前記所定の事象の発生場所を監視する監視手段を決定し、
     前記無人機を前記監視手段に決定した場合に、前記移動先領域を特定する、
     請求項1から3のいずれか1項に記載の光ファイバセンシングシステム。
  5.  前記特定部は、前記無人機を前記監視手段に決定した場合に、前記光信号が有する振動パターンに基づいて、前記無人機の台数を決定する、
     請求項4に記載の光ファイバセンシングシステム。
  6.  光ファイバが検出した振動が重畳された光信号に基づいて、所定の事象の発生を検出する検出部と、
     前記光信号に基づいて、前記所定の事象の発生場所を特定すると共に、前記所定の事象の発生場所に基づいて、前記所定の事象の発生場所を監視する無人機の移動先となる移動先領域を特定する特定部と、
     前記移動先領域に移動するように前記無人機を制御する制御部と、
     を備える、光ファイバセンシング機器。
  7.  前記検出部は、前記光信号が有する振動パターンに基づいて、前記所定の事象の発生を検出する、
     請求項6に記載の光ファイバセンシング機器。
  8.  前記特定部は、前記所定の事象の発生場所の位置変化に追従するように、前記移動先領域を特定する、
     請求項6又は7に記載の光ファイバセンシング機器。
  9.  前記特定部は、
     前記所定の事象の発生場所に基づいて、前記無人機、カメラ、及び人の中から、前記所定の事象の発生場所を監視する監視手段を決定し、
     前記無人機を前記監視手段に決定した場合に、前記移動先領域を特定する、
     請求項6から8のいずれか1項に記載の光ファイバセンシング機器。
  10.  前記特定部は、前記無人機を前記監視手段に決定した場合に、前記光信号が有する振動パターンに基づいて、前記無人機の台数を決定する、
     請求項9に記載の光ファイバセンシング機器。
  11.  光ファイバセンシングシステムによる無人機配置方法であって、
     光ファイバが振動を検出する第1検出ステップと、
     前記光ファイバが検出した振動が重畳された光信号に基づいて、所定の事象の発生を検出する第2検出ステップと、
     前記光信号に基づいて、前記所定の事象の発生場所を特定すると共に、前記所定の事象の発生場所に基づいて、前記所定の事象の発生場所を監視する無人機の移動先となる移動先領域を特定する特定ステップと、
     前記移動先領域に移動するように前記無人機を制御する制御ステップと、
     を含む、無人機配置方法。
  12.  前記第2検出ステップでは、前記光信号が有する振動パターンに基づいて、前記所定の事象の発生を検出する、
     請求項11に記載の無人機配置方法。
  13.  前記特定ステップでは、前記所定の事象の発生場所の位置変化に追従するように、前記移動先領域を特定する、
     請求項11又は12に記載の無人機配置方法。
  14.  前記特定ステップでは、
     前記所定の事象の発生場所に基づいて、前記無人機、カメラ、及び人の中から、前記所定の事象の発生場所を監視する監視手段を決定し、
     前記無人機を前記監視手段に決定した場合に、前記移動先領域を特定する、
     請求項11から13のいずれか1項に記載の無人機配置方法。
  15.  前記特定ステップでは、前記無人機を前記監視手段に決定した場合に、前記光信号が有する振動パターンに基づいて、前記無人機の台数を決定する、
     請求項14に記載の無人機配置方法。
PCT/JP2019/030952 2019-08-06 2019-08-06 光ファイバセンシングシステム、光ファイバセンシング機器、及び無人機配置方法 WO2021024388A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
US17/631,718 US11914399B2 (en) 2019-08-06 2019-08-06 Optical fiber sensing system, optical fiber sensing equipment, and unmanned aerial vehicle allocation method
JP2021538594A JP7298693B2 (ja) 2019-08-06 2019-08-06 光ファイバセンシングシステム、光ファイバセンシング機器、及び無人機配置方法
PCT/JP2019/030952 WO2021024388A1 (ja) 2019-08-06 2019-08-06 光ファイバセンシングシステム、光ファイバセンシング機器、及び無人機配置方法
US18/495,312 US20240061446A1 (en) 2019-08-06 2023-10-26 Optical fiber sensing system, optical fiber sensing equipment, and unmanned aerial vehicle allocation method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2019/030952 WO2021024388A1 (ja) 2019-08-06 2019-08-06 光ファイバセンシングシステム、光ファイバセンシング機器、及び無人機配置方法

Related Child Applications (2)

Application Number Title Priority Date Filing Date
US17/631,718 A-371-Of-International US11914399B2 (en) 2019-08-06 2019-08-06 Optical fiber sensing system, optical fiber sensing equipment, and unmanned aerial vehicle allocation method
US18/495,312 Continuation US20240061446A1 (en) 2019-08-06 2023-10-26 Optical fiber sensing system, optical fiber sensing equipment, and unmanned aerial vehicle allocation method

Publications (1)

Publication Number Publication Date
WO2021024388A1 true WO2021024388A1 (ja) 2021-02-11

Family

ID=74502862

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2019/030952 WO2021024388A1 (ja) 2019-08-06 2019-08-06 光ファイバセンシングシステム、光ファイバセンシング機器、及び無人機配置方法

Country Status (3)

Country Link
US (2) US11914399B2 (ja)
JP (1) JP7298693B2 (ja)
WO (1) WO2021024388A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023021598A1 (ja) * 2021-08-18 2023-02-23 日本電気株式会社 情報処理装置、情報処理方法、コンピュータ可読媒体、及び点検システム
WO2023089692A1 (ja) * 2021-11-17 2023-05-25 日本電気株式会社 異常判定方法、異常判定装置、異常判定システム及び非一時的なコンピュータ可読媒体

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016171442A (ja) * 2015-03-12 2016-09-23 セコム株式会社 監視システム及び飛行ロボット
US20170092109A1 (en) * 2015-09-30 2017-03-30 Alarm.Com Incorporated Drone-augmented emergency response services
JP2018041166A (ja) * 2016-09-05 2018-03-15 綜合警備保障株式会社 通報システム
CN107862821A (zh) * 2017-12-12 2018-03-30 上海师范大学 一种周界安防系统
CN109323132A (zh) * 2017-11-16 2019-02-12 中国石油化工股份有限公司 一种基于光纤预警技术的长输管道无人机侦检系统

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001304822A (ja) * 2000-04-24 2001-10-31 Fujikura Ltd 光ファイバセンサおよび監視システム
US6816073B2 (en) * 2002-09-11 2004-11-09 Northrop Grumman Corporation Automatic detection and monitoring of perimeter physical movement
US7123785B2 (en) * 2004-10-15 2006-10-17 David Iffergan Optic fiber security fence system
JP6469962B2 (ja) 2014-04-21 2019-02-13 薫 渡部 監視システム及び監視方法
JP6865003B2 (ja) 2016-09-05 2021-04-28 ヤフー株式会社 情報処理装置、情報処理システム、情報処理プログラムおよび情報処理方法
FR3058609A1 (fr) * 2016-11-08 2018-05-11 Orange Synchronisation asynchrone avec un reseau de communication mobile
JP2018190199A (ja) 2017-05-08 2018-11-29 株式会社デンソー 監視装置及び防犯システム

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016171442A (ja) * 2015-03-12 2016-09-23 セコム株式会社 監視システム及び飛行ロボット
US20170092109A1 (en) * 2015-09-30 2017-03-30 Alarm.Com Incorporated Drone-augmented emergency response services
JP2018041166A (ja) * 2016-09-05 2018-03-15 綜合警備保障株式会社 通報システム
CN109323132A (zh) * 2017-11-16 2019-02-12 中国石油化工股份有限公司 一种基于光纤预警技术的长输管道无人机侦检系统
CN107862821A (zh) * 2017-12-12 2018-03-30 上海师范大学 一种周界安防系统

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023021598A1 (ja) * 2021-08-18 2023-02-23 日本電気株式会社 情報処理装置、情報処理方法、コンピュータ可読媒体、及び点検システム
WO2023089692A1 (ja) * 2021-11-17 2023-05-25 日本電気株式会社 異常判定方法、異常判定装置、異常判定システム及び非一時的なコンピュータ可読媒体

Also Published As

Publication number Publication date
JPWO2021024388A1 (ja) 2021-02-11
US20220317707A1 (en) 2022-10-06
JP7298693B2 (ja) 2023-06-27
US20240061446A1 (en) 2024-02-22
US11914399B2 (en) 2024-02-27

Similar Documents

Publication Publication Date Title
US20240061446A1 (en) Optical fiber sensing system, optical fiber sensing equipment, and unmanned aerial vehicle allocation method
US8471910B2 (en) Methods and apparatus for providing fault tolerance in a surveillance system
US20120002047A1 (en) Monitoring camera and method of tracing sound source
KR101745598B1 (ko) 이상행동 탐지 방범 시스템 및 그 방법
JP7491414B2 (ja) 制御装置、表示制御方法、及びプログラム
JP5715775B2 (ja) 画像監視システムおよび画像監視方法
US11076131B2 (en) Video collection system, video collection server, video collection method, and program
JP7505609B2 (ja) 光ファイバセンシングシステム及び行動特定方法
WO2019187954A1 (ja) 飛行装置、飛行システム、飛行方法及びプログラム
US20220120607A1 (en) Optical fiber sensing system, monitoring apparatus, monitoring method, and computer readable medium
CN110827500B (zh) 一种智能安防方法和系统
KR20210041337A (ko) 순찰 출동 관제 시스템과 관제 장치 및 이의 운용 방법
KR102067481B1 (ko) 항만 영상 관제 방법 및 시스템
US12003895B2 (en) System and method for auto selecting a video for display on a mobile device based on the proximity of the mobile device relative to the video source
KR20170011755A (ko) 비콘 기반 이동형 영상 감시 장치 및 방법
KR20200084963A (ko) 복수의 장소에 설치된 음성 인식 모듈 및 드론을 이용한 확장형 감시 시스템
JP7184917B2 (ja) 監視システム
WO2021005649A1 (ja) 光ファイバセンシングシステム、光ファイバセンシング機器、及び地中行動監視方法
CN113315887A (zh) 政务服务中心管理系统
KR102085051B1 (ko) 드론을 활용한 관제 시스템
WO2021059507A1 (ja) 光ファイバセンシングシステム及び監視方法
US11763648B2 (en) Monitoring system, monitoring apparatus, monitoring method, and computer readable medium
KR20190015955A (ko) 지능형 영상 관제 방법 및 그 서버
KR101714491B1 (ko) Cctv 카메라의 호출 기능을 제공하기 위한 시스템 및 그 방법
KR101714492B1 (ko) Cctv 카메라의 원격 호출 기능을 제공하기 위한 시스템 및 그 방법

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19940371

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 2021538594

Country of ref document: JP

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 19940371

Country of ref document: EP

Kind code of ref document: A1