WO2020255358A1 - 光ファイバセンシングシステム及び音源位置特定方法 - Google Patents

光ファイバセンシングシステム及び音源位置特定方法 Download PDF

Info

Publication number
WO2020255358A1
WO2020255358A1 PCT/JP2019/024599 JP2019024599W WO2020255358A1 WO 2020255358 A1 WO2020255358 A1 WO 2020255358A1 JP 2019024599 W JP2019024599 W JP 2019024599W WO 2020255358 A1 WO2020255358 A1 WO 2020255358A1
Authority
WO
WIPO (PCT)
Prior art keywords
sound
optical fiber
area
monitoring target
unit
Prior art date
Application number
PCT/JP2019/024599
Other languages
English (en)
French (fr)
Inventor
小島 崇
Original Assignee
日本電気株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日本電気株式会社 filed Critical 日本電気株式会社
Priority to US17/619,885 priority Critical patent/US20220357421A1/en
Priority to PCT/JP2019/024599 priority patent/WO2020255358A1/ja
Priority to JP2021528583A priority patent/JP7318706B2/ja
Publication of WO2020255358A1 publication Critical patent/WO2020255358A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S5/00Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations
    • G01S5/18Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations using ultrasonic, sonic, or infrasonic waves
    • G01S5/20Position of source determined by a plurality of spaced direction-finders
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S5/00Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations
    • G01S5/18Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations using ultrasonic, sonic, or infrasonic waves
    • G01S5/22Position of source determined by co-ordinating a plurality of position lines defined by path-difference measurements
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01HMEASUREMENT OF MECHANICAL VIBRATIONS OR ULTRASONIC, SONIC OR INFRASONIC WAVES
    • G01H9/00Measuring mechanical vibrations or ultrasonic, sonic or infrasonic waves by using radiation-sensitive means, e.g. optical means
    • G01H9/004Measuring mechanical vibrations or ultrasonic, sonic or infrasonic waves by using radiation-sensitive means, e.g. optical means using fibre optic sensors

Definitions

  • the present disclosure relates to an optical fiber sensing system and a sound source position identification method.
  • optical fiber sensing that uses an optical fiber as a sensor. Since the optical fiber can superimpose sound on the optical signal transmitted through the optical fiber, it is possible to detect the sound by using the optical fiber.
  • Patent Document 1 describes a device that detects an abnormal sound such as a gas leakage sound by using an optical fiber laid inside a gas pipe.
  • a plurality of photoacoustic medium units are connected via an optical fiber inside a gas pipe, and the position of the photoacoustic medium unit that detects an abnormal sound is regarded as a position where an abnormal sound is generated. There is.
  • the device described in Patent Document 1 regards the position of the photoacoustic medium portion that detects the abnormal sound as the generation position of the abnormal sound, only when there is a sound source of the abnormal sound on the optical fiber. , It is possible to specify the position of the sound source. Therefore, the device described in Patent Document 1 has a problem that the position of the sound source cannot be specified when the sound source is located at a place away from the optical fiber.
  • an object of the present disclosure is to solve the above-mentioned problems and to provide an optical fiber sensing system and a sound source position specifying method capable of specifying the position of a sound source located away from the optical fiber.
  • the optical fiber sensing system is An optical fiber that is arranged so as to face multiple directions and detects the sound generated in the monitoring area, A receiving unit that receives an optical signal on which the sound is superimposed from the optical fiber, and A specific unit that analyzes the distribution of the sound detected by the optical fiber based on the optical signal and identifies the generation position where the sound is generated based on the analyzed distribution of the sound. To be equipped.
  • the sound source position identification method is A step in which optical fibers arranged so as to face multiple directions detect sound generated in the monitoring area, and A step of receiving an optical signal on which the sound is superimposed from the optical fiber, A specific step of analyzing the distribution of the sound detected by the optical fiber based on the optical signal and identifying the generation position where the sound is generated based on the analyzed distribution of the sound. including.
  • FIG. 5 is a diagram showing an example in which a specific unit according to the first embodiment uses pattern matching to determine whether or not a sound detected by an optical fiber is a monitored sound.
  • FIG. 5 is a diagram showing an example of a method in which a specific unit according to the first embodiment specifies a position where a monitored sound is generated.
  • FIG. 5 is a diagram showing an example of a method in which a specific unit according to the first embodiment specifies a position where a monitored sound is generated. It is a flow chart which shows the operation example of the optical fiber sensing system which concerns on Embodiment 1.
  • FIG. It is a figure which shows the structural example of the specific part which concerns on Embodiment 2.
  • FIG. 1 It is a figure which shows the example of the GUI screen which the notification unit which concerns on Embodiment 4 uses for notification. It is a flow chart which shows the operation example of the optical fiber sensing system which concerns on Embodiment 4. FIG. It is a block diagram which shows an example of the hardware composition of the computer which realizes an optical fiber sensing device.
  • the optical fiber sensing system includes an optical fiber 10, a receiving unit 20, and a specific unit 30.
  • the optical fiber 10 is arranged in the monitored area.
  • the monitored area may be, for example, a nursery school, an animal breeding facility, a theme park, a prison, an airport, and the surrounding area, but is not limited thereto.
  • the optical fiber 10 may be embedded in the ground, attached to the ground, or overhead-wired by a utility pole or the like, as long as the monitored area is outdoors.
  • the optical fiber 10 may be attached to a floor, a wall, a ceiling, or the like, or may be embedded, as long as the monitored area is indoors.
  • the optical fiber 10 is arranged in the monitored area so as to face a plurality of directions.
  • the optical fibers 10 are arranged in a curved line, the optical fibers 10 inevitably face a plurality of directions.
  • the optical fiber 10 even if the optical fiber 10 is bent and arranged at one or more places, the optical fiber 10 inevitably faces a plurality of directions.
  • the present invention is not limited to the examples of FIGS. 2 and 3, and the optical fiber 10 may be oriented in a plurality of directions by a method other than those of FIGS. 2 and 3.
  • only one optical fiber 10 may be provided, or a plurality of optical fibers 10 may be provided.
  • one receiving unit 20 may be provided for each of the plurality of optical fibers 10, or a plurality of receiving units 20 corresponding to each of the plurality of optical fibers 10 may be provided. Is also good.
  • the receiving unit 20 incidents pulsed light on the optical fiber 10.
  • the receiving unit 20 receives the reflected light or scattered light generated as the pulsed light is transmitted through the optical fiber 10 as return light via the optical fiber 10.
  • the vibration of the sound causes the optical fiber 10 to shake (distort), so that the wavelength of the return light transmitted by the optical fiber 10 changes.
  • the sound generated around the optical fiber 10 is superimposed on the return light transmitted by the optical fiber 10. Therefore, the optical fiber 10 can detect the sound generated around the optical fiber 10.
  • the optical fiber 10 detects the sound and superimposes it on the return light for transmission, and the receiving unit 20 returns the sound detected by the optical fiber 10 on top of it. You will receive light.
  • the optical fiber 10 detects sound at a plurality of points on the optical fiber 10. At this time, the intensity of the sound detected at each of the plurality of points on the optical fiber 10 and the time at which the sound is detected are different from each other depending on the positional relationship between the sound source position of the sound and each of the plurality of points. become.
  • the specific unit 30 analyzes the distribution of the sound detected by the optical fiber 10 (the intensity of the detected sound and the time when the sound is detected) based on the return light received by the receiving unit 20. Based on the analyzed sound distribution, the position where the sound is generated is specified.
  • the specific unit 30 refers to a sound generated in the vicinity of the optical fiber 10 that corresponds to a monitoring target registered in advance in the specific unit 30 (hereinafter, referred to as a monitoring target sound).
  • a monitoring target sound a sound generated in the vicinity of the optical fiber 10 that corresponds to a monitoring target registered in advance in the specific unit 30
  • the case where the occurrence position of the occurrence is specified will be described as an example.
  • the present invention is not limited to this, and the specific unit 30 may specify a sound generation position other than the monitored sound.
  • the objects to be monitored are, for example, a person who fired, a person who screamed, a person who roamed a predetermined area, and the like. In these cases, the monitored sounds are gun sound, scream sound, and footstep sound, respectively.
  • the monitoring target and the monitoring target sound are not limited to these.
  • the identification unit 30 according to the first embodiment includes an extraction unit 31, a matching unit 32, and a sound generation position identification unit 33.
  • the extraction unit 31 extracts the sound component detected at the sensing point from the return light received by the reception unit 20.
  • the sound generation position is specified by using the sound detected by three or more sensing points on the optical fiber 10. Therefore, the extraction unit 31 extracts the sound components detected at each of the three or more sensing points.
  • the time difference between the time when the receiving unit 20 incidents the pulsed light on the optical fiber 10 and the time when the return light on which the sound is superimposed is received by the receiving unit 20 is the optical fiber 10 in which the sound is detected. It is determined according to the upper position (distance of the optical fiber 10 from the receiving unit 20). Therefore, for example, the extraction unit 31 holds the information of the time difference according to the position of the sensing point for each of three or more sensing points on the optical fiber 10, so that the return received by the receiving unit 20 It can be determined whether or not the light is the return light on which the sound detected at the sensing point is superimposed. Therefore, the extraction unit 31 extracts the component of the sound from the return light that is determined that the sound detected at the sensing point is superimposed.
  • the matching unit 32 determines whether or not the sound detected by the sensing point extracted by the extraction unit 31 is a monitoring target sound corresponding to a pre-registered monitoring target. For this determination, for example, pattern matching can be used.
  • the matching unit 32 converts the sound extracted by the extraction unit 31 into acoustic data as shown in FIG. 5 using a distributed acoustic sensor (Distributed Acoustic Sensor).
  • the acoustic data shown in FIG. 5 is acoustic data of the sound detected at the sensing point, and the horizontal axis represents time and the vertical axis represents sound intensity.
  • data for matching the monitored sound is prepared in advance.
  • the matching data may be held inside the specific unit 30 or may be held outside. Then, as shown in FIG.
  • the matching unit 32 compares the pattern of the acoustic data converted above with the pattern of the matching data of the monitored sound. When the matching unit 32 matches the pattern of the matching data of the monitored sound, the matching unit 32 determines that the acoustic data converted above is the acoustic data of the monitored sound.
  • FIG. 6 shows an example in which the monitored sound is a gun sound. In the example shown in FIG. 6, the acoustic data converted above has a pattern that substantially matches the acoustic data of the gun sound. Therefore, the matching unit 32 determines that the sound detected at the sensing point is the monitoring target sound (gun voice sound). When the sound detected at the sensing point is the monitored sound, the matching unit 32 passes the acoustic data of the monitored sound detected at the sensing point to the sound generation position specifying unit 33.
  • the sound generation position specifying unit 33 distributes (detects) the monitored sound detected at three or more sensing points based on the acoustic data of the monitored sound detected at three or more sensing points on the optical fiber 10. The intensity of the sound and the time when the sound is detected) are analyzed, and the position where the monitored sound is generated is specified based on the analyzed distribution of the monitored sound.
  • the optical fibers 10 are arranged in a curved line, and three sensing points S1 to S3 are provided on the optical fiber 10. This is just an example, and three or more sensing points may be provided on the optical fiber 10.
  • the sound generation position specifying unit 33 selects any two sensing points. Here, the sensing points S1 and S2 are selected. Then, the sound generation position specifying unit 33 determines the monitoring target sound detected at the two sensing points S1 and S2 from the distribution (intensity and time) of the monitoring target sound detected at the two sensing points S1 and S2. The intensity difference and time difference are derived, and the generation position of the monitored sound is estimated based on the derived intensity difference and time difference.
  • the position where the monitored sound is generated is estimated to be any position on the line P12.
  • the specific unit 30 selects two sensing points whose combination is different from the two points selected above.
  • the sensing points S2 and S3 are selected.
  • the sound generation position specifying unit 33 estimates the generation position of the monitoring target sound from the distribution (intensity and time) of the monitoring target sound detected at the two sensing points S2 and S3 in the same manner as described above.
  • the position where the monitored sound is generated is estimated to be any position on the line P23.
  • the sound generation position specifying unit 33 specifies the position where the line P12 and the line P23 intersect as the generation position of the monitored sound.
  • the optical fiber 10 is arranged in a rectangular shape around the facility to be monitored, and three sensing points S1 to S3 are provided on each of the three different sides of the rectangular shape on the optical fiber 10. Has been done. This is just an example, and three or more sensing points may be provided on the optical fiber 10.
  • the method of specifying the generation position of the monitored sound is the same as that of FIG. 7. That is, first, the sound generation position specifying unit 33 determines the monitoring target sound based on the distribution (intensity and time) of the monitoring target sound detected at any two sensing points (here, sensing points S1 and S2). Is estimated (here, it is estimated to be any position on the line P12).
  • the sound generation position specifying unit 33 determines the distribution (intensity and time) of the monitored sound detected at two sensing points (here, sensing points S2 and S3) whose combination is different from the above two points. Based on this, the position where the monitored sound is generated is estimated (here, it is estimated to be any position on the line P23). Then, the sound generation position specifying unit 33 specifies the position where the line P12 and the line P23 intersect as the generation position of the monitored sound.
  • the optical fiber 10 detects the monitored sound generated around the optical fiber 10 (step S11). This monitored sound is superposed on the return light transmitted through the optical fiber 10 and transmitted. Subsequently, the receiving unit 20 receives from the optical fiber 10 the return light on which the monitoring target sound detected by the optical fiber 10 is superimposed (step S12).
  • the specific unit 30 analyzes the distribution of the monitored sound detected by the optical fiber 10 based on the return light received by the receiving unit 20, and the monitored sound is based on the analyzed distribution of the monitored sound. Is specified (step S13).
  • the specifying unit 30 may specify the generation position of the monitored sound by using, for example, the methods of FIGS. 7 and 8 described above.
  • the receiving unit 20 receives the return light on which the sound detected by the optical fiber 10 is superimposed from the optical fiber 10.
  • the identification unit 30 analyzes the distribution of the sound detected by the optical fiber 10 based on the received return light, and identifies the generation position where the sound is generated based on the analyzed sound distribution. Thereby, even when the sound source is located at a place away from the optical fiber 10, the position of the sound source can be specified.
  • the optical fiber sensing system according to the second embodiment has the same system configuration itself as the first embodiment described above, but extends the functions of the specific unit 30.
  • the specific unit 30 according to the second embodiment is different from the configuration of FIG. 4 of the first embodiment described above in that the sound generation area identification unit 34 is added. ..
  • the sound generation area specifying unit 34 identifies the generation area where the monitored sound is generated. For example, the sound generation area specifying unit 34 specifies whether the monitoring target sound generation area is inside or outside the monitoring target area. Alternatively, when the inside of the monitoring target area is divided into a plurality of areas, the sound generation area specifying unit 34 specifies which area inside the monitoring target area the monitoring target sound generation area is.
  • the sound generation area specifying unit 34 may specify the monitoring target sound generation area based on the monitoring target sound generation position specified by the sound generation position specifying unit 33.
  • the sound generation area specifying unit 34 holds in advance a corresponding table in which the position specified by the sound generation position specifying unit 33 and the area are associated with each other, and uses the corresponding table to specify the sound generation position.
  • the monitoring target sound generation area may be specified from the monitoring target sound generation position specified by the unit 33.
  • the sound generation area specifying unit 34 can generate the monitoring target sound even if the monitoring target sound generation position specified by the sound generation position specifying unit 33 is not used. It is possible to specify which of the areas separated by the two or more optical fibers 10 the generation area is. In this case, the sound generation area specifying unit 34 determines the distribution of the monitored sound detected at each sensing point on the two or more optical fibers 10 (the intensity of the detected sound and the time when the sound is detected). Analyze and identify the area where the monitored sound is generated based on the analyzed distribution of the monitored sound.
  • two or more optical fibers 10 may be arranged substantially in parallel, and two or more optical fibers 10 may be arranged as in the case of specifying the position where the monitored sound is generated. It is not always necessary to arrange each of the optical fibers 10 so as to face a plurality of directions.
  • two optical fibers 10a and 10b are arranged in a curved line and substantially in parallel. Note that this is an example, and two or more optical fibers 10 may be arranged substantially in parallel. Further, the optical fiber 10a is arranged at the boundary between the areas A and B, and the optical fiber 10b is arranged at the boundary between the areas B and C. Further, sensing points Sa and Sb are provided on each of the two optical fibers 10a and 10b.
  • the sound generation area identification unit 34 is the difference in intensity of the monitored sound detected at the two sensing points Sa and Sb from the distribution (intensity and time) of the monitored sound detected at the two sensing points Sa and Sb. And the time difference is derived.
  • the sound generation area specifying unit 34 specifies that the monitoring target sound generation area is the area A.
  • the sound source of the monitored sound is the sound source 2 in the area BA
  • the sensing point Sa has a smaller time difference in detecting the monitored sound than the sensing point Sb, and the intensity of the detected monitored sound is also high. It is about the same. Therefore, when such detection is performed at the sensing points Sa and Sb, the sound generation area specifying unit 34 specifies that the monitoring target sound generation area is the area B.
  • two optical fibers 10a and 10b are arranged in a rectangular shape and substantially in parallel around the facility to be monitored. That is, the two optical fibers 10a and 10b are arranged at the boundary between the inside and the outside of the facility. Further, sensing points Sa and Sb are provided on each of the two optical fibers 10a and 10b. Also in the example of FIG. 12, the method of specifying the area where the monitored sound is generated is the same as that of FIG. That is, the sound generation area specifying unit 34 derives the intensity difference and the time difference of the monitored sound detected at the two sensing points Sa and Sb.
  • the sensing point Sa detects the monitored sound earlier than the sensing point Sb, and the intensity of the detected monitored sound is also increased. Therefore, when such detection is performed at the sensing points Sa and Sb, the sound generation area specifying unit 34 identifies that the monitoring target sound generation area is inside the facility (that is, inside the monitoring target area). Further, when the sound source of the monitored sound is the sound source 2 outside the facility, the sensing point Sb detects the monitored sound earlier than the sensing point Sa, and the intensity of the detected monitored sound is also increased. Therefore, when such detection is performed at the sensing points Sa and Sb, the sound generation area specifying unit 34 identifies that the monitoring target sound generation area is outside the facility (that is, outside the monitoring target area).
  • the optical fiber 10 is arranged inside the monitored area, and the optical fiber 10 divides the inside of the monitored area into a plurality of areas.
  • two optical fibers 10a and 10b are arranged substantially in parallel in the uniaxial direction, and the inside of the monitored area is divided into three areas A to C. Further, sensing points Sa and Sb are provided on each of the two optical fibers 10a and 10b.
  • four optical fibers 10a to 10d are arranged in the biaxial direction, and the inside of the monitored area is divided into nine areas A to I in a matrix.
  • the two optical fibers 10a and 10b are arranged in a certain axial direction and substantially parallel to each other, and the two optical fibers 10c and 10d are arranged in the axial direction substantially orthogonal to the two optical fibers 10a and 10b. And they are arranged substantially in parallel.
  • sensing points Sa to Sd are provided on each of the four optical fibers 10a to 10d. Further, the sensing points Sa to Sd are arranged near the center of the optical fibers 10a to 10d.
  • the method of specifying the area where the monitored sound is generated is the same as that of FIG.
  • the method of specifying the monitoring target sound generation area is the same as that of FIG. 11 except that the number of sensing points is different. That is, for example, in the example of FIG. 14, the sound generation area specifying unit 34 derives the intensity difference and the time difference of the monitored sound detected at the four sensing points Sa to Sd. For example, when the sound source of the monitored sound is in the area B, the sensing point Sa detects the monitored sound earlier than the sensing point Sb, and the intensity of the detected monitored sound is also increased.
  • the sensing point Sc has a smaller time difference in detecting the monitored sound than the sensing point Sd, and the intensity of the detected monitored sound is about the same. Therefore, when such detection is performed at the sensing points Sa to Sd, the sound generation area specifying unit 34 specifies that the monitoring target sound generation area is the area B.
  • the inside of the monitored area can be divided into a plurality of areas, and which of the plurality of areas the monitored sound is generated is. Can be identified.
  • the area can be flexibly divided according to the laying mode of the optical fiber, the setting position of the sensing point, and the like. Therefore, if there is a predetermined area such as an inaccessible area or a dangerous area in the monitored area, the optical fiber 10 is arranged according to the predetermined area to monitor the predetermined area or the area adjacent to the predetermined area. It is possible to identify that the target sound has occurred. This makes it possible to detect intrusion into a predetermined area.
  • the optical fiber 10 detects the monitored sound generated around the optical fiber 10 (step S21). This monitored sound is superposed on the return light transmitted through the optical fiber 10 and transmitted. Subsequently, the receiving unit 20 receives from the optical fiber 10 the return light on which the monitoring target sound detected by the optical fiber 10 is superimposed (step S22).
  • the specific unit 30 analyzes the distribution of the monitored sound detected by the optical fiber 10 based on the return light received by the receiving unit 20, and the monitored sound is based on the analyzed distribution of the monitored sound.
  • the area where the above occurred is specified (step S23).
  • the specifying unit 30 may specify the monitoring target sound generation area by using, for example, the methods of FIGS. 11 to 14 described above.
  • a step may be added in which the specific unit 30 specifies the generation position of the monitored sound based on the distribution of the monitored sound.
  • the specifying unit 30 may specify the monitoring target sound generation area based on the monitoring target sound generation position.
  • the receiving unit 20 receives from the optical fiber 10 the return light on which the sound detected by the optical fiber 10 is superimposed.
  • the specifying unit 30 analyzes the distribution of the sound detected by the optical fiber 10 based on the received return light, and identifies the generation area where the sound is generated based on the analyzed sound distribution.
  • the specifying unit 30 identifies the generation position where the sound is generated based on the analyzed distribution of the sound, and specifies the generation area where the sound is generated based on the specified generation position.
  • the optical fiber sensing system according to the third embodiment has the same system configuration itself as the first and second embodiments described above, but extends the functions of the specific unit 30.
  • the specific unit 30 according to the third embodiment is different in that the tracking unit 35 is added as compared with the configuration of FIG. 10 of the second embodiment described above.
  • the sound generation position specifying unit 33 repeatedly identifies the generation position of the monitored sound.
  • the sound generation position specifying unit 33 may specify the generation position of the monitored sound at an arbitrary timing, and this timing may be regular or irregular. Further, the sound generation position specifying unit 33 may repeat the identification of the generation position of the monitored sound until a certain period of time elapses, or may repeat until the identification of a certain number of times is completed.
  • the tracking unit 35 specifies the movement locus of the monitored target based on the time-series change of the generated position of the monitored sound specified by the sound generation position specifying unit 33. For example, when the monitored sound is the footsteps of a person wandering in a predetermined area, the sound generation position specifying unit 33 repeatedly identifies the generation position of the person's footsteps, and the tracking unit 35 of the person. The movement trajectory of the person is specified based on the time-series change of the position where the footstep sound is generated.
  • the sound generation position specifying unit 33 repeatedly identifies the generation position of the monitored sound in the same manner as in the example of FIG. 7 described above. Therefore, the tracking unit 35 identifies the movement locus T of the monitoring target based on the time-series change of the generation position of the monitoring target sound.
  • the sound generation position specifying unit 33 repeatedly identifies the generation position of the monitored sound in the same manner as in the above-mentioned example of FIG. Therefore, the tracking unit 35 identifies the movement locus T of the monitoring target based on the time-series change of the generation position of the monitoring target sound.
  • the movement locus T of the monitored object indicates that the monitored object has moved from the inside to the outside of the facility.
  • the sound generation position specifying unit 33 may not be able to specify the generation position of the monitored sound before a certain period of time elapses or before a certain number of times of identification is completed. For example, when the monitoring target moves away from the optical fiber 10, or when the monitoring target sound is mixed with other sounds and the optical fiber 10 cannot detect the monitoring target sound, the position where the monitoring target sound is generated is specified. become unable. In this case, the tracking unit 35 may estimate the direction and position where the monitored object will move next based on the movement locus of the monitored object that has already been specified.
  • the identification unit 30 will be described as repeating the identification of the generation position of the monitored sound until a certain period of time elapses.
  • the optical fiber 10 detects the monitored sound generated around the optical fiber 10 (step S31). This monitored sound is superposed on the return light transmitted through the optical fiber 10 and transmitted. Subsequently, the receiving unit 20 receives from the optical fiber 10 the return light on which the monitoring target sound detected by the optical fiber 10 is superimposed (step S32).
  • the specific unit 30 analyzes the distribution of the monitored sound detected by the optical fiber 10 based on the return light received by the receiving unit 20, and the monitoring target is based on the analyzed distribution of the monitored sound.
  • the position where the sound is generated is specified (step S33).
  • the specifying unit 30 may specify the generation position of the monitored sound by using, for example, the methods of FIGS. 7 and 8 described above.
  • the specifying unit 30 repeats specifying the position where the monitored sound is generated until a certain period of time elapses (step S34). That is, if a certain period of time has not passed since the monitoring target sound generation position was first specified (No in step S34), the specifying unit 30 returns to step S33 to specify the monitoring target sound generation position. Do.
  • the identification unit 30 specifies the movement locus of the monitoring target based on the time-series change of the generation position of the monitoring target sound specified above (step S35).
  • the specifying unit 30 may specify the movement locus of the monitoring target by using, for example, the methods of FIGS. 17 and 18 described above.
  • the specific unit 30 specifies the movement locus of the monitoring target after a certain period of time has elapsed, but the present invention is not limited to this.
  • the identification unit 30 can specify the movement locus of the monitoring target if the generation positions of the monitoring target sounds are known at two or more locations. Therefore, the specific unit 30 may specify the movement locus of the monitoring target before a certain period of time elapses.
  • a step may be added in which the specific unit 30 specifies the area where the monitored sound is generated.
  • the specifying unit 30 may specify the monitoring target sound generation area based on the distribution of the monitoring target sound, or specify the monitoring target sound generation area based on the monitoring target sound generation position. You may.
  • the specifying unit 30 repeatedly identifies the position where the monitored sound is generated, and determines the movement locus of the monitored target based on the time-series change in the position where the monitored sound is generated. Identify. This makes it possible to track the monitoring target.
  • the sound generation position specifying unit 33 repeatedly identifies the monitoring target sound generation position, and the tracking unit 35 monitors based on the time-series change of the monitoring target sound generation position.
  • the movement trajectory of the target was specified, but it is not limited to this.
  • the sound generation area specifying unit 34 repeatedly identifies the monitoring target sound generation area, and the tracking unit 35 specifies the movement trajectory of the monitoring target based on the time-series change of the monitoring target sound generation area. Is also good.
  • the sound generation area specifying unit 34 repeatedly identifies the monitoring target sound generation area in the same manner as in the above-mentioned example of FIG. Therefore, the tracking unit 35 identifies the movement locus T of the monitoring target based on the time-series change of the monitoring target sound generation area.
  • the movement locus T of the monitoring target indicates that the monitoring target has moved from the area B to the area C.
  • the sound generation area specifying unit 34 repeatedly identifies the monitoring target sound generation area in the same manner as in the above-mentioned example of FIG. Therefore, the tracking unit 35 identifies the movement locus T of the monitoring target based on the time-series change of the monitoring target sound generation area.
  • the movement locus T of the monitoring target indicates that the monitoring target has moved from the area B to the area F via the area C.
  • the optical fiber sensing system according to the fourth embodiment is different in that the notification unit 40 is added as compared with the configuration of FIG. 1 of the above-described first to third embodiments. ..
  • the notification unit 40 determines whether or not a predetermined event has occurred based on the generation position or area of the monitored sound specified by the specific unit 30, and the movement locus of the monitored target, and when the predetermined event occurs. Is notified to.
  • the notification destination may be, for example, a monitoring system or a monitoring room that monitors the monitored area.
  • the notification method may be, for example, a method of displaying a GUI (Graphical User Interface) screen on the display or monitor of the notification destination, or a method of outputting a message by voice from the speaker of the notification destination.
  • the specific unit 30 according to the fourth embodiment may have any of the configurations shown in FIGS. 4, 10 and 16 of the above-described first to third embodiments.
  • the notification unit 40 may notify the generation position or area of the monitoring target sound specified by the specific unit 30 when a dangerous sound such as a gunshot sound or a screaming sound is detected as the monitoring target sound. ..
  • FIG. 23 shows an example in which the notification at this time is performed on the GUI screen.
  • FIG. 23 shows an example of a GUI screen when the monitored sound is a gun sound.
  • the notification unit 40 may perform notification when the monitoring target sound generation position or generation area specified by the specific unit 30 is a predetermined area such as an inaccessible area or a dangerous area.
  • FIG. 24 shows an example in which the notification at this time is performed on the GUI screen.
  • FIG. 24 shows an example of a GUI screen when a predetermined area is an area I which is an inaccessible area.
  • the notification unit 40 may perform notification when the monitoring target sound generation position or generation area specified by the specific unit 30 is an adjacent area adjacent to a predetermined area such as an inaccessible area or a dangerous area. ..
  • FIG. 25 shows an example in which the notification at this time is performed on the GUI screen.
  • FIG. 25 shows an example of a GUI screen when a predetermined area is an area I which is an inaccessible area.
  • the notification unit 40 may perform notification when the generation position or generation area of the monitoring target sound specified by the specific unit 30 is outside the monitoring target area.
  • FIG. 26 shows an example in which the notification at this time is performed on the GUI screen.
  • FIG. 26 shows an example of a GUI screen when the monitored area is inside the facility.
  • the movement locus T of the monitoring target is specified by the same method as in the example of FIG. 18 described above.
  • the movement locus T of the monitoring target indicates that the monitoring target is heading outside the facility, which is the monitoring target area, and the monitoring target may go out of the facility.
  • the movement locus T of the monitoring target indicates that the monitoring target moves from the area B to the area C and the monitoring target moves out of the monitoring target area. Therefore, there is a risk that the monitored object will go out of the monitored area.
  • the notification unit 40 may perform notification when the movement locus T of the monitoring target is heading out of the monitoring target area, as in the examples shown in FIGS. 20 and 27.
  • FIG. 28 shows an example in which the notification at this time is performed on the GUI screen.
  • FIG. 28 shows an example of a GUI screen when the monitored area is inside the facility.
  • the movement locus T of the monitoring target is specified by the same method as in the example of FIG. 18 described above.
  • the movement locus T of the monitored target indicates that the monitored target is approaching the inaccessible area, and the monitored target may invade the inaccessible area.
  • the movement locus T of the monitoring target moves from the area B to the area F via the area C, and approaches the area I where the monitoring target is an inaccessible area. Since it indicates that the monitoring target is invading the area I.
  • the notification unit 40 may perform notification when the movement locus T of the monitoring target is close to a predetermined area such as an inaccessible area or a dangerous area. good.
  • FIG. 30 shows an example in which the notification at this time is performed on the GUI screen.
  • FIG. 30 shows an example of a GUI screen when a predetermined area is an inaccessible area inside the facility.
  • the predetermined event that triggers the notification unit 40 to notify is, for example, as follows.
  • -The monitoring target sound is detected-The monitoring target sound generation position or generation area is a predetermined area
  • the monitoring target sound generation position or generation area is an adjacent area adjacent to the predetermined area
  • -The position or area where the monitored sound is generated is outside the monitored area.
  • -The movement trajectory of the monitored target is toward the outside of the monitored area.
  • the movement trajectory of the monitored target approaches the specified area. What you are doing
  • the identification unit 30 will be described as repeating the identification of the generation position of the monitored sound until a certain period of time elapses.
  • steps S41 to S45 similar to steps S31 to S35 shown in FIG. 19 are performed.
  • the notification unit 40 determines whether or not a predetermined event has occurred based on the generation position of the monitored sound specified by the specific unit 30 and the movement locus of the monitored target, and when the predetermined event occurs. Notify (step S46).
  • the notification unit 40 may perform notification using, for example, the GUI screens of FIGS. 23 to 26, 28, and 30 described above.
  • the specific unit 30 specifies the movement locus of the monitoring target after a certain period of time has elapsed, but the movement locus of the monitoring target may be specified before the certain period of time elapses. Further, in FIG. 31, a step may be added in which the specific unit 30 specifies the area where the monitored sound is generated. In this case, the notification unit 40 may determine whether or not a predetermined event has occurred based on the monitoring target sound generation area specified by the specific unit 30.
  • the notification unit 40 states that a predetermined event has occurred based on the position or area where the monitoring target sound specified by the specific unit 30 is generated and the movement trajectory of the monitoring target. Notify when it is judged.
  • the predetermined event is, for example, the detection of a dangerous sound as a monitoring target sound.
  • a predetermined event such as the detection of a sound indicating danger occurs, it is possible to notify the fact.
  • the optical fiber sensing system according to the above embodiment can be applied in order to detect a sound indicating danger such as a gunshot sound or a screaming sound. Further, in this application example, when a sound indicating danger is detected, the position or area where the sound is generated may be notified.
  • the optical fiber sensing system in order to detect the escape of the kindergarten child and the invasion of a suspicious person into the nursery school, the optical fiber sensing system according to the above-described embodiment can be applied. Further, in this application example, when the escape of a kindergarten child or the invasion of a suspicious person is detected, a notification to that effect may be given.
  • the optical fiber sensing system according to the above-described embodiment is applied in order to detect the escape of the animal and the invasion of the animal into a predetermined area such as an inaccessible area. be able to. Further, in this application example, when an escape of an animal or an invasion into a predetermined area is detected, a notification to that effect may be given.
  • the optical fiber in order to detect the intrusion of a person into a predetermined area such as an inaccessible area or to detect unauthorized entry from a place other than the regular entrance, the optical fiber according to the above-described embodiment.
  • a sensing system can be applied. Further, in this application example, when intrusion into a predetermined area or unauthorized entry is detected, a notification to that effect may be given.
  • the optical fiber sensing system according to the above-described embodiment can be applied in order to detect the escape of the inmate and the suspicious behavior of the inmate. Further, in this application example, when the inmate's escape or suspicious behavior is detected, the fact may be notified.
  • the optical fiber sensing system according to the above-described embodiment can be applied. Further, in this application example, when a suspicious behavior is detected, a notification to that effect may be given.
  • the reception unit 20, the specific unit 30, and the notification unit 40 described above can be mounted on an optical fiber sensing device. Further, the optical fiber sensing device on which the receiving unit 20, the specifying unit 30, and the transmitting unit 40 are mounted can be realized as a computer.
  • the hardware configuration of the computer 50 that realizes the above-mentioned optical fiber sensing device will be described with reference to FIG. 32.
  • the computer 50 includes a processor 501, a memory 502, a storage 503, an input / output interface (input / output I / F) 504, a communication interface (communication I / F) 505, and the like.
  • the processor 501, the memory 502, the storage 503, the input / output interface 504, and the communication interface 505 are connected by a data transmission line for transmitting and receiving data to and from each other.
  • the processor 501 is, for example, an arithmetic processing unit such as a CPU (Central Processing Unit) or a GPU (Graphics Processing Unit).
  • the memory 502 is, for example, a memory such as a RAM (Random Access Memory) or a ROM (Read Only Memory).
  • the storage 503 is, for example, a storage device such as an HDD (Hard Disk Drive), an SSD (Solid State Drive), or a memory card. Further, the storage 503 may be a memory such as a RAM or a ROM.
  • the storage 503 stores a program that realizes the functions of the components (reception unit 20, specific unit 30, and notification unit 40) included in the optical fiber sensing device. By executing each of these programs, the processor 501 realizes the functions of the components included in the optical fiber sensing device. Here, when executing each of the above programs, the processor 501 may read these programs on the memory 502 and then execute the programs, or may execute the programs without reading them on the memory 502. The memory 502 and the storage 503 also play a role of storing information and data held by the components included in the optical fiber sensing device.
  • Non-temporary computer-readable media include various types of tangible storage media.
  • Examples of non-temporary computer-readable media include magnetic recording media (eg, flexible disks, magnetic tapes, hard disk drives), opto-magnetic recording media (eg, opto-magnetic disks), CD-ROMs (Compact Disc-ROMs), CDs. -R (CD-Recordable), CD-R / W (CD-ReWritable), semiconductor memory (for example, mask ROM, PROM (Programmable ROM), EPROM (Erasable PROM), flash ROM, RAM.
  • the program also includes.
  • the computer-readable medium can supply the program to the computer via a wired communication path such as an electric wire and an optical fiber, or a wireless communication path.
  • the input / output interface 504 is connected to the display device 5041, the input device 5042, the sound output device 5043, and the like.
  • the display device 5041 is a device that displays a screen corresponding to drawing data processed by the processor 501, such as an LCD (Liquid Crystal Display), a CRT (Cathode Ray Tube) display, and a monitor.
  • the input device 5042 is a device that receives an operator's operation input, and is, for example, a keyboard, a mouse, a touch sensor, and the like.
  • the display device 5041 and the input device 5042 may be integrated and realized as a touch panel.
  • the sound output device 5043 is a device such as a speaker that acoustically outputs sound corresponding to acoustic data processed by the processor 501.
  • the communication interface 505 sends and receives data to and from an external device.
  • the communication interface 505 communicates with an external device via a wired communication path or a wireless communication path.
  • Appendix 1 An optical fiber that is arranged so that it faces multiple directions and detects the sound generated in the monitoring area, A receiving unit that receives an optical signal on which the sound is superimposed from the optical fiber, and A specific unit that analyzes the distribution of the sound detected by the optical fiber based on the optical signal and identifies the generation position where the sound is generated based on the analyzed distribution of the sound.
  • An optical fiber sensing system (Appendix 2) The specific unit identifies the position where the sound corresponding to the pre-registered monitoring target is generated. The optical fiber sensing system according to Appendix 1.
  • the specific unit repeatedly identifies the sound generation position corresponding to the monitoring target, and specifies the movement locus of the monitoring target based on the time-series change of the generation position.
  • the optical fiber sensing system according to Appendix 2. (Appendix 4) Based on the analyzed distribution of the sound, the specific unit identifies the area where the sound corresponding to the monitoring target is generated.
  • the optical fiber sensing system according to Appendix 2 or 3. (Appendix 5) Based on the generation position, the specific unit identifies the generation area where the sound corresponding to the monitoring target is generated.
  • the specific unit repeatedly identifies the sound generation area corresponding to the monitoring target, and specifies the movement locus of the monitoring target based on the time-series change of the generation area.
  • a notification unit that notifies when the generation position is in a predetermined area is further provided.
  • a notification unit that notifies when the generation position is outside the monitoring area is further provided.
  • the optical fiber sensing system according to Appendix 2 or 3. (Appendix 9) A notification unit that notifies when the generation area is a predetermined area is further provided.
  • Appendix 14 A step in which optical fibers arranged so as to face multiple directions detect sound generated in the monitoring area, and A step of receiving an optical signal on which the sound is superimposed from the optical fiber, A specific step of analyzing the distribution of the sound detected by the optical fiber based on the optical signal and identifying the generation position where the sound is generated based on the analyzed distribution of the sound. Sound source position identification method including. (Appendix 15) In the specific step, the position where the sound corresponding to the pre-registered monitoring target is generated is specified. The method for specifying a sound source position according to Appendix 14.
  • the sound generation area corresponding to the monitoring target is repeatedly specified, and the movement locus of the monitoring target is specified based on the time-series change of the generation area.
  • the method for identifying a sound source position according to Appendix 17 or 18. (Appendix 20) Further including a notification step for notifying when the generation position is a predetermined area. The method for identifying a sound source position according to Appendix 15 or 16. (Appendix 21) Further including a notification step for notifying when the generation position is outside the monitoring area. The method for identifying a sound source position according to Appendix 15 or 16. (Appendix 22) Further including a notification step for notifying when the generation area is a predetermined area.
  • the method for specifying a sound source position according to any one of the items 17 to 19. (Appendix 23) A notification step for notifying when the generation area is outside the monitoring area is further included. The method for specifying a sound source position according to any one of the items 17 to 19. (Appendix 24) Further including a notification step for notifying when the movement locus is heading for a predetermined area. The method for identifying a sound source position according to Appendix 16 or 19. (Appendix 25) The optical fiber is arranged around the monitoring area. The method for specifying a sound source position according to any one of Appendix 14 to 24. (Appendix 26) The optical fiber is arranged in the monitoring area. The method for specifying a sound source position according to any one of Appendix 14 to 24.

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Alarm Systems (AREA)
  • Burglar Alarm Systems (AREA)

Abstract

本開示に係る光ファイバセンシングシステムは、複数の方向を向くように配置され、監視エリアに発生した音を検知する光ファイバ(10)と、光ファイバ(10)から、音が重畳された光信号を受信する受信部(20)と、光信号に基づいて、光ファイバ(10)で検知された音の分布を分析し、分析した音の分布に基づいて、音が発生した発生位置を特定する特定部(30)と、を備える。

Description

光ファイバセンシングシステム及び音源位置特定方法
 本開示は、光ファイバセンシングシステム及び音源位置特定方法に関する。
 近年、光ファイバをセンサとして使用する光ファイバセンシングと呼ばれる技術がある。光ファイバは、光ファイバを伝送される光信号に音を重畳させることができるため、光ファイバを使用することにより、音を検知することが可能である。
 また、光ファイバを使用して、音の発生位置を特定する技術も提案されている。
 例えば、特許文献1には、ガス配管内部に這わせた光ファイバを使用して、ガスの漏洩音等の異常音の検知を行う装置が記載されている。特許文献1に記載された装置は、ガス配管内部において、光ファイバを介して複数の光音響媒質部を接続し、異常音を検知した光音響媒質部の位置を異常音の発生位置とみなしている。
特開2013-253831号公報
 上述のように、特許文献1に記載された装置は、異常音を検知した光音響媒質部の位置を異常音の発生位置とみなすことから、光ファイバ上に異常音の音源がある場合にのみ、その音源の位置を特定することが可能である。
 そのため、特許文献1に記載された装置は、音源が光ファイバから離れた場所にある場合、その音源の位置を特定することができないという課題がある。
 そこで本開示の目的は、上述した課題を解決し、光ファイバから離れた場所にある音源の位置を特定することができる光ファイバセンシングシステム及び音源位置特定方法を提供することにある。
 一態様による光ファイバセンシングシステムは、
 複数の方向を向くように配置され、監視エリアに発生した音を検知する光ファイバと、
 前記光ファイバから、前記音が重畳された光信号を受信する受信部と、
 前記光信号に基づいて、前記光ファイバで検知された前記音の分布を分析し、分析した前記音の分布に基づいて、前記音が発生した発生位置を特定する特定部と、
 を備える。
 一態様による音源位置特定方法は、
 複数の方向を向くように配置された光ファイバが、監視エリアに発生した音を検知するステップと、
 前記光ファイバから、前記音が重畳された光信号を受信するステップと、
 前記光信号に基づいて、前記光ファイバで検知された前記音の分布を分析し、分析した前記音の分布に基づいて、前記音が発生した発生位置を特定する特定ステップと、
 を含む。
 上述の態様によれば、光ファイバから離れた場所にある音源の位置を特定できる光ファイバセンシングシステム及び音源位置特定方法を提供できるという効果が得られる。
実施の形態1に係る光ファイバセンシングシステムの構成例を示す図である。 実施の形態1に係る光ファイバの配置例を示す図である。 実施の形態1に係る光ファイバの配置例を示す図である。 実施の形態1に係る特定部の構成例を示す図である。 実施の形態1に係る光ファイバで検知された音の音響データの例を示す図である。 実施の形態1に係る特定部が、パターンマッチングを利用して、光ファイバで検知された音が監視対象音であるか否かを判断する例を示す図である。 実施の形態1に係る特定部が、監視対象音の発生位置を特定する方法の例を示す図である。 実施の形態1に係る特定部が、監視対象音の発生位置を特定する方法の例を示す図である。 実施の形態1に係る光ファイバセンシングシステムの動作例を示すフロー図である。 実施の形態2に係る特定部の構成例を示す図である。 実施の形態2に係る特定部が、監視対象音の発生エリアを特定する方法の例を示す図である。 実施の形態2に係る特定部が、監視対象音の発生エリアを特定する方法の例を示す図である。 実施の形態2に係る特定部が、監視対象音の発生エリアを特定する方法の例を示す図である。 実施の形態2に係る特定部が、監視対象音の発生エリアを特定する方法の例を示す図である。 実施の形態2に係る光ファイバセンシングシステムの動作例を示すフロー図である。 実施の形態3に係る特定部の構成例を示す図である。 実施の形態3に係る特定部が、監視対象の移動軌跡を特定する方法の例を示す図である。 実施の形態3に係る特定部が、監視対象の移動軌跡を特定する方法の例を示す図である。 実施の形態3に係る光ファイバセンシングシステムの動作例を示すフロー図である。 実施の形態3に係る特定部が、監視対象の移動軌跡を特定する方法の例を示す図である。 実施の形態3に係る特定部が、監視対象の移動軌跡を特定する方法の例を示す図である。 実施の形態4に係る光ファイバセンシングシステムの構成例を示す図である。 実施の形態4に係る報知部が報知に用いるGUI画面の例を示す図である。 実施の形態4に係る報知部が報知に用いるGUI画面の例を示す図である。 実施の形態4に係る報知部が報知に用いるGUI画面の例を示す図である。 実施の形態4に係る報知部が報知に用いるGUI画面の例を示す図である。 実施の形態4に係る特定部が特定した移動軌跡の例を示す図である。 実施の形態4に係る報知部が報知に用いるGUI画面の例を示す図である。 実施の形態4に係る特定部が特定した移動軌跡の例を示す図である。 実施の形態4に係る報知部が報知に用いるGUI画面の例を示す図である。 実施の形態4に係る光ファイバセンシングシステムの動作例を示すフロー図である。 光ファイバセンシング機器を実現するコンピュータのハードウェア構成の例を示すブロック図である。
 以下、図面を参照して本開示の実施の形態について説明する。なお、以下の記載及び図面は、説明の明確化のため、適宜、省略及び簡略化がなされている。また、以下の各図面において、同一の要素には同一の符号が付されており、必要に応じて重複説明は省略されている。
<実施の形態1>
 まず、図1を参照して、本実施の形態1に係る光ファイバセンシングシステムの構成例について説明する。
 図1に示されるように、本実施の形態1に係る光ファイバセンシングシステムは、光ファイバ10、受信部20、及び特定部30を備えている。
 光ファイバ10は、監視対象エリアに配置される。監視対象エリアは、例えば、保育園、動物飼育施設、テーマパーク、刑務所、空港、及びこれらの周辺等が考えられるが、これには限定されない。また、光ファイバ10は、監視対象エリアが屋外であれば、地中に埋め込まれても良いし、地面に貼り付けられても良いし、電柱等により架空配線されても良い。また、光ファイバ10は、監視対象エリアが屋内であれば、フロア、壁、天井等に貼り付けられても、埋め込まれても良い。
 また、光ファイバ10は、監視対象エリアに、複数の方向を向くように配置される。例えば、図2に示されるように、光ファイバ10を曲線状に配置すれば、光ファイバ10は必然的に複数の方向を向くことになる。また、図3に示されるように、光ファイバ10を1箇所以上で折り曲げて配置しても、光ファイバ10は必然的に複数の方向を向くことになる。ただし、図2及び図3の例には限定されず、光ファイバ10は、図2及び図3以外の方法で、複数の方向に向けられても良い。
 また、光ファイバ10は、1本だけ設けても良いし、複数本設けても良い。複数本の光ファイバ10を設ける場合、複数本の光ファイバ10に対して、1つの受信部20を設けても良いし、複数本の光ファイバ10にそれぞれ対応する複数の受信部20を設けても良い。
 受信部20は、光ファイバ10にパルス光を入射する。また、受信部20は、パルス光が光ファイバ10を伝送されることに伴い発生した反射光や散乱光を、光ファイバ10を経由して、戻り光として受信する。
 光ファイバ10の周辺で音が発生すると、その音の振動によって光ファイバ10が揺れる(ゆがむ)ため、光ファイバ10により伝送される戻り光の波長が変化する。言い換えれば、光ファイバ10の周辺で発生した音は、光ファイバ10により伝送される戻り光に重畳される。そのため、光ファイバ10は、光ファイバ10の周辺で発生した音を検知可能である。
 したがって、光ファイバ10の周辺で音が発生すると、光ファイバ10は、その音を検知して戻り光に重畳して伝送し、受信部20は、光ファイバ10が検知した音が重畳された戻り光を受信することになる。
 ただし、光ファイバ10の周辺で音が発生すると、光ファイバ10上の1点ではなく、複数点で戻り光の波長が変化する。そのため、光ファイバ10は、光ファイバ10上の複数点で音を検知することになる。このとき、光ファイバ10上の複数点の各々で検知された音の強度、その音が検知された時刻は、その音の音源位置と複数点の各々との位置関係に応じて、互いに異なることになる。
 そこで、特定部30は、受信部20で受信された戻り光に基づいて、光ファイバ10で検知された音の分布(検知された音の強度及びその音が検知された時刻)を分析し、分析した音の分布に基づいて、その音の発生位置を特定する。
 以下、特定部30について詳細に説明する。
 なお、以下の説明では、一例として、特定部30は、光ファイバ10の周辺で発生した音のうち、特定部30に予め登録された監視対象に対応する音(以下、監視対象音と称す)が発生した発生位置を特定する場合を例に挙げて説明する。ただし、これには限定されず、特定部30は、監視対象音以外の音の発生位置を特定しても良い。監視対象は、例えば、発砲した人、悲鳴をあげた人、所定のエリアを徘徊する人等である。これらの場合、監視対象音は、それぞれ、銃声音、悲鳴音、足音になる。ただし、監視対象及び監視対象音は、これらには限定されない。
 まず、図4を参照して、本実施の形態1に係る特定部30の構成例について説明する。
 図4に示されるように、本実施の形態1に係る特定部30は、抽出部31、マッチング部32、及び音発生位置特定部33を備えている。
 抽出部31は、受信部20で受信された戻り光から、センシングポイントで検知された音の成分を抽出する。本実施の形態1においては、光ファイバ10上の3点以上のセンシングポイントで検知された音を用いて、その音の発生位置を特定する。そのため、抽出部31は、3点以上のセンシングポイントの各々で検知された音の成分を抽出する。
 ここで、受信部20が光ファイバ10にパルス光を入射した時刻と、音が重畳された戻り光が受信部20で受信された時刻と、の時間差は、その音が検知された光ファイバ10上の位置(受信部20からの光ファイバ10の距離)に応じて決まる。そのため、例えば、抽出部31は、光ファイバ10上の3点以上のセンシングポイント毎に、そのセンシングポイントの位置に応じた時間差の情報を保持しておくことにより、受信部20で受信された戻り光が、そのセンシングポイントで検知された音が重畳されている戻り光であるか否かを判断できる。そのため、抽出部31は、センシングポイントで検知された音が重畳されていると判断した戻り光から、その音の成分を抽出する。
 マッチング部32は、抽出部31が抽出した、センシングポイントで検知された音が、予め登録された監視対象に対応する監視対象音であるか否かを判断する。この判断には、例えば、パターンマッチングを利用することができる。例えば、マッチング部32は、抽出部31が抽出した音を、分散型音響センサ(Distributed Acoustic Sensor)を用いて、図5に示されるような音響データに変換する。図5に示される音響データは、センシングポイントで検知された音の音響データであり、横軸が時間、縦軸が音強度を示している。また、監視対象音のマッチング用データを予め用意しておく。なお、このマッチング用データは、特定部30の内部で保持していても良いし、外部で保持していても良い。そして、マッチング部32は、図6に示されるように、上記で変換した音響データが有するパターンを、監視対象音のマッチング用データが有するパターンと比較する。マッチング部32は、監視対象音のマッチング用データが有するパターンに適合する場合、上記で変換した音響データは、監視対象音の音響データであると判断する。図6は、監視対象音が銃声音である場合の例である。図6に示される例では、上記で変換した音響データは、銃声音の音響データとパターンが略一致している。そのため、マッチング部32は、センシングポイントで検知された音は、監視対象音(銃声音)であると判定する。マッチング部32は、センシングポイントで検知された音が監視対象音である場合、センシングポイントで検知された監視対象音の音響データを音発生位置特定部33に渡す。
 音発生位置特定部33は、光ファイバ10上の3点以上のセンシングポイントで検知された監視対象音の音響データに基づいて、3点以上のセンシングポイントで検知された監視対象音の分布(検知された音の強度及びその音が検知された時刻)を分析し、分析した監視対象音の分布に基づいて、監視対象音が発生した発生位置を特定する。
 ここで、図7及び図8を参照して、音発生位置特定部33において、監視対象音の発生位置を特定する方法の概要について説明する。
 図7の例では、光ファイバ10が曲線状に配置され、光ファイバ10上に3点のセンシングポイントS1~S3が設けられている。なお、これは一例であって、光ファイバ10上には3点以上のセンシングポイントを設ければ良い。まず、音発生位置特定部33は、任意の2点のセンシングポイントを選択する。ここでは、センシングポイントS1,S2を選択する。そして、音発生位置特定部33は、2点のセンシングポイントS1,S2で検知された監視対象音の分布(強度及び時刻)から、2点のセンシングポイントS1,S2で検知された監視対象音の強度差及び時間差を導出し、導出した強度差及び時間差に基づいて、監視対象音の発生位置を推定する。ここでは、監視対象音の発生位置を、線P12上のいずれかの位置と推定する。続いて、特定部30は、上記で選択された2点とは組み合わせが異なる2点のセンシングポイントを選択する。ここでは、センシングポイントS2,S3を選択する。そして、音発生位置特定部33は、上記と同様に、2点のセンシングポイントS2,S3で検知された監視対象音の分布(強度及び時刻)から、監視対象音の発生位置を推定する。ここでは、監視対象音の発生位置を、線P23上のいずれかの位置と推定する。そして、音発生位置特定部33は、線P12と線P23とが交差する位置を、監視対象音の発生位置と特定する。
 図8の例では、光ファイバ10が、監視対象エリアとなる施設の周囲に矩形状に配置され、光ファイバ10上の矩形の互いに異なる3辺の各々に3点のセンシングポイントS1~S3が設けられている。なお、これは一例であって、光ファイバ10上には3点以上のセンシングポイントを設ければ良い。図8の例でも、監視対象音の発生位置の特定方法は、図7と同様である。すなわち、まず、音発生位置特定部33は、任意の2点のセンシングポイント(ここでは、センシングポイントS1,S2)で検知された監視対象音の分布(強度及び時刻)に基づいて、監視対象音の発生位置を推定する(ここでは、線P12上のいずれかの位置と推定)。続いて、音発生位置特定部33は、上記の2点とは組み合わせが異なる2点のセンシングポイント(ここでは、センシングポイントS2,S3)で検知された監視対象音の分布(強度及び時刻)に基づいて、監視対象音の発生位置を推定する(ここでは、線P23上のいずれかの位置と推定)。そして、音発生位置特定部33は、線P12と線P23とが交差する位置を、監視対象音の発生位置と特定する。
 続いて、図9を参照して、本実施の形態1に係る光ファイバセンシングシステムの動作例について説明する。
 図9に示されるように、光ファイバ10は、光ファイバ10の周辺で発生した監視対象音を検知する(ステップS11)。この監視対象音は、光ファイバ10を伝送される戻り光に重畳されて伝送される。
 続いて、受信部20は、光ファイバ10から、光ファイバ10で検知された監視対象音が重畳された戻り光を受信する(ステップS12)。
 その後、特定部30は、受信部20で受信された戻り光に基づいて、光ファイバ10で検知された監視対象音の分布を分析し、分析した監視対象音の分布に基づいて、監視対象音が発生した発生位置を特定する(ステップS13)。このとき、特定部30は、例えば、上述した図7及び図8の方法を用いて、監視対象音の発生位置を特定すれば良い。
 上述したように本実施の形態1によれば、受信部20は、光ファイバ10から、光ファイバ10が検知された音が重畳された戻り光を受信する。特定部30は、受信された戻り光に基づいて、光ファイバ10で検知された音の分布を分析し、分析した音の分布に基づいて、その音が発生した発生位置を特定する。これにより、音源が光ファイバ10から離れた場所にある場合でも、その音源の位置を特定することができる。
<実施の形態2>
 本実施の形態2に係る光ファイバセンシングシステムは、システム構成自体は上述した実施の形態1と同様であるが、特定部30の機能を拡張している。
 そこで以下では、図10を参照して、本実施の形態2に係る特定部30の構成例について説明する。
 図10に示されるように、本実施の形態2に係る特定部30は、上述した実施の形態1の図4の構成と比較して、音発生エリア特定部34が追加されている点が異なる。
 音発生エリア特定部34は、監視対象音が発生した発生エリアを特定する。例えば、音発生エリア特定部34は、監視対象音の発生エリアが、監視対象エリアの内側か外側かを特定する。又は、監視対象エリアの内部を複数のエリアに区分した場合において、音発生エリア特定部34は、監視対象音の発生エリアが、監視対象エリアの内部のどのエリアであるかを特定する。
 このとき、音発生エリア特定部34は、音発生位置特定部33が特定した監視対象音の発生位置に基づいて、監視対象音の発生エリアを特定しても良い。この場合、例えば、音発生エリア特定部34は、音発生位置特定部33が特定する位置とエリアとを対応付けた対応テーブルを予め保持しておき、その対応テーブルを用いて、音発生位置特定部33が特定した監視対象音の発生位置から、監視対象音の発生エリアを特定すれば良い。
 ただし、2本以上の光ファイバ10を略平行に配置すれば、音発生エリア特定部34は、音発生位置特定部33が特定した監視対象音の発生位置を用いなくても、監視対象音の発生エリアが、2本以上の光ファイバ10で区切られたエリアのうちのどのエリアであるかを特定することが可能となる。この場合、音発生エリア特定部34は、2本以上の光ファイバ10上の各々のセンシングポイントで検知された監視対象音の分布(検知された音の強度及びその音が検知された時刻)を分析し、分析した監視対象音の分布に基づいて、監視対象音の発生エリアを特定する。なお、このように監視対象音の発生エリアを特定する場合、2本以上の光ファイバ10を略平行に配置すれば良く、監視対象音の発生位置を特定する場合のように、2本以上の光ファイバ10の各々を複数の方向に向くように必ずしも配置しなくても良い。
 ここで、図11~図14を参照して、音発生エリア特定部34において、監視対象音の分布に基づいて、監視対象音の発生エリアを特定する方法の概要について説明する。
 図11の例では、2本の光ファイバ10a,10bが曲線状にかつ略平行に配置されている。なお、これは一例であって、2本以上の光ファイバ10を略平行に配置すれば良い。また、光ファイバ10aは、エリアA,Bの境界に配置され、光ファイバ10bは、エリアB,Cの境界に配置されている。また、2本の光ファイバ10a,10b上の各々にセンシングポイントSa,Sbが設けられている。音発生エリア特定部34は、2点のセンシングポイントSa,Sbで検知された監視対象音の分布(強度及び時刻)から、2点のセンシングポイントSa,Sbで検知された監視対象音の強度差及び時間差を導出する。例えば、監視対象音の音源がエリアA内の音源1である場合、センシングポイントSaは、センシングポイントSbよりも早く監視対象音を検知し、検知される監視対象音の強度も大きくなる。そのため、センシングポイントSa,Sbでこのような検知をした場合、音発生エリア特定部34は、監視対象音の発生エリアがエリアAであると特定する。また、監視対象音の音源がエリアBA内の音源2である場合、センシングポイントSaは、センシングポイントSbと比較して、監視対象音を検知した時間差が小さく、検知される監視対象音の強度も同程度である。そのため、センシングポイントSa,Sbでこのような検知をした場合、音発生エリア特定部34は、監視対象音の発生エリアがエリアBであると特定する。
 図12の例では、2本の光ファイバ10a,10bが、監視対象エリアとなる施設の周囲に矩形状にかつ略平行に配置されている。すなわち、2本の光ファイバ10a,10bは、施設の内側と外側との境界に配置されている。また、2本の光ファイバ10a,10b上の各々にセンシングポイントSa,Sbが設けられている。図12の例でも、監視対象音の発生エリアの特定方法は、図11と同様である。すなわち、音発生エリア特定部34は、2点のセンシングポイントSa,Sbで検知された監視対象音の強度差及び時間差を導出する。例えば、監視対象音の音源が施設の内側の音源1である場合、センシングポイントSaは、センシングポイントSbよりも早く監視対象音を検知し、検知される監視対象音の強度も大きくなる。そのため、センシングポイントSa,Sbでこのような検知をした場合、音発生エリア特定部34は、監視対象音の発生エリアが施設の内側(すなわち、監視対象エリアの内側)であると特定する。また、監視対象音の音源が施設の外側の音源2である場合、センシングポイントSbは、センシングポイントSaよりも早く監視対象音を検知し、検知される監視対象音の強度も大きくなる。そのため、センシングポイントSa,Sbでこのような検知をした場合、音発生エリア特定部34は、監視対象音の発生エリアが施設の外側(すなわち、監視対象エリアの外側)であると特定する。
 図13及び図14の例では、監視対象エリアの内部に光ファイバ10が配置され、光ファイバ10が監視対象エリアの内部を複数のエリアに区分している。
 図13の例では、2本の光ファイバ10a,10bが、1軸方向に略平行に配置され、監視対象エリアの内部を3つのエリアA~Cに区分している。また、2本の光ファイバ10a,10b上の各々にセンシングポイントSa,Sbが設けられている。
 図14の例では、4本の光ファイバ10a~10dが、2軸方向に配置され、監視対象エリアの内部をマトリクス状に9つのエリアA~Iに区分している。詳細には、2本の光ファイバ10a,10bが、ある軸方向にかつ略平行に配置され、2本の光ファイバ10c,10dが、2本の光ファイバ10a,10bと略直交する軸方向にかつ略平行に配置されている。また、4本の光ファイバ10a~10d上の各々にセンシングポイントSa~Sdが設けられている。また、センシングポイントSa~Sdは、光ファイバ10a~10dの中央付近に配置されている。
 図13の例でも、監視対象音の発生エリアの特定方法は、図11と同様である。また、図14の例でも、監視対象音の発生エリアの特定方法は、センシングポイントの数が異なること以外は、図11と同様である。すなわち、例えば、図14の例では、音発生エリア特定部34は、4点のセンシングポイントSa~Sdで検知された監視対象音の強度差及び時間差を導出する。例えば、監視対象音の音源がエリアBにある場合、センシングポイントSaは、センシングポイントSbよりも早く監視対象音を検知し、検知される監視対象音の強度も大きくなる。また、センシングポイントScは、センシングポイントSdと比較して、監視対象音を検知した時間差が小さく、検知される監視対象音の強度も同程度となる。そのため、センシングポイントSa~Sdでこのような検知をした場合、音発生エリア特定部34は、監視対象音の発生エリアがエリアBであると特定する。
 このように監視対象エリアの内部に光ファイバ10を配置することで、監視対象エリアの内部を複数のエリアに区分でき、監視対象音の発生エリアが、複数のエリアのうちのどのエリアであるかを特定できる。また、光ファイバの敷設態様や、センシングポイント設定位置などによって、柔軟にエリアの区分を行うことができる。そのため、監視対象エリア内に侵入不可エリアや危険エリア等の所定のエリアがある場合、所定のエリアに合わせて光ファイバ10を配置することで、所定のエリアや所定のエリアに隣接するエリアに監視対象音が発生したことを特定できる。これにより、所定のエリアへの侵入等を検知できるようになる。
 続いて、図15を参照して、本実施の形態2に係る光ファイバセンシングシステムの動作例について説明する。
 図15に示されるように、光ファイバ10は、光ファイバ10の周辺で発生した監視対象音を検知する(ステップS21)。この監視対象音は、光ファイバ10を伝送される戻り光に重畳されて伝送される。
 続いて、受信部20は、光ファイバ10から、光ファイバ10で検知された監視対象音が重畳された戻り光を受信する(ステップS22)。
 その後、特定部30は、受信部20で受信された戻り光に基づいて、光ファイバ10で検知された監視対象音の分布を分析し、分析した監視対象音の分布に基づいて、監視対象音が発生した発生エリアを特定する(ステップS23)。このとき、特定部30は、例えば、上述した図11~図14の方法を用いて、監視対象音の発生エリアを特定すれば良い。
 なお、図15には、特定部30が、監視対象音の分布に基づいて、監視対象音の発生位置を特定するステップを追加しても良い。この場合、ステップS23では、特定部30は、監視対象音の発生位置に基づいて、監視対象音の発生エリアを特定しても良い。
 上述したように本実施の形態2によれば、受信部20は、光ファイバ10から、光ファイバ10で検知された音が重畳された戻り光を受信する。特定部30は、受信された戻り光に基づいて、光ファイバ10で検知された音の分布を分析し、分析した音の分布に基づいて、その音が発生した発生エリアを特定する。又は、特定部30は、分析した音の分布に基づいて、その音が発生した発生位置を特定し、特定した発生位置に基づいて、その音が発生した発生エリアを特定する。これにより、音源が光ファイバ10から離れた場所にある場合でも、その音源があるエリアを特定することができる。
<実施の形態3>
 本実施の形態3に係る光ファイバセンシングシステムは、システム構成自体は上述した実施の形態1,2と同様であるが、特定部30の機能を拡張している。
 そこで以下では、図16を参照して、本実施の形態3に係る特定部30の構成例について説明する。
 図16に示されるように、本実施の形態3に係る特定部30は、上述した実施の形態2の図10の構成と比較して、追跡部35が追加されている点が異なる。
 音発生位置特定部33は、監視対象音の発生位置の特定を繰り返し行う。音発生位置特定部33は、監視対象音の発生位置の特定を任意のタイミングで行えば良く、このタイミングは定期的でも不定期でも良い。また、音発生位置特定部33は、監視対象音の発生位置の特定を、一定期間が経過するまで繰り返しても良いし、一定回数の特定が終了するまで繰り返しても良い。
 追跡部35は、音発生位置特定部33が特定した監視対象音の発生位置の時系列変化に基づいて、監視対象の移動軌跡を特定する。例えば、監視対象音が、所定のエリア内を徘徊する人の足音である場合、音発生位置特定部33は、その人の足音の発生位置の特定を繰り返し行い、追跡部35は、その人の足音の発生位置の時系列変化に基づいて、その人の移動軌跡を特定する。
 例えば、図17に示される例では、音発生位置特定部33は、上述した図7の例と同様の方法で、監視対象音の発生位置の特定を繰り返し行っている。そのため、追跡部35は、監視対象音の発生位置の時系列変化に基づいて、監視対象の移動軌跡Tを特定する。
 また、図18に示される例では、音発生位置特定部33は、上述した図8の例と同様の方法で、監視対象音の発生位置の特定を繰り返し行っている。そのため、追跡部35は、監視対象音の発生位置の時系列変化に基づいて、監視対象の移動軌跡Tを特定する。図18に示される例では、監視対象の移動軌跡Tは、監視対象が施設の内側から外側に移動したことを示している。
 また、音発生位置特定部33は、一定期間が経過する前や、一定回数の特定が終了する前に、監視対象音の発生位置を特定できなくなる可能性がある。例えば、監視対象が光ファイバ10から遠ざかった場合や、監視対象音が他の音と混ざって、光ファイバ10が監視対象音を検知できなくなった場合等には、監視対象音の発生位置を特定できなくなる。この場合、追跡部35は、既に特定した監視対象の移動軌跡に基づいて、監視対象が次に移動する方向及び位置を推定しても良い。
 続いて、図19を参照して、本実施の形態3に係る光ファイバセンシングシステムの動作例について説明する。ここでは、特定部30は、一定期間が経過するまで、監視対象音の発生位置の特定を繰り返すものとして説明する。
 図19に示されるように、光ファイバ10は、光ファイバ10の周辺で発生した監視対象音を検知する(ステップS31)。この監視対象音は、光ファイバ10を伝送される戻り光に重畳されて伝送される。
 続いて、受信部20は、光ファイバ10から、光ファイバ10で検知された監視対象音が重畳された戻り光を受信する(ステップS32)。
 続いて、特定部30は、受信部20で受信された戻り光に基づいて、光ファイバ10で検知された監視対象音の分布を分析し、分析した監視対象音の分布に基づいて、監視対象音が発生した発生位置を特定する(ステップS33)。このとき、特定部30は、例えば、上述した図7及び図8の方法を用いて、監視対象音の発生位置を特定すれば良い。
 ここで、特定部30は、一定期間が経過するまで、監視対象音の発生位置の特定を繰り返す(ステップS34)。すなわち、特定部30は、監視対象音の発生位置を最初に特定してから一定期間が経過していなければ(ステップS34のNo)、ステップS33に戻って、監視対象音の発生位置の特定を行う。
 その後、特定部30は、上記で特定した監視対象音の発生位置の時系列変化に基づいて、監視対象の移動軌跡を特定する(ステップS35)。このとき、特定部30は、例えば、上述した図17及び図18の方法を用いて、監視対象の移動軌跡を特定すれば良い。
 なお、図19では、特定部30は、一定期間が経過した後に、監視対象の移動軌跡を特定しているが、これには限定されない。特定部30は、監視対象音の発生位置が2箇所以上わかれば、監視対象の移動軌跡を特定できる。そのため、特定部30は、一定期間が経過する前に、監視対象の移動軌跡を特定しても良い。
 また、図19には、特定部30が、監視対象音の発生エリアを特定するステップを追加しても良い。この場合、特定部30は、監視対象音の分布に基づいて、監視対象音の発生エリアを特定しても良いし、監視対象音の発生位置に基づいて、監視対象音の発生エリアを特定しても良い。
 上述したように本実施の形態3によれば、特定部30は、監視対象音の発生位置の特定を繰り返し行い、監視対象音の発生位置の時系列変化に基づいて、監視対象の移動軌跡を特定する。これにより、監視対象を追跡することができる。
 なお、本実施の形態3においては、音発生位置特定部33が、監視対象音の発生位置の特定を繰り返し行い、追跡部35が、監視対象音の発生位置の時系列変化に基づいて、監視対象の移動軌跡を特定していたが、これには限定されない。
 例えば、音発生エリア特定部34が、監視対象音の発生エリアの特定を繰り返し行い、追跡部35が、監視対象音の発生エリアの時系列変化に基づいて、監視対象の移動軌跡を特定しても良い。
 例えば、図20に示される例では、音発生エリア特定部34は、上述した図13の例と同様の方法で、監視対象音の発生エリアの特定を繰り返し行っている。そのため、追跡部35は、監視対象音の発生エリアの時系列変化に基づいて、監視対象の移動軌跡Tを特定する。図20に示される例では、監視対象の移動軌跡Tは、監視対象がエリアBからエリアCに移動したことを示している。
 また、図21に示される例では、音発生エリア特定部34は、上述した図14の例と同様の方法で、監視対象音の発生エリアの特定を繰り返し行っている。そのため、追跡部35は、監視対象音の発生エリアの時系列変化に基づいて、監視対象の移動軌跡Tを特定する。図21に示される例では、監視対象の移動軌跡Tは、監視対象がエリアBからエリアCを経由してエリアFに移動したことを示している。
<実施の形態4>
 まず、図22を参照して、本実施の形態4に係る光ファイバセンシングシステムの構成例について説明する。
 図22に示されるように、本実施の形態4に係る光ファイバセンシングシステムは、上述した実施の形態1~3の図1の構成と比較して、報知部40が追加されている点が異なる。
 報知部40は、特定部30が特定した監視対象音の発生位置又は発生エリア、監視対象の移動軌跡に基づいて、所定のイベントが発生したか否かを判断し、所定のイベントが発生した場合に報知を行う。報知先は、例えば、監視対象エリアを監視する監視システムや監視室等としても良い。また、報知方法は、例えば、報知先のディスプレイやモニターにGUI(Graphical User Interface)画面を表示する方法でも良いし、報知先のスピーカからメッセージを音声出力する方法でも良い。
 なお、本実施の形態4に係る特定部30は、上述した実施の形態1~3の図4、図10、及び図16のいずれの構成であっても良い。
 以下、報知部40による具体的な報知例を説明する。
 例えば、報知部40は、監視対象音として銃声音や悲鳴音等の危険を示す音が検知された場合に、特定部30が特定した監視対象音の発生位置又は発生エリアを報知しても良い。このときの報知をGUI画面で行う場合の例を図23に示す。図23は、監視対象音が銃声音である場合のGUI画面の例を示している。
 また、報知部40は、特定部30が特定した監視対象音の発生位置又は発生エリアが、侵入不可エリアや危険エリア等の所定のエリアである場合に報知を行っても良い。このときの報知をGUI画面で行う場合の例を図24に示す。図24は、所定のエリアが、侵入不可エリアとなるエリアIである場合のGUI画面の例を示している。
 また、報知部40は、特定部30が特定した監視対象音の発生位置又は発生エリアが、侵入不可エリアや危険エリア等の所定のエリアに隣接する隣接エリアである場合に報知を行っても良い。このときの報知をGUI画面で行う場合の例を図25に示す。図25は、所定のエリアが、侵入不可エリアとなるエリアIである場合のGUI画面の例を示している。
 また、報知部40は、特定部30が特定した監視対象音の発生位置又は発生エリアが、監視対象エリアの外である場合に報知を行っても良い。このときの報知をGUI画面で行う場合の例を図26に示す。図26は、監視対象エリアが施設の内部である場合のGUI画面の例を示している。
 また、図27に示される例では、上述した図18の例と同様の方法で、監視対象の移動軌跡Tを特定している。監視対象の移動軌跡Tは、監視対象が監視対象エリアである施設の外に向かっていることを示しており、監視対象が施設の外に出てしまうおそれがある。また、上述した図20に示される例でも、監視対象の移動軌跡Tは、監視対象がエリアBからエリアCに移動し、監視対象が監視対象エリアの外に向かっていることを示していることから、監視対象が監視対象エリアの外に出てしまうおそれがある。
 そのため、報知部40は、図20及び図27に示される例のように、監視対象の移動軌跡Tが監視対象エリアの外に向かっている場合に報知を行っても良い。このときの報知をGUI画面で行う場合の例を図28に示す。図28は、監視対象エリアが施設の内部である場合のGUI画面の例を示している。
 また、図29に示される例では、上述した図18の例と同様の方法で、監視対象の移動軌跡Tを特定している。監視対象の移動軌跡Tは、監視対象が侵入不可エリアに接近していることを示しており、監視対象が侵入不可エリアに侵入してしまうおそれがある。また、上述した図21に示される例でも、監視対象の移動軌跡Tは、監視対象がエリアBからエリアCを経由してエリアFに移動し、監視対象が侵入不可エリアとなるエリアIに接近していることを示していることから、監視対象がエリアIに侵入してしまうおそれがある。
 そのため、報知部40は、図21及び図29に示される例のように、監視対象の移動軌跡Tが侵入不可エリアや危険エリア等の所定のエリアに接近している場合に報知を行っても良い。このときの報知をGUI画面で行う場合の例を図30に示す。図30は、所定のエリアが、施設の内部の侵入不可エリアである場合のGUI画面の例を示している。
 以上の通り、報知部40が報知を行うトリガとなる所定のイベントは、例えば、以下の通りである。
・監視対象音が検知されたこと
・監視対象音の発生位置又は発生エリアが、所定のエリアであること
・監視対象音の発生位置又は発生エリアが、所定のエリアに隣接する隣接エリアであること
・監視対象音の発生位置又は発生エリアが、監視対象エリアの外であること
・監視対象の移動軌跡が監視対象エリアの外に向かっていること
・監視対象の移動軌跡が所定のエリアに接近していること
 続いて、図31を参照して、本実施の形態4に係る光ファイバセンシングシステムの動作例について説明する。ここでは、特定部30は、一定期間が経過するまで、監視対象音の発生位置の特定を繰り返すものとして説明する。
 図31に示されるように、まず、図19に示されるステップS31~S35と同様のステップS41~S45が行われる。
 その後、報知部40は、特定部30が特定した監視対象音の発生位置、監視対象の移動軌跡に基づいて、所定のイベントが発生したか否かを判断し、所定のイベントが発生した場合に報知を行う(ステップS46)。このとき、報知部40は、例えば、上述した図23~図26、図28及び図30のGUI画面を用いて、報知を行えば良い。
 なお、図31では、特定部30は、一定期間が経過した後に、監視対象の移動軌跡を特定しているが、一定期間が経過する前に、監視対象の移動軌跡を特定しても良い。
 また、図31には、特定部30が、監視対象音の発生エリアを特定するステップを追加しても良い。この場合、報知部40は、特定部30が特定した監視対象音の発生エリアに基づいて、所定のイベントが発生したか否かを判断しても良い。
 上述したように本実施の形態4によれば、報知部40は、特定部30が特定した監視対象音の発生位置又は発生エリア、監視対象の移動軌跡に基づいて、所定のイベントが発生したと判断した場合に報知を行う。所定のイベントは、上述したように、例えば、監視対象音として危険を示す音が検知されたこと等である。これにより、危険を示す音を検知した等の所定のイベントが発生した場合、その旨を報知することができる。
<実施の形態の適用例>
 以下、上述の実施の形態に係る光ファイバセンシングシステムの具体的な適用例について説明する。
 例えば、ショッピングモールやテーマパークにおいて、銃声音や悲鳴音等の危険を示す音を検知するために、上述の実施の形態に係る光ファイバセンシングシステムを適用することができる。また、この適用例において、危険を示す音が検知された場合には、その音の発生位置や発生エリアを報知しても良い。
 また、保育園において、園児の脱走を検知したり、保育園への不審者の侵入を検知したりするために、上述の実施の形態に係る光ファイバセンシングシステムを適用することができる。また、この適用例において、園児の脱走や不審者の侵入が検知された場合には、その旨を報知しても良い。
 また、動物飼育施設において、動物の脱走を検知したり、侵入不可エリア等の所定のエリアへの動物の侵入を検知したりするために、上述の実施の形態に係る光ファイバセンシングシステムを適用することができる。また、この適用例において、動物の脱走や所定のエリアへの侵入が検知された場合には、その旨を報知しても良い。
 また、テーマパークにおいて、侵入不可エリア等の所定のエリアへの人の侵入を検知したり、正規の入場口以外からの不正入場を検知したりするために、上述の実施の形態に係る光ファイバセンシングシステムを適用することができる。また、この適用例において、所定のエリアへの侵入や不正入場が検知された場合には、その旨を報知しても良い。
 また、刑務所において、収容者の脱走を検知したり、収容者の不審行動を検知したりするために、上述の実施の形態に係る光ファイバセンシングシステムを適用することができる。また、この適用例において、収容者の脱走や不審行動が検知された場合には、その旨を報知しても良い。
 また、空港において、不審行動を検知するために、上述の実施の形態に係る光ファイバセンシングシステムを適用することができる。また、この適用例において、不審行動が検知された場合には、その旨を報知しても良い。
<光ファイバセンシング機器のハードウェア構成>
 上述した受信部20、特定部30、及び報知部40は、光ファイバセンシング機器に実装することができる。また、受信部20、特定部30、及び報知部40が実装された光ファイバセンシング機器は、コンピュータとして実現することができる。
 以下では、図32を参照して、上述した光ファイバセンシング機器を実現するコンピュータ50のハードウェア構成について説明する。
 図32に示されるように、コンピュータ50は、プロセッサ501、メモリ502、ストレージ503、入出力インタフェース(入出力I/F)504、及び通信インタフェース(通信I/F)505等を備える。プロセッサ501、メモリ502、ストレージ503、入出力インタフェース504、及び通信インタフェース505は、相互にデータを送受信するためのデータ伝送路で接続されている。
 プロセッサ501は、例えばCPU(Central Processing Unit)やGPU(Graphics Processing Unit)等の演算処理装置である。メモリ502は、例えばRAM(Random Access Memory)やROM(Read Only Memory)等のメモリである。ストレージ503は、例えばHDD(Hard Disk Drive)、SSD(Solid State Drive)、またはメモリカード等の記憶装置である。また、ストレージ503は、RAMやROM等のメモリであっても良い。
 ストレージ503は、光ファイバセンシング機器が備える構成要素(受信部20、特定部30、及び報知部40)の機能を実現するプログラムを記憶している。プロセッサ501は、これら各プログラムを実行することで、光ファイバセンシング機器が備える構成要素の機能をそれぞれ実現する。ここで、プロセッサ501は、上記各プログラムを実行する際、これらのプログラムをメモリ502上に読み出してから実行しても良いし、メモリ502上に読み出さずに実行しても良い。また、メモリ502やストレージ503は、光ファイバセンシング機器が備える構成要素が保持する情報やデータを記憶する役割も果たす。
 また、上述したプログラムは、様々なタイプの非一時的なコンピュータ可読媒体(non-transitory computer readable medium)を用いて格納され、コンピュータ(コンピュータ50を含む)に供給することができる。非一時的なコンピュータ可読媒体は、様々なタイプの実体のある記録媒体(tangible storage medium)を含む。非一時的なコンピュータ可読媒体の例は、磁気記録媒体(例えば、フレキシブルディスク、磁気テープ、ハードディスクドライブ)、光磁気記録媒体(例えば、光磁気ディスク)、CD-ROM(Compact Disc-ROM)、CD-R(CD-Recordable)、CD-R/W(CD-ReWritable)、半導体メモリ(例えば、マスクROM、PROM(Programmable ROM)、EPROM(Erasable PROM)、フラッシュROM、RAMを含む。また、プログラムは、様々なタイプの一時的なコンピュータ可読媒体(transitory computer readable medium)によってコンピュータに供給されても良い。一時的なコンピュータ可読媒体の例は、電気信号、光信号、及び電磁波を含む。一時的なコンピュータ可読媒体は、電線及び光ファイバ等の有線通信路、又は無線通信路を介して、プログラムをコンピュータに供給できる。
 入出力インタフェース504は、表示装置5041、入力装置5042、音出力装置5043等と接続される。表示装置5041は、LCD(Liquid Crystal Display)、CRT(Cathode Ray Tube)ディスプレイ、モニターのような、プロセッサ501により処理された描画データに対応する画面を表示する装置である。入力装置5042は、オペレータの操作入力を受け付ける装置であり、例えば、キーボード、マウス、及びタッチセンサ等である。表示装置5041及び入力装置5042は一体化され、タッチパネルとして実現されていても良い。音出力装置5043は、スピーカのような、プロセッサ501により処理された音響データに対応する音を音響出力する装置である。
 通信インタフェース505は、外部の装置との間でデータを送受信する。例えば、通信インタフェース505は、有線通信路または無線通信路を介して外部装置と通信する。
 以上、実施の形態を参照して本開示を説明したが、本開示は上述の実施の形態に限定されるものではない。本開示の構成や詳細には、本開示のスコープ内で当業者が理解し得る様々な変更をすることができる。
 また、上述の実施の形態の一部又は全部は、以下の付記のようにも記載されうるが、以下には限られない。
   (付記1)
 複数の方向を向くように配置され、監視エリアに発生した音を検知する光ファイバと、
 前記光ファイバから、前記音が重畳された光信号を受信する受信部と、
 前記光信号に基づいて、前記光ファイバで検知された前記音の分布を分析し、分析した前記音の分布に基づいて、前記音が発生した発生位置を特定する特定部と、
 を備える、光ファイバセンシングシステム。
   (付記2)
 前記特定部は、予め登録された監視対象に対応する音が発生した発生位置を特定する、
 付記1に記載の光ファイバセンシングシステム。
   (付記3)
 前記特定部は、前記監視対象に対応する音の発生位置の特定を繰り返し行い、前記発生位置の時系列変化に基づいて前記監視対象の移動軌跡を特定する、
 付記2に記載の光ファイバセンシングシステム。
   (付記4)
 前記特定部は、分析した前記音の分布に基づいて、前記監視対象に対応する音が発生した発生エリアを特定する、
 付記2又は3に記載の光ファイバセンシングシステム。
   (付記5)
 前記特定部は、前記発生位置に基づいて、前記監視対象に対応する音が発生した発生エリアを特定する、
 付記2又は3に記載の光ファイバセンシングシステム。
   (付記6)
 前記特定部は、前記監視対象に対応する音の発生エリアの特定を繰り返し行い、前記発生エリアの時系列変化に基づいて前記監視対象の移動軌跡を特定する、
 付記4又は5に記載の光ファイバセンシングシステム。
   (付記7)
 前記発生位置が、所定のエリアである場合に報知を行う報知部をさらに備える、
 付記2又は3に記載の光ファイバセンシングシステム。
   (付記8)
 前記発生位置が、前記監視エリアの外である場合に報知を行う報知部をさらに備える、
 付記2又は3に記載の光ファイバセンシングシステム。
   (付記9)
 前記発生エリアが、所定のエリアである場合に報知を行う報知部をさらに備える、
 付記4から6のいずれか1項に記載の光ファイバセンシングシステム。
   (付記10)
 前記発生エリアが、前記監視エリアの外である場合に報知を行う報知部をさらに備える、
 付記4から6のいずれか1項に記載の光ファイバセンシングシステム。
   (付記11)
 前記移動軌跡が所定のエリアに向かっている場合に報知を行う報知部をさらに備える、
 付記3又は6に記載の光ファイバセンシングシステム。
   (付記12)
 前記光ファイバは、前記監視エリアの周囲に配置されている、
 付記1から11のいずれか1項に記載の光ファイバセンシングシステム。
   (付記13)
 前記光ファイバは、前記監視エリア内に配置されている、
 付記1から11のいずれか1項に記載の光ファイバセンシングシステム。
   (付記14)
 複数の方向を向くように配置された光ファイバが、監視エリアに発生した音を検知するステップと、
 前記光ファイバから、前記音が重畳された光信号を受信するステップと、
 前記光信号に基づいて、前記光ファイバで検知された前記音の分布を分析し、分析した前記音の分布に基づいて、前記音が発生した発生位置を特定する特定ステップと、
 を含む、音源位置特定方法。
   (付記15)
 前記特定ステップでは、予め登録された監視対象に対応する音が発生した発生位置を特定する、
 付記14に記載の音源位置特定方法。
   (付記16)
 前記特定ステップでは、前記監視対象に対応する音の発生位置の特定を繰り返し行い、前記発生位置の時系列変化に基づいて前記監視対象の移動軌跡を特定する、
 付記15に記載の音源位置特定方法。
   (付記17)
 前記特定ステップでは、分析した前記音の分布に基づいて、前記監視対象に対応する音が発生した発生エリアを特定する、
 付記15又は16に記載の音源位置特定方法。
   (付記18)
 前記特定ステップでは、前記発生位置に基づいて、前記監視対象に対応する音が発生した発生エリアを特定する、
 付記15又は16に記載の音源位置特定方法。
   (付記19)
 前記特定ステップでは、前記監視対象に対応する音の発生エリアの特定を繰り返し行い、前記発生エリアの時系列変化に基づいて前記監視対象の移動軌跡を特定する、
 付記17又は18に記載の音源位置特定方法。
   (付記20)
 前記発生位置が、所定のエリアである場合に報知を行う報知ステップをさらに含む、
 付記15又は16に記載の音源位置特定方法。
   (付記21)
 前記発生位置が、前記監視エリアの外である場合に報知を行う報知ステップをさらに含む、
 付記15又は16に記載の音源位置特定方法。
   (付記22)
 前記発生エリアが、所定のエリアである場合に報知を行う報知ステップをさらに含む、
 付記17から19のいずれか1項に記載の音源位置特定方法。
   (付記23)
 前記発生エリアが、前記監視エリアの外である場合に報知を行う報知ステップをさらに含む、
 付記17から19のいずれか1項に記載の音源位置特定方法。
   (付記24)
 前記移動軌跡が所定のエリアに向かっている場合に報知を行う報知ステップをさらに含む、
 付記16又は19に記載の音源位置特定方法。
   (付記25)
 前記光ファイバは、前記監視エリアの周囲に配置されている、
 付記14から24のいずれか1項に記載の音源位置特定方法。
   (付記26)
 前記光ファイバは、前記監視エリア内に配置されている、
 付記14から24のいずれか1項に記載の音源位置特定方法。
 10 光ファイバ
 20 受信部
 30 特定部
 31 抽出部
 32 マッチング部
 33 音発生位置特定部
 34 音発生エリア特定部
 35 追跡部
 40 報知部
 50 コンピュータ
 501 プロセッサ
 502 メモリ
 503 ストレージ
 504 入出力インタフェース
 5041 表示装置
 5042 入力装置
 5043 音出力装置
 505 通信インタフェース

Claims (17)

  1.  複数の方向を向くように配置され、監視エリアに発生した音を検知する光ファイバと、
     前記光ファイバから、前記音が重畳された光信号を受信する受信部と、
     前記光信号に基づいて、前記光ファイバで検知された前記音の分布を分析し、分析した前記音の分布に基づいて、前記音が発生した発生位置を特定する特定部と、
     を備える、光ファイバセンシングシステム。
  2.  前記特定部は、予め登録された監視対象に対応する音が発生した発生位置を特定する、
     請求項1に記載の光ファイバセンシングシステム。
  3.  前記特定部は、前記監視対象に対応する音の発生位置の特定を繰り返し行い、前記発生位置の時系列変化に基づいて前記監視対象の移動軌跡を特定する、
     請求項2に記載の光ファイバセンシングシステム。
  4.  前記特定部は、分析した前記音の分布に基づいて、前記監視対象に対応する音が発生した発生エリアを特定する、
     請求項2又は3に記載の光ファイバセンシングシステム。
  5.  前記特定部は、前記発生位置に基づいて、前記監視対象に対応する音が発生した発生エリアを特定する、
     請求項2又は3に記載の光ファイバセンシングシステム。
  6.  前記特定部は、前記監視対象に対応する音の発生エリアの特定を繰り返し行い、前記発生エリアの時系列変化に基づいて前記監視対象の移動軌跡を特定する、
     請求項4又は5に記載の光ファイバセンシングシステム。
  7.  前記発生位置が、所定のエリアである場合に報知を行う報知部をさらに備える、
     請求項2又は3に記載の光ファイバセンシングシステム。
  8.  前記発生位置が、前記監視エリアの外である場合に報知を行う報知部をさらに備える、
     請求項2又は3に記載の光ファイバセンシングシステム。
  9.  前記発生エリアが、所定のエリアである場合に報知を行う報知部をさらに備える、
     請求項4から6のいずれか1項に記載の光ファイバセンシングシステム。
  10.  前記発生エリアが、前記監視エリアの外である場合に報知を行う報知部をさらに備える、
     請求項4から6のいずれか1項に記載の光ファイバセンシングシステム。
  11.  前記移動軌跡が所定のエリアに向かっている場合に報知を行う報知部をさらに備える、
     請求項3又は6に記載の光ファイバセンシングシステム。
  12.  前記光ファイバは、前記監視エリアの周囲に配置されている、
     請求項1から11のいずれか1項に記載の光ファイバセンシングシステム。
  13.  前記光ファイバは、前記監視エリア内に配置されている、
     請求項1から11のいずれか1項に記載の光ファイバセンシングシステム。
  14.  複数の方向を向くように配置された光ファイバが、監視エリアに発生した音を検知するステップと、
     前記光ファイバから、前記音が重畳された光信号を受信するステップと、
     前記光信号に基づいて、前記光ファイバで検知された前記音の分布を分析し、分析した前記音の分布に基づいて、前記音が発生した発生位置を特定する特定ステップと、
     を含む、音源位置特定方法。
  15.  前記特定ステップでは、予め登録された監視対象に対応する音が発生した発生位置を特定する、
     請求項14に記載の音源位置特定方法。
  16.  前記特定ステップでは、前記監視対象に対応する音の発生位置の特定を繰り返し行い、前記発生位置の時系列変化に基づいて前記監視対象の移動軌跡を特定する、
     請求項15に記載の音源位置特定方法。
  17.  前記特定ステップでは、分析した前記音の分布に基づいて、前記監視対象に対応する音が発生した発生エリアを特定する、
     請求項15又は16に記載の音源位置特定方法。
PCT/JP2019/024599 2019-06-20 2019-06-20 光ファイバセンシングシステム及び音源位置特定方法 WO2020255358A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
US17/619,885 US20220357421A1 (en) 2019-06-20 2019-06-20 Optical fiber sensing system and sound source position identification method
PCT/JP2019/024599 WO2020255358A1 (ja) 2019-06-20 2019-06-20 光ファイバセンシングシステム及び音源位置特定方法
JP2021528583A JP7318706B2 (ja) 2019-06-20 2019-06-20 光ファイバセンシングシステム及び音源位置特定方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2019/024599 WO2020255358A1 (ja) 2019-06-20 2019-06-20 光ファイバセンシングシステム及び音源位置特定方法

Publications (1)

Publication Number Publication Date
WO2020255358A1 true WO2020255358A1 (ja) 2020-12-24

Family

ID=74040290

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2019/024599 WO2020255358A1 (ja) 2019-06-20 2019-06-20 光ファイバセンシングシステム及び音源位置特定方法

Country Status (3)

Country Link
US (1) US20220357421A1 (ja)
JP (1) JP7318706B2 (ja)
WO (1) WO2020255358A1 (ja)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113702908A (zh) * 2021-09-01 2021-11-26 哈尔滨工程大学 一种基于pdh解调技术的高精度三维声源定位方案
WO2022185469A1 (ja) * 2021-03-04 2022-09-09 日本電気株式会社 工事検出装置、工事検出システム及び工事検出方法
WO2022208594A1 (ja) * 2021-03-29 2022-10-06 日本電気株式会社 空間センシング装置、空間センシングシステム及び空間センシング方法
WO2023073762A1 (ja) * 2021-10-25 2023-05-04 日本電気株式会社 監視システム、監視方法
WO2023089692A1 (ja) * 2021-11-17 2023-05-25 日本電気株式会社 異常判定方法、異常判定装置、異常判定システム及び非一時的なコンピュータ可読媒体
WO2023157113A1 (ja) * 2022-02-16 2023-08-24 日本電気株式会社 処理装置、分布型音響センシングシステム、分布型音響センシング方法及びプログラムが格納された非一時的なコンピュータ可読媒体

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114207389A (zh) * 2019-08-13 2022-03-18 日本电气株式会社 光纤传感系统、光纤传感设备和救援请求检测方法

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3903221B2 (ja) * 2005-06-24 2007-04-11 オプテックス株式会社 防犯センサ
JP3920742B2 (ja) * 2002-08-28 2007-05-30 トヨタ自動車株式会社 異常音の音源探査方法及び音源探査装置
US20120226452A1 (en) * 2009-11-13 2012-09-06 Optasense Holdings Limited Improvements in Distributed Fibre Optic Sensing
WO2013051196A1 (ja) * 2011-10-05 2013-04-11 ニューブレクス株式会社 分布型光ファイバ音波検出装置
JP5294925B2 (ja) * 2009-03-02 2013-09-18 株式会社熊谷組 音源の推定方法とその装置
JP5473888B2 (ja) * 2010-12-22 2014-04-16 三菱重工業株式会社 漏洩検出システム
US20180332389A1 (en) * 2016-06-03 2018-11-15 Faraday&Future Inc. Method and apparatus to detect and isolate audio in a vehicle using multiple microphones

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8121442B2 (en) * 2008-12-24 2012-02-21 At&T Intellectual Property I, L.P. Optical fiber surveillance topology
GB201109372D0 (en) * 2011-06-06 2011-07-20 Silixa Ltd Method for locating an acoustic source
GB201201727D0 (en) * 2012-02-01 2012-03-14 Qinetiq Ltd Indicating locations

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3920742B2 (ja) * 2002-08-28 2007-05-30 トヨタ自動車株式会社 異常音の音源探査方法及び音源探査装置
JP3903221B2 (ja) * 2005-06-24 2007-04-11 オプテックス株式会社 防犯センサ
JP5294925B2 (ja) * 2009-03-02 2013-09-18 株式会社熊谷組 音源の推定方法とその装置
US20120226452A1 (en) * 2009-11-13 2012-09-06 Optasense Holdings Limited Improvements in Distributed Fibre Optic Sensing
JP5473888B2 (ja) * 2010-12-22 2014-04-16 三菱重工業株式会社 漏洩検出システム
WO2013051196A1 (ja) * 2011-10-05 2013-04-11 ニューブレクス株式会社 分布型光ファイバ音波検出装置
US20180332389A1 (en) * 2016-06-03 2018-11-15 Faraday&Future Inc. Method and apparatus to detect and isolate audio in a vehicle using multiple microphones

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022185469A1 (ja) * 2021-03-04 2022-09-09 日本電気株式会社 工事検出装置、工事検出システム及び工事検出方法
WO2022208594A1 (ja) * 2021-03-29 2022-10-06 日本電気株式会社 空間センシング装置、空間センシングシステム及び空間センシング方法
JP7491464B2 (ja) 2021-03-29 2024-05-28 日本電気株式会社 空間センシング装置、空間センシングシステム及び空間センシング方法
CN113702908A (zh) * 2021-09-01 2021-11-26 哈尔滨工程大学 一种基于pdh解调技术的高精度三维声源定位方案
CN113702908B (zh) * 2021-09-01 2023-06-09 哈尔滨工程大学 一种基于pdh解调技术的高精度三维声源定位系统
WO2023073762A1 (ja) * 2021-10-25 2023-05-04 日本電気株式会社 監視システム、監視方法
WO2023089692A1 (ja) * 2021-11-17 2023-05-25 日本電気株式会社 異常判定方法、異常判定装置、異常判定システム及び非一時的なコンピュータ可読媒体
WO2023157113A1 (ja) * 2022-02-16 2023-08-24 日本電気株式会社 処理装置、分布型音響センシングシステム、分布型音響センシング方法及びプログラムが格納された非一時的なコンピュータ可読媒体

Also Published As

Publication number Publication date
JPWO2020255358A1 (ja) 2020-12-24
JP7318706B2 (ja) 2023-08-01
US20220357421A1 (en) 2022-11-10

Similar Documents

Publication Publication Date Title
WO2020255358A1 (ja) 光ファイバセンシングシステム及び音源位置特定方法
US10182280B2 (en) Sound processing apparatus, sound processing system and sound processing method
JP7276356B2 (ja) 光ファイバセンシングシステム、状態検知装置、状態検知方法、及びプログラム
JP6135880B2 (ja) 音声処理方法、音声処理システム、及び記憶媒体
US20150281832A1 (en) Sound processing apparatus, sound processing system and sound processing method
JP7491414B2 (ja) 制御装置、表示制御方法、及びプログラム
JP7464281B2 (ja) 光ファイバセンシングシステム、監視装置、監視方法、及びプログラム
US20220128396A1 (en) Optical fiber sensing system, action specifying apparatus, action specifying method, and computer readable medium
JP2019079369A (ja) 避難誘導システム
JP7268793B2 (ja) 光ファイバセンシングシステム、光ファイバセンシング装置及び光ファイバセンシング方法
WO2015151130A1 (ja) 音声処理装置、音声処理システム、及び音声処理方法
JP2020184093A (ja) 解析装置、監視システム及びプログラム
JP6570906B2 (ja) 監視システム及び監視方法
JP2023109757A (ja) 監視システム、監視装置、監視方法、及びプログラム
US20220377091A1 (en) Indicators Of Compromise By Analyzing Data Based On Rolling Baseline
WO2019187288A1 (ja) 情報処理装置、データ生成方法、及びプログラムが格納された非一時的なコンピュータ可読媒体
JP7338687B2 (ja) 光ファイバセンシングシステム、光ファイバセンシング機器、及び地中行動監視方法
US20230070029A1 (en) Detection system, detection device, and detection method
JP7315011B2 (ja) 光ファイバセンシングシステム、監視方法、及びプログラム
EP2927885A1 (en) Sound processing apparatus, sound processing system and sound processing method
EP2938097B1 (en) Sound processing apparatus, sound processing system and sound processing method
KR101833753B1 (ko) 돌발상황 검지 및 능동적 대응을 위한 시스템
JP2020136905A (ja) 作業監視システムおよび作業監視方法
JP7359216B2 (ja) 光ファイバセンシングシステム及び監視方法
JPH01187478A (ja) 音の発生移動表示方法と音の発生移動監視装置並びにその収音部

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19933697

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2021528583

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 19933697

Country of ref document: EP

Kind code of ref document: A1