WO2024106027A1 - 状態検出装置及び状態検出システム - Google Patents

状態検出装置及び状態検出システム Download PDF

Info

Publication number
WO2024106027A1
WO2024106027A1 PCT/JP2023/035475 JP2023035475W WO2024106027A1 WO 2024106027 A1 WO2024106027 A1 WO 2024106027A1 JP 2023035475 W JP2023035475 W JP 2023035475W WO 2024106027 A1 WO2024106027 A1 WO 2024106027A1
Authority
WO
WIPO (PCT)
Prior art keywords
state
analysis unit
sound
acoustic information
detection
Prior art date
Application number
PCT/JP2023/035475
Other languages
English (en)
French (fr)
Inventor
友里 中津
聰一郎 小灘
正人 安念
Original Assignee
横河電機株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 横河電機株式会社 filed Critical 横河電機株式会社
Publication of WO2024106027A1 publication Critical patent/WO2024106027A1/ja

Links

Images

Classifications

    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F03MACHINES OR ENGINES FOR LIQUIDS; WIND, SPRING, OR WEIGHT MOTORS; PRODUCING MECHANICAL POWER OR A REACTIVE PROPULSIVE THRUST, NOT OTHERWISE PROVIDED FOR
    • F03DWIND MOTORS
    • F03D1/00Wind motors with rotation axis substantially parallel to the air flow entering the rotor 
    • F03D1/06Rotors
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F03MACHINES OR ENGINES FOR LIQUIDS; WIND, SPRING, OR WEIGHT MOTORS; PRODUCING MECHANICAL POWER OR A REACTIVE PROPULSIVE THRUST, NOT OTHERWISE PROVIDED FOR
    • F03DWIND MOTORS
    • F03D17/00Monitoring or testing of wind motors, e.g. diagnostics
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01HMEASUREMENT OF MECHANICAL VIBRATIONS OR ULTRASONIC, SONIC OR INFRASONIC WAVES
    • G01H3/00Measuring characteristics of vibrations by using a detector in a fluid
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01HMEASUREMENT OF MECHANICAL VIBRATIONS OR ULTRASONIC, SONIC OR INFRASONIC WAVES
    • G01H3/00Measuring characteristics of vibrations by using a detector in a fluid
    • G01H3/04Frequency

Definitions

  • This disclosure relates to a condition detection device and a condition detection system.
  • the present disclosure has been made in consideration of the above points, and aims to provide a condition detection device and condition detection system that can improve the accuracy of detecting various conditions, such as abnormalities, when diagnosing equipment such as wind power generation equipment or its components, such as blades.
  • the condition detection device includes an analysis unit that detects the condition (such as an abnormality) of a detection object (such as the blades of a wind power generation device).
  • the analysis unit acquires the measurement results of the sound generated by the detection object as acoustic information, detects the condition of the detection object based on a pattern contained in an image that represents the time change in the frequency components of the acoustic information, and outputs the detection result of the condition of the detection object.
  • the condition detection device can improve the detection accuracy of various conditions, such as abnormalities, of the diagnosis object when diagnosing equipment such as a wind power generation device or its component blades.
  • the analysis unit may analyze the part of the detection object where the sound represented by the pattern is generated. In this way, inspection or repair, etc. can be easily performed on the analyzed part. As a result, the safety of the detection object is improved.
  • the analysis unit may output that the condition of the part where the sound represented by the pattern is generated is abnormal if the numerical value representing the difference of the pattern from a normal pattern is equal to or greater than the difference threshold.
  • the criteria for determining the condition of the detection target becomes clear.
  • this threshold value may be set not only to a fixed value, but also to a value that utilizes the operating condition or wind conditions. In this way, the accuracy of condition detection is also improved.
  • the analysis unit may detect the condition of the detection target based on a database that associates the pattern with the condition of the detection target.
  • the analysis unit may generate the normal pattern based on acoustic information when the condition of the detection target is normal, and register the normal pattern in the database. In this way, the accuracy of pattern classification is improved. As a result, the accuracy of detection of the condition of the detection target is improved.
  • a condition detection system may include the condition detection device and a sound collection device that measures sounds generated by the detection target and outputs the measurement results as acoustic information to the condition detection device.
  • the condition detection system can improve the accuracy of detecting various conditions, such as abnormalities, of the target when diagnosing equipment such as a wind power generation device or its component blades.
  • the sound collection device may include a plurality of microphones.
  • the sound collection device may generate acoustic information representing components of sounds arriving at the sound collection device from a predetermined direction based on sounds detected by each of the plurality of microphones. In this way, the influence of sounds generated outside the detection target, such as background sounds, can be reduced. As a result, the detection accuracy of the detection target's condition is improved.
  • the analysis unit of the condition detection device may acquire multiple pieces of acoustic information representing components of sound arriving at the sound collection device from each of multiple directions.
  • the analysis unit may detect the condition of the detection target based on the multiple pieces of acoustic information.
  • a condition detection device and a condition detection system are provided that can improve the accuracy of detecting various conditions, such as abnormalities, when diagnosing equipment such as wind power generation equipment or its components such as blades.
  • FIG. 11 is a diagram showing an analysis example of acoustic information according to a comparative example.
  • FIG. 1 is a schematic diagram illustrating a configuration example of a state detection system according to an embodiment. 1 is a block diagram showing an example of the configuration of a state detection system according to an embodiment; FIG. 1 is a diagram showing an example of a time change in frequency components of a sound as a grayscale image. 1 is a diagram showing, as a grayscale image, an example of a change over time in frequency components of acoustic information corresponding to components of a sound arriving from a first direction.
  • FIG. 13 is a diagram showing, as a grayscale image, an example of a change over time in frequency components of acoustic information corresponding to components of a sound arriving from a second direction.
  • FIG. FIG. 1 is a diagram showing an example of a periodic pattern contained in a grayscale image.
  • FIG. 13 is a diagram showing an example of a granular pattern contained in a grayscale image.
  • FIG. 13 is a diagram showing an example of a linear pattern included in a grayscale image.
  • 1 is a flowchart illustrating an example of a procedure of a state detection method according to an embodiment.
  • Comparative Example The system according to the comparative example detects wind noise generated by the rotating blades of a wind turbine using a microphone installed at a fixed position. As shown in the graph of Fig. 1, the sound is represented as a change in frequency components over time. The horizontal axis of the graph in Fig. 1 represents time, and the vertical axis represents frequency. The frequency components of the sound of the wind turbine blades are represented as region 90. Furthermore, if the blade has a characteristic part such as a scratch, the sound generated at that characteristic part is distinguished as a prominent region 91 within region 90.
  • the rotating wind turbine blades have a speed relative to a fixed microphone. If the sound source moves with the blades, the abnormal unevenness of the blades changes the air flow, generating sound that is detected by the microphone along with the sound of the blades.
  • the system of the comparative example determines an abnormality in the blades by detecting the presence of a component in the acoustic signal in which the frequency components with high sharpness shift over time (Doppler shift). The system of the comparative example also determines that there is an abnormality in the blades when the shift in the frequency components with high sharpness has a specified slope.
  • the system in the comparative example can only detect conditions that appear as a time transition or gradient of high-sharpness frequency components in an acoustic signal.
  • this disclosure describes a state detection system 1 (see Figures 2 and 3) that can detect various states of a detection target, even if it cannot detect the time progression or gradient of high-sharp frequency components in an acoustic signal based on the sound generated by the detection target, such as the blades 42 of a wind turbine 40 (see Figure 2).
  • a condition detection system 1 includes a condition detection device 10, a sound collection device 20, and a display device 30.
  • the condition detection system 1 detects the condition of a detection target based on a sound generated by the detection target.
  • the detection target is assumed to be a blade 42 of a wind turbine 40 shown in FIG. 2.
  • the wind turbine 40 includes a nacelle 44 and a support 46 in addition to the blade 42. In this embodiment, it is assumed that an abnormality occurs in the blade 42.
  • the abnormality occurring in the blade 42 may include various aspects such as scratches, cracks, breaks, protrusions, or depressions on the surface of the blade 42, or cavities, cracks, or breaks inside the blade 42.
  • the condition detection system 1 may detect an abnormality occurring in the blade 42 by using the blade 42 as a detection target.
  • the part of the blade 42 where the abnormality occurs is also referred to as an abnormal part 48.
  • the condition detection device 10 detects the condition of the blade 42 based on acoustic information corresponding to a waveform of a sound generated by the blade 42, which is the detection target.
  • the detection target is not limited to the blade 42, and may include other parts such as the nacelle 44.
  • the condition detection device 10 may detect the condition of the blade 42 not based on the frequency components of the acoustic information or the time change of the frequency components of the acoustic information.
  • the condition detection device 10 may acquire acoustic information, the frequency components of the acoustic information, or the time change of the frequency components of the acoustic information from a sound collection device 20 described later.
  • the condition detection device 10 may acquire the frequency components of the acoustic information or the time change of the frequency components of the acoustic information by acquiring the acoustic information from the sound collection device 20 and performing a frequency analysis of the acoustic information.
  • the condition detection device 10 includes an analysis unit 12, a storage unit 14, and an interface 16.
  • the analysis unit 12 controls each component of the state detection device 10.
  • the analysis unit 12 may be configured to include a processor such as a CPU (Central Processing Unit).
  • the analysis unit 12 may achieve a predetermined function by causing the processor to execute a predetermined program.
  • the storage unit 14 may store various information used in the operation of the analysis unit 12, or programs for realizing the functions of the analysis unit 12.
  • the storage unit 14 may function as a work memory for the analysis unit 12.
  • the storage unit 14 may be configured, for example, as a semiconductor memory.
  • the storage unit 14 may be configured to include a volatile memory or a non-volatile memory.
  • the storage unit 14 may be configured as a non-transitory computer-readable storage medium.
  • the storage unit 14 may be included in the analysis unit 12.
  • the interface 16 includes a communication device that communicatively connects the status detection device 10 to the sound collection device 20 or the display device 30.
  • the communication device may be configured to be capable of communication based on a mobile communication standard such as 4G (4th Generation), LTE (Long Term Evolution), or 5G (5th Generation).
  • the communication device may be configured to be capable of communication based on a communication standard of LAN (Local Area Network), for example.
  • the communication device may be configured to be capable of communication via wired or wireless communication.
  • the interface 16 may be configured to include a display device.
  • the display device may include various displays, such as a liquid crystal display.
  • the interface 16 may be configured to include an audio output device, such as a speaker.
  • the interface 16 is not limited to these, and may be configured to include various other output devices.
  • the interface 16 may be configured to include an input device that accepts input from a user.
  • the input device may include, for example, a keyboard or physical keys, or may include a touch panel or touch sensor, or a pointing device such as a mouse.
  • the input device is not limited to these examples, and may be configured to include various other devices.
  • the state detection device 10 may be configured as a PC (Personal Computer) or as at least one server device.
  • the state detection device 10 may be realized as a cloud computing system.
  • the condition detection device 10 may be configured to allow input of parameters, etc., for detecting the condition of a detection object, including, for example, a blade 42, etc.
  • the sound collection device 20 includes one or more microphones.
  • the sound collection device 20 detects sounds generated from the detection target or the surrounding environment with one or more microphones. In other words, the sound collection device 20 detects sounds generated in the environment in which the detection target exists with one or more microphones.
  • the sound collection device 20 outputs the detection results of the sounds detected with the one or more microphones to the state detection device 10 as acoustic information.
  • the acoustic information may be represented as a waveform representing the change in sound pressure over time.
  • the acoustic information may be represented by the amplitude and phase of the sound pressure.
  • the multiple microphones may be configured as an array microphone arranged in an array.
  • the sound collection device 20 may output the measurement results of the sound waveforms detected by each microphone constituting the array microphone to the state detection device 10 as acoustic information.
  • the state detection device 10 may generate acoustic information corresponding to the waveform of the sound components arriving from a specific direction to the sound collection device 20 by analyzing the amplitude and phase of the waveform of the measurement results of each microphone acquired as acoustic information.
  • the state detection device 10 may generate acoustic information corresponding to the waveform of the sound components arriving from a specific part of the detection target.
  • the direction from the specific part of the detection target toward the sound collection device 20 is also referred to as the first direction.
  • the acoustic information representing the sound components arriving at the sound collection device 20 from the first direction is also referred to as the first acoustic information.
  • the state detection device 10 may generate acoustic information corresponding to the waveform of the sound components arriving from a specific part other than the detection target.
  • the direction from the specific part other than the detection target toward the sound collection device 20 is also referred to as the second direction.
  • Acoustic information representing the components of the sound arriving at the sound collection device 20 from the second direction is also referred to as second acoustic information.
  • the state detection device 10 may generate acoustic information corresponding to the waveforms of the components of the sound arriving from each of the first direction and the second direction.
  • the state detection device 10 may generate multiple pieces of acoustic information corresponding to the waveforms of the components of the sound arriving from each of multiple directions.
  • the sound collection device 20 may be arranged around the support 46 of the wind turbine 40 as the detection target, as exemplified in FIG. 2.
  • the sound collection device 20 may be arranged near the point where an extension of a line (vertical line) from the rotation axis of the blade 42 to the tip of the blade 42 intersects with the ground when the blade 42 has rotated to its lowest position.
  • the sound collection device 20 is not limited to the position exemplified in FIG. 2, and may be arranged in various other positions, such as the nacelle 44.
  • the sound collection device 20 may be arranged near the point where a line extending vertically from the tip of the blade 42 intersects with the ground when the tip of the blade 42 has rotated from the rotation axis to a horizontal position.
  • the display device 30 displays the detection result of the state of the detection target by the state detection device 10.
  • the display device 30 may display various data such as acoustic information, frequency components of the acoustic information, or time changes in the frequency components of the acoustic information.
  • the display device 30 may include various displays such as a liquid crystal display.
  • the state detection system 1 may include a speaker that outputs the sound measured by the sound collection device 20 itself, or a sound such as a warning sound generated according to the detection result of the state of the detection target.
  • condition detection device 10 can detect the condition of the detection target based on acoustic information corresponding to a waveform of a sound generated in an environment in which the detection target exists.
  • acoustic information corresponding to a waveform of a sound generated in an environment in which the detection target exists.
  • the analysis unit 12 of the state detection device 10 may digitize the sound pressure of each frequency of the acoustic information using, for example, a method such as FFT (Fast Fourier Transform) or 1/1 or 1/3 octave analysis.
  • the analysis unit 12 may digitize the amount of change in sound pressure at each frequency.
  • the analysis unit 12 may calculate the frequency at which the sound pressure becomes a maximum value within a specified certain time width as the peak frequency.
  • the analysis unit 12 may track the peak frequency to calculate the duration of the peak, the amount of movement of the peak frequency, the magnitude of the sound pressure at the peak frequency, and the degree of dispersion of the sound pressure in a frequency band including the peak frequency.
  • the analysis unit 12 may store the analysis result of the acoustic information in the storage unit 14 together with the acoustic information.
  • the analysis unit 12 may detect the state of the detection target based on the change over time of the frequency components of the acoustic information.
  • the change over time of the frequency components of the acoustic information may be represented as an image including pixels that represent the magnitude of a certain frequency component of the acoustic information at a certain time in grayscale, as illustrated in FIG. 4.
  • the vertical direction in which the pixels are arranged in the image is also referred to as a column. That is, the image includes multiple columns of pixels.
  • the horizontal direction in which the pixels are arranged in the image is also referred to as a row. That is, the image includes multiple rows of pixels.
  • the pixels in each column included in the image illustrated in FIG. 4 represent the magnitude of each frequency component of the acoustic information at the same time.
  • the pixels in each row included in the image illustrated in FIG. 4 represent the magnitude of the same frequency component of the acoustic information at each time.
  • the color of a point being closer to black can also be said to be darker.
  • the closer the color of a point representing a certain frequency component at a certain time is to white the smaller the sound pressure of that frequency component at that time.
  • the fact that the color of the dot is close to white can also be said to be a pale color.
  • the image in Figure 4 essentially represents the relationship between time, the frequency of the acoustic information, and the magnitude of each frequency component at each time in a three-dimensional graph.
  • the grayscale image illustrated in FIG. 4 represents the change over time in frequency components of acoustic information that combines sounds arriving from various directions toward the sound collection device 20 in an environment in which the blade 42 is present as a detection target.
  • the grayscale image illustrated in FIG. 4 represents the change over time in frequency components of acoustic information detected by the sound collection device 20 without directionality.
  • the change over time in frequency components of acoustic information is not limited to a grayscale image, but may be represented as an RGB image or in various other forms.
  • the sound collection device 20 can generate acoustic information corresponding to the waveform of the sound components arriving from a specific direction by detecting sound with a microphone array as described above. In other words, the sound collection device 20 can detect sound in a directional manner and generate acoustic information.
  • the grayscale image illustrated in FIG. 5 represents the change over time in the frequency components of acoustic information corresponding to the waveform of the sound components arriving at the sound collection device 20 from the first direction.
  • the grayscale image illustrated in FIG. 6 represents the change over time in the frequency components of acoustic information corresponding to the waveform of the sound components arriving at the sound collection device 20 from the second direction.
  • the pixels in each column i.e., the pixels lined up in the vertical direction, represent the magnitude of each frequency component of the acoustic information at the same time.
  • the pixels in each row included in the image illustrated in FIG. 4, i.e., the pixels lined up in the horizontal direction represent the magnitude of the same frequency component of the acoustic information at each time.
  • the analysis unit 12 may perform filtering on the acoustic information.
  • the analysis unit 12 may perform frequency filtering of high or low frequencies, or a combination of high and low frequencies.
  • the analysis unit 12 may perform filtering to remove short-term, sudden increases in sound pressure. A short-term, sudden increase in sound pressure is also called a spike.
  • the analysis unit 12 may perform digital filtering using a first-order lag or a moving average, etc.
  • the analysis unit 12 may perform background sound filtering using sound pressure data of recorded or defined background sounds.
  • the analysis unit 12 may perform filtering before the above-mentioned analysis of the acoustic information.
  • the image showing the time change of the frequency components of the acoustic information includes a characteristic pattern.
  • the analysis unit 12 may recognize the acoustic information synchronized with the passage of the blade 42 as the acoustic information of the blade 42.
  • the axis extending in the left-right direction is also referred to as the time axis.
  • the axis extending in the up-down direction is also referred to as the frequency axis.
  • a frequency in which the sound pressure in the acoustic information of the blade 42 is significantly larger or smaller than that of the surrounding area including adjacent pixels or pixels located in the vicinity on the time axis or frequency axis is also referred to as a peak frequency.
  • the analysis unit 12 may detect a pattern including a peak frequency as a characteristic pattern.
  • the analysis unit 12 may detect a range including a point that is a peak frequency in the image of the acoustic information and a point that is equal to or larger than the sound pressure of the point that is the peak frequency multiplied by a predetermined ratio as a characteristic pattern.
  • the analysis unit 12 may detect patterns 51, 52, and 53 as patterns corresponding to the wind noise of each of the three blades 42 to be detected.
  • the analysis unit 12 may calculate the number of rotations of the blades 42 based on the time intervals at which the patterns 51, 52, and 53 are detected.
  • the analysis unit 12 may calculate the frequency range in which each of the patterns 51, 52, and 53 appears. The analysis unit 12 may determine whether the state of each blade 42 has changed based on the change over time in the frequency range in which each pattern appears.
  • the analysis unit 12 may detect feature pattern 54 in pattern 52 as a characteristic pattern that is not present in patterns 51 and 53. By detecting feature pattern 54, the analysis unit 12 may detect the possibility that the state of the blade 42 in which feature pattern 54 was detected is abnormal. The analysis unit 12 may analyze which part of the blade 42 may have an abnormal state based on the amount of change in frequency per unit time of feature pattern 54. By analyzing the part whose state may be abnormal, it is easier to perform inspection or repair on that part. As a result, the safety of the detection target is improved.
  • the characteristic sound changes depending on the size of a foreign object or a scratch in the part of the blade 42 that produces the characteristic sound.
  • the analysis unit 12 may detect a change in the state of the part of the blade 42 that produces the characteristic sound by monitoring the change in the frequency of the characteristic sound, or the magnitude of the sound pressure at the peak frequency or the spread of a characteristic pattern including the peak frequency.
  • the frequency of the characteristic sound, or the magnitude of the sound pressure at the peak frequency or the spread of a characteristic pattern including the peak frequency may change due to a change in the relative speed between the blade 42 and the wind, or the occurrence of turbulence.
  • the analysis unit 12 can reduce the influence of wind changes or the occurrence of turbulence from the characteristic sound by comparing the acoustic information of the characteristic sound detected each time with each other, thereby improving the detection accuracy of the change in the state of the part that produces the characteristic sound.
  • the analysis unit 12 may detect pattern 55, which exists in a low frequency region, as another pattern. When the analysis unit 12 detects pattern 55, it may determine that it has detected the sound of substation equipment present in the vicinity of the detection target, or the sound of waves on the coast or at sea, etc.
  • the analysis unit 12 may detect pattern 56, which exists in a high frequency region, as another pattern. When the analysis unit 12 detects pattern 56, it may determine that it has detected the sound of wind blowing in the vicinity of the detection target, or the noise of aircraft, etc.
  • the analysis unit 12 may detect a granular feature pattern 57, as exemplified in FIG. 8. When the analysis unit 12 detects the granular feature pattern 57 in the pattern corresponding to the blade 42, it may detect that fine vibrations are occurring in the blade 42. Fine vibrations occurring in the blade 42 are also called chatter.
  • the analysis unit 12 may detect a linear feature pattern 58, as exemplified in FIG. 9. When the analysis unit 12 detects the linear feature pattern 58 in the pattern corresponding to the blade 42, it may detect that unevenness is occurring on the surface of the blade 42.
  • the analysis unit 12 may detect the state of the blade 42 based on other factors, not just on the shape such as granular or linear. For example, the analysis unit 12 may detect the state of the blade 42 based on which frequency band of the acoustic information and for how long a characteristic pattern appears. The analysis unit 12 may calculate which frequency band of the acoustic information and for how long a characteristic pattern appears as the area of the characteristic pattern in the image of the acoustic information, and detect the state of the blade 42 based on the calculated area of the characteristic pattern. The analysis unit 12 may detect the state of the blade 42 based on the magnitude of the frequency components included in the characteristic pattern. The magnitude of the frequency components included in the characteristic pattern corresponds to the color density of the pixel when the magnitude of the sound pressure or the magnitude of the component is expressed in grayscale in the image of the acoustic information.
  • the analysis unit 12 may recognize acoustic information that is not synchronized with the passage of the blade 42 as a sound occurring in the surrounding environment other than the blade 42, or as the sound of a bird or flying object colliding with at least a part of the blade 42 as the detection target.
  • the patterns included in the image expressing the acoustic information are classified into a category that represents the state of the detection target and a category that is not related to the state of the detection target.
  • the category that represents the state of the detection target is further classified into a category that represents the normal state of the detection target and a category that represents the abnormal state of the detection target.
  • the category that represents the abnormal state of the detection target is further classified into a category that represents the abnormal mode occurring in the detection target.
  • the category that is not related to the state of the detection target is further classified into a category that represents natural sounds such as wind or waves in the environment in which the detection target exists, and a category that represents artificial sounds occurring around the detection target.
  • the category that represents artificial sounds may be further classified into a category that represents various artificial sounds such as the sound of a car running, the sound of a ship sailing, or the sound of an aircraft flying.
  • the categories are not limited to these examples.
  • the analysis unit 12 may set categories in advance and classify the detected pattern into the set category.
  • the analysis unit 12 may detect the state represented by that category as the state of the detection target when the characteristic pattern is detected. For example, when the analysis unit 12 classifies the characteristic pattern into a category representing a hole present on the surface of the blade 42, it may detect the presence of a hole on the surface of the blade 42 as the state of the detection target.
  • the analysis unit 12 classifies the characteristic pattern into a category unrelated to the state of the detection target or a category representing that the state of the detection target is normal, it may detect the state of the detection target as being in a non-abnormal state.
  • the analysis unit 12 may register data in advance in a database that associates characteristic pattern categories with the state of the detection target.
  • the analysis unit 12 may classify the characteristic patterns into the categories registered in the database. By classifying the characteristic patterns using the database, the classification accuracy of the characteristic patterns is improved.
  • the analysis unit 12 may detect the state associated with the classified category as the state of the detection target. By detecting the state of the detection target after the classification accuracy of the characteristic patterns has been improved, the detection accuracy of the state of the detection target is improved.
  • the database may be stored in the memory unit 14, or in an external storage device connected to the state detection device 10.
  • the database may be generated for each individual blade 42 of the wind turbine 40. Depending on factors such as the repair history of each individual blade 42 or errors in parts during manufacturing or errors during assembly, the pattern in which each blade is abnormal may differ for each blade 42.
  • the analysis unit 12 may register information on repair marks for each blade 42 as a normal pattern in the database by measuring the sound immediately after repair for each blade 42 with the sound collection device 20 and acquiring a waveform.
  • the analysis unit 12 may also register information on repair marks for each blade 42 as a normal pattern in the database by extracting characteristic patterns from the image of the acoustic information.
  • the database may be generated in common for a plurality of blades 42. It is assumed that the individual differences of the blades 42 described above are not taken into account in the database generated in common for a plurality of blades 42. Under this assumption, even if a characteristic pattern included in an image expressing the acoustic information of each blade 42 corresponds to a normal state of the blade 42, the analysis unit 12 may determine that the state of the blade 42 is abnormal. Also, under this assumption, conversely, even if a characteristic pattern corresponds to an abnormal state of the blade 42, the analysis unit 12 may determine that the state of the blade 42 is normal.
  • the rate at which the state corresponding to the characteristic pattern can be correctly recognized may decrease because the individual differences of the blades 42 are not taken into account when making the judgment.
  • the rate at which the state corresponding to the characteristic pattern can be correctly recognized is also referred to as the recognition rate.
  • the analysis unit 12 may consider the blades 42 whose identical or similar patterns correspond to a normal state or an abnormal state as one group when the wind turbine 40 starts operating for the first time or when the blade 42 is resumed after repair.
  • the analysis unit 12 may generate a common database using common characteristic patterns for the blades 42 included in the group as standard patterns, and determine the condition of the blades 42 taking into account individual differences between the blades 42.
  • the analysis unit 12 may generate a trained model for classifying characteristic patterns by performing machine learning using training data that indicates into which category the characteristic patterns should be classified.
  • the analysis unit 12 may obtain a trained model for classifying characteristic patterns from an external device.
  • the analysis unit 12 may classify characteristic patterns using the trained model.
  • the normal state of the blade 42 as the detection target includes various states.
  • the normal state may include a state when the blade 42 is repaired or replaced.
  • the analysis unit 12 may acquire acoustic information obtained by measuring the sound generated from the blade 42 when the blade 42 as the detection target is in a normal state.
  • the analysis unit 12 may register in the database various patterns included in the acoustic information when the blade 42 is in a normal state, in association with a normal state or an abnormal state.
  • a pattern included in the acoustic information when the blade 42 as the detection target is in a normal state is also referred to as a normal pattern.
  • the analysis unit 12 may register in the database a normal pattern in association with the normal state of the blade 42.
  • the analysis unit 12 may update the database by leaving the normal pattern already registered in the database as it is and adding a new normal pattern.
  • the analysis unit 12 may update the database by replacing the normal pattern already registered in the database with the new normal pattern. Even if the state of the blade 42 has changed, the analysis unit 12 may newly register in the database a pattern included in the acoustic information when it is known that the blade 42 is in a normal state as a normal pattern. By doing this, for example, a pattern that corresponds to a sound caused by repair marks will not be mistakenly detected as an abnormality. As a result, the accuracy of detecting the condition of the object to be detected is improved.
  • the analysis unit 12 may extract a pattern having a difference from a normal pattern from among the patterns included in the acoustic information of the blade 42.
  • the analysis unit 12 may detect that the state of the blade 42 is not normal.
  • the state of the blade 42 being not normal may include, for example, the surface of the blade 42 being scratched.
  • the analysis unit 12 may calculate the difference between the extracted pattern and the normal pattern as a numerical value to determine whether the pattern extracted from the acoustic information of the blade 42 corresponds to a normal pattern.
  • the analysis unit 12 may detect that the condition of the part where the sound represented by the characteristic pattern was generated is normal if the numerical value representing the difference is less than the difference threshold.
  • the analysis unit 12 may detect that the condition of the part where the sound represented by the characteristic pattern was generated is abnormal if the numerical value representing the difference is equal to or greater than the difference threshold. In this way, the criteria for determining the condition of the detection target become clear. As a result, the accuracy of detecting the condition is improved.
  • the analysis unit 12 may determine whether the state of the blade 42 is normal without calculating the difference between the pattern included in the acoustic information of the blade 42 and the normal pattern. For example, the analysis unit 12 may register in the database, as an abnormal pattern, a pattern included in the acoustic information when the blade 42 as the detection target is not in a normal state, or a pattern included in the acoustic information when the blade 42 is in an abnormal state. The analysis unit 12 may determine that the state of the blade 42 is not normal or that the state of the blade 42 is abnormal when the pattern included in the acoustic information of the blade 42 matches the abnormal pattern.
  • the analysis unit 12 may register characteristic patterns, such as operational sounds that are known to occur under normal circumstances, in the database as normal patterns.
  • characteristic patterns such as operational sounds that are known to occur under normal circumstances
  • the analysis unit 12 may detect, for example, lightning in the vicinity of the detection target.
  • the analysis unit 12 detects a characteristic pattern that does not correspond to a normal pattern, it may determine that a bird or flying object has collided with the blade 42.
  • an abnormal event such as the intrusion of a suspicious person, has occurred in the vicinity of the wind turbine 40 having the blade 42 as the detection target.
  • the trained model may be generated so that characteristic patterns corresponding to various states when the blade 42 to be detected is in a normal state are classified into categories that represent normal states.
  • the analysis unit 12 may detect the state of the detection target based on first acoustic information representing the components of the sound arriving at the sound collection device 20 from a first direction and second acoustic information representing the components of the sound arriving at the sound collection device 20 from a second direction. For example, the analysis unit 12 may extract noise components from the second acoustic information and detect the state of the detection target based on information obtained by removing the extracted noise components from the first acoustic information. By detecting the state of the detection target based on acoustic information from which the noise components have been removed, the detection accuracy of the state of the detection target is improved. The analysis unit 12 may detect a characteristic pattern based only on the first acoustic information representing the components of the sound arriving from the detection target. In this way, the influence of sounds generated outside the detection target, such as background sounds, can be reduced. As a result, the detection accuracy of the state of the detection target is improved.
  • the analysis unit 12 may use a band-pass filter to remove or attenuate acoustic information in a predetermined frequency band from the acoustic information.
  • the analysis unit 12 may use a band-pass filter to remove or attenuate acoustic information in a frequency band other than the frequency of the sound of the blade 42, for example. In this way, the accuracy of detecting the state of the blade 42 based on the acoustic information of the blade 42 is improved.
  • the analysis unit 12 may perform filtering using a reference on the data of the time change of the frequency components of the acoustic information. Specifically, the analysis unit 12 may calculate a difference spectrum by subtracting a frequency spectrum from a certain time in the past. In the difference spectrum, the frequency spectrum of the background sound is removed or reduced. As a result, the accuracy of detecting sudden sounds contained in the background sound is improved.
  • the analysis unit 12 may monitor the peak frequency that changes over time and capture it as a series of events. From the series of events, the analysis unit 12 may calculate a sound pressure threshold value detected as a characteristic pattern including the peak frequency, a peak frequency at the start or end of the series of events, a duration of the series of events, or a degree of spread of the characteristic pattern.
  • the degree of spread means a width of frequencies that are equal to or greater than the sound pressure threshold value.
  • the analysis unit 12 may output the state represented by the classification of the characteristic patterns to the display device 30 as the detection result of the state detection device 10.
  • the display device 30 may notify the entity that manages the wind turbine 40 having the blades 42 as the detection target by displaying the detection result of the state detection device 10.
  • the analysis unit 12 may output the detection result of the state detection device 10 to various other devices, such as a speaker or a light, without being limited to the display device 30.
  • the speaker may notify the entity that manages the wind turbine 40 having the blades 42 of the state of the detection target by outputting sound.
  • the light may notify the entity that manages the wind turbine 40 having the blades 42 of the state of the detection target of the blades 42 by emitting light or changing its light emission state.
  • the analysis unit 12 of the condition detection device 10 may execute a condition detection method including the procedure of the flowchart illustrated in Fig. 10.
  • the condition detection method may be realized as a condition detection program executed by a processor constituting the analysis unit 12.
  • the condition detection program may be stored in a non-transitory computer-readable medium.
  • the analysis unit 12 acquires acoustic information of the blade 42 as the detection target (step S1).
  • the analysis unit 12 analyzes the frequency components of the acoustic information or an image representing the change in frequency components over time (step S2).
  • the analysis unit 12 determines whether a pattern has been detected from the image of the acoustic information (step S3). If the analysis unit 12 does not detect a pattern from the image of the acoustic information (step S3: NO), it ends the execution of the procedure in the flowchart of FIG. 10.
  • step S4 determines whether the detected pattern corresponds to a pattern that corresponds to the sound of the blade 42 (step S4). In other words, the analysis unit 12 determines whether the detected pattern is classified into a category that represents a sound generated by the blade 42.
  • step S5 the analysis unit 12 judges whether the detected pattern matches a normal pattern. In other words, the analysis unit 12 judges whether the pattern is classified into a category that indicates that the state of the blade 42 as the detection target is normal. If the detected pattern matches a normal pattern (step S5: YES), the analysis unit 12 judges that the state of the blade 42 as the detection target is not abnormal and ends the execution of the procedure of the flowchart in FIG. 10.
  • step S5 If the detected pattern does not match the normal pattern (step S5: NO), the analysis unit 12 judges that the state of the blade 42 as the detection target is abnormal and notifies the display device 30 that the state of the blade 42 as the detection target is abnormal (step S6). After executing the procedure of step S6, the analysis unit 12 ends the execution of the procedure of the flowchart in FIG. 10.
  • step S4 If the detected pattern does not correspond to the sound of the blade 42 (step S4: NO), the analysis unit 12 classifies the detected pattern into an environmental sound category and notifies the display device 30 of the type of sound associated with the classified category (step S7). After executing the procedure of step S7, the analysis unit 12 ends execution of the procedure of the flowchart in FIG. 10.
  • the condition detection device 10 detects characteristic patterns from an image representing a time change in frequency components of acoustic information generated based on a sound generated by a detection target.
  • the condition detection device 10 classifies the detected characteristic patterns into categories representing various conditions, and detects the conditions represented by the categories. In this way, various conditions are detected while being distinguished from one another. As a result, the accuracy of detection of various conditions is improved.
  • the condition detection system 1 allows the condition of the detection target to be ascertained even if the entity (e.g., worker, etc.) managing the wind turbine 40 having the blades 42 that are the detection target is not on-site. As a result, the frequency and cost of workers, etc. visiting the site of the detection target are reduced. In addition, constant monitoring is achieved. Constant monitoring improves the safety of the detection target.
  • the condition detection system 1 clarifies the criteria for determining the condition.
  • the analysis results of the acoustic information are clarified as numerical values. As a result, the safety of the detection target is improved.
  • the condition detection system 1 can store acoustic information. By having workers or the like check the stored acoustic information together with the detection results of the condition of the detection target by the condition detection system 1, the skills or knowledge of the workers or the like can be improved.
  • the analysis unit 12 may detect the state of the detection target based on an image representing a time change in frequency components of the acoustic information.
  • the analysis unit 12 may detect the state of the detection target based on a frequency spectrum representing an instantaneous frequency component at a certain time of the acoustic information. For example, the analysis unit 12 may determine that the state of the detection target is in a specific state when the sound pressure of a specific frequency component in the frequency spectrum exceeds a threshold value.
  • the detection target of the status detection system 1 is not limited to the blades 42 of the wind turbine 40 described above, and may detect the status of various other devices or facilities.
  • the status detection system 1 may detect, for example, the status of a device or facility that generates sound as the detection target.
  • the status detection system 1 may detect, for example, the status of a fan or blower that generates sound in a periodic pattern as the detection target.
  • the status detection system 1 may detect, for example, the status of a compressor that generates sound in a discrete or sudden pattern as the detection target.

Landscapes

  • Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Sustainable Development (AREA)
  • Sustainable Energy (AREA)
  • Chemical & Material Sciences (AREA)
  • Combustion & Propulsion (AREA)
  • Mechanical Engineering (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Measurement Of Mechanical Vibrations Or Ultrasonic Waves (AREA)
  • Wind Motors (AREA)

Abstract

状態検出装置10は、検出対象の状態を検出する解析部12を備える。解析部12は、検出対象で発生した音に対応する音響情報を取得し、音響情報の周波数成分の時間変化を表す画像に含まれるパターンに基づいて検出対象の状態を検出し、検出対象の状態の検出結果を出力する。

Description

状態検出装置及び状態検出システム 関連出願へのクロスリファレンス
 本出願は、日本国特許出願2022-185127号(2022年11月18日出願)の優先権を主張するものであり、当該出願の開示全体を、ここに参照のために取り込む。
 本開示は、状態検出装置及び状態検出システムに関する。
 従来、風車のブレードの異常を判定するに際し、ブレードが発する音響情報(風切音)の解析結果中に、時間推移とともに尖鋭度が高い周波数成分が推移するドップラーシフト成分の存在を検出する方法が知られている(例えば特許文献1参照)。
特開2010-281279号公報
 風力発電装置等の設備、又は、その構成要素であるブレード等を診断するに際し、診断対象の異常等の種々の状態を検出することが求められる。
 本開示は、上述の点に鑑みてなされたものであり、風力発電装置等の設備、又は、その構成要素であるブレード等を診断するに際し、診断対象の異常等の種々の状態の検出精度を向上できる状態検出装置及び状態検出システムを提供することを目的とする。
 幾つかの実施形態に係る状態検出装置は、検出対象(風力発電装置のブレード等)の状態(異常等)を検出する解析部を備える。前記解析部は、前記検出対象で発生した音の測定結果を音響情報として取得し、前記音響情報の周波数成分の時間変化を表す画像に含まれるパターンに基づいて前記検出対象の状態を検出し、前記検出対象の状態の検出結果を出力する。状態検出装置は、上述したように検出対象の状態を検出することによって、風力発電装置等の設備、又は、その構成要素であるブレード等を診断するに際し、診断対象の異常等の種々の状態の検出精度を向上できる。
 一実施形態に係る状態検出装置において、前記解析部は、前記パターンで表される音が発生した前記検出対象の部位を解析してよい。このようにすることで、解析された部位に対する検査又は修理等が実行されやすい。その結果、検出対象の安全性が向上する。
 一実施形態に係る状態検出装置において、前記解析部は、正常パターンに対する前記パターンの差分を表す数値が差分閾値以上である場合、前記パターンで表される音が発生した部位の状態が異常であることを出力してよい。このようにすることで、検出対象の状態の判定基準が明確になる。その結果、状態の検出精度が向上する。また、この閾値は固定的な値だけでなく、運転状態又は風況などを利用した値に設定されてもよい。このようにすることでも状態の検出精度が向上する。
 一実施形態に係る状態検出装置において、前記解析部は、前記パターンと前記検出対象の状態とを対応づけたデータベースに基づいて前記検出対象の状態を検出してよい。前記解析部は、前記検出対象の状態が正常である場合の音響情報に基づいて前記正常パターンを生成して前記データベースに登録してよい。このようにすることで、パターンの分類精度が向上する。その結果、検出対象の状態の検出精度が向上する。
 幾つかの実施形態に係る状態検出システムは、上記状態検出装置と、検出対象で発生する音を測定し、測定結果を音響情報として前記状態検出装置に出力する収音装置とを備えてよい。状態検出システムは、上記状態検出装置を備えることによって、風力発電装置等の設備、又は、その構成要素であるブレード等を診断するに際し、診断対象の異常等の種々の状態の検出精度を向上できる。
 一実施形態に係る状態検出システムにおいて、前記収音装置は、複数のマイクを備えてよい。前記収音装置は、前記複数のマイクのそれぞれで検出した音に基づいて所定方向から前記収音装置に到来する音の成分を表す音響情報を生成してよい。このようにすることで、背景音等の検出対象以外で発生する音の影響が低減され得る。その結果、検出対象の状態の検出精度が向上する。
 一実施形態に係る状態検出システムにおいて、前記状態検出装置の解析部は、複数の方向のそれぞれから前記収音装置に到来する音の成分を表す複数の音響情報を取得してよい。前記解析部は、前記複数の音響情報に基づいて前記検出対象の状態を検出してよい。複数の音響情報に基づいて検出対象の状態を検出することによって、背景音等の検出対象以外で発生する音の影響が低減され得る。その結果、検出対象の状態の検出精度が向上する。
 本開示によれば、風力発電装置等の設備、又は、その構成要素であるブレード等を診断するに際し、診断対象の異常等の種々の状態の検出精度を向上できる状態検出装置及び状態検出システムが提供される。
比較例に係る音響情報の解析例を示す図である。 一実施形態に係る状態検出システムの構成例を示す模式図である。 一実施形態に係る状態検出システムの構成例を示すブロック図である。 音の周波数成分の時間変化の一例をグレースケールの画像として表す図である。 第1方向から到来した音の成分に対応する音響情報の周波数成分の時間変化の一例をグレースケールの画像として表す図である。 第2方向から到来した音の成分に対応する音響情報の周波数成分の時間変化の一例をグレースケールの画像として表す図である。 グレースケールの画像に含まれる周期的なパターンの一例を示す図である。 グレースケールの画像に含まれる粒状のパターンの一例を示す図である。 グレースケールの画像に含まれる線状のパターンの一例を示す図である。 一実施形態に係る状態検出方法の手順例を示すフローチャートである。
(比較例)
 比較例に係るシステムは、風車の回転するブレードで発生する風切音を定位置に設置したマイクで検出する。図1にグラフとして示されるように、音は周波数成分の経時変化として表される。図1のグラフの横軸は時間を表す。縦軸は周波数を表す。風車のブレードの音の周波数成分は、領域90として表される。また、ブレードに傷等の特徴的な部位が存在する場合、その特徴的な部位で発生する音は、領域90の中でも際立った領域91として区別される。
 ここで、回転する風車のブレードは固定されたマイクに対して速度を有する。音の発生源がブレードとともに動く場合、ブレードの異常な凹凸が空気の流れを変えることによって発生する音響がブレードの音とともにマイクによって検出される。比較例に係るシステムは、音響信号中の、時間推移とともに尖鋭度が高い周波数成分が推移する(ドップラーシフト)成分の存在を検出することで、ブレードの異常を判定する。また、比較例に係るシステムは、尖鋭度が高い周波数成分の推移が所定の傾きを有する場合をブレードの異常として判定する。
 しかし、比較例に係るシステムは、音響信号中に尖鋭度が高い周波数成分の時間推移又は傾きとして現れる状態しか検出できない。
 そこで、本開示は、風車40のブレード42(図2参照)等の検出対象で発生する音に基づく音響信号中の尖鋭度が高い周波数成分の時間推移又は傾きを検出できずとも、検出対象の種々の状態を検出できる状態検出システム1(図2及び図3参照)を説明する。
(本開示の実施形態)
 図2及び図3に示されるように、一実施形態に係る状態検出システム1は、状態検出装置10と、収音装置20と、表示装置30とを備える。状態検出システム1は、検出対象で発生した音に基づいて検出対象の状態を検出する。本実施形態において、検出対象は、図2に示される風車40のブレード42であるとする。風車40は、ブレード42の他に、ナセル44と、支柱46とを備える。本実施形態において、ブレード42で異常が生じていると仮定する。ブレード42で生じている異常は、ブレード42の表面の傷、ひび、割れ、突起若しくは陥没、又は、ブレード42の内部の空洞、ひび若しくは割れ等の種々の態様を含んでよい。状態検出システム1は、ブレード42を検出対象として、ブレード42で生じている異常を検出してよい。ブレード42において異常が生じている部位は、異常部位48とも称される。
(状態検出システム1の構成例)
 以下、状態検出システム1の構成例が説明される。
<状態検出装置10>
 状態検出装置10は、検出対象であるブレード42で発生した音の波形に対応する音響情報に基づいてブレード42の状態を検出する。検出対象は、ブレード42に限られず、ナセル44等の他の部分を含んでもよい。状態検出装置10は、音響情報の周波数成分又は音響情報の周波数成分の時間変化に基づかずにブレード42の状態を検出してよい。状態検出装置10は、後述する収音装置20から音響情報、音響情報の周波数成分、又は、音響情報の周波数成分の時間変化を取得してよい。状態検出装置10は、収音装置20から音響情報を取得して音響情報の周波数解析を実行することによって音響情報の周波数成分又は音響情報の周波数成分の時間変化を取得してよい。状態検出装置10は、解析部12と、記憶部14と、インタフェース16とを備える。
 解析部12は、状態検出装置10の各構成部を制御する。解析部12は、例えばCPU(Central Processing Unit)等のプロセッサを含んで構成されてよい。解析部12は、プロセッサに所定のプログラムを実行させることによって所定の機能を実現してもよい。
 記憶部14は、解析部12の動作に用いられる各種情報、又は、解析部12の機能を実現するためのプログラム等を格納してよい。記憶部14は、解析部12のワークメモリとして機能してよい。記憶部14は、例えば半導体メモリ等で構成されてよい。記憶部14は、揮発性メモリ又は不揮発性メモリを含んで構成されてよい。記憶部14は、非一時的なコンピュータ読み取り可能な記憶媒体として構成されてもよい。記憶部14は、解析部12に含まれてもよい。
 インタフェース16は、状態検出装置10を、収音装置20又は表示装置30と通信可能に接続する通信デバイスを含んで構成される。通信デバイスは、例えば4G(4th Generation)若しくはLTE(Long Term Evolution)又は5G(5th Generation)等の移動体通信規格に基づいて通信可能に構成されてよい。通信デバイスは、例えばLAN(Local Area Network)の通信規格に基づいて通信可能に構成されてよい。通信デバイスは、有線又は無線で通信可能に構成されてよい。
 インタフェース16は、表示デバイスを含んで構成されてよい。表示デバイスは、例えば液晶ディスプレイ等の種々のディスプレイを含んでよい。インタフェース16は、スピーカ等の音声出力デバイスを含んで構成されてよい。インタフェース16は、これらに限られず、他の種々の出力デバイスを含んで構成されてよい。
 インタフェース16は、ユーザからの入力を受け付ける入力デバイスを含んで構成されてよい。入力デバイスは、例えば、キーボード又は物理キーを含んでよいし、タッチパネル若しくはタッチセンサ又はマウス等のポインティングデバイスを含んでよい。入力デバイスは、これらの例に限られず、他の種々のデバイスを含んで構成されてよい。
 状態検出装置10は、PC(Personal Computer)として構成されてよいし、少なくとも1台のサーバ装置として構成されてよい。状態検出装置10は、クラウドコンピューティングのシステムで実現されてもよい。
 状態検出装置10は、例えばブレード42等を含む検出対象の状態を検出するためのパラメータ等を入力可能に構成されてよい。
<収音装置20>
 収音装置20は、1つ又は複数のマイクを備える。収音装置20は、検出対象又はその周囲の環境から発生する音を1つ又は複数のマイクで検出する。つまり、収音装置20は、検出対象が存在する環境で発生する音を1つ又は複数のマイクで検出する。収音装置20は、1つ又は複数のマイクで検出した音の検出結果を音響情報として状態検出装置10に出力する。音響情報は、音圧の時間変化を表す波形として表されてよい。音響情報は、音圧の振幅と位相とによって表されてもよい。
 収音装置20が複数のマイクを備える場合、複数のマイクは、アレイ状に配置されたアレイマイクとして構成されてよい。収音装置20は、アレイマイクを構成する各マイクで検出した音の波形の測定結果を音響情報として状態検出装置10に出力してよい。状態検出装置10は、音響情報として取得した各マイクの測定結果の波形の振幅及び位相を解析することによって、収音装置20に対して所定方向から到来する音の成分の波形に対応する音響情報を生成してよい。例えば、状態検出装置10は、検出対象の所定部分から到来する音の成分の波形に対応する音響情報を生成してよい。検出対象の所定部分から収音装置20に向かう方向は、第1方向とも称される。第1方向から収音装置20に到来する音の成分を表す音響情報は、第1音響情報とも称される。状態検出装置10は、検出対象以外の所定部分から到来する音の成分の波形に対応する音響情報を生成してよい。検出対象以外の所定部分から収音装置20に向かう方向は、第2方向とも称される。第2方向から収音装置20に到来する音の成分を表す音響情報は、第2音響情報とも称される。状態検出装置10は、第1方向及び第2方向のそれぞれから到来する音の成分の波形に対応する音響情報を生成してよい。状態検出装置10は、複数の方向のそれぞれから到来する音の成分の波形に対応する複数の音響情報を生成してよい。
 収音装置20は、図2に例示されるように検出対象としての風車40の支柱46の周囲に配置されてよい。収音装置20は、ブレード42が最も低い位置まで回転してきたときに、ブレード42の回転軸からブレード42の先端に向かう線(鉛直方向の線)の延長線が地面と交わる地点の付近に配置されてよい。収音装置20は、図2に例示される位置に限られず、ナセル44等の他の種々の位置に配置されてもよい。収音装置20は、ブレード42の先端が回転軸から水平の位置まで回転したときに、ブレード42の先端から鉛直方向に向かう線が地面と交わる地点の付近に配置されてもよい。
<表示装置30>
 表示装置30は、状態検出装置10による検出対象の状態の検出結果を表示する。表示装置30は、音響情報、音響情報の周波数成分、又は、音響情報の周波数成分の時間変化等の種々のデータを表示してよい。表示装置30は、例えば液晶ディスプレイ等の種々のディスプレイを含んでよい。状態検出システム1は、収音装置20で測定した音響そのもの、又は、検出対象の状態の検出結果に応じて生成された警告音等の音声を出力するスピーカを備えてもよい。
(状態検出システム1の動作例)
 状態検出システム1において、状態検出装置10は、検出対象が存在する環境で発生した音の波形に対応する音響情報に基づいて検出対象の状態を検出できる。以下、状態検出システム1の構成例が説明される。
<音響情報の解析>
 状態検出装置10の解析部12は、音響情報について、例えばFFT(Fast Fourier Transform)、又は、1/1若しくは1/3オクターブ分析等の手法を用いて、各周波数の音圧を数値化してよい。解析部12は、各周波数における音圧の変化量を数値化してよい。解析部12は、指定した一定の時間幅において音圧が極大値となる周波数をピーク周波数として算出してよい。解析部12は、ピーク周波数のトラッキングによって、ピークの継続時間と、ピーク周波数の移動量と、ピーク周波数における音圧の大きさと、ピーク周波数を含む周波数帯における音圧の分散度とを算出してよい。解析部12は、音響情報の解析結果を、音響情報とともに記憶部14に格納してよい。
 解析部12は、音響情報の周波数成分の時間変化に基づいて検出対象の状態を検出してよい。音響情報の周波数成分の時間変化は、図4に例示されるように、ある時間における音響情報のある周波数の成分の大きさをグレースケールで表す画素を含む画像として表されてよい。画像の中で画素が並ぶ上下方向は、列とも称される。つまり、画像は、複数の列の画素を含む。また、画像の中で画素が並ぶ左右方向は、行とも称される。つまり、画像は、複数の行の画素を含む。図4に例示される画像に含まれる各列の画素は、同じ時間における音響情報の各周波数の成分の大きさを表す。図4に例示される画像に含まれる各行の画素は、各時間における音響情報の同じ周波数の成分の大きさを表す。図4の画像において、ある時間における、ある周波数成分を表す点の色が黒に近いほど、その時間における、その周波数成分の音圧が大きいことを意味する。点の色が黒に近いことは、点の色が濃いとも言い換えられる。逆に、ある時間における、ある周波数成分を表す点の色が白に近いほど、その時間における、その周波数成分の音圧が小さいことを意味する。点の色が白に近いことは、点の色が薄いとも言い換えられる。つまり、図4の画像は、時間と音響情報の周波数と各時間における各周波数の成分の大きさとの関係を、実質的に3次元のグラフで表している。
 図4に例示されるグレースケールの画像は、検出対象としてのブレード42が存在する環境において収音装置20に向けて種々の方向から到来する音を合わせた音響情報の周波数成分の時間変化を表す。言い換えれば、図4に例示されるグレースケールの画像は、収音装置20が指向性を有しないで検出した音響情報の周波数成分の時間変化を表す。音響情報の周波数成分の時間変化は、グレースケールの画像に限られず、RGB画像で表されてもよいし、他の種々の態様で表されてもよい。
 収音装置20は、上述したようにマイクアレイで音を検出することによって、特定の方向から到来する音の成分の波形に対応する音響情報を生成できる。つまり、収音装置20は、指向性を有するように音を検出して音響情報を生成できる。
 図5に例示されるグレースケールの画像は、第1方向から収音装置20に到来した音の成分の波形に対応する音響情報の周波数成分の時間変化を表す。図6に例示されるグレースケールの画像は、第2方向から収音装置20に到来した音の成分の波形に対応する音響情報の周波数成分の時間変化を表す。図5及び図6に例示されるグレースケールの画像において、各列の画素、すなわち上下方向に並ぶ画素は、同じ時間における音響情報の各周波数の成分の大きさを表す。図4に例示される画像に含まれる各行の画素、すなわち左右方向に並ぶ画素は、各時間における音響情報の同じ周波数の成分の大きさを表す。
<フィルタリング>
 解析部12は、音響情報に対してフィルタリングを実行してよい。解析部12は、高い周波数若しくは低い周波数、又は、高い周波数と低い周波数とを組み合わせた周波数フィルタリングを実行してよい。解析部12は、短期間の突発的な音圧の上昇を削除するフィルタリングを実行してよい。短期間の突発的な音圧の上昇は、スパイクとも称される。解析部12は、一次遅れ又は移動平均等を用いたデジタルフィルタを実行してよい。解析部12は、記録又は定義された背景音の音圧データを利用した背景音フィルタリングを実行してよい。解析部12は、上述した音響情報の解析の前にフィルタリングを実行してよい。
<特徴的なパターンの検出>
 音響情報の周波数成分の時間変化を表す画像は、特徴的なパターンを含む。解析部12は、ブレード42の通過と同期する音響情報をブレード42の音響情報と認識してよい。ここで、音響情報の周波数成分の時間変化を表す画像において、左右方向に延びる軸は、時間軸とも称される。また、上下方向に延びる軸は、周波数軸とも称される。ブレード42の音響情報の中で音圧が時間軸若しくは周波数軸で隣接する画素又は近傍に位置する画素を含む周辺部と比較して大小が際立っている周波数は、ピーク周波数とも称される。解析部12は、ピーク周波数を含むパターンを特徴的なパターンとして検出してよい。解析部12は、音響情報の画像の中でピーク周波数となる点を含み、かつ、ピーク周波数となる点の音圧に対して所定の割合を乗じた音圧以上となる点を含む範囲を特徴的なパターンとして検出してよい。
 解析部12は、図7に例示されるように、検出対象としての3枚のブレード42のそれぞれの風切り音に対応するパターンとして、パターン51、パターン52及びパターン53を検出してよい。解析部12は、パターン51、52及び53を検出する時間の間隔に基づいてブレード42の回転数を算出してよい。
 解析部12は、パターン51、52及び53のそれぞれが現れる周波数範囲を算出してよい。解析部12は、各パターンが現れる周波数範囲の経時変化に基づいて、各ブレード42の状態が変化したか判定してよい。
 解析部12は、パターン52の中に、パターン51及び53の中に存在しない特徴的なパターンとして特徴パターン54を検出してよい。解析部12は、特徴パターン54を検出することによって、特徴パターン54を検出したブレード42の状態が異常である可能性を検出してよい。解析部12は、特徴パターン54の単位時間当たりの周波数の変化量に基づいてブレード42の中のどの部位の状態が異常である可能性があるか解析してよい。状態が異常になっている可能性がある部位を解析することによって、その部位に対する検査又は修理等が実行されやすい。その結果、検出対象の安全性が向上する。
 ブレード42で特徴音を発する部位における異物又は傷等の大きさの変化によって、特徴音が変化する。解析部12は、特徴音の周波数の変化、又は、ピーク周波数における音圧の大きさ若しくはピーク周波数を含む特徴的なパターンの広がりを監視することによって、ブレード42で特徴音を発する部位の状態の変化を検出してよい。特徴音の周波数、又は、ピーク周波数における音圧の大きさ若しくはピーク周波数を含む特徴的なパターンの広がりは、ブレード42と風との相対速度の変化、又は、乱流の発生によって変化することがある。解析部12は、収音装置20によってブレード42が1回転する周期で同じ特徴音を複数回にわたって検出した場合に、各回に検出した特徴音の音響情報を互いに比較することによって、風の変化又は乱流の発生による影響を特徴音から低減して、特徴音を発する部位の状態の変化の検出精度を向上できる。
 解析部12は、他のパターンとして、周波数が低い領域に存在するパターン55を検出してよい。解析部12は、パターン55を検出した場合、検出対象の周辺に存在する変電設備の音、又は、海岸若しくは海上の波の音等を検出していると判定してよい。解析部12は、他のパターンとして、周波数が高い領域に存在するパターン56を検出してよい。解析部12は、パターン56を検出した場合、検出対象の周辺で吹いている風の音、又は、航空機の騒音等を検出していると判定してよい。
 解析部12は、図8に例示されるように、粒状の特徴パターン57を検出してよい。解析部12は、ブレード42に対応するパターンの中で粒状の特徴パターン57を検出した場合、ブレード42で細かい振動が生じていることを検出してよい。ブレード42で生じている細かい振動は、ビビりとも称される。解析部12は、図9に例示されるように、線状の特徴パターン58を検出してよい。解析部12は、ブレード42に対応するパターンの中で線状の特徴パターン58を検出した場合、ブレード42の表面に凹凸が生じていることを検出してよい。
 解析部12は、粒状又は線状のような形状だけでなく、他の事項に基づいてブレード42の状態を検出してよい。例えば、解析部12は、音響情報のどの周波数帯域にどれだけの長さの時間で特徴的なパターンが現れているかに基づいて、ブレード42の状態を検出してよい。解析部12は、音響情報のどの周波数帯域にどれだけの長さの時間で特徴的なパターンが現れているかを、音響情報の画像における特徴的なパターンの面積として算出し、算出した特徴的なパターンの面積に基づいて、ブレード42の状態を検出してよい。解析部12は、特徴的なパターンに含まれる周波数成分の大きさに基づいて、ブレード42の状態を検出してよい。特徴的なパターンに含まれる周波数成分の大きさは、音響情報の画像において音圧の大きさ又は成分の大きさをグレースケールで表した場合の画素の色の濃さに対応する。
 解析部12は、ブレード42の通過と同期しない音響情報を、ブレード42以外の周辺の環境で発生する音と認識してよいし、検出対象としてのブレード42の少なくとも一部に鳥又は飛来物等が衝突した音と認識してもよい。
<特徴的なパターンの分類>
 音響情報を表現する画像に含まれるパターンは、検出対象の状態を表す区分と、検出対象の状態に関係しない区分とに分類される。検出対象の状態を表す区分は、検出対象の状態が正常であることを表す区分と、検出対象の状態が異常であることを表す区分とに更に分類される。検出対象の状態が異常であることを表す区分は、検出対象で発生している異常の態様を表す区分に更に分類される。検出対象の状態に関係しない区分は、検出対象が存在する環境の風若しくは波等の自然の音を表す区分と、検出対象の周辺で発生している人工の音を表す区分とに更に分類される。人工の音を表す区分は、自動車が走行する音、船舶が航行する音、又は、航空機が飛行する音等の種々の人工の音を表す区分に更に分類されてよい。区分は、これらの例に限られない。
 解析部12は、区分をあらかじめ設定しておき、検出したパターンを設定した区分に分類してよい。解析部12は、パターンを分類した区分が検出対象の状態を表す場合、その区分が表す状態を特徴的なパターンを検出したときの検出対象の状態として検出してよい。解析部12は、例えば、特徴的なパターンをブレード42の表面に存在する穴を表す区分に分類した場合、ブレード42の表面に穴が存在することを検出対象の状態として検出してよい。解析部12は、例えば、特徴的なパターンを検出対象の状態に関係しない区分又は検出対象の状態が正常であることを表す区分に分類した場合、検出対象の状態を異常になっていない状態として検出してよい。
 解析部12は、特徴的なパターンの区分と検出対象の状態とを対応づけたデータをあらかじめデータベースに登録しておいてよい。解析部12は、データベースに登録されている区分に特徴的なパターンを分類してよい。データベースを用いて特徴的なパターンを分類することによって、特徴的なパターンの分類精度が向上する。解析部12は、分類した区分に対応づけられている状態を検出対象の状態として検出してよい。特徴的なパターンの分類精度が高くなった上で検出対象の状態を検出することによって、検出対象の状態の検出精度が向上する。データベースは、記憶部14に格納されてよいし、状態検出装置10に接続される外部の記憶装置に格納されてもよい。
 データベースは、風車40のブレード42の個体毎に生成されてよい。ブレード42の個体毎の修理履歴又は製造時の部品の誤差若しくは組み立て時の誤差等の要因によって、各ブレードの状態が異常である場合のパターンがブレード42毎に異なることがある。解析部12は、ブレード42毎に修理直後の音を収音装置20で測定して波形を取得することによって、ブレード42毎に修理跡の情報を正常なパターンとしてデータベースに登録してよい。また、解析部12は、音響情報の画像から特徴的なパターンを抽出することによって、ブレード42毎に修理跡の情報を正常なパターンとしてデータベースに登録してもよい。
 データベースは、複数のブレード42で共通に生成されてよい。複数のブレード42で共通に生成されたデータベースにおいて、上述したブレード42の個体差が考慮されないと仮定する。この仮定の下では、各ブレード42の音響情報を表現する画像に含まれる特徴的なパターンがブレード42の正常な状態に対応する場合でも、解析部12は、ブレード42の状態を異常な状態と判定することがある。また、この仮定の下では、解析部12は、逆に、特徴的なパターンがブレード42の異常な状態に対応する場合でも、ブレード42の状態を正常な状態と判定することがある。つまり、判定の際にブレード42の個体差が考慮されないことによって、特徴的なパターンに対応する状態を正しく認識できる割合が低下し得る。特徴的なパターンに対応する状態を正しく認識できる割合は、認識率とも称される。解析部12は、認識率を維持できるように、風車40の新規運転開始時、又は、ブレード42の修理後の運転再開時に、同一又は類似のパターンが正常な状態又は異常な状態に対応するブレード42を1つのグループとみなしてよい。解析部12は、そのグループに含まれるブレード42について共通する特徴的なパターンを標準パターンとして共通のデータベースを生成し、ブレード42の個体差を考慮してブレード42の状態を判定してよい。
 解析部12は、特徴的なパターンをどの区分に分類するかを表す教師データを用いて機械学習を行うことによって、特徴的なパターンを分類する学習済みモデルを生成してよい。解析部12は、特徴的なパターンを分類するための学習済みモデルを外部装置から取得してもよい。解析部12は、学習済みモデルを用いて特徴的なパターンを分類してよい。
 検出対象としてのブレード42の正常な状態は、種々の状態を含む。例えば、正常な状態は、ブレード42を修理又は交換したときの状態を含んでよい。解析部12は、検出対象としてのブレード42が正常な状態であるときにブレード42から生じる音を測定した音響情報を取得してよい。解析部12は、ブレード42が正常な状態であるときの音響情報に含まれる種々のパターンを、正常な状態又は異常な状態に対応づけてデータベースに登録してよい。検出対象としてのブレード42が正常な状態であるときの音響情報に含まれるパターンは、正常パターンとも称される。解析部12は、正常パターンを、ブレード42の正常な状態に対応づけてデータベースに登録してよい。解析部12は、データベースに既に登録されていた正常パターンをそのまま残して新たな正常パターンを追加することによってデータベースを更新してよい。解析部12は、データベースに既に登録されていた正常パターンを新たな正常パターンで置き換えることによってデータベースを更新してもよい。解析部12は、ブレード42の状態が変化した場合でも、ブレード42が正常な状態であるとわかっている場合の音響情報に含まれるパターンを正常パターンとして新たにデータベースに登録してよい。このようにすることによって、例えば修理跡に起因して発生する音に対応するパターンが誤って異常として検出されなくなる。その結果、検出対象の状態の検出精度が向上する。
 解析部12は、ブレード42の音響情報に含まれるパターンの中から、正常パターンに対する差分を有するパターンを抽出してよい。解析部12は、正常パターンに対する差分を有するパターンを抽出できた場合に、ブレード42の状態が正常な状態でないことを検出してよい。ブレード42の状態が正常な状態でないことは、例えば、ブレード42の表面に傷がついていることを含んでよい。
 解析部12は、ブレード42の音響情報から抽出したパターンが正常パターンに該当するか判定するために、抽出したパターンと正常パターンとの差分を数値として算出してよい。解析部12は、差分を表す数値が差分閾値未満である場合に特徴的なパターンで表される音が発生した部位の状態が正常であると検出してよい。解析部12は、差分を表す数値が差分閾値以上である場合に特徴的なパターンで表される音が発生した部位の状態が異常であると検出してよい。このようにすることで、検出対象の状態の判定基準が明確になる。その結果、状態の検出精度が向上する。
 解析部12は、ブレード42の音響情報に含まれるパターンの、正常パターンに対する差分を算出せずに、ブレード42の状態が正常な状態であるか判定してもよい。例えば、解析部12は、検出対象としてのブレード42が正常な状態でないときの音響情報に含まれるパターン、又は、ブレード42の状態が異常な状態であるときの音響情報に含まれるパターンを、異常パターンとしてデータベースに登録してよい。解析部12は、ブレード42の音響情報に含まれるパターンが異常パターンに一致する場合に、ブレード42の状態が正常な状態でない、又は、ブレード42の状態が異常な状態であると判定してよい。
 人工の音は、種々の原因で発生する。解析部12は、通常時に発生することがわかっている作業音等の特徴的なパターンを正常パターンとしてデータベースに登録してよい。解析部12は、正常パターンに該当しない特徴的なパターンを検出した場合、例えば検出対象の近辺における発雷を検出してよい。解析部12は、正常パターンに該当しない特徴的なパターンを検出した場合、ブレード42に鳥又は飛来物等が衝突したと判定してよい。解析部12は、正常パターンに該当しない特徴的なパターンを検出した場合、検出対象としてのブレード42を備える風車40の近辺に不審者の侵入等の異常な事象が発生したと判定してよい。
 学習済みモデルは、検出対象としてのブレード42が正常な状態であるときの種々の状態に対応する特徴的なパターンが正常な状態を表す区分に分類されるように生成されてよい。
 解析部12は、第1方向から収音装置20に到来する音の成分を表す第1音響情報と第2方向から収音装置20に到来する音の成分を表す第2音響情報とに基づいて検出対象の状態を検出してよい。例えば、解析部12は、第2音響情報からノイズ成分を抽出し、抽出したノイズ成分を第1音響情報から除去した情報に基づいて検出対象の状態を検出してよい。ノイズ成分を除去した音響情報に基づいて検出対象の状態を検出することによって、検出対象の状態の検出精度が向上する。解析部12は、検出対象から到来する音の成分を表す第1音響情報だけに基づいて特徴的なパターンを検出してよい。このようにすることで、背景音等の検出対象以外で発生する音の影響が低減され得る。その結果、検出対象の状態の検出精度が向上する。
 解析部12は、音響情報のうち所定の周波数帯の音響情報をバンドパスフィルタで除去したり減衰させたりしてよい。解析部12は、例えばブレード42の音の周波数以外の周波数帯の音響情報をバンドパスフィルタで除去したり減衰させたりしてよい。このようにすることで、ブレード42の音響情報に基づくブレード42の状態の検出精度が向上する。
 解析部12は、音響情報の周波数成分の時間変化のデータに対してリファレンスを利用したフィルタリングを実行してよい。具体的に、解析部12は、ある時間における周波数スペクトルから所定時間だけ過去の周波数スペクトルを差し引いた差分スペクトルを算出してよい。差分スペクトルにおいて、背景音の周波数スペクトルが除去されたり低減されたりする。その結果、背景音に含まれていた突発的な音の検出精度が向上する。
<トラッキング>
 解析部12は、時間の経過とともに変化するピーク周波数を監視して一連の事象としてとらえてよい。解析部12は、一連の事象から、ピーク周波数を含む特徴的なパターンとして検出する音圧の閾値、一連の事象の開始時若しくは終了時のピーク周波数、一連の事象の継続時間、又は、特徴的なパターンの広がり具合を算出してよい。広がり具合は、音圧の閾値以上となった周波数の幅を意味する。
<状態の通知>
 解析部12は、特徴的なパターンを分類した区分が表す状態を、状態検出装置10の検出結果として表示装置30に出力してよい。表示装置30は、状態検出装置10の検出結果を表示することによって、検出対象としてのブレード42を備える風車40を管理する主体に通知してよい。解析部12は、状態検出装置10の検出結果を、表示装置30に限られず、例えばスピーカ又はライト等の他の種々の装置に出力してよい。スピーカは、音声の出力によって、検出対象としてのブレード42の状態を、ブレード42を備える風車40の管理主体に通知してよい。ライトは、発光したり発光状態を変化させたりすることによって、検出対象としてのブレード42の状態を、ブレード42を備える風車40の管理主体に通知してよい。
<状態検出方法の手順例>
 状態検出装置10の解析部12は、図10に例示されるフローチャートの手順を含む状態検出方法を実行してよい。状態検出方法は、解析部12を構成するプロセッサに実行させる状態検出プログラムとして実現されてもよい。状態検出プログラムは、非一時的なコンピュータ読み取り可能な媒体に格納されてよい。
 解析部12は、検出対象としてのブレード42の音響情報を取得する(ステップS1)。解析部12は、音響情報の周波数成分又は周波数成分の時間変化を表す画像を解析する(ステップS2)。解析部12は、音響情報の画像からパターンを検出したか判定する(ステップS3)。解析部12は、音響情報の画像からパターンを検出しない場合(ステップS3:NO)、図10のフローチャートの手順の実行を終了する。
 解析部12は、音響情報の画像からパターンを検出した場合(ステップS3:YES)、検出したパターンがブレード42の音に対応するパターンに該当するか判定する(ステップS4)。言い換えれば、解析部12は、検出したパターンがブレード42から生じている音を表す区分に分類されるか判定する。
 解析部12は、検出したパターンがブレード42の音に対応するパターンに該当する場合(ステップS4:YES)、検出したパターンが正常パターンと一致するか判定する(ステップS5)。言い換えれば、解析部12は、パターンが検出対象としてのブレード42の状態が正常であることを表す区分に分類されるか判定する。解析部12は、検出したパターンが正常パターンと一致する場合(ステップS5:YES)、検出対象としてのブレード42の状態が異常でないと判定して図10のフローチャートの手順の実行を終了する。解析部12は、検出したパターンが正常パターンと一致しない場合(ステップS5:NO)、検出対象としてのブレード42の状態が異常であると判定し、表示装置30によって検出対象としてのブレード42の状態が異常であることを通知する(ステップS6)。解析部12は、ステップS6の手順の実行後、図10のフローチャートの手順の実行を終了する。
 解析部12は、検出したパターンがブレード42の音に対応するパターンに該当しない場合(ステップS4:NO)、検出したパターンを環境音の区分に分類し、分類した区分に対応づけられている音の種類を表示装置30によって通知する(ステップS7)。解析部12は、ステップS7の手順の実行後、図10のフローチャートの手順の実行を終了する。
<小括>
 以上述べてきたように、本実施形態に係る状態検出システム1において、状態検出装置10は、検出対象で生じた音に基づいて生成された音響情報の周波数成分の時間変化を表す画像から特徴的なパターンを検出する。状態検出装置10は、検出した特徴的なパターンを種々の状態を表す区分に分類し、区分が表す状態を検出する。このようにすることで、種々の状態が互いに区別して検出される。その結果、種々の状態の検出精度が向上する。
 状態検出システム1によって、検出対象であるブレード42を備える風車40を管理する主体(例えば作業員等)が現地にいなくても検出対象の状態が把握される。その結果、作業員等が検出対象の現場を訪問する頻度及び訪問コストが低減される。また、常時監視が実現される。常時監視によって検出対象の安全性が向上する。
 状態検出システム1によって、状態の判定基準が明確になる。また、音響情報の解析結果が数値として明確になる。その結果、検出対象の安全性が向上する。
 状態検出システム1は、音響情報を保存できる。作業員等が保存された音響情報と状態検出システム1による検出対象の状態の検出結果とを合わせて確認することによって、作業員等のスキル又は知見が高められる。
(他の実施形態)
 以下、他の実施形態が説明される。
<瞬時の周波数成分に基づく状態の検出>
 解析部12は、上述してきたように、音響情報の周波数成分の時間変化を表す画像に基づいて検出対象の状態を検出してよい。解析部12は、音響情報の、ある時間における瞬時の周波数成分を表す周波数スペクトルに基づいて検出対象の状態を検出してもよい。解析部12は、例えば、周波数スペクトルの中で特定の周波数成分の音圧が閾値を超えた場合に、検出対象の状態が特定の状態になっていると判定してよい。
<検出対象の他の例>
 状態検出システム1は、検出対象として、上述してきた風車40のブレード42に限られず他の種々の装置又は設備の状態を検出してよい。状態検出システム1は、検出対象として、例えば、音を発生する装置又は設備の状態を検出してよい。状態検出システム1は、検出対象として、例えば、周期的なパターンで音を発生するファン又はブロア等の状態を検出してよい。状態検出システム1は、検出対象として、例えば、離散的又は突発的なパターンで音を発生するコンプレッサ等の状態を検出してよい。
 本開示に係る実施形態について、諸図面及び実施例に基づき説明してきたが、当業者であれば本開示に基づき種々の変形又は改変を行うことが可能であることに注意されたい。従って、これらの変形又は改変は本開示の範囲に含まれることに留意されたい。例えば、各構成部に含まれる機能などは論理的に矛盾しないように再配置可能であり、複数の構成部を1つに組み合わせたり、或いは分割したりすることが可能である。
 1 状態検出システム
 10 異常検出装置(12:解析部、14:記憶部、16:インタフェース)
 20 収音装置
 30 表示装置
 40 検出対象(42:ブレード、44:ナセル、46:支柱、48:異常部位)
 51~53、55、56 パターン
 54、57、58 特徴パターン

Claims (7)

  1.  検出対象の状態を検出する解析部を備え、
     前記解析部は、
     前記検出対象で発生した音の測定結果を音響情報として取得し、
     前記音響情報の周波数成分の時間変化を表す画像に含まれるパターンに基づいて前記検出対象の状態を検出し、
     前記検出対象の状態の検出結果を出力する、
    状態検出装置。
  2.  前記解析部は、前記パターンで表される音が発生した前記検出対象の部位を解析する、請求項1に記載の状態検出装置。
  3.  前記解析部は、正常パターンに対する前記パターンの差分を表す数値が差分閾値以上である場合、前記パターンで表される音が発生した部位の状態が異常であることを出力する、請求項2に記載の状態検出装置。
  4.  前記解析部は、
     前記パターンと前記検出対象の状態とを対応づけたデータベースに基づいて前記検出対象の状態を検出し、
     前記検出対象の状態が正常である場合の音響情報に基づいて前記正常パターンを生成して前記データベースに登録する、請求項3に記載の状態検出装置。
  5.  請求項1から4までのいずれか一項に記載の状態検出装置と、検出対象で発生する音を測定し、測定結果を音響情報として前記状態検出装置に出力する収音装置とを備える、状態検出システム。
  6.  前記収音装置は、
     複数のマイクを備え、
     前記複数のマイクのそれぞれで検出した音に基づいて所定方向から前記収音装置に到来する音の成分を表す音響情報を生成する、請求項5に記載の状態検出システム。
  7.  前記状態検出装置の解析部は、複数の方向のそれぞれから前記収音装置に到来する音の成分を表す複数の音響情報を取得し、前記複数の音響情報に基づいて前記検出対象の状態を検出する、請求項6に記載の状態検出システム。
PCT/JP2023/035475 2022-11-18 2023-09-28 状態検出装置及び状態検出システム WO2024106027A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2022185127A JP2024074064A (ja) 2022-11-18 2022-11-18 状態検出装置及び状態検出システム
JP2022-185127 2022-11-18

Publications (1)

Publication Number Publication Date
WO2024106027A1 true WO2024106027A1 (ja) 2024-05-23

Family

ID=91084115

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2023/035475 WO2024106027A1 (ja) 2022-11-18 2023-09-28 状態検出装置及び状態検出システム

Country Status (2)

Country Link
JP (1) JP2024074064A (ja)
WO (1) WO2024106027A1 (ja)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013185507A (ja) * 2012-03-08 2013-09-19 Ntn Corp 状態監視システム
WO2018070232A1 (ja) * 2016-10-14 2018-04-19 ソニー株式会社 信号処理装置及び信号処理方法
WO2022054483A1 (ja) * 2020-09-11 2022-03-17 不動技研工業株式会社 風力発電装置の異常判定方法、風力発電装置の異常判定システムおよび風力発電装置の異常判定プログラム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013185507A (ja) * 2012-03-08 2013-09-19 Ntn Corp 状態監視システム
WO2018070232A1 (ja) * 2016-10-14 2018-04-19 ソニー株式会社 信号処理装置及び信号処理方法
WO2022054483A1 (ja) * 2020-09-11 2022-03-17 不動技研工業株式会社 風力発電装置の異常判定方法、風力発電装置の異常判定システムおよび風力発電装置の異常判定プログラム

Also Published As

Publication number Publication date
JP2024074064A (ja) 2024-05-30

Similar Documents

Publication Publication Date Title
JP5484591B2 (ja) プラントの診断装置及びプラントの診断方法
CA2898931C (en) System and method for enhanced operation of wind parks
KR102509577B1 (ko) 풍력 터빈 블레이드를 검사하는 방법 및 기기, 및 그 장치 및 저장 매체
JP5544418B2 (ja) プラントの診断装置、診断方法、及び診断プログラム
US11536285B2 (en) Apparatus and method for diagnosing and controlling aerodynamic stability of compressor
US20170315516A1 (en) Apparatus and Method for Monitoring A Device Having A Movable Part
US20130148817A1 (en) Abnormality detection apparatus for periodic driving system, processing apparatus including periodic driving system, abnormality detection method for periodic driving system, and computer program
JP7040851B2 (ja) 異常検知装置、異常検知方法及び異常検知プログラム
EP3788328B1 (en) System and process for pattern matching bearing vibration diagnostics
CN109209783A (zh) 一种基于噪声检测叶片的雷击损伤的方法及装置
JP2014137323A (ja) 異常診断装置およびこれを用いた異常診断方法
JP2008014679A (ja) 設備診断方法、設備診断システム及びコンピュータプログラム
CN111161756A (zh) 风机叶片扫风声音信号中异常哨声轮廓的提取及识别方法
JPH05256741A (ja) プラント信号監視方法およびその装置
JP2019067197A (ja) 故障予兆検知手法
JP2011070334A (ja) 異常診断装置及び異常診断方法
US20230366382A1 (en) Abnormality determination method for wind power generation device, abnormality determination system for wind power generation device, and abnormality determination program for wind power generation device
WO2024106027A1 (ja) 状態検出装置及び状態検出システム
JP6898607B2 (ja) 異常予兆検出システムおよび異常予兆検出方法
KR20220102364A (ko) 진동 센서를 통한 설비 예지 보전 시스템
WO2020162425A1 (ja) 解析装置、解析方法、およびプログラム
KR20210006832A (ko) 기계고장 진단 방법 및 장치
CN109026555B (zh) 用于识别叶片的失速的方法和装置
CN116840240A (zh) 电源分配器视觉检测系统
King et al. Probabilistic approach to the condition monitoring of aerospace engines