WO2023152863A1 - レーザレーダ装置 - Google Patents

レーザレーダ装置 Download PDF

Info

Publication number
WO2023152863A1
WO2023152863A1 PCT/JP2022/005312 JP2022005312W WO2023152863A1 WO 2023152863 A1 WO2023152863 A1 WO 2023152863A1 JP 2022005312 W JP2022005312 W JP 2022005312W WO 2023152863 A1 WO2023152863 A1 WO 2023152863A1
Authority
WO
WIPO (PCT)
Prior art keywords
laser radar
processing unit
unit
radar device
wind speed
Prior art date
Application number
PCT/JP2022/005312
Other languages
English (en)
French (fr)
Inventor
優佑 伊藤
昇之 芳川
尭之 北村
勝治 今城
Original Assignee
三菱電機株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 三菱電機株式会社 filed Critical 三菱電機株式会社
Priority to JP2023579434A priority Critical patent/JP7459408B2/ja
Priority to PCT/JP2022/005312 priority patent/WO2023152863A1/ja
Publication of WO2023152863A1 publication Critical patent/WO2023152863A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/50Systems of measurement based on relative movement of target
    • G01S17/58Velocity or trajectory determination systems; Sense-of-movement determination systems
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/95Lidar systems specially adapted for specific applications for meteorological use
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02ATECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
    • Y02A90/00Technologies having an indirect contribution to adaptation to climate change
    • Y02A90/10Information and communication technologies [ICT] supporting adaptation to climate change, e.g. for weather forecasting or climate simulation

Definitions

  • the technology disclosed herein relates to a laser radar device.
  • Patent Literature 1 discloses a technique for selecting a laser radar device that is used in a wind farm control system and that measures wind vectors from a plurality of laser radar devices.
  • An object of the technology disclosed herein is to solve the above problems and to provide a laser radar device that generates dense wind field data in a much shorter time than performing a fluid simulation.
  • a laser radar device is a laser radar device that scans a laser beam to measure a wind field in an observation environment, and includes a spectrum conversion processing unit, an integration processing unit, a wind field calculation unit, and a learning algorithm unit. and a signal processing unit including, the spectrum conversion processing unit performs FFT processing on a beat signal, which is a time-series digital signal, to generate spectrum data, the integration processing unit performs integration processing on the spectrum data, wind speed
  • the field calculation unit calculates a wind field based on the information of the data processed by the integration processing unit, and the learning algorithm unit includes trained artificial intelligence and interpolates observation results based on the wind field information.
  • the laser radar device Since the laser radar device according to the technology of the present disclosure has the above configuration, it is possible to interpolate observation results and generate dense wind field data within a much shorter time than performing a fluid simulation.
  • FIG. 1 is a block diagram showing the configuration of a laser radar device according to Embodiment 1.
  • FIG. FIG. 2 is a schematic diagram showing a configuration example of the beam scanning optical system 10 in the laser radar device according to the first embodiment.
  • FIG. 3 is an example of a graph representing the beat signal in the time domain.
  • FIG. 4 is an example of a map showing observation points of the laser radar device according to the first embodiment.
  • FIG. 5 is an example of a map showing how the learning algorithm unit of the signal processing unit according to Embodiment 1 interpolates observation results.
  • FIG. 6 is a schematic diagram showing the principle of interpolating observation results by the learning algorithm unit of the signal processing unit according to Embodiment 1.
  • FIG. 7 is an example of a map when the laser radar device according to Embodiment 1 is applied to assist the navigation of an airborne vehicle.
  • FIG. 8 is an example of a three-dimensional map when the laser radar device according to Embodiment 1 is applied to assist the navigation of an airborne vehicle.
  • FIG. 9 is a block diagram showing the configuration of a laser radar device according to Embodiment 2. As shown in FIG.
  • Laser radar systems are also called coherent Doppler lidars, or simply Doppler lidars.
  • FIG. 1 is a block diagram showing the configuration of a laser radar device according to Embodiment 1.
  • the laser radar device according to Embodiment 1 includes a light source unit 1, a branching unit 2, a modulating unit 3, a combining unit 4, an amplifying unit 5, a transmission side optical system 6, A transmission/reception separation unit 7, a reception side optical system 8, a beam expansion unit 9, a beam scanning optical system 10, a detection unit 11, an AD conversion unit 12, a signal processing unit 13, and a trigger generation unit 14. include.
  • a light source unit 1 As shown in FIG. 1, the laser radar device according to Embodiment 1 includes a light source unit 1, a branching unit 2, a modulating unit 3, a combining unit 4, an amplifying unit 5, a transmission side optical system 6, A transmission/reception separation unit 7, a reception side optical system 8, a beam expansion unit 9, a beam scanning optical system 10, a detection unit 11, an AD conversion unit 12, a signal processing unit 13, and a trigger generation unit 14.
  • FIG. 1 is a block diagram showing the
  • the signal processing unit 13 of the laser radar device includes a spectrum conversion processing unit 13a, an integration processing unit 13b, a contour extraction unit 13c, a wind speed field calculation unit 13d, a learning algorithm and a portion 13e.
  • Each functional block of the laser radar device according to Embodiment 1 is connected as shown in FIG. Arrows connecting functional blocks shown in FIG. 1 represent either transmitted light, received light, or electrical signals.
  • FIG. 2 is a schematic diagram showing a configuration example of the beam scanning optical system 10 in the laser radar device according to the first embodiment.
  • the beam scanning optical system 10 of the laser radar device according to the first embodiment may include an azimuth angle changing mirror 10a, an elevation angle changing mirror 10b, and a rotation control section 10c.
  • the arrows shown in FIG. 2 represent either transmitted light, received light, or electrical signals, as in FIG.
  • the light source unit 1 may be, for example, a semiconductor laser or a solid-state laser.
  • the splitter 2 may be, for example, a 1:2 optical coupler or a half mirror.
  • Modulator 3 may be, for example, an LN modulator, an AOM, or an SOA.
  • the multiplexer 4 may be, for example, a 2:2 optical coupler or a half mirror.
  • the amplifier 5 may be, for example, an optical fiber amplifier.
  • the transmission-side optical system 6 may be composed of, for example, a convex lens, a concave lens, an aspherical lens, and combinations thereof. Also, the transmission-side optical system 6 may be configured with a mirror.
  • the transmission/reception separation unit 7 may be, for example, a circulator or a polarization beam splitter.
  • the receiving optical system 8 like the transmitting optical system 6, may be composed of, for example, a convex lens, a concave lens, an aspherical lens, or a combination thereof. Further, the receiving optical system 8 may be composed of mirrors, like the transmitting optical system 6 .
  • the beam expander 9 may be, for example, a beam expander.
  • Beam scanning optics 10 may include, for example, mirrors or wedge prisms. As described above, an example configuration of the beam scanning optical system 10 is shown in FIG.
  • the rotation control section 10c of the components shown in FIG. 2 may be composed of, for example, a motor and a motor driver.
  • the detector 11 may be, for example, a balanced receiver.
  • the AD converter 12 may be a commercially available general-purpose analog-to-digital converter.
  • the signal processing unit 13 is preferably configured by a processing circuit.
  • a processing circuit even if it is dedicated hardware, is a CPU that executes a program stored in a memory (Central Processing Unit, also referred to as a central processing unit, a processing unit, an arithmetic unit, a microprocessor, a microcomputer, a processor, or a DSP) may be If the processing circuitry is dedicated hardware, the processing circuitry may be, for example, a single circuit, multiple circuits, programmed processors, parallel programmed processors, ASICs, FPGAs, or combinations thereof. As described above, the signal processing unit 13 does not have to be realized by large computational resources such as a supercomputer, and may be a general personal computer.
  • the trigger generation unit 14 is preferably configured by a processing circuit.
  • the light source unit 1 outputs continuous wave light having a single frequency.
  • the output continuous wave light is sent to the splitter 2 .
  • the branching unit 2 distributes the sent continuous wave light to two systems. A part of the distributed signal is sent to the modulating section 3 and the rest is sent to the multiplexing section 4 .
  • the continuous wave light sent to the multiplexer 4 is used as a reference, that is, a reference light.
  • the trigger generation unit 14 generates a trigger signal with a predetermined repetition cycle.
  • a trigger signal generated by the trigger generator 14 is sent to the modulator 3 and the AD converter 12 .
  • the voltage value and current value of the trigger signal may be determined based on the specifications of the modulation section 3 and AD conversion section 12 .
  • the modulation section 3 converts the transmission light sent from the branching section 2 into pulsed light based on the trigger signal, and further imparts a frequency shift.
  • the transmission light processed by the modulation section 3 is sent to the transmission side optical system 6 via the amplification section 5 .
  • the transmission-side optical system 6 converts the sent transmission light so that it has the designed beam diameter and beam divergence angle.
  • the transmission light processed by the transmission side optical system 6 is sent to the beam scanning optical system 10 via the transmission/reception separating section 7 and the beam expansion section 9 .
  • the beam scanning optical system 10 scans the sent transmission light toward the atmosphere.
  • the term “scanning” is synonymous with “scanning” and “scanning”.
  • the beam scanning optical system 10 scans the transmitted light at a constant angular velocity, for example, in the azimuth direction (hereinafter referred to as the "AZ direction”), the elevation direction (hereinafter referred to as the "EL direction”), or the AZ direction and the EL direction. and change both.
  • Information on the beam scanning direction in the beam scanning optical system 10 specifically information on the azimuth angle ( ⁇ AZ ) and elevation angle ( ⁇ EL ) of the beam, is sent to the integration processing unit 13 b of the signal processing unit 13 .
  • AZ in the AZ direction is the first two letters of the English name for the azimuth angle
  • Azimuth
  • EL for the EL direction is the first two letters in the English name for the elevation angle, Elevation.
  • Transmitted light scanned into the atmosphere is scattered or reflected by targets such as aerosols in the atmosphere and structures such as buildings.
  • a part of the scattered or reflected light is guided as received light to the receiving side optical system 8 via the beam scanning optical system 10 , the beam expander 9 , and the transmission/reception separating section 7 .
  • the frequency of the received light reflected by the aerosols in the atmosphere has a Doppler shift corresponding to the wind speed compared to the frequency of the transmitted light.
  • the laser radar device performs heterodyne detection, obtains the amount of Doppler shift corresponding to this wind speed, and measures the wind speed in the laser irradiation direction.
  • Heterodyne is to generate a new frequency by synthesizing or multiplying two vibration waveforms. Mixing two frequencies produces two new frequencies due to the nature of trigonometric functions. One is the sum of the two frequencies to be mixed and the other is their difference.
  • Heterodyne detection is a detection method that utilizes this heterodyne property.
  • the multiplexing unit 4 multiplexes the transmission light from the branching unit 2 and the reception light from the reception-side optical system 8 to cause them to interfere.
  • the light multiplexed by the multiplexing unit 4 has a frequency that is the difference between the frequency of the transmitted light and the frequency of the received light, that is, the Doppler shift frequency (hereinafter simply referred to as the "Doppler frequency") due to heterodyne properties.
  • the signal that is multiplexed and interfered by the multiplexer 4 is called an "interference beat signal" or simply a "beat signal".
  • the light multiplexed by the multiplexer 4 is sent to the detector 11 .
  • the detection unit 11 converts the sent light into an analog electrical signal.
  • the electric signal processed by the detector 11 that is, the beat signal is sent to the AD converter 12 .
  • the AD converter 12 converts the beat signal of the analog electrical signal into a digital electrical signal, that is, a time-series digital signal in synchronization with the trigger signal.
  • the time-series digital signal is sent to the spectrum conversion processing section 13 a and the contour extraction section 13 c of the signal processing section 13 .
  • the spectrum conversion processing unit 13a of the signal processing unit 13 divides the sent time-series digital signal by a predetermined time window length, and repeatedly performs a finite Fourier transform.
  • the lower graph in FIG. 3 shows how the spectrum transform processing unit 13a divides the signal into predetermined time window lengths and repeatedly performs FFT (Fast Fourier Transformation) in each time window.
  • the time window length of FFT in the spectrum conversion processing section 13a determines the resolution in the range direction.
  • c represents the speed of light.
  • the relational expression (1) is based on the principle of TOF (Time of Flight). The reason why L is used as a symbol representing the range is that it is derived from the first letter of Length, which is the English name for distance.
  • the FFT in the spectrum conversion processing section 13a is an FFT for obtaining the peak frequency of the beat signal, that is, the Doppler frequency.
  • FIG. 3 is an example of a graph representing the beat signal in the time domain.
  • the lower graph in FIG. 3 shows the case where the number of divisions (N) is six.
  • a time-domain signal divided into six becomes six range bins of information when FFT processing is performed.
  • the term "bin" here is synonymous with a class or interval in a histogram.
  • the distance represented by the i-th range bin (L i ) is the label i multiplied by the range direction resolution ( ⁇ L).
  • the integration processing unit 13b of the signal processing unit 13 integrates the spectrum data obtained by the FFT processing.
  • the integration process has the same effect as the averaging process and improves the SN ratio.
  • the time (T int ) required for the integration process is obtained as follows, where M is the number of times of integration.
  • PRF is the pulse repetition frequency.
  • the reciprocal of PRF is the trigger period.
  • the spectrum data processed by the integration processing unit 13b is sent to the wind velocity field calculation unit 13d together with information on the beam scanning direction from the corresponding beam scanning optical system 10.
  • FIG. Information sent from the integration processing unit 13b to the wind speed field calculation unit 13d is represented by the symbol S n (L i , ⁇ AZ , ⁇ EL ) in this specification.
  • the subscript n is an index, and the details of n will become clear later.
  • the range direction resolution ( ⁇ L) is determined by the FFT time window length ( ⁇ t), but the angular resolution is determined by the beam scanning speed of the beam scanning optical system 10 .
  • the beam scanning optical system 10 it is assumed that the beam is fixed in the EL direction and scanned in the AZ direction at a constant angular velocity ⁇ AZ [deg/sec]. Since the time required for the integration process is T int [sec] as described above, the angular resolution ( ⁇ AZ ) in the AZ direction is a value obtained by multiplying the angular velocity ⁇ AZ by the integration processing time T int .
  • the information that the integration processing unit 13b sends to the wind speed field calculation unit 13d is L i , ⁇ AZ , and ⁇ EL .
  • ⁇ AZ and ⁇ EL are linked is a matter of design.
  • the average value or median value of ⁇ AZ and ⁇ EL in the time interval of the integration process may be adopted.
  • ⁇ AZ and ⁇ EL at the start point (time 0) or the end point (time T int ) of the integration process may be employed for linking.
  • the contour extraction unit 13c of the signal processing unit 13 is a functional block that performs processing when the irradiated laser is reflected by a hard target such as a structure.
  • FIG. 3 is an example of a graph representing the beat signal in the time domain.
  • the upper graph in FIG. 3 shows the beat signal when the irradiated laser is reflected by the hard target.
  • the SN ratio of the beat signal reflected by the hard target is so high that noise processing such as integration is unnecessary. That is, the magnitude of the signal is sufficiently large compared to the magnitude of the noise.
  • the contour extracting unit 13c compares the magnitude of the beat signal with a preset threshold value. When the magnitude of the beat signal exceeds the threshold, the contour extraction unit 13c calculates the distance (L HT ) is calculated.
  • the distance from the laser radar device to the hard target can be calculated as follows from the principle of TOF. Note that the subscript HT is the initial letter of Hard Target in English.
  • the distance (L HT ) to the hard target calculated by the contour extraction unit 13c is sent to the wind field calculation unit 13d together with the beam scanning direction information ( ⁇ AZ , ⁇ EL ) from the corresponding beam scanning optical system 10. and sent.
  • Information sent from the contour extraction unit 13c to the wind speed field calculation unit 13d is represented by the symbol C n (L HT , ⁇ AZ , ⁇ EL ) in this specification.
  • the subscript n is an index as described above, and n may be assigned a frame number, for example. The frame number is simply the number of beam scans in the beam scanning optical system 10 .
  • the beam scanning optical system 10 it is assumed that the beam is fixed in the EL direction and scanned in the AZ direction at a constant angular velocity ⁇ AZ [deg/sec], as described above. Assume that the dynamic range in the AZ direction is from 0 [degrees] to 90 [degrees]. It is also assumed that the beam scanning optical system 10 scans the beam back and forth in the AZ direction. Assume that the initial value of the azimuth angle ( ⁇ AZ ) is 0 [degree]. Scanning the azimuth angle ( ⁇ AZ ) from 0 [degree] to 90 [degrees] is called an outward pass, and scanning the azimuth angle ( ⁇ AZ ) from 90 [degree] to 0 [degree] is called a return pass.
  • the frame number (n) is 0 for the first forward path from the initial value 0 [degrees] at time 0 to 90 [degrees].
  • the frame number (n) is 1 for the first return path from 90 [degrees] to 0 [degrees]. Thereafter, according to the same rule, the frame number (n) is incremented each time the azimuth angle ( ⁇ AZ ) reaches the end of the dynamic range.
  • FIG. 4 is an example of an observation environment map showing observation points of the laser radar device according to the first embodiment.
  • white square plots represent observation points where wind speed was observed.
  • the observation points where the wind speed was observed in this way appear at the intersections of the scale lines of the polar coordinate system.
  • the plotted black circles represent the observation points where the hard targets were observed. Note that FIG. 4 shows a case where the beam is fixed in the EL direction and scanned in the AZ direction.
  • the laser does not pass through the hard target and is completely reflected, so the wind speed cannot be observed at the observation point that is the blind spot of the hard target.
  • data may be interpolated by the learning algorithm unit 13e, which will be described later.
  • the wind velocity field calculator 13d obtains the Doppler frequency from the peak position of the spectrum at each observation point where the wind velocity is observed, and calculates the wind velocity (v). If there are multiple spectral peaks in the range bin, centroid calculation may be performed to obtain the Doppler frequency.
  • the wind speed (v) can be obtained from the following relational expression with the Doppler frequency ( ⁇ f). where ⁇ is the wavelength of the laser light output from the light source section 1 .
  • the wind speed field calculator 13d calculates wind speeds (v) at a plurality of observation points in the observation environment as shown in FIG. The calculated wind speed (v) at each observation point may be displayed as a "wind field" on the map.
  • Wind field information (v n (L i , ⁇ AZ )) and structure information (C n (L HT , ⁇ AZ )) are calculated by the processing steps of the wind speed field calculation unit 13d described above.
  • the wind field information (v n (L i , ⁇ AZ )) and the structure information (C n (L HT , ⁇ AZ )) calculated by the wind field calculation unit 13d are sent to the learning algorithm unit 13e.
  • the wind speed (v) of the wind field information (v n (L i , ⁇ AZ )) calculated by the processing step of the wind speed field calculation unit 13d is, as described above, only the speed component in the laser irradiation direction.
  • a wind field such as the AMeDAS commentary (wind direction and wind speed) provided by the Japan Weather Association, a minimum of two laser radar devices are used in two dimensions, and a minimum of three laser radar devices are used in three dimensions. , it is necessary to measure the same observation environment.
  • FIG. 5 is an example of a map showing how the learning algorithm unit 13e of the signal processing unit 13 according to Embodiment 1 interpolates the observation results.
  • the learning algorithm unit 13e simply interpolates the observation results.
  • plots of "x" indicate positions on the map interpolated by the learning algorithm unit 13e.
  • the learning algorithm unit 13e may also interpolate values of observation points in blind spots of hard targets such as structures. Especially around structures such as buildings, wind conditions such as separation flow, downflow, backflow, valley wind, opening wind, street wind, and vortex area are generated. is very important.
  • FIG. 6 is a schematic diagram showing the principle of interpolating observation results by the learning algorithm unit 13e of the signal processing unit 13 according to the first embodiment.
  • a portion indicated as “wind field prediction NN” in FIG. 6 represents an artificial neural network (hereinafter simply referred to as “neural network” or "NN”) of the learning algorithm unit 13e.
  • FIG. 6 represents the input and output in the learning phase of the neural network of the learning algorithm unit 13e.
  • “Wind field measurement value (sparse) + structure contour information” in Fig. 6 (hereinafter referred to as “learning data A”) is a spatially sparse wind field measurement value obtained by a laser radar device. and contour information of the structure.
  • the learning data A forms part of the learning data set.
  • the “wind field teacher value (dense) + structure contour information” (hereinafter referred to as “learning data B”) in FIG.
  • the learning data B may be generated by executing a fluid simulation based on the learning data A, for example.
  • the fluid simulation may use, for example, a method of computational fluid dynamics (CFD).
  • CFD computational fluid dynamics
  • the fluid simulation for creating teacher data may be performed by computational resources such as a computer other than the signal processing unit 13 of the laser radar device.
  • Both the learning data A and the learning data B may be created by fluid simulation as the teacher data. Also, all of the training data may be actually measured data if it is available.
  • the learning data A and the learning data B are shown by dividing the space into a lattice like a rectangular coordinate system, but the space may be divided like a polar coordinate system as shown in FIG.
  • Estimated wind field (dense) + structure contour information indicates the output of the neural network of the learning algorithm unit 13e.
  • learning data B which is teacher data
  • the output of the neural network includes an estimation error.
  • the neural network of the learning algorithm unit 13e should proceed with learning so as to minimize the evaluation function (indicated by L in script typeface in FIG. 6) obtained by adding a penalty term to the estimated error.
  • the artificial intelligence possessed by the learning algorithm unit 13e is desirably learned using learning data sets in as many different conceivable situations as possible.
  • learning of artificial intelligence may be performed in a development environment different from the signal processing unit 13 of the laser radar device.
  • the artificial intelligence mathematical model learned in another development environment may be transferred to the learning algorithm unit 13e with optimized parameters after the learning is completed.
  • the learning algorithm unit 13e in the inference phase has trained artificial intelligence, ie, a mathematical model with optimized parameters. Based on the wind field information (v n (L i , ⁇ AZ )) sent from the wind field calculation unit 13 d and the structure information (C n (L HT , ⁇ AZ )), the learning algorithm unit 13 e in the inference phase can interpolate observations and generate dense wind field data in a much shorter time than performing fluid simulations. It is also conceivable to increase the density of the wind field data obtained by increasing the frame rate of the laser radar device or increasing the scanning speed. However, these solutions have limitations and lead to increased costs.
  • FIG. 7 is an example of a map when the laser radar device according to Embodiment 1 is applied to assist the navigation of an airborne vehicle.
  • the dashed curve shown in FIG. 7 indicates the movement path of the airborne mobile object.
  • the upward black triangle " ⁇ " shown in FIG. 7 represents the starting point of the movement path, and the downward black triangle " ⁇ " represents the end point of the movement path.
  • a black square " ⁇ " shown in FIG. 7 indicates an observation position at which the wind speed becomes dangerous for an airborne moving object.
  • the laser radar device displays the wind speed that is dangerous to the drone, for example, an observation point with a wind speed of 5 [m/sec] or more in a manner different from the other observation points. You may indicate the location.
  • FIG. 7 shows that according to the technology disclosed herein, it is possible to set the movement route of the airborne moving body while avoiding the locations indicated as dangerous locations. Note that the threshold value of the wind speed to be determined to be dangerous may be appropriately determined according to the type of the airborne mobile object, the situation in which it is used, and the like.
  • FIG. 8 is an example of a three-dimensional map when the laser radar device according to Embodiment 1 is applied to assist the navigation of an airborne vehicle.
  • the dashed line and each plot shown in FIG. 8 are used with the same meaning as in FIG.
  • the technology of the present disclosure has been described as a technology of a laser radar device, it is not limited to this.
  • the learning algorithm unit 13e may interpolate data between sensors.
  • the laser radar device may acquire the wind field data and the contour information at the same time, or alternately and repeatedly.
  • the laser radar device may acquire the wind field data and acquire the contour information the same number of times or different times.
  • the laser radar device may acquire the wind field data and the contour information using the same scanning pattern, or may acquire the contour information using different scanning patterns.
  • parameters such as the scanning speed and the scanning range may be the same or different in acquisition of wind field data and acquisition of contour information.
  • Embodiment 2 Although the laser radar device according to Embodiment 1 is a mode in which the laser radar device itself measures the contour information of the structure, the technology disclosed herein is not limited to this.
  • the laser radar device according to Embodiment 2 is in a mode of acquiring contour information of a structure by other means.
  • the same reference numerals as in the first embodiment are used unless otherwise specified. Further, in the second embodiment, descriptions overlapping those of the first embodiment are omitted as appropriate.
  • FIG. 9 is a block diagram showing the configuration of the laser radar device according to the second embodiment.
  • FIG. 9 shows a distance imaging device 15, which is another means for acquiring contour information of a structure, instead of the contour extracting section 13c.
  • the range imaging device 15 shown in FIG. 9 may be a lidar, eg an imaging lidar.
  • the distance imaging device 15 may measure contour information of a structure, for example, based on the principle of TOF.
  • the distance imaging device 15 obtains the positions of hard targets such as structures from the measured distance image data.
  • the results detected by the distance imaging device 15 are sent to the wind velocity field calculator 13 d of the signal processor 13 .
  • the wind field calculation unit 13d of the signal processing unit 13 according to the second embodiment performs the same processing as the processing performed on the output of the contour extraction unit 13c according to the first embodiment on the result detected by the distance imaging device 15. do it against
  • the distance imaging device 15 only needs to be able to measure hard targets such as structures, and does not need to measure wind speed. That is, the range imaging device 15 can be designed specifically for range finding of hard targets.
  • the laser radar device uses the measurement result of the range imaging device 15, it is important to share the same spatial coordinate system.
  • structures such as buildings have almost no dynamic behavior. Structures move very slowly, if at all, and the distances are not very long. Therefore, the frequency of hard target measurement by the range imaging device 15 may be much less than the frequency of wind speed measurement by the laser radar device.
  • the range imaging device 15 may have a clock synchronized with the laser radar device, if necessary. Since the structure has no dynamic behavior, the laser radar device according to the technology of the present disclosure may use map information provided by the Geospatial Information Authority of Japan or the like instead of the measurement result of the range imaging device 15 .
  • the laser radar device handles reflected signals from aerosols in the atmosphere, but the reflected signals from the aerosols generally have extremely low signal strength. Therefore, the laser radar device according to the technology disclosed herein has a relatively wide pulse width. On the other hand, when measuring a hard target such as a structure, the range resolution can be improved by narrowing the pulse width. As described above, there is a trade-off relationship between the signal strength and the distance resolution.
  • the laser radar device specializes in measuring wind speed, as in the mode shown in the second embodiment, and detects the position of a hard target such as a structure using a distance imaging device 15, which is another device. to solve the trade-off problem. As described above, the laser radar device according to the second embodiment solves the trade-off problem and has the same effect as the laser radar device according to the first embodiment.
  • the laser radar device according to the disclosed technology can be applied to, for example, navigation support systems such as drones, and has industrial applicability.

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Electromagnetism (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Optical Radar Systems And Details Thereof (AREA)

Abstract

本開示技術に係るレーザレーダ装置は、レーザを走査して観測環境の風速場を計測するレーザレーダ装置であって、スペクトル変換処理部(13a)と、積算処理部(13b)と、風速場算出部(13d)と、学習アルゴリズム部(13e)と、を含む信号処理部(13)を備え、スペクトル変換処理部(13a)は、時系列状のデジタル信号であるビート信号をFFT処理し、スペクトルデータを生成し、積算処理部(13b)は、スペクトルデータを積算処理し、風速場算出部(13d)は、積算処理部(13b)により処理されたデータの情報に基づいて風速場を計算し、学習アルゴリズム部(13e)は、学習済み人工知能を備え、風速場の情報に基づいて、観測結果を補間する。

Description

レーザレーダ装置
 本開示技術はレーザレーダ装置に関する。
 気象レーダと同様な原理を用い、大気中に浮遊する微小な液体又は固体の粒子(エアロゾル)の動く速度を計測し、風速及び風向を求めるレーザレーダの技術が知られている。
 例えば特許文献1には、ウィンドファーム制御システムで用いられ、複数のレーザレーダ装置から風ベクトルを測定するレーザレーダ装置を選択する技術が開示されている。
国際公開第WO2018/198225号
 レーザレーダ装置がビームを走査して観測環境の風速場を計測する場合、観測環境における観測点の数を増やし、風速場のデータを密にするには、例えばサンプリング速度を上げる、というハードウエアの性能を上げる、という解決手段が考えられる。ハードウエアの性能を上げることには限界があり、コストの上昇にもつながってしまう。
 求める風速場のデータを密にするために、スパコン等の大きな計算資源を用いて、風況のシミュレーションを行う、という解決手段も考えられる。しかし風況のシミュレーションをリアルタイムに行うことは、現実性に欠ける。
 本開示技術は、上記の課題を解決し、流体シミュレーションを行うよりもはるかに短い時間内で密な風速場データを生成するレーザレーダ装置を提供することを目的とする。
 本開示技術に係るレーザレーダ装置は、レーザを走査して観測環境の風速場を計測するレーザレーダ装置であって、スペクトル変換処理部と、積算処理部と、風速場算出部と、学習アルゴリズム部と、を含む信号処理部を備え、スペクトル変換処理部は、時系列状のデジタル信号であるビート信号をFFT処理し、スペクトルデータを生成し、積算処理部は、スペクトルデータを積算処理し、風速場算出部は、積算処理部により処理されたデータの情報に基づいて風速場を計算し、学習アルゴリズム部は、学習済み人工知能を備え、風速場の情報に基づいて、観測結果を補間する。
 本開示技術に係るレーザレーダ装置は上記構成を備えるため、観測結果を補間し、流体シミュレーションを行うよりもはるかに短い時間内で、密な風速場データを生成することができる。
図1は、実施の形態1に係るレーザレーダ装置の構成を示すブロック図である。 図2は、実施の形態1に係るレーザレーダ装置におけるビーム走査光学系10の構成例を示す模式図である。 図3は、ビート信号を時間領域で表したグラフの例である。 図4は、実施の形態1に係るレーザレーダ装置の観測点を表したマップの例である。 図5は、実施の形態1に係る信号処理部の学習アルゴリズム部が観測結果を補間する様子を示したマップの例である。 図6は、実施の形態1に係る信号処理部の学習アルゴリズム部が観測結果を補間する原理を示した模式図である。 図7は、実施の形態1に係るレーザレーダ装置を空中移動体の航行支援に応用した場合のマップの例である。 図8は、実施の形態1に係るレーザレーダ装置を空中移動体の航行支援に応用した場合の3次元マップの例である。 図9は、実施の形態2に係るレーザレーダ装置の構成を示すブロック図である。
 本開示技術は、レーザレーダ装置に関する。レーザレーダ装置は、コヒーレントドップラライダ、又は単にドップラライダとも称される。
実施の形態1.
 図1は、実施の形態1に係るレーザレーダ装置の構成を示すブロック図である。図1に示されるとおり実施の形態1に係るレーザレーダ装置は、光源部1と、分岐部2と、変調部3と、合波部4と、増幅部5と、送信側光学系6と、送受分離部7と、受信側光学系8と、ビーム拡大部9と、ビーム走査光学系10と、検出部11と、AD変換部12と、信号処理部13と、トリガ生成部14と、を含む。
 図1に示されるとおり実施の形態1に係るレーザレーダ装置の信号処理部13は、スペクトル変換処理部13aと、積算処理部13bと、輪郭抽出部13cと、風速場算出部13dと、学習アルゴリズム部13eと、を有する。
 実施の形態1に係るレーザレーダ装置の各機能ブロックは、図1に示されるように接続されている。図1に示される機能ブロックを結ぶ矢印は、送信光、受信光、又は電気信号のいずれかを表している。
 図2は、実施の形態1に係るレーザレーダ装置におけるビーム走査光学系10の構成例を示す模式図である。図2に示されるとおり実施の形態1に係るレーザレーダ装置のビーム走査光学系10は、方位角変更用ミラー10aと、仰角変更用ミラー10bと、回転制御部10cと、を備えていてよい。
 図2示される矢印は、図1と同様に、送信光、受信光、又は電気信号のいずれかを表している。
《光源部1》
 光源部1は、例えば半導体レーザ、又は固体レーザであってよい。
《分岐部2》
 分岐部2は、例えば1:2光カプラ、又はハーフミラーであってよい。
《変調部3》
 変調部3は、例えばLN変調器、AOM、又はSOAであってよい。
《合波部4》
 合波部4は、例えば2:2光カプラ、又はハーフミラーであってよい。
《増幅部5》
 増幅部5は、例えば光ファイバアンプであってよい。
《送信側光学系6》
 送信側光学系6は、例えば凸レンズ、凹レンズ、非球面レンズ、及びその組合せで構成されてよい。また送信側光学系6は、ミラーで構成されてもよい。
《送受分離部7》
 送受分離部7は、例えばサーキュレータ、又は偏光ビームスプリッタであってよい。
《受信側光学系8》
 受信側光学系8は、送信側光学系6と同様に、例えば凸レンズ、凹レンズ、非球面レンズ、及びその組合せで構成されてよい。また受信側光学系8は、送信側光学系6と同様に、ミラーで構成されてもよい。
《ビーム拡大部9》
 ビーム拡大部9は、例えばビームエクスパンダであってよい。
《ビーム走査光学系10》
 ビーム走査光学系10は、例えばミラー又はウェッジプリズムを含むものであってよい。前述のとおりビーム走査光学系10の構成例は、図2に示されている。図2に示されている構成部品の回転制御部10cは、例えばモータ及びモータドライバから構成されていてよい。
《検出部11》
 検出部11は、例えばバランスドレシーバであってよい。
《AD変換部12》
 AD変換部12は、市販されている汎用のアナログデジタル変換器であってよい。
《信号処理部13》
 信号処理部13は、処理回路で構成されるとよい。処理回路は、専用のハードウエアであっても、メモリに格納されるプログラムを実行するCPU(Central Processing Unit、中央処理装置、処理装置、演算装置、マイクロプロセッサ、マイクロコンピュータ、プロセッサ、DSPともいう)であってもよい。処理回路が専用のハードウエアである場合、処理回路は、例えば単一回路、複合回路、プログラム化したプロセッサ、並列プログラム化したプロセッサ、ASIC、FPGA、又はこれらを組み合わせたものが該当する。
 このように信号処理部13は、スパコン等の大きさ計算資源で実現される必要はなく、一般的なパソコンであってよい。
《トリガ生成部14》
 トリガ生成部14は、信号処理部13と同様、処理回路で構成されるとよい。
《実施の形態1に係るレーザレーダ装置の動作について》
 光源部1は、単一周波数からなる連続波光を出力する。出力された連続波光は、分岐部2へ送られる。
 分岐部2は、送られた連続波光を2系統へ分配する。分配された一部は変調部3へ送られ、残りは合波部4へ送られる。合波部4へ送られる連続波光は、リファレンス、すなわち参照光として利用される。
 トリガ生成部14は、あらかじめ決められた繰返し周期のトリガ信号を生成する。トリガ生成部14で生成されたトリガ信号は、変調部3及びAD変換部12へと送られる。トリガ信号の電圧値及び電流値は、変調部3及びAD変換部12の仕様に基づいて決められてよい。
 変調部3は、分岐部2から送られた送信光を、トリガ信号に基づいてパルス光に変換し、さらに周波数シフトを付与する。変調部3により処理された送信光は、増幅部5を介して送信側光学系6へ送られる。
 送信側光学系6は、送られた送信光を設計されたビーム径及びビーム広がり角を有するように変換する。送信側光学系6により処理された送信光は、送受分離部7とビーム拡大部9とを介してビーム走査光学系10へ送られる。
 ビーム走査光学系10は、送られた送信光を大気中に向けて走査する。なお用語の「走査する」は、「スキャンする」「スキャニングする」と同義である。ビーム走査光学系10が行う送信光の走査は、例えば一定の角速度で、方位角方向(以降、「AZ方向」と称する)、仰角方向(以降、「EL方向」)、又はAZ方向とEL方向との両方を、変化させる。ビーム走査光学系10におけるビーム走査方向の情報は、具体的にはビームの方位角(θAZ)及び仰角(θEL)の情報は、信号処理部13の積算処理部13bへと送られる。なおAZ方向のAZは、方位角の英語名称Azimuthの最初の2文字であり、EL方向のELは、仰角の英語名称Elevationの最初の2文字である。
 大気中に向けて走査された送信光は、大気中のエアロゾル、及びビル等の構造物、といったターゲットで散乱し又は反射する。散乱し又は反射した光の一部は、受信光としてビーム走査光学系10、ビーム拡大部9、送受分離部7を介して受信側光学系8へと導かれる。
 大気中のエアロゾルで反射した受信光の周波数は、送信光の周波数と比較して、風速に対応したドップラシフトが生じる。本開示技術に係るレーザレーダ装置は、ヘテロダイン検波を行い、この風速に対応したドップラシフトの量を求め、レーザ照射方向の風速を計測する。ヘテロダインとは、2つの振動波形を合成又は掛け合わせることで新たな周波数を生成することである。2つの周波数を混合すると、三角関数の性質によって新たに2つの周波数が生じる。1つは混合する2つの周波数の和であり、もう1つはそれらの差である。ヘテロダイン検波は、このヘテロダインの性質を利用した検波方法である。
 合波部4は、分岐部2からの送信光と受信側光学系8からの受信光とを合波し、干渉させる。合波部4によって合波された光は、ヘテロダインの性質により送信光の周波数と受信光の周波数との差の周波数、すなわちドップラシフト周波数(以降、単に「ドップラ周波数」と称する)を有する。合波部4で合波し干渉させた信号は、「干渉ビート信号」、又は単に「ビート信号」と称される。合波部4で合波された光は、検出部11へ送られる。
 検出部11は、送られた光をアナログの電気信号に変換する。検出部11で処理がなされた電気信号、すなわちビート信号は、AD変換部12へ送られる。
 AD変換部12は、トリガ信号に同期して、アナログ電気信号のビート信号をデジタルの電気信号、すなわち時系列状のデジタル信号に変換する。時系列状のデジタル信号は、信号処理部13のスペクトル変換処理部13a及び輪郭抽出部13cへ送られる。
 信号処理部13のスペクトル変換処理部13aは、送られた時系列状のデジタル信号を、あらかじめ決められた時間窓長で分割し、有限のフーリエ変換を繰り返し実施する。
 図3下段のグラフは、スペクトル変換処理部13aが、あらかじめ決められた時間窓長で信号を分割し、それぞれ時間窓でFFT(Fast Fourier Transformation)を繰り返し実施する様子を示している。
 スペクトル変換処理部13aにおけるFFTの時間窓長は、レンジ方向の分解能を決定する。フーリエ変換の時間窓長(Δt)とレンジ方向の分解能(ΔL)とは、以下の関係が成り立つ。

Figure JPOXMLDOC01-appb-I000001

ただしcは光速を表す。関係式(1)は、TOF(Time of Flight)の原理に基づいたものである。なおレンジを表す記号としてLが用いられている理由は、距離の英語名称であるLengthの頭文字を由来としているためである。
 スペクトル変換処理部13aにおけるFFTは、ビート信号のピーク周波数、すなわちドップラ周波数を求めるFFTである。
 図3は、ビート信号を時間領域で表したグラフの例である。図3下段のグラフは、分割数(N)が6である場合が示されている。6つに分割されている時間領域の信号は、FFTの処理が実施されると6つのレンジビンの情報となる。ここで用語の「ビン」は、ヒストグラムにおける階級又は区間と同義である。図3下段のグラフにおけるi=0、1、…、5は、レンジビンのラベルである。第i番目のレンジビンが表す距離(L)は、ラベルiにレンジ方向分解能(ΔL)を乗じて得たものである。
 信号処理部13の積算処理部13bは、FFTの処理で得られたスペクトルデータを、積算処理する。積算処理は、平均化処理と同様の効果を奏し、SN比を改善する。
 積算処理に要する時間(Tint)は、積算回数をMとすると、以下のように求められる。

Figure JPOXMLDOC01-appb-I000002

ただしPRFは、パルス繰返し周波数である。PRFの逆数は、トリガの周期である。
 積算処理部13bで処理されたスペクトルデータは、対応するビーム走査光学系10からのビーム走査方向の情報とあわせて、風速場算出部13dへと送られる。積算処理部13bから風速場算出部13dへ送る情報は、本明細書ではS(L、θAZ、θEL)という記号で表すものとする。ここで下添え字のnはインデックスであるが、nの詳細は後述により明らかとなる。
 前述のとおりレンジ方向分解能(ΔL)はFFTの時間窓長(Δt)により決定されるが、角度の分解能はビーム走査光学系10のビーム走査速度で決定される。
 例えばビーム走査光学系10において、ビームがEL方向には固定され、AZ方向には一定の角速度ωAZ[deg/sec]で走査されていると仮定する。前述のとおり積算処理に要する時間はTint[sec]であるため、AZ方向の角度分解能(ΔωAZ)は、角速度ωAZに積分処理時間Tintを乗じて得た値となる。
 前述のとおり積算処理部13bが風速場算出部13dへ送る情報はL、θAZ、θELであるが、積算処理後のスペクトルデータ(S)には時間に幅があるため、Lをどの時点におけるθAZ、θELを紐づけするかは設計事項となる。紐づけは、例えば、積算処理の時間区間(開始時刻を0として時刻0からTintまでの間)におけるθAZ、θELの平均値又は中央値が採用されてよい。また紐づけは、積算処理の開始時点(時刻0)又は終了時点(時刻Tint)におけるθAZ、θELが採用されてもよい。
 信号処理部13の輪郭抽出部13cは、照射したレーザが構造物等のハードターゲットに反射した場合、処理を行う機能ブロックである。図3は、ビート信号を時間領域で表したグラフの例である。図3上段のグラフは、照射したレーザがハードターゲットに反射した場合のビート信号が示されている。図3上段のグラフに示されるとおり、ハードターゲットで反射した場合のビート信号は、積算等のノイズ処理が不要なほどSN比が高い。すなわちノイズの大きさと比較して信号の大きさが十分に大きい。
 輪郭抽出部13cは、ビート信号の大きさをあらかじめ設定した閾値と比較する。ビート信号の大きさが閾値を超えた場合輪郭抽出部13cは、ビーム照射開始から閾値を超えた反射信号を受信するまでの時間(THT)から、レーザレーダ装置からハードターゲットまでの距離(LHT)を算出する。レーザレーダ装置からハードターゲットまでの距離は、TOFの原理から、以下のように算出できる。

Figure JPOXMLDOC01-appb-I000003

なお、下添え字のHTは、ハードターゲットの英語表記Hard Targetの頭文字である。
 輪郭抽出部13cにより算出されたハードターゲットまでの距離(LHT)は、対応するビーム走査光学系10からのビーム走査方向の情報(θAZ、θEL)とあわせて、風速場算出部13dへと送られる。輪郭抽出部13cから風速場算出部13dへ送る情報は、本明細書ではC(LHT、θAZ、θEL)という記号で表すものとする。
 ここで下添え字のnは前述のとおりインデックスであるが、nには例えばフレーム番号を割り当てるとよい。フレーム番号は、簡単に言えばビーム走査光学系10におけるビーム走査の回数である。例えば前述と同様に、ビーム走査光学系10において、ビームがEL方向には固定され、AZ方向には一定の角速度ωAZ[deg/sec]で走査されていると仮定する。AZ方向のダイナミックレンジは、0[度]から90[度]まで、と仮定する。またビーム走査光学系10において、ビームがAZ方向を往復するように走査されると仮定する。方位角(θAZ)の初期値は0[度]とする。方位角(θAZ)を0[度]から90[度]まで走査することは往路と称し、方位角(θAZ)を90[度]から0[度]まで走査することは復路と称する。時刻0の初期値0[度]から90[度]までの最初の往路は、フレーム番号(n)が0である。90[度]から0[度]までの最初の復路は、フレーム番号(n)が1である。以降は同様の規則に則って、方位角(θAZ)がダイナミックレンジの端に到達する度にフレーム番号(n)がインクリメントされる。
 信号処理部13の風速場算出部13dは、積算処理部13bから送られた情報、すなわちS(L、θAZ、θEL)に基づいて、風速場を計算する。
 図4は、実施の形態1に係るレーザレーダ装置の観測点を表した観測環境のマップの例である。図4において、白い四角のプロットが、風速を観測した観測点を表す。このように風速を観測した観測点は、極座標系の目盛線の交点に現れる。また図4において、黒い丸のプロットが、ハードターゲットを観測した観測点を表す。なお図4は、ビームがEL方向には固定され、AZ方向に走査された場合を示している。
 図4には示されていないが、レーザはハードターゲットを通過することはなくすべて反射されるため、ハードターゲットの死角となる観測点では、風速を観測できない。ハードターゲットの死角となる観測点は、後述の学習アルゴリズム部13eにより、データを補間するとよい。
 風速場算出部13dは、風速を観測した観測点のそれぞれにおいて、スペクトルのピーク位置からドップラ周波数を求め、風速(v)を算出する。レンジビンにおいてスペクトルのピークが複数存在する場合、重心演算を行ってドップラ周波数を求めてもよい。風速(v)は、以下のドップラ周波数(Δf)との関係式から求めることができる。

Figure JPOXMLDOC01-appb-I000004

ただしλは、光源部1から出力されるレーザ光の波長である。風速場算出部13dは、図4に示されるように観測環境における複数の観測点における風速(v)をそれぞれ算出する。算出した観測点のそれぞれにおける風速(v)は、マップ上に「風速場」として表示するとよい。
 以上の風速場算出部13dの処理ステップにより、風速場情報(v(L、θAZ))、及び構造物情報(C(LHT、θAZ))が算出される。風速場算出部13dで算出された風速場情報(v(L、θAZ))、及び構造物情報(C(LHT、θAZ))は、学習アルゴリズム部13eへ送られる。
 風速場算出部13dの処理ステップにより算出される風速場情報(v(L、θAZ))の風速(v)は、前述のとおり、レーザ照射方向の速度成分に過ぎない。日本気象協会が提供するアメダス実況(風向・風速)のような風速場を求めるには、2次元の場合は最低2台のレーザレーダ装置により、3次元の場合は最低3台のレーザレーダ装置により、同じ観測環境を計測する必要がある。
 図5は、実施の形態1に係る信号処理部13の学習アルゴリズム部13eが観測結果を補間する様子を示したマップの例である。図5に示されるとおり学習アルゴリズム部13eは、簡単に言えば、観測結果を補間する。図5において、「×」のプロットは、学習アルゴリズム部13eにより補間されたマップ上の位置を示している。
 なお図5に示されていないが、前述のとおり学習アルゴリズム部13eは、構造物等のハードターゲットの死角における観測点の値についても補間するとよい。特に建物等の構造物の周辺は、剥離流、吹き降ろし、逆流、谷間風、開口部風、街路風、渦領域等のビル風が生じるため、死角となる箇所についても風況を把握することはとても重要である。
 学習アルゴリズム部13eは、人工ニューラルネットワーク等で構成された人工知能を有することにより、観測結果の補間を実施する。
 図6は、実施の形態1に係る信号処理部13の学習アルゴリズム部13eが観測結果を補間する原理を示した模式図である。図6における「風速場予測NN」と表示された部分は、学習アルゴリズム部13eが有する人工ニューラルネットワーク(以降、単に「ニューラルネットワーク」又は「NN」と称す)を表す。
 一般に、人工知能が学習を行う段階は「学習フェーズ」と称され、学習済み人工知能が推論を行う段階は「推論フェーズ」と称される。図6は、学習アルゴリズム部13eが有するニューラルネットワークの学習フェーズにおける入出力を表したもの、と言える。
 図6の「風速場計測値(疎)+構造物輪郭情報」(以降、「学習データA」と称する)は、レーザレーダ装置によって取得された空間的に疎ら(まばら)な風速場の計測値と構造物の輪郭情報とを表す。学習データAは、学習データセットの一部を構成する。
 図6の「風速場教師値(密)+構造物輪郭情報」(以降、「学習データB」と称する)は、いわゆる教師データであり、学習データAとともに学習データセットを構成する。学習データBは、例えば学習データAに基づいて、流体シミュレーションを実施することにより生成されたものでよい。流体シミュレーションは、例えば数値流体力学(CFD、Computational Fluid Dynamics)の手法を用いてよい。なお、教師データの作成を行う流体シミュレーションは、レーザレーダ装置の信号処理部13とは別の計算機等の計算資源によって実施されてよい。
 教師データは、学習データAと学習データBと、共に流体シミュレーションにより作られたものでもよい。また教師データは、入手が可能であれば、すべて実測データであってもよい。
 なお図6において学習データA及び学習データBを直交座標系らしく格子状に空間を分割して示されているが、図5のように極座標系らしく空間が分割されていてもよい。
 図6の「推定風速場(密)+構造物輪郭情報」は、学習アルゴリズム部13eのニューラルネットワークの出力を示している。教師データである学習データBを基準としたときに、ニューラルネットワークの出力には推定誤差が含まれる。学習アルゴリズム部13eのニューラルネットワークは、この推定誤差にペナルティ項を加算した評価関数(図6においてはスクリプト書体のLで表示)を最小化するように学習を進めるとよい。
 学習アルゴリズム部13eが有する人工知能は、可能な限り多様な想定され得る状況における学習データセットを用いて学習されることが望ましい。
 なお人工知能の学習は、レーザレーダ装置の信号処理部13とは別の開発環境において、学習が行われてもよい。この場合、別の開発環境で学習された人工知能の数理モデルを、学習が完了した後に、最適化されたパラメータの状態で、学習アルゴリズム部13eへ移してもよい。
 推論フェーズにおける学習アルゴリズム部13eは、学習済みの人工知能、すなわち最適化されたパラメータを有する数理モデルを有する。
 推論フェーズの学習アルゴリズム部13eは、風速場算出部13dから送られた風速場情報(v(L、θAZ))、及び構造物情報(C(LHT、θAZ))に基づいて、観測結果を補間し、流体シミュレーションを行うよりもはるかに短い時間内で、密な風速場データを生成することができる。
 レーザレーダ装置におけるフレームレートを多くする、又はスキャニングスピードを上げる、という解決手段により求める風速場のデータを密にすることも考えられる。しかしこれらの解決手段には限界があり、コストの上昇にもつながる。
《レーザレーダ装置の応用例について》
 本開示技術に係るレーザレーダ装置は、例えば、航空機、又はドローン、等の空中を移動する空中移動体の航行支援に応用することが考えられる。
 図7は、実施の形態1に係るレーザレーダ装置を空中移動体の航行支援に応用した場合のマップの例である。図7に示される破線の曲線は、空中移動体の移動経路を示したものである。また図7に示される上向き黒三角「▲」は移動経路の始点を表し、下向き黒三角の「▼」は移動経路の終点を表す。
 図7に示される黒四角の「■」は、空中移動体にとって危険となる風速である観測位置を示したものである。例えば空中移動体がドローンである場合、レーザレーダ装置は、ドローンにとって危険となる風速、例えば風速が5[m/sec]以上の観測点を、他の観測点とは異なる態様で表示し、危険個所を示すようにしてよい。図7は、本開示技術によれば、空中移動体の移動経路が危険個所として示された箇所を回避して設定できる、ということを示している。なお危険と判断する風速の閾値は、空中移動体の種類、使われる状況、等によって適宜決められてよい。
 ビーム走査光学系10において、ビームをEL方向の走査とAZ方向の走査とを組み合わせて走査した場合、得られる3次元の情報は、例えば図8に示されるとおりである。
 図8は、実施の形態1に係るレーザレーダ装置を空中移動体の航行支援に応用した場合の3次元マップの例である。図8に示される破線、及び各プロットは、図7と同じ意味で用いられている。
 本開示技術は、レーザレーダ装置の技術として記載されたが、これに限定されるものではない。本開示技術は、例えば超音波風速計等のセンサが群衆配置されたシステムにおいて、学習アルゴリズム部13eがセンサ間のデータを補間してもよい。
 本開示技術に係るレーザレーダ装置は、風速場データの取得と輪郭情報の取得とを、同時に行ってもよいし、交互に繰り返して行ってもよい。また本開示技術に係るレーザレーダ装置は、風速場データの取得と輪郭情報の取得とを、同じ回数で行ってもよいし、異なる回数で行ってもよい。
 本開示技術に係るレーザレーダ装置は、風速場データの取得と輪郭情報の取得とを、同じスキャニングパターンで行ってもよいし、異なるスキャニングパターンで行ってもよい。また本開示技術に係るレーザレーダ装置は、風速場データの取得と輪郭情報の取得とにおいて、走査速度、及び走査範囲等のパラメータを、同じとしてもよいし、別としてもよい。
実施の形態2.
 実施の形態1に係るレーザレーダ装置は、構造物の輪郭情報をレーザレーダ装置自身が計測する態様であったが、本開示技術はこれに限定されない。
 実施の形態2に係るレーザレーダ装置は、他の手段によって構造物の輪郭情報を取得する、という態様である。
 実施の形態2は、特に明記する場合を除き、実施の形態1と同じ符号が用いられる。また実施の形態2は、実施の形態1と重複する説明が適宜省略される。
 図9は、実施の形態2に係るレーザレーダ装置の構成を示すブロック図である。図9には、輪郭抽出部13cに代えて、構造物の輪郭情報を取得する他の手段である距離イメージング装置15が示されている。
図9に示される距離イメージング装置15は、例えばイメージングライダ等のライダであってよい。距離イメージング装置15は、例えばTOFの原理に基づいて、構造物の輪郭情報を計測するものであってよい。
 距離イメージング装置15は、計測した距離イメージデータから、構造物等のハードターゲットの位置を求める。距離イメージング装置15により検出された結果は、信号処理部13の風速場算出部13dへと送られる。
 実施の形態2に係る信号処理部13の風速場算出部13dは、実施の形態1に係る輪郭抽出部13cの出力に対して行う処理と同じ処理を、距離イメージング装置15により検出された結果に対して行う。
 距離イメージング装置15は、構造物等のハードターゲットについての計測が可能であればよく、風速を測定する必要はない。すなわち距離イメージング装置15は、ハードターゲットの測距に特化して設計されたものを利用することができる。
 実施の形態2に係るレーザレーダ装置が距離イメージング装置15の計測結果を利用するため、同じ空間座標系を共有することが重要である。
 ハードターゲットのうち建物等の構造物は、動的な挙動はほとんどない。構造物の移動は、あっても非常にゆっくりで、距離もそれほど長くない。したがって距離イメージング装置15によるハードターゲットの測定頻度は、レーザレーダ装置による風速の測定頻度よりもはるかに少なくてよい。ただし、データの信ぴょう性及び証拠として利用されることを考慮して、必要に応じて距離イメージング装置15は、レーザレーダ装置と同期した時計を有してもよい。
 構造物に動的挙動がないことから本開示技術に係るレーザレーダ装置は、距離イメージング装置15の計測結果に代えて、国土地理院等から提供される地図情報を利用してもよい。
 本開示技術に係るレーザレーダ装置は大気中のエアロゾルからの反射信号を扱うが、エアロゾルからの反射信号は一般的に信号強度が極めて低い。そのため本開示技術に係るレーザレーダ装置は、パルス幅が比較的に広い。
 一方で、構造物等のハードターゲットについての計測は、パルス幅を狭くすることで距離分解能を向上させることができる。このとおり信号強度と距離分解能とは、トレードオフの関係にある。
 本開示技術に係るレーザレーダ装置は、実施の形態2に示した態様のように、風速の計測に特化し、構造物等のハードターゲットの位置の検出を別の装置である距離イメージング装置15を用い、トレードオフの問題を解決する。
 以上のとおり実施の形態2に係るレーザレーダ装置は、トレードオフの問題を解決し、実施の形態1に係るレーザレーダ装置と同様の効果を奏する。
 本開示技術に係るレーザレーダ装置は、例えばドローン等の航行支援システムに応用でき、産業上の利用可能性を有する。
 1 光源部、2 分岐部、3 変調部、4 合波部、5 増幅部、6 送信側光学系、7 送受分離部、8 受信側光学系、9 ビーム拡大部、10 ビーム走査光学系、10a 方位角変更用ミラー、10b 仰角変更用ミラー、10c 回転制御部、11 検出部、12 AD変換部、13 信号処理部、13a スペクトル変換処理部、13b 積算処理部、13c 輪郭抽出部、13d 風速場算出部、13e 学習アルゴリズム部、14 トリガ生成部、15 距離イメージング装置。

Claims (4)

  1.  レーザを走査して観測環境の風速場を計測するレーザレーダ装置であって、
     スペクトル変換処理部と、積算処理部と、風速場算出部と、学習アルゴリズム部と、を含む信号処理部13を備え、
     前記スペクトル変換処理部は、時系列状のデジタル信号であるビート信号をFFT処理し、スペクトルデータを生成し、
     前記積算処理部は、前記スペクトルデータを積算処理し、
     前記風速場算出部は、前記積算処理部により処理されたデータの情報に基づいて前記風速場を計算し、
     前記学習アルゴリズム部は、学習済み人工知能を備え、前記風速場の情報に基づいて、観測結果を補間する、
    レーザレーダ装置。
  2.  前記風速場算出部は、前記風速場の情報に加え、前記観測環境にある構造物の情報を算出する、
    請求項1に記載のレーザレーダ装置。
  3.  前記学習済み人工知能は、ニューラルネットワークである、
    請求項1に記載のレーザレーダ装置。
  4.  前記学習アルゴリズム部は、前記観測環境のうち前記構造物の死角となる観測点についても補間する、
     請求項2に記載のレーザレーダ装置。
PCT/JP2022/005312 2022-02-10 2022-02-10 レーザレーダ装置 WO2023152863A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2023579434A JP7459408B2 (ja) 2022-02-10 2022-02-10 レーザレーダ装置
PCT/JP2022/005312 WO2023152863A1 (ja) 2022-02-10 2022-02-10 レーザレーダ装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2022/005312 WO2023152863A1 (ja) 2022-02-10 2022-02-10 レーザレーダ装置

Publications (1)

Publication Number Publication Date
WO2023152863A1 true WO2023152863A1 (ja) 2023-08-17

Family

ID=87563908

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2022/005312 WO2023152863A1 (ja) 2022-02-10 2022-02-10 レーザレーダ装置

Country Status (2)

Country Link
JP (1) JP7459408B2 (ja)
WO (1) WO2023152863A1 (ja)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004101265A (ja) * 2002-09-06 2004-04-02 Mitsubishi Electric Corp 風力発電用風車建設予定地の風向風速計測方法
JP2017067680A (ja) * 2015-10-01 2017-04-06 国立研究開発法人宇宙航空研究開発機構 遠隔気流計測装置、遠隔気流計測方法及びプログラム
JP2020159725A (ja) * 2019-03-25 2020-10-01 株式会社新エネルギー総合研究所 風況予測システム、及び風況予測方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004101265A (ja) * 2002-09-06 2004-04-02 Mitsubishi Electric Corp 風力発電用風車建設予定地の風向風速計測方法
JP2017067680A (ja) * 2015-10-01 2017-04-06 国立研究開発法人宇宙航空研究開発機構 遠隔気流計測装置、遠隔気流計測方法及びプログラム
JP2020159725A (ja) * 2019-03-25 2020-10-01 株式会社新エネルギー総合研究所 風況予測システム、及び風況予測方法

Also Published As

Publication number Publication date
JP7459408B2 (ja) 2024-04-01
JPWO2023152863A1 (ja) 2023-08-17

Similar Documents

Publication Publication Date Title
JP6811862B2 (ja) 光学測距システムによる適応走査の方法およびシステム
US20170139038A1 (en) Method and signal generator for simulation of sea clutter
US9261593B1 (en) Higher order processing for synthetic aperture radar (SAR)
KR101628154B1 (ko) 수신 신호 세기를 이용한 다중 표적 추적 방법
EP3561539A1 (en) Angular resolution of targets using separate radar receivers
Iqbal et al. Imaging radar for automated driving functions
CN112771405A (zh) 用于优化相干lidar的扫描的方法和系统
CN110596671A (zh) 一种lfmcw测速测距雷达的优化处理方法及系统
Horstmann et al. Wind, wave, and current retrieval utilizing X-band marine radars
Lim et al. DNN-based human face classification using 61 GHz FMCW radar sensor
Setlur et al. Dual-frequency doppler radars for indoor range estimation: Cramér–rao bound analysis
Pandey et al. Database of simulated inverse synthetic aperture radar images for short range automotive radar
JP5699405B2 (ja) レーダ受信信号処理装置とその方法
Akhtar et al. Formation of range-doppler maps based on sparse reconstruction
Holder et al. Modeling and simulation of radar sensor artifacts for virtual testing of autonomous driving
WO2023152863A1 (ja) レーザレーダ装置
Muñoz-Ferreras et al. Subinteger range-bin alignment method for ISAR imaging of noncooperative targets
CN109116359A (zh) 一种机载雷达低空风切变风场回波风速的估计方法
JP2856186B2 (ja) 合成開口レーダシステム、その情報処理装置および方法
JP7415096B2 (ja) レーザレーダ装置、及びレーザレーダ装置用の信号処理装置
CN116466307A (zh) 一种基于深度图的毫米波雷达点云仿真的方法和装置
Nepal et al. Matched filter based iterative adaptive approach
Long et al. Low power millimeter wave radar system for the visually impaired
JP2022087526A (ja) レーダ装置及びレーダ信号処理方法
Story et al. Radar measurement of ocean waves

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 22925884

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 2023579434

Country of ref document: JP