WO2023152434A1 - Method for reconstructing an image of a scene - Google Patents

Method for reconstructing an image of a scene Download PDF

Info

Publication number
WO2023152434A1
WO2023152434A1 PCT/FR2023/050108 FR2023050108W WO2023152434A1 WO 2023152434 A1 WO2023152434 A1 WO 2023152434A1 FR 2023050108 W FR2023050108 W FR 2023050108W WO 2023152434 A1 WO2023152434 A1 WO 2023152434A1
Authority
WO
WIPO (PCT)
Prior art keywords
samples
new
image
signal
pixel
Prior art date
Application number
PCT/FR2023/050108
Other languages
French (fr)
Inventor
Marc Pinto
Original Assignee
Eca Robotics
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Eca Robotics filed Critical Eca Robotics
Publication of WO2023152434A1 publication Critical patent/WO2023152434A1/en

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/89Radar or analogous systems specially adapted for specific applications for mapping or imaging
    • G01S13/90Radar or analogous systems specially adapted for specific applications for mapping or imaging using synthetic aperture techniques, e.g. synthetic aperture radar [SAR] techniques
    • G01S13/904SAR modes
    • G01S13/9054Stripmap mode
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/89Radar or analogous systems specially adapted for specific applications for mapping or imaging
    • G01S13/90Radar or analogous systems specially adapted for specific applications for mapping or imaging using synthetic aperture techniques, e.g. synthetic aperture radar [SAR] techniques
    • G01S13/9004SAR image acquisition techniques
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S15/00Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
    • G01S15/88Sonar systems specially adapted for specific applications
    • G01S15/89Sonar systems specially adapted for specific applications for mapping or imaging
    • G01S15/8902Side-looking sonar
    • G01S15/8904Side-looking sonar using synthetic aperture techniques

Definitions

  • the present invention relates to the field of sonar or radar imaging, and the detection of objects from an antenna, sonar or radar system, in particular a synthetic aperture system.
  • Knowledge of an aquatic environment represents a major challenge for a large number of applications.
  • the exploration of the underwater environment plays a very important role in many fields, such as the oil industry or the deployment of civil or military ships.
  • Accurate imaging of submerged objects and/or the seabed makes it possible, in particular, to inspect structures and detect objects below the surface of the water, such as shipwrecks or underwater mines, underwater cables sailors or moving objects.
  • acoustic waves are well suited to underwater detection and have quickly established themselves in this field.
  • Sonar systems for “SOund Navigation And Ranging” have thus become privileged means for bathymetry and the detection of objects in aquatic environments.
  • the angular resolution of a sonar system is linked to two main parameters: the frequency of the acoustic wave, and the length of the antenna, made up of one or more sensors.
  • FIG. 1a An example of an SAS system is shown in Figure 1a, as part of a towed linear antenna, mounted on an autonomous underwater vehicle (or AUV, for "autonomous underwater vehicle” in English) moving along a rectilinear trajectory 101
  • an autonomous underwater vehicle or AUV, for "autonomous underwater vehicle” in English
  • incident waves in the form of sound pulses are emitted from the linear antenna at different positions 103a, 103b, 103c, 103d along the path 101.
  • backscatter phenomenon or “backscatter” in English).
  • the backscattered signals can be combined to produce an image of the seabed, and in particular of the object 102 (fixed or mobile) located in the field of the antenna, for example at the bottom of the sea. More precisely, by carrying out a coherent integration of the backscattered signals taking into account the delays (or path differences) of the signals relative to each other due to the successive positions of the antenna, it is possible to simulate a so-called "synthetic" large antenna (of LSA length much greater than the LR length of the actual antenna), which would be impossible to achieve for technical and cost reasons. The resolution of the SAS system is therefore greatly improved compared to a conventional sonar system.
  • object 102 it is conceptually very convenient to treat object 102 as a fictitious source radiating towards the vehicle with a fictitious speed of sound equal to the real speed divided by two (this model is known in seismic as the "exploding reflector model”) , or “exploding reflector model” in English).
  • This model is known in seismic as the "exploding reflector model”
  • Exploding reflector model in English
  • the factor two is introduced to compensate for the difference between the round trip path in the real case and the single path in the fictitious case.
  • Imaging is then similar to the reconstruction of a field of such sources. When this field comprises only one point source, located for example at 102, the corresponding image is called the point spread function, or spatial impulse response, and is sufficient to fully characterize the imaging system, by the principle of superposition of linear systems.
  • FIG. 1b represents an example of a theoretical trajectory and an example of a real trajectory of an autonomous marine or submarine vehicle.
  • the autonomous underwater vehicle 104 is assumed to follow a theoretical rectilinear trajectory 105 represented at the top of FIG. 1b. Due to parasitic movements (for example, yaw, pitch, yaw, etc.) related to the aquatic environment, the real trajectory 106 actually followed by the vehicle 104 can be very different from the theoretical trajectory 105, as represented at the bottom of the Figure 1b.
  • the vehicle 104 can be oriented along an axis making an angle ⁇ with respect to the direction of the nominal trajectory, as shown in Figure 1b. Such an angle can develop in particular in the presence of a current perpendicular to the trajectory.
  • Several methods of the prior art make it possible to effectively measure the trajectory errors, that is to say the differences between the real trajectory 106 and the theoretical trajectory 105 followed by the vehicle 104, as well as the attitudes of the vehicle (for example the angle a represented at the bottom of Figure 1 b). These methods make it possible to determine the positions of the antenna and the successive path differences in a precise manner. However, knowledge of these elements is not sufficient, it is also necessary that the methods of forming images from the collected data can integrate them effectively.
  • temporal methods i.e. methods in which data is processed only in the domain time domain
  • frequency methods i.e. methods in which data is processed only in the frequency domain
  • Temporal methods such as the backprojection algorithm (or “backprojection” in English), also called spatial filtering by delay and summation (or “delay and sum beamforming” in English), advantageously integrate all the determined path differences, leading thus to a very precise reconstruction of the seabed and the object.
  • the back-projection algorithm is based on the calculation of the sum of the signals received by the different sensors of the antenna at different positions, to which respective delays have been applied to compensate for their round-trip propagation times from the sensor to to the considered image pixel.
  • backpropagation such an application of a delay to a signal to compensate for its propagation time is called “backpropagation”, “backprojection” or even “migration” (terminology borrowed from the field of seismic).
  • the received signals are modeled by cylindrical or spherical waves, which are migrated towards the place where the source is supposed to be located and that we sum, to obtain a new signal whose energy we can then calculate in order to deduce the scattering power of the source (and therefore the intensity of the pixel of the image associated with this source).
  • Such methods are very computationally expensive. Indeed, because of the curvature of the wave surfaces, it is not possible to migrate the waves towards an entire group of pixels at the same time, for example an entire row or an entire column of the image. It is necessary to restart the migration, and the associated interpolations, for each pixel of the image, which requires a computer having a weight and a high energy consumption.
  • frequency methods such as the Omega-k (or co-k) algorithm
  • Omega-k or co-k
  • these methods are mainly based on the Fourier diffraction theorem, which uses monochromatic plane waves, i.e. narrow-band plane waves (more precisely, this theorem provides the Fourier transform of the scattered or backscattered field associated with an object insonified by a wave monochromatic plane).
  • Fourier's diffraction theorem presupposes an "ideal" antenna, i.e. an antenna following a uniform rectilinear motion. For this reason, the frequency methods take into account the antenna deformations with difficulty (i.e.
  • the invention proposes to decompose broadband signals received by a synthetic antenna sonar or radar system from a source into a plurality of broadband plane waves in the domain temporal, thanks to a broadband and far-field temporal channel formation method. Then, for each plane wave formed, a migration of this wave towards a pixel of the image where the source is supposed to be located is implemented, also in the time domain. As detailed below, these two main steps can be implemented with a reasonable computational cost. Furthermore, the use of wideband signals is well suited to sonar signals (as well as to certain radar systems), and therefore allows more accurate results than the methods of the prior art based on narrowband signals. The proposed method is therefore both accurate and inexpensive in terms of calculations.
  • Antenna system means a system comprising a physical antenna, or a synthetic aperture antenna system.
  • scene it is understood a portion of the space of which one seeks to reconstruct an image.
  • the scene can designate a limited portion of the seabed, of which one wishes to obtain an image.
  • the present invention advantageously uses broadband signals, and makes it possible to obtain more precise results than methods which presuppose narrowband signals, this assumption often not being valid in many applications such as seabed imaging. For example.
  • step b typically corresponds to a channel formation step, which is a technique well known in the field of antenna processing for locating sources, during which the signals received by the various sensors are combined. so as to form new signals associated with a set of given directions.
  • Lane formation consists of compensating for the path differences between the sensors in the given directions.
  • synthetic antenna processing which uses signals received from several successive transmissions, it is necessary to compensate for these path differences on the outward and return paths. It is possible to approximate the round-trip travel time to an object 102 by twice the "simple" travel time between a fictitious geometric point in space, called the phase center, and said object, as if the transmission and reception took place in the same place.
  • the phase center corresponds to the midpoint between the position in space occupied by the transmitter at the time of emission and that occupied by the receiving sensor at the time of reception of the echo of the object 102.
  • This approximation makes it possible to simplify the disclosure of the invention but it is by no means mandatory. It is also possible to calculate exact round-trip travel times by taking into account the spatial separation between transmission and reception.
  • the new signals formed correspond to plane waves, as if the object 102 were located at infinity. This is a so-called far-field method of channel formation.
  • the use of such a method for a synthetic antenna is part of the originality of the invention because it is well known that synthetic imaging is performed in the near field in the vast majority of cases.
  • object 102 is a few hundred meters from the sonar while the far field of the synthetic antenna is several kilometers away. It is for this reason that all the temporal methods of the prior art use spherical or cylindrical waves, that is to say so-called near-field channel formation methods, which alone make it possible to obtain in a single stage a properly focused image.
  • the formation of channels in the far field is only a second step b, the focused image being produced only in the next step c.
  • the decomposition into plane waves does not aim to focus an image but to reduce the computational load.
  • Stage c corresponds to a migration of the plane waves thus formed towards the pixels of the image where the sources which gave rise to them are supposed to be located.
  • the migrated waves are the newly formed plane waves and not the spherical or cylindrical waves received, which proves to be much more efficient in computation time because the migration can be carried out simultaneously for all the pixels of a line or a column of the image by a simple expansion of the signal, without there being any need to start the migration again for each pixel.
  • the luminous intensity of a pixel can correspond to its gray level.
  • Such a method advantageously makes it possible to construct an image of a scene observed by a synthetic aperture system in a rapid, precise manner and with low energy consumption.
  • the antenna system may be synthetic aperture radar or synthetic aperture sonar.
  • the scene may correspond to a limited portion of a seabed.
  • the method may further comprise receiving data relating to a variation in movement of the system relative to a theoretical trajectory.
  • the new samples of the new time signals can then further be calculated from said data. Furthermore, since the processing is done in the time and non-frequency domain, these motion variations can themselves vary rapidly over time without the computational load being affected.
  • the method advantageously integrates the motion errors and their variation over time, and provides much more precise results than the frequency methods which have great difficulty in dealing with the dynamic deformations of the synthetic antenna.
  • the new samples of the new time signals may be computed using a broadband, far-field time channeling method.
  • the channel formation method is based on the assumption that the sources are located in the far field, that is to say far enough from the sensors for the wave front of the signals received to be considered. as blueprint.
  • broadband and far-field temporal channels can be based on an iterative algorithm of the kind described in "A fast beamforming algorithm” by Kenneth M. Houston, IEEE Oceans Conference Record 1 (1994) 211- 216 or similar algorithms that are known to those skilled in the art.
  • this algorithm has O(Nlog2N) computational complexity, while time channeling methods typically have O(N 2 ) computational complexity. Such an algorithm therefore makes it possible to implement step b rapidly.
  • step c can comprise an implementation of at least one Z-Chirp transform, which is a transform making it possible to expand or compress a signal in an effective manner.
  • the Z-Chirp transform also has a computational complexity in O(Nlog2N), thus allowing rapid implementation of step c.
  • the light intensity of said each pixel may be a function of a sum of values of the selected samples.
  • Another aspect of the invention relates to a device for reconstructing an image of a scene from data coming from a synthetic aperture antenna system, said image comprising a plurality of pixels.
  • This device may include: an input interface for: a. receiving broadband time signal samples backscattered from reflectors in the scene for one or more sensors of the antenna system.
  • the device may further comprise a circuit for implementing, for each pixel among the plurality of pixels: b. for each direction among a plurality of directions, calculating, from the samples received by said one or more sensors, new samples of a new temporal signal respectively associated with said each direction, each new signal respectively corresponding to a broadband plane wave in said each direction; vs. for each direction among the plurality of directions, selecting, among the new samples of the respective new temporal signal, samples corresponding to a round trip time of said new signal from an origin of the image to said each pixel; and D. determining a light intensity of said each pixel from the selected samples.
  • the device for reconstructing an image can be integrated into the synthetic aperture antenna system, or be a device separate from the synthetic aperture antenna system.
  • a computer program, implementing all or part of the method described above, installed on pre-existing equipment, is in itself advantageous, since it makes it possible to obtain an image of the scene in a precise manner and with a relatively low computational cost.
  • the present invention also relates to a computer program comprising instructions for implementing the method described above, when this program is executed by a processor.
  • This program can use any programming language (for example, an object language or other), and be in the form of interpretable source code, partially compiled code or fully compiled code.
  • Figure 5 described in detail below, can form the flowchart of the general algorithm of such a computer program, according to one or more embodiments.
  • Another aspect relates to a non-transitory recording medium of a computer-executable program, comprising a set of data representing one or more programs, said one or more programs comprising instructions for, upon execution of said one or more programs by a computer comprising a processing unit operationally coupled to memory means and to an input/output interface module, to execute all or part of the method described above.
  • Figure 1a shows an example of a synthetic aperture sonar system
  • Figure 1b illustrates an example of a theoretical trajectory and an actual trajectory of an autonomous underwater vehicle on which an antenna is mounted as part of a synthetic aperture sonar system
  • Figure 2 shows an example of a coordinate system that can be used to describe the motion of the sonar phase center C in embodiments of the invention
  • Figure 3 is an illustration of Fourier's diffraction theorem
  • Figure 4 represents an example of migration of a plane wave towards a pixel of the image
  • Figure 5 is a flowchart of a method for reconstructing the image of an object according to one or more embodiments
  • FIG. 6 represents the samples of the signal in the Fourier plane at different stages of the migration, according to one or more embodiments
  • Figures 7a and 7b represent respectively the spread functions of the point obtained by a method of the prior art on the one hand, and of an image reconstruction method according to an embodiment of the invention d 'somewhere else ;
  • Figure 8 represents a schematic block diagram of an information processing device for the implementation of one or more embodiments of the invention.
  • the mobile device on which the antenna used to reconstruct an image is mounted follows a theoretical uniform rectilinear motion.
  • the terms "antenna” and “sonar” are used interchangeably.
  • the sonar phase center denoted C and defined as the point located in the middle of the position occupied by the sonar at the time of the transmission of the acoustic wave and the position occupied by the sonar at the time of the reception of the wave backscattered by an object or by the seabed in a given direction, theoretically moves at constant speed along an axis (Ox).
  • the trajectory errors presented previously and illustrated in Figure 1b are assumed to be known, for example using a method of the prior art, such as the method described in patent application FR 1457951 filed on August 25, 2014 in the name of ECA ROBOTICS.
  • Figure 2 shows an example of a coordinate system that can be used to describe the motion of the sonar phase center C in embodiments of the invention.
  • point S represents the source of the signal received by one of the sensors of the antenna.
  • source it is understood a point of the observed scene (i.e. space insonified by the synthetic antenna) from which one wishes to obtain an image, each pixel of the image corresponding for example to the power of the field diffused by a point of this scene.
  • the source can correspond to a point of an object located at the bottom of the water.
  • the phase center C of the sonar is supposed, in theory, to move along the axis (Ox) at constant speed.
  • the distance x between the origin O of the coordinate system and the point C along the axis (Ox) of displacement of the sonar is commonly called “azimuth” in the SAR literature in English.
  • the distance r corresponds to the orthogonal distance from S to the axis (Ox) and is commonly called “slant range” or simply “range” in the SAR literature in English.
  • the coordinate system shown is a cylindrical coordinate system in which the axis of the cylinder corresponds to the axis of the path (Ox). Due to the symmetry of revolution around the axis (Ox), the study of the signals received from a source S towards the phase center C of the sonar can be carried out in the two-dimensional space Oxr.
  • the signals used are generally considered to be narrowband. It is recalled that a signal can be considered to be narrowband if the time taken by a plane wave to insonify the entire antenna (ie the difference between the time taken by the wave to insonify the sensor of the antenna furthest from the source and the time taken by the wave to insonify the sensor of the antenna closest to the source) is very small in front of the duration of the sound pulse (ie the duration of the ping). In this case, it is considered that all the sensors of the antenna are insonified approximately at the same time.
  • this approximation is valid when the ratio between the time taken by a plane wave to insonify the whole of the antenna and the duration of the sound pulse is less than 0.1.
  • the above condition is often verified in the radar domain (although in some cases it is not applicable), so methods used in SAR imagery relying on narrowband signals generally provide good results. However, it is generally not applicable in the sonar field.
  • an object 301 is shown insonified by a monochromatic plane wave 302.
  • the scattered field 303 can then be measured. It is noted that in the context of sonar applications, one is interested in the backscattered field, but the principle remains the same as for a diffused field.
  • the Fourier diffraction theorem states that the Fourier transform of the scattered field 303 along the axis 304 corresponds to the value of the two-dimensional (2D) Fourier transform of the object 301 along an arc of circle 305 in the frequency domain.
  • 2D Fourier transform of the complete object 301 it is necessary to insonify this object 301 under different directions 304 and at different frequencies, in order to obtain a family of circular arcs 305.
  • An image of the object 301 can then be obtained by applying an inverse Fourier transform to the family of circular arcs 305 obtained. It is noted that this theorem relies on monochromatic plane waves 302, and therefore applies to narrowband signals.
  • the narrow-band SAS image I(x, r, k) can be obtained by weighting the angular spectrum W(u, k) by B(u, k), then performing a migration (or backpropagation) of narrow-band plane waves towards each point (or pixel) P of coordinates (x, r) of the image, by applying to W(u, k) a phase shift of 2k(xu + rv), that can be associated with the propagation delay 2(xu + rv)/c corresponding to the round trip travel time of the plane wave coming from the point O and heading in the direction 0 and the pixel P.
  • the broadband SAS image i(x, r) can be obtained in an elementary way by linear superposition of the components I(x, r, k) of the narrowband SAS image, i.e. by back-propagation all the components W(u, k) of the wideband signal (i.e. all the narrowband plane waves resulting from the decomposition of the wideband signal) to which a weighting has been applied by a narrowband directivity diagram B(u , k).
  • the broadband SAS image i(x, r) can be obtained by decomposing the broadband signal into a plurality of monochromatic (i.e. narrowband) plane waves, then performing a weighting of these narrow band waves followed by a migration towards each point P of coordinates (x, r) of the image.
  • This migration can be performed as detailed above, i.e. by applying a phase shift corresponding to the round-trip travel time from O to P in the direction 0, which is equal to 2(xu + rv)/c .
  • w(u, r) be the angular broadband plane wave spectrum, defined as follows: J where F/” 1 represents the one-dimensional inverse Fourier transform associated with the dual variables r and k.
  • the broadband raw data d(x, r) is defined as follows:
  • the convolution product of b(u, r) and w(u, r) can be written: which means that the weighting of the plane waves at narrow band by B(u, k) corresponds in wide band to a filtering of the angular spectrum by the function b(u,r).
  • the broadband SAS image i(x, r) can be obtained directly by carrying out a back-propagation of the broadband plane waves, previously filtered by b(u,r), towards each point P of coordinates (x, r) picture:
  • the processing of data from the synthetic aperture system can be performed directly in the time domain via far-field broadband channel formation (i.e., considering plane waves) followed by migration (or backpropagation) of the plane waves in the Cartesian grid (i.e., towards the points/pixels of the image).
  • channels or formation of beams, or "beamforming” in English
  • beamforming is a method well known to those skilled in the art for extracting from a signal the components propagating in a given direction 0.
  • Channel formation and migration in the time domain can be very simply implemented for a plane wave (or, equivalently, cylindrical waves considered in the far field) which propagates in the direction perpendicular to the trajectory Ox. Indeed, in this case, the wave fronts are parallel to the direction axis (Ox), and are therefore aligned with the pixel grid of the image. It is therefore sufficient to choose the sampling period in oblique distance of the signal corresponding to the plane wave equal to the pitch between the lines of the image to carry out the migration without any calculation.
  • broadband raw data is received at the level of the various sensors of the antenna (step 501 of FIG. 5).
  • this raw data is received in the form of an NxP matrix, where P is the number of sensors of the antenna, and N the number of samples of the source signal received per sensor. These data are time data.
  • the signal received on the sensor p can be written in the form: where tp is the propagation time taken by the wave between the source and the sensor p, and ⁇ p (t) models the ambient noise on the sensor p at time t.
  • This signal r p (t) can be segmented into blocks (called “snapshots” in English) of the same duration with Typically, we can consider that the signal is stationary on during each snapshot k.
  • the N-tuple of values for each sensor forms a vector r p (t k ) of dimension N*1.
  • the raw data received at step 501 can then correspond to the concatenation of the vectors
  • new wideband time signals are determined from the data received, by applying a method of forming broadband and far-field temporal channels.
  • the wavefronts can be considered plane, so that the new temporal signals correspond to plane waves.
  • time channels consists in delaying the signals received by the various sensors (ie the data received at step 501 ). The sum of all the signals delayed in a given direction 0 is then performed to obtain a new signal.
  • the new signal can be of the form:
  • each new signal represents a broadband plane wave received in a given 0-direction.
  • the samples obtained during the formation of broadband temporal channels are back-propagate towards the points/pixels of the Cartesian grid of the image, thanks to a migration method (or back-propagation) illustrated in FIG. 4: a wave is emitted in a direction 0 from the point O.
  • a migration method or back-propagation
  • a set of delayed samples is therefore obtained, and each of these delayed samples corresponds to a contribution of a plane wave in a given direction to a pixel P(x,r) of the picture.
  • the SAS image can then be reconstructed (step 505) from these back-propagated samples.
  • the intensity (i.e. the gray level) of the image of a given pixel corresponds to the sum of all the samples received for this pixel, after formation of channels (502) and backpropagation ( 503).
  • data relating to the actual movement of the antenna can be received at an optional step 502.
  • the trajectory errors of the antenna with respect to a theoretical trajectory can be significant and must be taken into account for the processing of the data received, in particular at the level of the step 503 of formation of channels. Note that steps 501 and 502 can be performed in this order, in reverse order, or in parallel.
  • raw data (resulting from step 501 of FIG. 5) is available, and possibly movement data (resulting from step 502 of FIG. 5).
  • the raw data are for example data in (x,r).
  • For broadband and far-field beamforming (step 502) it is possible to use the algorithm described in "A fast beamforming algorithm" by Kenneth M. Houston, IEEE Oceans Conference Record 1 (1994) 211- 216.
  • This algorithm offers a fast method of forming beams from broadband signals, significantly less expensive in terms of calculations than the conventional beamforming method (called “sum-and-delay beamforming" in English, or DSBF), in which the signals are delayed according to the calculated and then summed rate differences.
  • This algorithm is an iterative algorithm, in which a DSBF is first calculated for several subgroups of sensors and in a limited number of directions. Then, at each step, the pathways from pairs of subgroups are combined and the number of directions considered is increased.
  • This algorithm provides very satisfactory results, for a computational complexity of O(Nlog2N), whereas the conventional DSBF algorithm has a computational complexity of O(N 2 ). Even if this algorithm has not been developed for large antenna arrays and has not been used in this context up to now, it proves to be particularly suitable for implementing step 503. By applying this algorithm, we obtain samples in (u,r).
  • CZT Z-Chirp transform
  • FFT Fast Fourier Transform
  • FIG. 6 represents the output signal of the channel formation step in the Fourier plane.
  • the data 601 resulting from the channel formation method 503 are represented by circles and are therefore located on a polar grid represented by solid lines.
  • the circular arcs correspond to the different frequencies according to Fourier's diffraction theorem and the rays to the 0 directions of plane wave propagation.
  • To perform the migration of these samples 601 towards the pixels of a Cartesian grid (represented by dashes in the figure), it is necessary to perform:
  • the samples 603 represented by squares are obtained.
  • the SAS image is then obtained by a two-dimensional Fourier transform. Contrary to the prior art, the transition to a Cartesian grid is obtained only by 1D expansions, which are rapid, and not by complicated interpolations (such as the Stolt interpolation) which are very costly in computation time.
  • FIGS. 7a and 7b represent respectively the spread functions of the point obtained by the Omega-k method on the one hand, and by an image reconstruction method according to an embodiment of the present invention on the other hand. It appears from these figures that the point spread function (or PSF, for "point spread function" in English) is much more spread for the Omega-k algorithm than for the method according to the present invention, which means that the resolution of an imaging system according to the present invention is better than the resolution of an imaging system based on the Omega-k algorithm.
  • PSF point spread function
  • an advantage of the method described in Figure 5 is that the broadband plane waves can be calculated directly in the time domain for a deformed antenna array (which is the case for a towed sonar mounted on an underwater vehicle). autonomous sailor), if the deformations (i.e. the trajectory errors) are known, for example by using a motion estimation method of the prior art. Thus, the method is more accurate than prior art methods which use narrowband signals.
  • Another advantage is that there are fast methods (in terms of computational cost) to perform steps 503 and 504 of Figure 5.
  • the image reconstruction method shown in Figure 5 has linear computational complexity, i.e. in O(Nlog2N), ie of the same order of magnitude as the Omega-k algorithm.
  • the back-projection algorithm which is a temporal method integrating the exact path differences, has a quadratic complexity, ie in O(N 2 ). The invention thus proposes a method that is both precise and rapid.
  • Figure 8 shows a schematic block diagram of an information processing device 800 for implementing one or more embodiments of the invention.
  • the device 800 can comprise a memory 805 for storing instructions allowing the implementation of the method, the data from the backscattered signal received, and temporary data for carrying out the different steps of a method as described previously.
  • the device may further comprise a circuit 804.
  • This circuit may be, for example:
  • processors capable of interpreting instructions in the form of a computer program, or - an electronic card whose steps of the method of the invention are described in silicon, or else
  • a programmable electronic chip such as an FPGA chip (for "Field-Programmable Gate Array” in English), a SOC (for “System On Chip” in English), a GPU (for “Graphics Processing Unit” in English) , or an ASIC (for "Application Specific Integrated Circuit”).
  • FPGA chip for "Field-Programmable Gate Array” in English
  • SOC for "System On Chip” in English
  • GPU for "Graphics Processing Unit” in English
  • ASIC Application Specific Integrated Circuit
  • SOCs or system on a chip are embedded systems that integrate all the components of an electronic system into a single chip.
  • An ASIC is a specialized electronic circuit that groups functionalities tailored to a given application. ASICs are usually configured when manufactured and can only be simulated by the user. Programmable logic circuits of the FPGA (Field-Programmable Gate Array) type are electronic circuits reconfigurable by the user.
  • FPGA Field-Programmable Gate Array
  • the device 800 may include an input interface 803 for receiving data from the backscattered signal, and an output interface 806 for supplying the image of an object located at the bottom of the sea and/or data from location of such an object.
  • the computer can include, to allow easy interaction with a user, a screen 801 and a keyboard 802.
  • the keyboard is optional, especially in the context of a computer in the form of a touch pad, For example.
  • the device 800 can be a computer, a computer network, an electronic component, or another device comprising a processor operatively coupled to a memory, as well as, according to the chosen embodiment, a data storage unit, and other associated hardware such as a network interface and a media drive for reading removable storage media and writing to such media (not shown in the figure).
  • the removable storage medium can be, for example, a compact disc (CD), a digital video/versatile disc (DVD), a flash disc, a USB key, etc.
  • the memory, data storage unit, or removable storage medium contains instructions which, when executed by control circuit 804, cause this control circuit 804 to perform or control the input interface 803, output interface 806, data storage in memory 805 and/or data processing parts according to one or more embodiments of the proposed method.
  • the functional diagram shown in Figure 5 is a typical example of a program of which certain instructions can be carried out at the device 800. As such, Figure 5 may correspond to the flowchart of the general algorithm of a computer program within the meaning of the invention.
  • the present invention is not limited to the embodiments described above by way of examples; it extends to other variants.
  • the present invention is applicable in the context of conventional fixed antenna (sonar or radar) systems, comprising a physical antenna comprising a transmitter and a plurality of sensors (receivers), in which a series of pulses are emitted and in which the return signals of these pulses are received by the various sensors.
  • each phase center corresponds to the middle of the emitter and of each sensor.
  • the present invention can be used in many other fields, such as ultrasonic medical imaging (echography, Doppler, etc.).

Abstract

The present invention relates to a method for reconstructing an image of a scene using an antenna system and comprising, for each pixel of the image: a. receiving samples of wide-band time-domain signals backscattered by reflectors of the scene; b. for each direction among a plurality of directions, determining, based on the received samples, new samples of a new time-domain signal associated with said each direction, respectively, each new signal corresponding to a wide-band plane wave in said each direction, respectively; c. for each direction among the plurality of directions, selecting, from the new samples of the respective new time-domain signal, samples corresponding to a there-and-back path time of said new signal from an origin of the image to said each pixel; and d. determining a light intensity of said each pixel based on delayed samples.

Description

DESCRIPTION DESCRIPTION
Titre de l'invention : Procédé de reconstruction d'une image d'une scène Title of the invention: Process for reconstructing an image of a scene
Domaine technique Technical area
La présente invention concerne le domaine de l'imagerie sonar ou radar, et la détection d'objets à partir d'un système d'antenne, sonar ou radar, notamment un système à ouverture synthétique. The present invention relates to the field of sonar or radar imaging, and the detection of objects from an antenna, sonar or radar system, in particular a synthetic aperture system.
Technique antérieure Prior technique
La connaissance d'un environnement aquatique représente un enjeu majeur pour un grand nombre d'applications. Par exemple, l'exploration de l'environnement sous- marin joue un rôle très important dans de nombreux domaines, tels que l'industrie pétrolière ou le déploiement de navires civils ou militaires. Une imagerie précise d'objets immergés et/ou des fonds marins permet notamment d'inspecter des structures et de détecter des objets sous la surface de l'eau, tels que des épaves de navires ou des mines sous-marines, des câbles sous-marins ou encore des objets en mouvement. Knowledge of an aquatic environment represents a major challenge for a large number of applications. For example, the exploration of the underwater environment plays a very important role in many fields, such as the oil industry or the deployment of civil or military ships. Accurate imaging of submerged objects and/or the seabed makes it possible, in particular, to inspect structures and detect objects below the surface of the water, such as shipwrecks or underwater mines, underwater cables sailors or moving objects.
Contrairement aux ondes électromagnétiques qui se propagent difficilement dans un milieu aquatique, les ondes acoustiques sont bien adaptées à la détection sous- marine et se sont rapidement imposées dans ce domaine. Les systèmes de sonar (pour « SOund Navigation And Ranging », en anglais) sont ainsi devenus des moyens privilégiés pour la bathymétrie et la détection d'objets dans des milieux aquatiques. La résolution angulaire d'un système sonar est liée à deux principaux paramètres : la fréquence de l'onde acoustique, et la longueur de l'antenne, composée d'un ou plusieurs capteurs. En augmentant la fréquence de l'onde acoustique, la résolution est améliorée, mais la portée du système diminue, de sorte que les possibilités d'applications sur des longues distances sont fortement réduites. Unlike electromagnetic waves which are difficult to propagate in an aquatic environment, acoustic waves are well suited to underwater detection and have quickly established themselves in this field. Sonar systems (for “SOund Navigation And Ranging”) have thus become privileged means for bathymetry and the detection of objects in aquatic environments. The angular resolution of a sonar system is linked to two main parameters: the frequency of the acoustic wave, and the length of the antenna, made up of one or more sensors. By increasing the frequency of the acoustic wave, the resolution is improved, but the range of the system decreases, so that the possibilities of applications over long distances are greatly reduced.
Inspirés par les travaux réalisés dans le domaine du radar (pour « RAdio Detection And Ranging » en anglais), des systèmes de sonar à ouverture synthétique (ou sonar à synthèse d'ouverture, ou SAS, pour « Synthetic Aperture Sonar » en anglais) ont commencé à émerger dans les années 1970. Le principe d'un système SAS est d'augmenter virtuellement la taille de l'antenne, en combinant les signaux issus de la rétrodiffusion d'impulsions sonores (aussi appelées « pings » en anglais) successives, et ainsi d'améliorer la résolution du système sonar. Un exemple de système SAS est représenté sur la Figure 1a, dans le cadre d'une antenne linéaire remorquée, montée sur un véhicule sous-marin autonome (ou AUV, pour « autonomous underwater vehicle » en anglais) se déplaçant selon une trajectoire rectiligne 101. Dans le cadre d'un système SAS actif, des ondes incidentes sous la forme d'impulsions sonores sont émises par l'antenne linéaire à différentes positions 103a, 103b, 103c, 103d le long de la trajectoire 101. Lorsqu'une onde incidente entre en interaction avec un objet 102, une fraction de cette onde incidente est retournée dans la direction d'où elle provient (phénomène de rétrodiffusion, ou « backscatter » en anglais). Les signaux rétrodiffusés peuvent être combinés pour produire une image du fond marin, et en particulier de l'objet 102 (fixe ou mobile) situé dans le champ de l'antenne, par exemple au fond de la mer. Plus précisément, en réalisant une intégration cohérente des signaux rétrodiffusés prenant en compte les retards (ou différences de marche) des signaux les uns par rapport aux autres du fait des positions successives de l'antenne, il est possible de simuler une antenne dite « synthétique » de grande dimension (de longueur LSA largement supérieure à la longueur LR de l'antenne réelle), qu'il serait impossible de réaliser pour des raisons techniques et de coût. La résolution du système SAS est donc grandement améliorée par rapport à un système sonar classique. Inspired by work carried out in the field of radar (for "RAdio Detection And Ranging" in English), synthetic aperture sonar systems (or synthetic aperture sonar, or SAS, for "Synthetic Aperture Sonar" in English) began to emerge in the 1970s. The principle of an SAS system is to virtually increase the size of the antenna, by combining the signals resulting from the backscattering of successive sound pulses (also called "pings") , and thus improve the resolution of the sonar system. An example of an SAS system is shown in Figure 1a, as part of a towed linear antenna, mounted on an autonomous underwater vehicle (or AUV, for "autonomous underwater vehicle" in English) moving along a rectilinear trajectory 101 In an active SAS system, incident waves in the form of sound pulses are emitted from the linear antenna at different positions 103a, 103b, 103c, 103d along the path 101. When an incident wave interacts with an object 102, a fraction of this incident wave is returned in the direction from which it originated (backscatter phenomenon, or “backscatter” in English). The backscattered signals can be combined to produce an image of the seabed, and in particular of the object 102 (fixed or mobile) located in the field of the antenna, for example at the bottom of the sea. More precisely, by carrying out a coherent integration of the backscattered signals taking into account the delays (or path differences) of the signals relative to each other due to the successive positions of the antenna, it is possible to simulate a so-called "synthetic" large antenna (of LSA length much greater than the LR length of the actual antenna), which would be impossible to achieve for technical and cost reasons. The resolution of the SAS system is therefore greatly improved compared to a conventional sonar system.
Il est conceptuellement très commode de traiter l'objet 102 comme une source fictive rayonnant vers le véhicule avec une vitesse du son fictive égale à la vitesse réelle divisée par deux (ce modèle est connu en sismique sous le nom de « modèle du réflecteur explosant », ou « exploding reflector model » en anglais). Le facteur deux est introduit pour compenser la différence entre le trajet aller-retour dans le cas réel et le trajet simple dans le cas fictif. L'imagerie s'apparente alors à la reconstruction d'un champ de telles sources. Lorsque ce champ ne comporte qu'une seule source ponctuelle, située par exemple en 102, l'image correspondante s'appelle la fonction d'étalement du point (« point spread function » en anglais), ou réponse impulsionnelle spatiale, et suffit à caractériser complètement le système d'imagerie, par le principe de superposition des systèmes linéaires. It is conceptually very convenient to treat object 102 as a fictitious source radiating towards the vehicle with a fictitious speed of sound equal to the real speed divided by two (this model is known in seismic as the "exploding reflector model") , or “exploding reflector model” in English). The factor two is introduced to compensate for the difference between the round trip path in the real case and the single path in the fictitious case. Imaging is then similar to the reconstruction of a field of such sources. When this field comprises only one point source, located for example at 102, the corresponding image is called the point spread function, or spatial impulse response, and is sufficient to fully characterize the imaging system, by the principle of superposition of linear systems.
Le traitement des données dans un système SAS nécessite une connaissance précise des différences de marche entre les signaux rétrodiffusés reçus à différentes positions de l'antenne, et donc en particulier les mouvements du véhicule sous-marin autonome. Toutefois, une telle connaissance est difficile à obtenir, comme le montre la Figure 1 b, qui représente un exemple de trajectoire théorique et un exemple de trajectoire réelle d'un véhicule marin ou sous-marin autonome. Sur cet exemple, le véhicule sous-marin autonome 104 est supposé suivre une trajectoire théorique rectiligne 105 représentée en haut de la Figure 1b. Du fait des mouvements parasites (par exemple, lacet, tangage, embardée, etc) liés à l'environnement aquatique, la trajectoire réelle 106 effectivement suivie par le véhicule 104 peut être très différente de la trajectoire théorique 105, comme représenté en bas de la Figure 1 b. En plus de la courbure de la trajectoire réelle 106, il est noté que le véhicule 104 peut être orienté le long d'un axe faisant un angle a par rapport à la direction de la trajectoire nominale, comme représenté sur la Figure 1 b. Un tel angle peut se développer en particulier en présence d'un courant perpendiculaire à la trajectoire. Plusieurs méthodes de l'art antérieur permettent de mesurer efficacement les erreurs de trajectoire, c'est-à-dire les différences entre la trajectoire réelle 106 et la trajectoire théorique 105 suivie par le véhicule 104, ainsi que les attitudes du véhicule (par exemple l'angle a représenté en bas de la Figure 1 b). Ces méthodes permettent de déterminer les positions de l'antenne et les différences de marche successives de manière précise. Cependant, la connaissance de ces éléments n'est pas suffisante, il faut également que les méthodes de formation d'images à partir des données collectées puissent les intégrer de manière efficace. Data processing in a SAS system requires precise knowledge of the path differences between the backscattered signals received at different positions of the antenna, and therefore in particular the movements of the autonomous underwater vehicle. However, such knowledge is difficult to obtain, as shown in FIG. 1b, which represents an example of a theoretical trajectory and an example of a real trajectory of an autonomous marine or submarine vehicle. In this example, the autonomous underwater vehicle 104 is assumed to follow a theoretical rectilinear trajectory 105 represented at the top of FIG. 1b. Due to parasitic movements (for example, yaw, pitch, yaw, etc.) related to the aquatic environment, the real trajectory 106 actually followed by the vehicle 104 can be very different from the theoretical trajectory 105, as represented at the bottom of the Figure 1b. In addition to the curvature of the actual trajectory 106, it is noted that the vehicle 104 can be oriented along an axis making an angle α with respect to the direction of the nominal trajectory, as shown in Figure 1b. Such an angle can develop in particular in the presence of a current perpendicular to the trajectory. Several methods of the prior art make it possible to effectively measure the trajectory errors, that is to say the differences between the real trajectory 106 and the theoretical trajectory 105 followed by the vehicle 104, as well as the attitudes of the vehicle (for example the angle a represented at the bottom of Figure 1 b). These methods make it possible to determine the positions of the antenna and the successive path differences in a precise manner. However, knowledge of these elements is not sufficient, it is also necessary that the methods of forming images from the collected data can integrate them effectively.
De manière schématique, il existe dans l'art antérieur deux types de méthodes utilisées pour la formation d'images dans les systèmes SAS : les méthodes temporelles (c'est-à-dire les méthodes dans lesquelles les données sont traitées uniquement dans le domaine temporel), et les méthodes fréquentielles (c'est-à-dire les méthodes dans lesquelles les données sont traitées uniquement dans le domaine fréquentiel). Schematically, there are in the prior art two types of methods used for image formation in SAS systems: temporal methods (i.e. methods in which data is processed only in the domain time domain), and frequency methods (i.e. methods in which data is processed only in the frequency domain).
Les méthodes temporelles, telles que l'algorithme de rétroprojection (ou « backprojection » en anglais), aussi appelé filtrage spatial par retard et sommation (ou « delay and sum beamforming » en anglais), intègrent avantageusement toutes les différences de marche déterminées, conduisant ainsi à une reconstruction très précise du fond marin et de l'objet. Globalement, l'algorithme de rétroprojection repose sur le calcul de la somme des signaux reçus par les différents capteurs de l'antenne à différentes positions, auxquels on a appliqué des retards respectifs pour compenser leurs temps de propagation aller-retour depuis le capteur jusqu'au pixel de l'image considéré. Dans ce qui suit, une telle application d'un retard à un signal pour compenser son temps de propagation est appelée « rétropropagation », « rétroprojection » ou encore « migration » (terminologie empruntée du domaine de la sismique). Dans l'algorithme de migration, les signaux reçus sont modélisés par des ondes cylindriques ou sphériques, que l'on migre vers l'endroit où est supposée être localisée la source et que l'on somme, pour obtenir un nouveau signal dont on peut ensuite calculer l'énergie afin d'en déduire la puissance de diffusion de la source (et donc l'intensité du pixel de l'image associé à cette source). De telles méthodes sont très coûteuses en termes de calcul. En effet, à cause de la courbure des surfaces d'onde, on ne peut pas migrer les ondes vers tout un groupe de pixels à la fois, par exemple toute une ligne ou toute une colonne de l'image. Il faut recommencer la migration, et les interpolations associées, pour chaque pixel de l'image, ce qui nécessite un calculateur ayant un poids et une consommation d'énergie élevés. Ces contraintes ne sont pas acceptables dans le cadre d'applications embarquées sur des véhicules marins ou sous-marins autonomes. Temporal methods, such as the backprojection algorithm (or "backprojection" in English), also called spatial filtering by delay and summation (or "delay and sum beamforming" in English), advantageously integrate all the determined path differences, leading thus to a very precise reconstruction of the seabed and the object. Overall, the back-projection algorithm is based on the calculation of the sum of the signals received by the different sensors of the antenna at different positions, to which respective delays have been applied to compensate for their round-trip propagation times from the sensor to to the considered image pixel. In what follows, such an application of a delay to a signal to compensate for its propagation time is called “backpropagation”, “backprojection” or even “migration” (terminology borrowed from the field of seismic). In the migration algorithm, the received signals are modeled by cylindrical or spherical waves, which are migrated towards the place where the source is supposed to be located and that we sum, to obtain a new signal whose energy we can then calculate in order to deduce the scattering power of the source (and therefore the intensity of the pixel of the image associated with this source). Such methods are very computationally expensive. Indeed, because of the curvature of the wave surfaces, it is not possible to migrate the waves towards an entire group of pixels at the same time, for example an entire row or an entire column of the image. It is necessary to restart the migration, and the associated interpolations, for each pixel of the image, which requires a computer having a weight and a high energy consumption. These constraints are not acceptable in the context of applications on board autonomous marine or submarine vehicles.
D'un autre côté, les méthodes fréquentielles, telles que l'algorithme Omega-k (ou co-k), sont bien plus rapides car elles nécessitent beaucoup moins de calculs et requièrent une consommation électrique plus faible. Ces méthodes reposent principalement sur le théorème de diffraction de Fourier, qui utilise des ondes planes monochromatiques, i.e. des ondes planes à bande étroite (plus précisément, ce théorème fournit la transformée de Fourier du champ diffusé ou rétrodiffusé associé à un objet insonifié par une onde plane monochromatique). Cependant, le théorème de diffraction de Fourier présuppose une antenne « idéale », i.e. une antenne suivant un mouvement rectiligne uniforme. Pour cette raison, les méthodes fréquentielles prennent difficilement en compte les déformations d'antenne (c'est-à-dire les erreurs de trajectoire et d'angle évoquées plus haut) et encore plus difficilement leur variation dans le temps, c'est-à-dire les déformations dynamiques. Dans les méthodes fréquentielles existantes, des approximations sont réalisées pour intégrer les erreurs de trajectoire estimées et des algorithmes de « compensation de mouvement » sont utilisés, mais les résultats obtenus restent nettement moins bons que ceux des méthodes temporelles. On the other hand, frequency methods, such as the Omega-k (or co-k) algorithm, are much faster because they require much less computation and require lower power consumption. These methods are mainly based on the Fourier diffraction theorem, which uses monochromatic plane waves, i.e. narrow-band plane waves (more precisely, this theorem provides the Fourier transform of the scattered or backscattered field associated with an object insonified by a wave monochromatic plane). However, Fourier's diffraction theorem presupposes an "ideal" antenna, i.e. an antenna following a uniform rectilinear motion. For this reason, the frequency methods take into account the antenna deformations with difficulty (i.e. the trajectory and angle errors mentioned above) and even more difficult their variation over time, i.e. i.e. the dynamic deformations. In the existing frequency methods, approximations are made to integrate the estimated trajectory errors and “motion compensation” algorithms are used, but the results obtained remain significantly worse than those of the temporal methods.
Il y a donc un besoin pour une méthode de formation d'image qui soit à la fois rapide, précise, et à faible consommation énergétique, pour être mise en oeuvre au sein d'un système SAS embarqué sur un véhicule autonome pourvu de ressources limitées. There is therefore a need for an image formation method which is both fast, precise, and low energy consumption, to be implemented within a SAS system embedded in an autonomous vehicle provided with limited resources. .
Il est noté que, si les principes et les modes de réalisation décrits se révèlent particulièrement avantageux dans le domaine des sonars à antenne synthétique, ils sont aussi applicables dans domaine des radars à antenne synthétique (ou radars à synthèse d'ouverture, ou SAR, pour « Synthetic Aperture Radar » en anglais) et présentent les mêmes avantages en termes de consommation énergétique, de rapidité de calcul et de précision. En outre, même si l'invention est particulièrement avantageuse dans le cadre des systèmes d'antenne à ouverture synthétique, elle est applicable pour d'autres types de systèmes d'antenne, notamment des systèmes comprenant une antenne physique émettant un ensemble d'impulsions et recevant des signaux rétrodiffusés en réponse à ces impulsions. De tels systèmes sont notamment utilisés dans l'imagerie médicale ultrasonore. It is noted that, if the principles and embodiments described prove to be particularly advantageous in the field of synthetic antenna sonars, they are also applicable in the field of synthetic antenna radars (or synthetic aperture radars, or SAR, for "Synthetic Aperture Radar" in English) and have the same advantages in terms of energy consumption, calculation speed and accuracy. Furthermore, even if the invention is particularly advantageous in the context of synthetic aperture antenna systems, it is applicable for other types of antenna systems, in particular systems comprising a physical antenna emitting a set of pulses and receiving backscattered signals in response to these pulses. Such systems are notably used in ultrasonic medical imaging.
Exposé de l'invention Disclosure of Invention
Pour répondre à au moins un des problèmes mentionnés ci-dessus, l'invention propose de décomposer des signaux à large bande reçus par un système sonar ou radar à antenne synthétique depuis une source en une pluralité d'ondes planes à large bande dans le domaine temporel, grâce à une méthode de formation de voies temporelle à large bande et en champ lointain. Puis, pour chaque onde plane formée, une migration de cette onde vers un pixel de l'image où est supposée être localisée la source est mise en oeuvre, dans le domaine temporel également. Comme détaillé plus bas, ces deux principales étapes peuvent être mises en oeuvre avec un coût calculatoire raisonnable. En outre, l'utilisation de signaux à large bande est bien adaptée aux signaux sonar (ainsi qu'à certains systèmes radar), et permet donc des résultats plus précis que les méthodes de l'art antérieur reposant sur des signaux à bande étroite. La méthode proposée est donc à la fois précise et peu coûteuse en termes de calculs To respond to at least one of the problems mentioned above, the invention proposes to decompose broadband signals received by a synthetic antenna sonar or radar system from a source into a plurality of broadband plane waves in the domain temporal, thanks to a broadband and far-field temporal channel formation method. Then, for each plane wave formed, a migration of this wave towards a pixel of the image where the source is supposed to be located is implemented, also in the time domain. As detailed below, these two main steps can be implemented with a reasonable computational cost. Furthermore, the use of wideband signals is well suited to sonar signals (as well as to certain radar systems), and therefore allows more accurate results than the methods of the prior art based on narrowband signals. The proposed method is therefore both accurate and inexpensive in terms of calculations.
Il est ainsi proposé un procédé de reconstruction d'une image d'une scène par un système d'antenne, ladite image comprenant une pluralité de pixels, le procédé étant mis en oeuvre par ordinateur et comprenant, pour chaque pixel parmi la pluralité de pixels : a. recevoir des échantillons de signaux temporels à large bande rétrodiffusés par des réflecteurs de la scène pour un ou plusieurs capteurs du système d'antenne ; b. pour chaque direction parmi une pluralité de directions, calculer, à partir des échantillons reçus par ledit un ou plusieurs capteurs, des nouveaux échantillons d'un nouveau signal temporel respectivement associé à ladite chaque direction, chaque nouveau signal correspondant respectivement à une onde plane à large bande dans ladite chaque direction ; c. pour chaque direction parmi la pluralité de directions, sélectionner, parmi les nouveaux échantillons du nouveau signal temporel respectif, des échantillons correspondant à un temps de trajet aller et retour dudit nouveau signal depuis une origine de l'image jusqu'au dudit chaque pixel ; et d. déterminer une intensité lumineuse dudit chaque pixel à partir des échantillons sélectionnés. Par « système d'antenne », il est entendu un système comprenant une antenne physique, ou un système d'antenne à synthèse d'ouverture. Par « scène », il est entendu une portion de l'espace dont on cherche à reconstruire une image. Par exemple, dans le cas d'un système sonar à antenne synthétique, la scène peut désigner une portion limitée du fond marin, dont on veut obtenir une image. Alternativement on peut désirer obtenir une image en continu du fond marin, auquel cas ce fond est découpé au préalable en portions limitées dont des images sont obtenues comme décrit précédemment puis juxtaposées pour faire une image en continu. There is thus proposed a method for reconstructing an image of a scene by an antenna system, said image comprising a plurality of pixels, the method being implemented by computer and comprising, for each pixel among the plurality of pixels : has. receiving broadband temporal signal samples backscattered from reflectors in the scene for one or more sensors of the antenna system; b. for each direction among a plurality of directions, calculating, from the samples received by said one or more sensors, new samples of a new temporal signal respectively associated with said each direction, each new signal corresponding respectively to a wide plane wave tape in said each direction; vs. for each direction among the plurality of directions, selecting, among the new samples of the respective new temporal signal, samples corresponding to a round trip time of said new signal from an origin of the image to said each pixel; and D. determining a light intensity of said each pixel from the selected samples. “Antenna system” means a system comprising a physical antenna, or a synthetic aperture antenna system. By “scene”, it is understood a portion of the space of which one seeks to reconstruct an image. For example, in the case of a sonar system with synthetic antenna, the scene can designate a limited portion of the seabed, of which one wishes to obtain an image. Alternatively, it may be desired to obtain a continuous image of the seabed, in which case this bottom is cut beforehand into limited portions, the images of which are obtained as described previously and then juxtaposed to produce a continuous image.
La présente invention utilise avantageusement des signaux à large bande, et permet d'obtenir des résultats plus précis que les méthodes qui présupposent des signaux à bande étroite, cette hypothèse n'étant souvent pas valable dans de nombreuses applications comme l'imagerie du fond marin par exemple. The present invention advantageously uses broadband signals, and makes it possible to obtain more precise results than methods which presuppose narrowband signals, this assumption often not being valid in many applications such as seabed imaging. For example.
Il est noté que l'étape b correspond typiquement à une étape de formation de voies, qui est une technique bien connue dans le domaine du traitement d'antennes pour localiser des sources, au cours de laquelle les signaux reçus par les différents capteurs sont combinés de sorte à former de nouveaux signaux associés à un ensemble de directions données. La formation de voies consiste à compenser les différences de marche entre les capteurs dans les directions données. Dans les traitements d'antenne synthétique, qui utilisent des signaux reçus de plusieurs émissions successives, il est nécessaire de compenser ces différences de marche sur les trajets aller-retour. Il est possible d'approximer le temps de trajet aller-retour vers un objet 102 par le double du temps de trajet « simple » entre un point géométrique fictif de l'espace, appelé centre de phase, et le dit objet, comme si l'émission et la réception avait lieu au même endroit. Le centre de phase correspond au point milieu entre la position dans l'espace occupée par l'émetteur à l'instant de l'émission et celle occupée par le capteur de réception à l'instant de réception de l'écho de l'objet 102. Cette approximation permet de simplifier l'exposé de l'invention mais elle n'est nullement obligatoire. Il est également possible de calculer exactement les temps de trajet aller-retour en prenant en compte la séparation spatiale entre émission et réception. Dans le cadre de la présente invention, les nouveaux signaux formés correspondent à des ondes planes, comme si l'objet 102 était situé à l'infini. Il s'agit d'une méthode de formation de voies dite en champ lointain. L'emploi d'une telle méthode pour une antenne synthétique fait partie de l'originalité de l'invention car il est bien connu que l'imagerie synthétique s'effectue en champ proche dans la grande majorité des cas. Pour de nombreux systèmes sonar à haute résolution, l'objet 102 est à quelques centaines de mètres du sonar alors que le champ lointain de l'antenne synthétique est à plusieurs kilomètres. C'est pour cette raison que toutes les méthodes temporelles de l'art antérieur utilisent des ondes sphériques ou cylindriques, c'est-à-dire des méthodes de formation de voies dite en champ proche, qui seules permettent d'obtenir en une seule étape une image correctement focalisée. Dans l'invention, la formation de voies en champ lointain n'est qu'une seconde étape b, l'image focalisée étant produite seulement à l'étape suivante c. La décomposition en ondes planes ne vise pas à focaliser une image mais à réduire la charge de calcul. It is noted that step b typically corresponds to a channel formation step, which is a technique well known in the field of antenna processing for locating sources, during which the signals received by the various sensors are combined. so as to form new signals associated with a set of given directions. Lane formation consists of compensating for the path differences between the sensors in the given directions. In synthetic antenna processing, which uses signals received from several successive transmissions, it is necessary to compensate for these path differences on the outward and return paths. It is possible to approximate the round-trip travel time to an object 102 by twice the "simple" travel time between a fictitious geometric point in space, called the phase center, and said object, as if the transmission and reception took place in the same place. The phase center corresponds to the midpoint between the position in space occupied by the transmitter at the time of emission and that occupied by the receiving sensor at the time of reception of the echo of the object 102. This approximation makes it possible to simplify the disclosure of the invention but it is by no means mandatory. It is also possible to calculate exact round-trip travel times by taking into account the spatial separation between transmission and reception. In the context of the present invention, the new signals formed correspond to plane waves, as if the object 102 were located at infinity. This is a so-called far-field method of channel formation. The use of such a method for a synthetic antenna is part of the originality of the invention because it is well known that synthetic imaging is performed in the near field in the vast majority of cases. For many high-resolution sonar systems, object 102 is a few hundred meters from the sonar while the far field of the synthetic antenna is several kilometers away. It is for this reason that all the temporal methods of the prior art use spherical or cylindrical waves, that is to say so-called near-field channel formation methods, which alone make it possible to obtain in a single stage a properly focused image. In the invention, the formation of channels in the far field is only a second step b, the focused image being produced only in the next step c. The decomposition into plane waves does not aim to focus an image but to reduce the computational load.
L'étape c correspond à une migration des ondes planes ainsi formées vers les pixels de l'image où sont supposées être situées les sources qui leur ont donné naissance. A la différence des méthodes de l'art antérieur, les ondes migrées sont les ondes planes nouvellement formées et non les ondes sphériques ou cylindriques reçues, ce qui s'avère bien plus efficace en temps de calcul car la migration peut s'effectuer simultanément pour tous les pixels d'une ligne ou une colonne de l'image par une simple dilatation du signal, sans qu'il y ait besoin de recommencer la migration pour chaque pixel. Stage c corresponds to a migration of the plane waves thus formed towards the pixels of the image where the sources which gave rise to them are supposed to be located. Unlike the methods of the prior art, the migrated waves are the newly formed plane waves and not the spherical or cylindrical waves received, which proves to be much more efficient in computation time because the migration can be carried out simultaneously for all the pixels of a line or a column of the image by a simple expansion of the signal, without there being any need to start the migration again for each pixel.
L'intensité lumineuse d'un pixel peut correspondre à son niveau de gris. The luminous intensity of a pixel can correspond to its gray level.
Un tel procédé permet avantageusement de construire une image d'une scène observée par un système à synthèse d'ouverture de manière rapide, précise et à faible consommation énergétique. Such a method advantageously makes it possible to construct an image of a scene observed by a synthetic aperture system in a rapid, precise manner and with low energy consumption.
Dans un ou plusieurs modes de réalisation, le système d'antenne peut être un radar à synthèse d'ouverture ou un sonar à synthèse d'ouverture. In one or more embodiments, the antenna system may be synthetic aperture radar or synthetic aperture sonar.
Dans le cas d'un sonar à synthèse d'ouverture, la scène peut correspondre à une portion limitée d'un fond marin. In the case of a synthetic aperture sonar, the scene may correspond to a limited portion of a seabed.
Dans un ou plusieurs modes de réalisation, le procédé peut en outre comprendre une réception de données relatives à une variation de mouvement du système par rapport à une trajectoire théorique. Les nouveaux échantillons des nouveaux signaux temporels peuvent alors être en outre calculés à partir desdites données. En outre, comme le traitement se fait dans le domaine temporel et non fréquentiel, ces variations de mouvement peuvent elles-mêmes varier rapidement dans le temps sans que la charge de calcul en soit affectée. In one or more embodiments, the method may further comprise receiving data relating to a variation in movement of the system relative to a theoretical trajectory. The new samples of the new time signals can then further be calculated from said data. Furthermore, since the processing is done in the time and non-frequency domain, these motion variations can themselves vary rapidly over time without the computational load being affected.
Ainsi, le procédé intègre avantageusement les erreurs de mouvement et leur variation dans le temps, et fournit des résultats bien plus précis que les méthodes fréquentielles qui ont beaucoup de difficultés à traiter les déformations dynamiques de l'antenne synthétique. Dans un ou plusieurs modes de réalisation, les nouveaux échantillons des nouveaux signaux temporels peuvent être calculés grâce à une méthode de formation de voies temporelle à large bande et en champ lointain. Thus, the method advantageously integrates the motion errors and their variation over time, and provides much more precise results than the frequency methods which have great difficulty in dealing with the dynamic deformations of the synthetic antenna. In one or more embodiments, the new samples of the new time signals may be computed using a broadband, far-field time channeling method.
Dans ces modes des réalisations, la méthode de formation de voies repose sur l'hypothèse que les sources sont situés en champ lointain, c'est-à-dire suffisamment loin des capteurs pour que le front d'onde des signaux reçus puisse être considéré comme plan. In these embodiments, the channel formation method is based on the assumption that the sources are located in the far field, that is to say far enough from the sensors for the wave front of the signals received to be considered. as blueprint.
Par exemple, la formation des voies temporelle à large bande et en champ lointain peut être basée sur un algorithme itératif du genre de celui décrit dans « A fast beamforming algorithm » de Kenneth M. Houston, IEEE Oceans Conference Record 1 (1994) 211-216 ou des algorithmes de même nature qui sont connus de l'homme de l'art. For example, the formation of broadband and far-field temporal channels can be based on an iterative algorithm of the kind described in "A fast beamforming algorithm" by Kenneth M. Houston, IEEE Oceans Conference Record 1 (1994) 211- 216 or similar algorithms that are known to those skilled in the art.
Comme décrit ci-dessous, cet algorithme a une complexité calculatoire en O(Nlog2N), tandis que les méthodes de formation de voies temporelles ont généralement une complexité calculatoire en O(N2). Un tel algorithme permet donc de mettre en oeuvre l'étape b de manière rapide. As described below, this algorithm has O(Nlog2N) computational complexity, while time channeling methods typically have O(N 2 ) computational complexity. Such an algorithm therefore makes it possible to implement step b rapidly.
Dans un ou plusieurs modes de réalisation, l'étape c peut comprendre une mise en oeuvre d'au moins une transformée en Z-Chirp, qui est une transformée permettant de dilater ou comprimer un signal de manière efficace. In one or more embodiments, step c can comprise an implementation of at least one Z-Chirp transform, which is a transform making it possible to expand or compress a signal in an effective manner.
La transformée en Z-Chirp a aussi une complexité calculatoire en O(Nlog2N), permettant ainsi une mise en oeuvre rapide de l'étape c. The Z-Chirp transform also has a computational complexity in O(Nlog2N), thus allowing rapid implementation of step c.
Dans un ou plusieurs modes de réalisation, l'intensité lumineuse dudit chaque pixel peut être fonction d'une somme de valeurs des échantillons sélectionnés. In one or more embodiments, the light intensity of said each pixel may be a function of a sum of values of the selected samples.
Un autre aspect de l'invention concerne un dispositif de reconstruction d'une image d'une scène à partir de données issues d'un système d'antenne à synthèse d'ouverture, ladite image comprenant une pluralité de pixels. Ce dispositif peut comprendre : une interface d'entrée pour : a. recevoir des échantillons de signaux temporels à large bande rétrodiffusés par des réflecteurs de la scène pour un ou plusieurs capteurs du système d'antenne. Another aspect of the invention relates to a device for reconstructing an image of a scene from data coming from a synthetic aperture antenna system, said image comprising a plurality of pixels. This device may include: an input interface for: a. receiving broadband time signal samples backscattered from reflectors in the scene for one or more sensors of the antenna system.
Le dispositif peut en outre comprendre un circuit pour mettre en oeuvre, pour chaque pixel parmi la pluralité de pixels : b. pour chaque direction parmi une pluralité de directions, calculer, à partir des échantillons reçus par ledit un ou plusieurs capteurs, des nouveaux échantillons d'un nouveau signal temporel respectivement associé à ladite chaque direction, chaque nouveau signal correspondant respectivement à une onde plane à large bande dans ladite chaque direction ; c. pour chaque direction parmi la pluralité de directions, sélectionner, parmi les nouveaux échantillons du nouveau signal temporel respectif, des échantillons correspondant à un temps de trajet aller et retour dudit nouveau signal depuis une origine de l'image jusqu'au dudit chaque pixel ; et d. déterminer une intensité lumineuse dudit chaque pixel à partir des échantillons sélectionnés. The device may further comprise a circuit for implementing, for each pixel among the plurality of pixels: b. for each direction among a plurality of directions, calculating, from the samples received by said one or more sensors, new samples of a new temporal signal respectively associated with said each direction, each new signal respectively corresponding to a broadband plane wave in said each direction; vs. for each direction among the plurality of directions, selecting, among the new samples of the respective new temporal signal, samples corresponding to a round trip time of said new signal from an origin of the image to said each pixel; and D. determining a light intensity of said each pixel from the selected samples.
Le dispositif de reconstruction d'une image peut être intégré au système d'antenne à synthèse d'ouverture, ou être un dispositif séparé du système d'antenne à synthèse d'ouverture. The device for reconstructing an image can be integrated into the synthetic aperture antenna system, or be a device separate from the synthetic aperture antenna system.
Un programme informatique, mettant en oeuvre tout ou partie du procédé décrit ci-avant, installé sur un équipement préexistant, est en lui-même avantageux, dès lors qu'il permet d'obtenir une image de la scène de façon précise et avec un coût de calcul relativement réduit. A computer program, implementing all or part of the method described above, installed on pre-existing equipment, is in itself advantageous, since it makes it possible to obtain an image of the scene in a precise manner and with a relatively low computational cost.
Ainsi, la présente invention vise également un programme informatique comportant des instructions pour la mise en oeuvre du procédé précédemment décrit, lorsque ce programme est exécuté par un processeur. Thus, the present invention also relates to a computer program comprising instructions for implementing the method described above, when this program is executed by a processor.
Ce programme peut utiliser n'importe quel langage de programmation (par exemple, un langage objet ou autre), et être sous la forme d'un code source interprétable, d'un code partiellement compilé ou d'un code totalement compilé. This program can use any programming language (for example, an object language or other), and be in the form of interpretable source code, partially compiled code or fully compiled code.
La Figure 5 décrite en détails ci-après, peut former l'organigramme de l'algorithme général d'un tel programme informatique, selon un ou plusieurs modes de réalisation. Figure 5, described in detail below, can form the flowchart of the general algorithm of such a computer program, according to one or more embodiments.
Un autre aspect concerne un support d'enregistrement non-transitoire d'un programme exécutable par ordinateur, comprenant un ensemble de données représentant un ou plusieurs programmes, lesdits un ou plusieurs programmes comprenant des instructions pour, lors de l'exécution desdits un ou plusieurs programmes par un ordinateur comprenant une unité de traitement couplée de manière opérationnelle à des moyens mémoire et à un module d'interface entrées/sorties, pour exécuter tout ou partie du procédé décrit ci-avant. Another aspect relates to a non-transitory recording medium of a computer-executable program, comprising a set of data representing one or more programs, said one or more programs comprising instructions for, upon execution of said one or more programs by a computer comprising a processing unit operationally coupled to memory means and to an input/output interface module, to execute all or part of the method described above.
Brève description des dessins D'autres caractéristiques, détails et avantages de l'invention apparaîtront à la lecture de la description détaillée ci-après. Celle-ci est purement illustrative et doit être lue en regard des dessins annexés, sur lesquels : Brief description of the drawings Other characteristics, details and advantages of the invention will appear on reading the detailed description below. This is purely illustrative and should be read in conjunction with the attached drawings, on which:
[Fig. 1 a] La Figure 1a représente un exemple de système de sonar à ouverture synthétique ; [Fig. 1a] Figure 1a shows an example of a synthetic aperture sonar system;
[Fig. 1 b] La Figure 1 b illustre un exemple d'une trajectoire théorique et d'une trajectoire réelle d'un véhicule sous-marin autonome sur lequel est monté une antenne dans le cadre d'un système de sonar à ouverture synthétique ; [Fig. 1b] Figure 1b illustrates an example of a theoretical trajectory and an actual trajectory of an autonomous underwater vehicle on which an antenna is mounted as part of a synthetic aperture sonar system;
[Fig. 2] La Figure 2 représente un exemple de système de coordonnées pouvant être utilisé pour décrire le mouvement du centre de phase C du sonar dans des modes de réalisation de l'invention ; [Fig. 2] Figure 2 shows an example of a coordinate system that can be used to describe the motion of the sonar phase center C in embodiments of the invention;
[Fig. 3] La Figure 3 est une illustration du théorème de diffraction de Fourier ; [Fig. 3] Figure 3 is an illustration of Fourier's diffraction theorem;
[Fig. 4] La Figure 4 représente un exemple de migration d'une onde plane vers un pixel de l'image ; [Fig. 4] Figure 4 represents an example of migration of a plane wave towards a pixel of the image;
[Fig. 5] La Figure 5 est un ordinogramme d'un procédé de reconstruction de l'image d'un objet selon un ou plusieurs modes de réalisation ; [Fig. 5] Figure 5 is a flowchart of a method for reconstructing the image of an object according to one or more embodiments;
[Fig. 6] La Figure 6 représente les échantillons du signal dans le plan de Fourier à différentes étapes de la migration, selon un ou plusieurs modes de réalisation ; [Fig. 6] FIG. 6 represents the samples of the signal in the Fourier plane at different stages of the migration, according to one or more embodiments;
[Fig. 7a] et [Fig. 7b] Les Figures 7a et 7b représentent respectivement les fonctions d'étalement du point obtenues par une méthode de l'art antérieur d'une part, et d'une méthode de reconstruction d'image selon un mode de réalisation de l'invention d'autre part ; [Fig. 7a] and [Fig. 7b] Figures 7a and 7b represent respectively the spread functions of the point obtained by a method of the prior art on the one hand, and of an image reconstruction method according to an embodiment of the invention d 'somewhere else ;
[Fig. 8] La Figure 8 représente un bloc-diagramme schématique d'un dispositif de traitement de l'information pour la mise en oeuvre d'un ou plusieurs modes de réalisation de l'invention. [Fig. 8] Figure 8 represents a schematic block diagram of an information processing device for the implementation of one or more embodiments of the invention.
Description détaillée detailed description
Dans ce qui suit, il est supposé dans un premier temps que le dispositif mobile sur lequel est montée l'antenne utilisée pour reconstruire une image, par exemple un véhicule marin ou sous-marin autonome, suit un mouvement théorique rectiligne uniforme. Il est noté que les termes « antenne » et « sonar » sont utilisés de manière interchangeable. Dans ce contexte, le centre de phase du sonar, noté C et défini comme le point situé au milieu de la position occupée par le sonar au moment de la transmission de l'onde acoustique et de la position occupée par le sonar au moment de la réception de l'onde rétrodiffusée par un objet ou par le fond marin dans une direction donnée, se déplace en théorie à vitesse constante le long d'un axe (Ox). Les erreurs de trajectoires présentées précédemment et illustrées à la Figure 1 b sont supposées connues, par exemple grâce une méthode de l'art antérieur, telle que la méthode décrite dans la demande de brevet FR 1457951 déposée le 25 août 2014 au nom d'ECA ROBOTICS. In what follows, it is initially assumed that the mobile device on which the antenna used to reconstruct an image is mounted, for example an autonomous marine or submarine vehicle, follows a theoretical uniform rectilinear motion. It is noted that the terms "antenna" and "sonar" are used interchangeably. In this context, the sonar phase center, denoted C and defined as the point located in the middle of the position occupied by the sonar at the time of the transmission of the acoustic wave and the position occupied by the sonar at the time of the reception of the wave backscattered by an object or by the seabed in a given direction, theoretically moves at constant speed along an axis (Ox). The trajectory errors presented previously and illustrated in Figure 1b are assumed to be known, for example using a method of the prior art, such as the method described in patent application FR 1457951 filed on August 25, 2014 in the name of ECA ROBOTICS.
La Figure 2 représente un exemple de système de coordonnées pouvant être utilisé pour décrire le mouvement du centre de phase C du sonar dans des modes de réalisation de l'invention. Sur la Figure 2, le point S représente la source du signal reçu par un des capteurs de l'antenne. Par « source », il est entendu un point de la scène observée (i.e. de l'espace insonifié par l'antenne synthétique) dont on souhaite obtenir une image, chaque pixel de l'image correspondant par exemple à la puissance du champ diffusé par un point de cette scène. Par exemple, la source peut correspondre à un point d'un objet situé au fond de l'eau. Selon l'exemple de la Figure 2, le centre de phase C du sonar est supposé, en théorie, se déplacer le long de l'axe (Ox) à vitesse constante. La distance x entre l'origine O du système de coordonnées et le point C le long de l'axe (Ox) de déplacement du sonar est couramment appelée « azimuth » dans la litérature SAR en anglais. La distance r correspond à la distance orthogonale de S à l'axe (Ox) et est couramment appelée « slant range » ou simplement « range » dans la litérature SAR en anglais. Le système de coordonnées représenté est un système de coordonnées cylindriques dans lequel l'axe du cylindre correspond à l'axe de la trajectoire (Ox). En raison de la symétrie de révolution autour de l'axe (Ox), l'étude des signaux reçus depuis une source S vers le centre de phase C du sonar peut être réalisée dans l'espace à deux dimensions Oxr. L'angle 9' formé entre l'axe (Ox) de déplacement du sonar et la direction du centre C vers la source S est couramment appelé « gisement », et on note 9 = TT-9' son angle supplémentaire. Il est noté que O peut correspondre, par exemple, à la position initiale du sonar (i.e. la position à laquelle l'impulsion sonore est émise), ou à la position initiale du centre du sonar C, ou à un point choisi arbitrairement sur l'axe de déplacement du sonar. Figure 2 shows an example of a coordinate system that can be used to describe the motion of the sonar phase center C in embodiments of the invention. In Figure 2, point S represents the source of the signal received by one of the sensors of the antenna. By "source", it is understood a point of the observed scene (i.e. space insonified by the synthetic antenna) from which one wishes to obtain an image, each pixel of the image corresponding for example to the power of the field diffused by a point of this scene. For example, the source can correspond to a point of an object located at the bottom of the water. According to the example of Figure 2, the phase center C of the sonar is supposed, in theory, to move along the axis (Ox) at constant speed. The distance x between the origin O of the coordinate system and the point C along the axis (Ox) of displacement of the sonar is commonly called "azimuth" in the SAR literature in English. The distance r corresponds to the orthogonal distance from S to the axis (Ox) and is commonly called "slant range" or simply "range" in the SAR literature in English. The coordinate system shown is a cylindrical coordinate system in which the axis of the cylinder corresponds to the axis of the path (Ox). Due to the symmetry of revolution around the axis (Ox), the study of the signals received from a source S towards the phase center C of the sonar can be carried out in the two-dimensional space Oxr. The angle θ′ formed between the axis (Ox) of displacement of the sonar and the direction of the center C towards the source S is commonly called “bearing”, and we denote θ=TT-9′ its additional angle. It is noted that O can correspond, for example, to the initial position of the sonar (i.e. the position at which the sound pulse is emitted), or to the initial position of the center of the sonar C, or to an arbitrarily chosen point on the axis of sonar movement.
Comme mentionné plus haut, la plupart des méthodes d'imagerie pour les systèmes SAS sont dérivées de méthodes initialement développées pour des signaux radar, dans le cadre de systèmes SAR. Dans le domaine radar, les signaux utilisés sont généralement considérés comme étant à bande étroite. On rappelle qu'un signal peut être considéré comme étant à bande étroite si le temps que met une onde plane pour insonifier l'ensemble de l'antenne (i.e. la différence entre le temps mis par l'onde pour insonifier le capteur de l'antenne le plus éloigné de la source et le temps mis par l'onde pour insonifier le capteur de l'antenne le plus proche de la source) est très petite devant la durée de l'impulsion sonore (i.e. la durée du ping). Dans ce cas, on considère que tous les capteurs de l'antenne sont insonifiés approximativement en même temps. Par exemple, on peut considérer que cette approximation est valable lorsque le rapport entre le temps que met une onde plane pour insonifier l'ensemble de l'antenne et la durée de l'impulsion sonore est inférieur à 0,1 . La condition ci-dessus est souvent vérifiée dans le domaine radar (même si dans certains cas elle n'est pas applicable), de sorte que les méthodes utilisées dans l'imagerie SAR reposant sur des signaux à bande étroite fournissent généralement de bons résultats. Toutefois, elle est généralement non applicable dans le domaine sonar. As mentioned above, most of the imaging methods for SAS systems are derived from methods originally developed for radar signals, within the framework of SAR systems. In the radar domain, the signals used are generally considered to be narrowband. It is recalled that a signal can be considered to be narrowband if the time taken by a plane wave to insonify the entire antenna (ie the difference between the time taken by the wave to insonify the sensor of the antenna furthest from the source and the time taken by the wave to insonify the sensor of the antenna closest to the source) is very small in front of the duration of the sound pulse (ie the duration of the ping). In this case, it is considered that all the sensors of the antenna are insonified approximately at the same time. For example, it can be considered that this approximation is valid when the ratio between the time taken by a plane wave to insonify the whole of the antenna and the duration of the sound pulse is less than 0.1. The above condition is often verified in the radar domain (although in some cases it is not applicable), so methods used in SAR imagery relying on narrowband signals generally provide good results. However, it is generally not applicable in the sonar field.
Les méthodes fréquentielles de l'art antérieur utilisées dans les systèmes SAS, qui sont principalement basées sur le théorème de diffraction de Fourier, utilisent une modélisation par signaux à bande étroite. Le principe du théorème de diffraction de Fourier est décrit par exemple au chapitre 6 du livre « Principles of Computerized Tomographie Imaging » d'Avinash C. Kak et Malcolm Slaney, collection « Classics in applied mathematics, 33 » ou au chapitre 3 de la thèse de Malcolm Slaney « Imaging with diffraction tomography » soutenue à l'Université de Purdue, et est représenté sur la Figure 3. Prior art frequency methods used in SAS systems, which are mainly based on the Fourier diffraction theorem, use narrowband signal modeling. The principle of Fourier's diffraction theorem is described for example in chapter 6 of the book "Principles of Computerized Tomography Imaging" by Avinash C. Kak and Malcolm Slaney, collection "Classics in applied mathematics, 33" or in chapter 3 of the thesis from Malcolm Slaney "Imaging with diffraction tomography" defended at Purdue University, and is represented in Figure 3.
Sur cette Figure 3, il est représenté un objet 301 insonifié par une onde plane monochromatique 302. Le champ diffusé 303 peut alors être mesuré. Il est noté que dans le cadre d'applications sonar, on s'intéresse au champ rétrodiffusé, mais le principe reste le même que pour un champ diffusé. Le théorème de diffraction de Fourier établit que la transformée de Fourier du champ diffusé 303 le long de l'axe 304 correspond à la valeur de la transformée de Fourier à deux dimensions (2D) de l'objet 301 le long d'un arc de cercle 305 dans le domaine fréquentiel. Pour obtenir la transformée de Fourier 2D de l'objet complet 301 , il faut insonifier cet objet 301 sous différentes directions 304 et à différentes fréquences, afin d'obtenir une famille d'arcs de cercle 305. Une image de l'objet 301 peut alors être obtenue par application d'une transformée de Fourier inverse à la famille d'arcs de cercle 305 obtenus. Il est noté que ce théorème repose sur des ondes planes monochromatiques 302, et s'applique donc à des signaux à bande étroite. In this Figure 3, an object 301 is shown insonified by a monochromatic plane wave 302. The scattered field 303 can then be measured. It is noted that in the context of sonar applications, one is interested in the backscattered field, but the principle remains the same as for a diffused field. The Fourier diffraction theorem states that the Fourier transform of the scattered field 303 along the axis 304 corresponds to the value of the two-dimensional (2D) Fourier transform of the object 301 along an arc of circle 305 in the frequency domain. To obtain the 2D Fourier transform of the complete object 301, it is necessary to insonify this object 301 under different directions 304 and at different frequencies, in order to obtain a family of circular arcs 305. An image of the object 301 can then be obtained by applying an inverse Fourier transform to the family of circular arcs 305 obtained. It is noted that this theorem relies on monochromatic plane waves 302, and therefore applies to narrowband signals.
Cependant, comme évoqué ci-dessus, pour des signaux sonar, la condition pour approximer les signaux reçus par des signaux à bande étroite n'est généralement pas vérifiée. Aussi, les méthodes qui utilisent des signaux à bande étroite (comme les méthodes fréquentielles de l'art antérieur telles que l'algorithme ω-k) sont en réalité mal adaptées à l'imagerie sonar, et fournissent des résultats dégradés. Dans le cadre de la présente invention, il est ainsi proposé une nouvelle méthode d'imagerie SAS à partir de signaux à large bande. Cette nouvelle méthode repose sur une nouvelle écriture du problème à partir de signaux à large bande, qui est maintenant détaillée. However, as mentioned above, for sonar signals, the condition for approximating the signals received by narrow band signals is generally not verified. Also, methods that use narrowband signals (such as prior art frequency methods such as the ω-k algorithm) are actually poorly suitable for sonar imaging, and provide degraded results. In the context of the present invention, a new method of SAS imaging from broadband signals is thus proposed. This new method relies on a new writing of the problem from broadband signals, which is now detailed.
Dans ce qui suit, les lettres majuscules sont utilisées pour représenter les fonctions et grandeurs associées à des signaux à bande étroite, tandis que les lettres minuscules sont utilisées pour représenter les fonctions et grandeurs associées à des signaux à large bande. In what follows, capital letters are used to represent functions and quantities associated with narrowband signals, while lowercase letters are used to represent functions and quantities associated with wideband signals.
Il est supposé que le centre de phase C du sonar se déplace à vitesse constante le long de l'axe (Ox), avec x l'azimut et r la distance orthogonale à l'axe (Ox), tels que définis ci-dessus en référence à la Figure 2. En raison de la symétrie de révolution autour de l'axe (Ox), le problème peut être étudié dans l'espace à deux dimensions Oxr. It is assumed that the phase center C of the sonar moves at constant speed along the axis (Ox), with x the azimuth and r the distance orthogonal to the axis (Ox), as defined above with reference to Figure 2. Due to the symmetry of revolution around the axis (Ox), the problem can be studied in the two-dimensional space Oxr.
Dans un premier temps, il est supposé que les variables étudiées sont continues et issues d'un signal à bande étroite, par exemple une onde continue monochromatique de nombre d'onde k, avec k = 2π/λ,λ étant la longueur d'onde. Initially, it is assumed that the variables studied are continuous and come from a narrow band signal, for example a monochromatic continuous wave of wavenumber k, with k = 2π/λ, λ being the length of wave.
Le signal Hk(x,r) reçu par le centre de phase du sonar lorsque celui-ci est situé à une distance x du point O sur l'axe (Ox) depuis une source située à une distance orthogonale r sur l'axe (Or) (i.e. ayant un azimut x = 0 et une distance orthogonale r, ce qui correspond au point S' de la Figure 2) peut être exprimé, si on ignore les pertes de propagation :
Figure imgf000015_0001
où 0 est l'angle défini en référence à la Figure 2, u = sin0 et B(u, k) est le diagramme de directivité (ou « beam pattern » en anglais) sonar aller-retour de l'onde de nombre d'onde k.
The signal H k (x,r) received by the sonar phase center when the latter is located at a distance x from the point O on the axis (Ox) from a source located at an orthogonal distance r on the axis (Or) (ie having an azimuth x = 0 and an orthogonal distance r, which corresponds to point S' in Figure 2) can be expressed, ignoring propagation losses:
Figure imgf000015_0001
where 0 is the angle defined with reference to Figure 2, u = sin0 and B(u, k) is the round-trip sonar directivity diagram (or "beam pattern") of the wave of number of k-wave.
Le temps t et la fréquence angulaire co, ainsi que la distance orthogonale r = ct/2 et la variable k = 2ω/c (C étant la vitesse du son), la distance orthogonale r et la variable k' = 2k, ou encore la variable u dérivée du gisement 0 (u = sin 0) et la longueur du réseau de capteurs mise à l'échelle x' = 2kx, sont quatre exemples de paires de variables conjuguées (ou duales) de Fourier couramment utilisées dans le domaine du traitement du signal. Selon ces notations, on définit le spectre angulaire en ondes planes à bande étroite G(u, r, k) comme suit :
Figure imgf000016_0001
The time t and the angular frequency co, as well as the orthogonal distance r = ct/2 and the variable k = 2ω/c (C being the speed of sound), the orthogonal distance r and the variable k' = 2k, or even the variable u derived from the bearing 0 (u = sin 0) and the length of the scaled sensor array x' = 2kx, are four examples of pairs of conjugate (or dual) Fourier variables commonly used in the field of signal processing. According to these notations, we define the angular spectrum in narrow-band plane waves G(u, r, k) as follows:
Figure imgf000016_0001
Comme détaillé dans l'annexe A, il peut être montré, en utilisant une approximation de phase stationnaire, que :
Figure imgf000016_0004
avec v = cos 0.
As detailed in Appendix A, it can be shown, using a stationary phase approximation, that:
Figure imgf000016_0004
with v = cos 0.
Cela permet d'étendre l'onde stationnaire cylindrique issue de S' à une famille d'ondes planes sortantes se déplaçant vers le sonar :
Figure imgf000016_0005
où F*,1 désigne la transformée de Fourier inverse à une dimension associée aux variables duales u et x’ = 2kx.
This makes it possible to extend the cylindrical stationary wave coming from S' to a family of outgoing plane waves moving towards the sonar:
Figure imgf000016_0005
where F*, 1 denotes the one-dimensional inverse Fourier transform associated with the dual variables u and x' = 2kx.
Soit W(u, k) le spectre angulaire en ondes planes à bande étroite des données brutes à bande étroite D(x, k) défini par :
Figure imgf000016_0006
où les D(x, k) représentent les données brutes issues de la rétrodiffusion de l'onde plane monochromatique de nombre d'onde k émise au point O (i.e. quand x = 0) et reçues lorsque le centre de phase est situé à une distance x du point O sur l'axe (Ox), et où Fxl désigne la transformée de Fourier rapide à une dimension associée aux variables duales u et x’ = 2kx.
Let W(u, k) be the narrowband plane wave angular spectrum of the raw narrowband data D(x, k) defined by:
Figure imgf000016_0006
where the D(x, k) represent the raw data resulting from the backscattering of the monochromatic plane wave of wave number k emitted at point O (ie when x = 0) and received when the phase center is located at a distance x from point O on the axis (Ox), and where F xl designates the one-dimensional fast Fourier transform associated with the dual variables u and x' = 2kx.
A partir de la théorie du filtrage adapté et du théorème de convolution, on obtient l'expression suivante pour l'image SAS à bande étroite
Figure imgf000016_0002
Figure imgf000016_0003
désigne le conjugué de G(u, r, k) et I(x, r, k) correspond à l'intensité (ou niveau de gris) pour le pixel de l'image ayant pour coordonnées (x, r) dans le système de coordonnées de la Figure 2.
From matched filtering theory and the convolution theorem, we get the following expression for the narrowband SAS image
Figure imgf000016_0002
Or
Figure imgf000016_0003
denotes the conjugate of G(u, r, k) and I(x, r, k) corresponds to the intensity (or gray level) for the pixel of the image having coordinates (x, r) in the system coordinates in Figure 2.
Il apparaît de cette formule que l'image SAS à bande étroite I(x, r, k) peut être obtenue en pondérant le spectre angulaire W(u, k) par B(u, k), puis en effectuant une migration (ou rétropropagation) des ondes planes à bande étroite vers chaque point (ou pixel) P de coordonnées (x, r) de l'image, par application à W(u, k) d'un déphasage de 2k(xu + rv), que l'on peut associer au retard de propagation 2(xu + rv)/c correspondant au temps de trajet aller-retour de l'onde plane issue du point O et se dirigeant dans la direction 0 et le pixel P. It appears from this formula that the narrow-band SAS image I(x, r, k) can be obtained by weighting the angular spectrum W(u, k) by B(u, k), then performing a migration (or backpropagation) of narrow-band plane waves towards each point (or pixel) P of coordinates (x, r) of the image, by applying to W(u, k) a phase shift of 2k(xu + rv), that can be associated with the propagation delay 2(xu + rv)/c corresponding to the round trip travel time of the plane wave coming from the point O and heading in the direction 0 and the pixel P.
Le principe de la migration d'une onde plane est représenté en Figure 4. Sur cette figure, il est supposé que l'onde plane est issue du point O dans une direction 401 formant un angle 0 avec l'axe (Or), la direction 401 étant orthogonale au front d'onde 402. La différence de marche correspond au vecteur OP projeté dans la direction de propagation de l'onde, qui est aussi égale à la distance OP', puisque P et P' sont sur le même plan d'onde. Comme montré sur la Figure 4, cette différence de marche est égale à xu + rv, avec u = sin 0 et v = cos 0. Ainsi, pour le trajet aller-retour de l'onde plane depuis son émission en O et sa réception en (x, r), la distance totale est égale à 2(xu + rv). Par « migration » ou « rétropropagation », il est donc entendu une application d'un déphasage pour compenser le temps de trajet aller-retour de l'onde pour aller de son point O d'émission vers le point P. The principle of the migration of a plane wave is represented in Figure 4. In this figure, it is assumed that the plane wave comes from the point O in a direction 401 forming an angle 0 with the axis (Or), the direction 401 being orthogonal to the wavefront 402. The path difference corresponds to the vector OP projected in the direction of propagation of the wave, which is also equal to the distance OP', since P and P' are on the same plane of wave. As shown in Figure 4, this path difference is equal to xu + rv, with u = sin 0 and v = cos 0. Thus, for the round trip of the plane wave from its emission at O and its reception at (x, r), the total distance is equal to 2(xu + rv). By "migration" or "backpropagation", it is therefore understood an application of a phase shift to compensate for the round trip travel time of the wave to go from its point O of emission to the point P.
L'image SAS à large bande i(x, r) peut être obtenue de manière élémentaire par superposition linéaire des composantes I(x, r, k) de l'image SAS à bande étroite, c'est- à-dire en rétropropageant toutes les composantes W(u, k) du signal à large bande (i.e. toutes les ondes planes à bande étroite issues de la décomposition du signal à large bande) auxquelles on a appliqué une pondération par un diagramme de directivité à bande étroite B(u, k). The broadband SAS image i(x, r) can be obtained in an elementary way by linear superposition of the components I(x, r, k) of the narrowband SAS image, i.e. by back-propagation all the components W(u, k) of the wideband signal (i.e. all the narrowband plane waves resulting from the decomposition of the wideband signal) to which a weighting has been applied by a narrowband directivity diagram B(u , k).
En d'autres termes, l'image SAS à large bande i(x, r) peut être obtenue en décomposant le signal à large bande en une pluralité d'ondes planes monochromatiques (i.e. à bande étroite), puis en effectuant une pondération de ces ondes à bande étroite suivie d'une migration vers chaque point P de coordonnées (x, r) de l'image. Cette migration peut être effectuée comme détaillé plus haut, c'est-à-dire par application d'un déphasage correspondant au temps de parcours aller-retour de O à P dans la direction 0, qui vaut 2(xu + rv)/c. In other words, the broadband SAS image i(x, r) can be obtained by decomposing the broadband signal into a plurality of monochromatic (i.e. narrowband) plane waves, then performing a weighting of these narrow band waves followed by a migration towards each point P of coordinates (x, r) of the image. This migration can be performed as detailed above, i.e. by applying a phase shift corresponding to the round-trip travel time from O to P in the direction 0, which is equal to 2(xu + rv)/c .
Soit w(u, r) le spectre angulaire en ondes planes à large bande, défini comme suit : J
Figure imgf000017_0001
où F/”1 représente la transformée de Fourier inverse à une dimension associée aux variables duales r et k. De manière similaire, les données brutes large bande d(x, r) sont définies comme suit :
Figure imgf000018_0001
Let w(u, r) be the angular broadband plane wave spectrum, defined as follows: J
Figure imgf000017_0001
where F/” 1 represents the one-dimensional inverse Fourier transform associated with the dual variables r and k. Similarly, the broadband raw data d(x, r) is defined as follows:
Figure imgf000018_0001
On introduit en outre la fonction b(u,r) suivante :
Figure imgf000018_0002
où B(u, k) est le diagramme de directivité défini précédemment.
We also introduce the following function b(u,r):
Figure imgf000018_0002
where B(u, k) is the directivity diagram defined previously.
Le produit de convolution de b(u, r) et w(u, r) peut s'écrire :
Figure imgf000018_0003
ce qui signifie que la pondération des ondes planes à bande étroite par B(u, k) correspond en large bande à un filtrage du spectre angulaire par la fonction b(u,r).
The convolution product of b(u, r) and w(u, r) can be written:
Figure imgf000018_0003
which means that the weighting of the plane waves at narrow band by B(u, k) corresponds in wide band to a filtering of the angular spectrum by the function b(u,r).
On en déduit que l'image SAS large bande i(x, r) peut être obtenue directement en effectuant une rétropropagation des ondes planes à large bande, préalablement filtrées par b(u,r), vers chaque point P de coordonnées (x, r) de l'image :
Figure imgf000018_0004
We deduce that the broadband SAS image i(x, r) can be obtained directly by carrying out a back-propagation of the broadband plane waves, previously filtered by b(u,r), towards each point P of coordinates (x, r) picture:
Figure imgf000018_0004
Ainsi, le traitement des données issues du système à ouverture synthétique (SAS ou SAR) peut être effectué directement dans le domaine temporel via une formation de voies à large bande en champ lointain (i.e., en considérant des ondes planes) suivie d'une migration (ou rétropropagation) des ondes planes dans la grille cartésienne (i.e., vers les points/pixels de l'image). Thus, the processing of data from the synthetic aperture system (SAS or SAR) can be performed directly in the time domain via far-field broadband channel formation (i.e., considering plane waves) followed by migration (or backpropagation) of the plane waves in the Cartesian grid (i.e., towards the points/pixels of the image).
On rappelle ici que la formation de voies (ou formation de faisceaux, ou « beamforming » en anglais) est une méthode bien connue de la personne du métier pour extraire d'un signal les composantes se propageant dans une direction donnée 0. La forme la plus classique de la formation de voies dans le domaine temporel, appelée filtrage spatial par retard et sommation (ou « delay and sum beamforming » en anglais), consiste à retarder les signaux reçus par les différents capteurs de l'antenne, et sommer l'ensemble des signaux retardés. It is recalled here that the formation of channels (or formation of beams, or "beamforming" in English) is a method well known to those skilled in the art for extracting from a signal the components propagating in a given direction 0. The form the The most classic way of forming channels in the time domain, called spatial filtering by delay and summation (or "delay and sum beamforming" in English), consists in delaying the signals received by the various sensors of the antenna, and summing the set of delayed signals.
La formation de voies et la migration dans le domaine temporel peuvent être très simplement mises en oeuvre pour une onde plane (ou, de manière équivalente, des ondes cylindriques considérées en champ lointain) qui se propage dans la direction perpendiculaire à la trajectoire Ox. En effet, dans ce cas, les fronts d'ondes sont parallèles à l'axe de direction (Ox), et sont donc alignés avec la grille de pixels de l'image. Il suffit donc de choisir la période d'échantillonnage en distance oblique du signal correspondant à l'onde plane égale au pas entre les lignes de l'image pour effectuer la migration sans aucun calcul. Channel formation and migration in the time domain can be very simply implemented for a plane wave (or, equivalently, cylindrical waves considered in the far field) which propagates in the direction perpendicular to the trajectory Ox. Indeed, in this case, the wave fronts are parallel to the direction axis (Ox), and are therefore aligned with the pixel grid of the image. It is therefore sufficient to choose the sampling period in oblique distance of the signal corresponding to the plane wave equal to the pitch between the lines of the image to carry out the migration without any calculation.
Dans le cas général d'une onde plane se propageant dans une direction donnée il y a une contraction de la différence de marche entre deux pixels consécutifs
Figure imgf000019_0006
d'une même colonne de l'image SAS qui résulte du théorème de Thales. La distance entre ces deux pixels, une fois projetée dans la direction de propagation de l'onde est plus petite d'un facteur v = cos 0. Il faudra donc, pour migrer une onde plane sur une colonne de l'image faire une dilatation du signal de ce facteur qui dépend de 0.
In the general case of a plane wave propagating in a given direction there is a contraction of the path difference between two consecutive pixels
Figure imgf000019_0006
of the same column of the SAS image which results from the theorem of Thales. The distance between these two pixels, once projected in the direction of propagation of the wave, is smaller by a factor v = cos 0. It will therefore be necessary, to migrate a plane wave on a column of the image, to make a dilation of the signal of this factor which depends on 0.
On en déduit une nouvelle méthode de traitement des signaux issus d'un système à ouverture synthétique, dont un mode de réalisation est représenté à la Figure 5. We deduce a new method of processing signals from a synthetic aperture system, an embodiment of which is shown in Figure 5.
Tout d'abord, des données brutes large bande sont reçues au niveau des différents capteurs de l'antenne (étape 501 de la Figure 5). Dans un ou plusieurs modes de réalisation, ces données brutes sont reçues sous la forme d'une matrice NxP, où P est le nombre de capteurs de l'antenne, et N le nombre d'échantillons du signal source reçus par capteur. Ces données sont des données temporelles. First of all, broadband raw data is received at the level of the various sensors of the antenna (step 501 of FIG. 5). In one or more embodiments, this raw data is received in the form of an NxP matrix, where P is the number of sensors of the antenna, and N the number of samples of the source signal received per sensor. These data are time data.
Par exemple, si la source émet un signal s(t) à un instant t, le signal reçu sur le capteur p peut s'écrire sous la forme :
Figure imgf000019_0001
où tp est le temps de propagation mis par l'onde entre la source et le capteur p, et βp(t) modélise le bruit ambiant sur le capteur p à l'instant t. Ce signal rp(t) peut être segmenté en blocs (appelés « snapshots » en anglais) de même durée avec
Figure imgf000019_0005
Figure imgf000019_0004
Typiquement, on peut considérer que le signal est stationnaire sur durant chaque snapshot k. Le signal reçu durant un snapshot k peut être échantillonné à une fréquence Fe respectant le théorème de Shannon, ce qui permet d'obtenir N = FeSt valeurs reçues sur chaque capteur lors d'un snapshot k. Le N-uplet de valeurs pour chaque capteur forme un vecteur rp(tk) de dimension N*1. Les données brutes reçues à l'étape 501 peuvent alors correspondre à la concaténation des vecteurs
Figure imgf000019_0003
Figure imgf000019_0002
For example, if the source emits a signal s(t) at a time t, the signal received on the sensor p can be written in the form:
Figure imgf000019_0001
where tp is the propagation time taken by the wave between the source and the sensor p, and β p (t) models the ambient noise on the sensor p at time t. This signal r p (t) can be segmented into blocks (called “snapshots” in English) of the same duration with
Figure imgf000019_0005
Figure imgf000019_0004
Typically, we can consider that the signal is stationary on during each snapshot k. The signal received during a snapshot k can be sampled at a frequency F e respecting Shannon's theorem, which makes it possible to obtain N=F e S t values received on each sensor during a snapshot k. The N-tuple of values for each sensor forms a vector r p (t k ) of dimension N*1. The raw data received at step 501 can then correspond to the concatenation of the vectors
Figure imgf000019_0003
Figure imgf000019_0002
Puis, à l'étape 503, des nouveaux signaux temporels à large bande sont déterminés à partir des données reçues, en appliquant une méthode de formation de voies temporelle à large bande et en champ lointain. En champ lointain, les fronts d'onde peuvent être considérés comme plans, de sorte que les nouveaux signaux temporels correspondent à des ondes planes. Then, at step 503, new wideband time signals are determined from the data received, by applying a method of forming broadband and far-field temporal channels. In the far field, the wavefronts can be considered plane, so that the new temporal signals correspond to plane waves.
On rappelle ici que la formation de voies temporelle consiste à retarder les signaux reçus par les différents capteurs (i.e. les données reçues à l'étape 501 ). On effectue ensuite la somme de l'ensemble des signaux retardés dans une direction 0 donnée, pour obtenir un nouveau signal. Par exemple, pour une direction 0, le nouveau signal peut être de la forme :
Figure imgf000020_0001
It is recalled here that the formation of time channels consists in delaying the signals received by the various sensors (ie the data received at step 501 ). The sum of all the signals delayed in a given direction 0 is then performed to obtain a new signal. For example, for a 0 direction, the new signal can be of the form:
Figure imgf000020_0001
Dans le cadre d'une formation de voies à large bande et en champ lointain, chaque nouveau signal représente une onde plane à large bande reçue dans une direction 0 donnée. In broadband and far-field channel formation, each new signal represents a broadband plane wave received in a given 0-direction.
En pratique, il est possible d'échantillonner le nouveau signal sk(u) pour obtenir par exemple M échantillons sk(um) avec m=1 ,...,M. A la fin de l'étape 502, on a donc un ensemble d'échantillons correspondant à différentes directions 0. In practice, it is possible to sample the new signal s k (u) to obtain for example M samples s k (u m ) with m=1 ,...,M. At the end of step 502, there is therefore a set of samples corresponding to different directions 0.
A une étape 504, les échantillons obtenus lors de la formation de voies temporelle large bande sont rétropropagés vers les points/pixels de la grille cartésienne de l'image, grâce à une méthode de migration (ou rétropropagation) illustrée sur la Figure 4 : une onde est émise dans une direction 0 depuis le point O. Pour déterminer la contribution du signal reçu à l'intensité lumineuse du pixel P de coordonnées (x,r), il faut compenser le temps de trajet de l'onde de O=(0,0) jusqu'à P, qui est aussi égal au temps de trajet entre O et P', puisque P et P' sont sur le même plan d'onde. A la fin de l'étape 504, on obtient donc un ensemble d'échantillons retardés, et chacun de ces échantillons retardés correspond à une contribution d'une onde plane dans une direction donnée à un pixel P(x,r) de l'image. At a step 504, the samples obtained during the formation of broadband temporal channels are back-propagate towards the points/pixels of the Cartesian grid of the image, thanks to a migration method (or back-propagation) illustrated in FIG. 4: a wave is emitted in a direction 0 from the point O. To determine the contribution of the received signal to the light intensity of the pixel P of coordinates (x,r), it is necessary to compensate the travel time of the wave by O=( 0.0) to P, which is also equal to the travel time between O and P', since P and P' are on the same wave plane. At the end of step 504, a set of delayed samples is therefore obtained, and each of these delayed samples corresponds to a contribution of a plane wave in a given direction to a pixel P(x,r) of the picture.
L'image SAS peut alors être reconstruite (étape 505) à partir de ces échantillons rétropropagés. Dans un ou plusieurs modes de réalisation, l'intensité (i.e. le niveau de gris) de l'image d'un pixel donné correspond à la somme de tous les échantillons reçus pour ce pixel, après formation de voies (502) et rétropropagation (503). The SAS image can then be reconstructed (step 505) from these back-propagated samples. In one or more embodiments, the intensity (i.e. the gray level) of the image of a given pixel corresponds to the sum of all the samples received for this pixel, after formation of channels (502) and backpropagation ( 503).
Dans un ou plusieurs modes de réalisation, des données relatives au mouvement réel de l'antenne peuvent être reçues à une étape optionnelle 502. Comme détaillé précédemment, dans le cadre d'un système sonar embarqué, les erreurs de trajectoire de l'antenne par rapport à une trajectoire théorique peuvent être importantes et doivent être prises en compte pour le traitement des données reçues, notamment au niveau de l'étape 503 de formation de voies. Il est noté que les étapes 501 et 502 peuvent être réalisées dans cet ordre, dans l'ordre inverse ou en parallèle. In one or more embodiments, data relating to the actual movement of the antenna can be received at an optional step 502. As detailed previously, within the framework of an onboard sonar system, the trajectory errors of the antenna with respect to a theoretical trajectory can be significant and must be taken into account for the processing of the data received, in particular at the level of the step 503 of formation of channels. Note that steps 501 and 502 can be performed in this order, in reverse order, or in parallel.
Il existe dans l'art antérieur des méthodes ayant un faible coût de calcul pour les étapes 503 et 504, permettant ainsi un traitement rapide des données, une consommation énergétique réduite et un faible poids du calculateur. There exist in the prior art methods having a low calculation cost for the steps 503 and 504, thus allowing rapid processing of the data, reduced energy consumption and low weight of the computer.
Dans un mode de réalisation particulier, il est supposé que l'on dispose des données brutes (issues de l'étape 501 de la Figure 5), et éventuellement des données de mouvement (issues de l'étape 502 de la Figure 5). Les données brutes sont par exemple des données en (x,r). Pour chaque couple de coordonnées (x,r), et donc pour chaque pixel P de coordonnées (x,r), on reçoit donc un ensemble d'échantillons respectivement associés à ce pixel. Pour la formation de voies à large bande et en champ lointain (étape 502), il est possible d'utiliser l'algorithme décrit dans « A fast beamforming algorithm » de Kenneth M. Houston, IEEE Oceans Conference Record 1 (1994) 211-216. Cet algorithme propose une méthode rapide de formation de voies à partir de signaux large bande, nettement moins coûteuse en termes de calculs que la méthode de formation de voies conventionnelle (appelée « sum-and-delay beamforming » en anglais, ou DSBF), dans laquelle les signaux sont retardés selon les différences de marches calculées puis sommés. Cet algorithme est un algorithme itératif, dans lequel une DSBF est d'abord calculée pour plusieurs sous-groupes de capteurs et dans un nombre de directions limité. Puis, à chaque étape, les voies issues de paires de sous-groupes sont combinées et le nombre de directions considérées est augmenté. Cet algorithme fournit des résultats très satisfaisants, pour une complexité calculatoire en O(Nlog2N), tandis que l'algorithme conventionnel DSBF a une complexité calculatoire en O(N2). Même si cet algorithme n'a pas été développé pour des larges réseaux d'antennes et qu'il n'a pas été jusqu'à présent utilisé dans ce contexte, il s'avère particulièrement adapté pour mettre en oeuvre l'étape 503. En appliquant cet algorithme, on obtient des échantillons en (u,r). In a particular embodiment, it is assumed that raw data (resulting from step 501 of FIG. 5) is available, and possibly movement data (resulting from step 502 of FIG. 5). The raw data are for example data in (x,r). For each pair of coordinates (x,r), and therefore for each pixel P of coordinates (x,r), a set of samples respectively associated with this pixel is therefore received. For broadband and far-field beamforming (step 502), it is possible to use the algorithm described in "A fast beamforming algorithm" by Kenneth M. Houston, IEEE Oceans Conference Record 1 (1994) 211- 216. This algorithm offers a fast method of forming beams from broadband signals, significantly less expensive in terms of calculations than the conventional beamforming method (called "sum-and-delay beamforming" in English, or DSBF), in which the signals are delayed according to the calculated and then summed rate differences. This algorithm is an iterative algorithm, in which a DSBF is first calculated for several subgroups of sensors and in a limited number of directions. Then, at each step, the pathways from pairs of subgroups are combined and the number of directions considered is increased. This algorithm provides very satisfactory results, for a computational complexity of O(Nlog2N), whereas the conventional DSBF algorithm has a computational complexity of O(N 2 ). Even if this algorithm has not been developed for large antenna arrays and has not been used in this context up to now, it proves to be particularly suitable for implementing step 503. By applying this algorithm, we obtain samples in (u,r).
Pour la rétropropagation des ondes planes (étape 504 de la Figure 5), il est possible d'utiliser une transformée en Z-Chirp, ou CZT (pour « Chirp-Z Transform » en anglais), décrite par exemple dans « Signal Processing Algorithms », Samuel Stearns et Ruth David, Prentice-Hall, Inc. La CZT est une transformation permettant de dilater ou compresser un signal par modulation linéaire de fréquence. Il est connu que cette transformation peut être exprimée comme un produit de convolution, et mise en oeuvre en effectuant deux transformées de Fourier rapide (ou FFT) consécutives. La complexité calculatoire de cette transformation est en O(Nlog2N). For the backpropagation of the plane waves (step 504 of FIG. 5), it is possible to use a Z-Chirp transform, or CZT (for “Chirp-Z Transform”), described for example in “Signal Processing Algorithms », Samuel Stearns and Ruth David, Prentice-Hall, Inc. The CZT is a transformation allowing to expand or compress a signal by linear frequency modulation. It is known that this transformation can be expressed as a convolution product, and implemented by performing two consecutive Fast Fourier Transforms (or FFTs). The computational complexity of this transformation is in O(Nlog2N).
Pour mettre en oeuvre l'étape de migration 504, il est possible d'appliquer successivement aux données issues de la formation de voies :To implement the migration step 504, it is possible to successively apply to the data resulting from the channel formation:
- une CZT sur la distance orthogonale r : on obtient alors des données en (u,f) ;- a CZT on the orthogonal distance r: we then obtain data in (u,f);
- une CZT sur l'azimut x : on obtient alors des données en (x,f) ; et- a CZT on the azimuth x: we then obtain data in (x,f); And
- une transformée de Fourier inverse sur r : on récupère des données en (x,r). - an inverse Fourier transform on r: we recover data in (x,r).
Le principe de la CZT, et notamment la compression ou la dilatation des signaux, est représenté sur la Figure 6. The principle of CZT, and in particular the compression or expansion of signals, is shown in Figure 6.
La Figure 6 représente le signal en sortie de l'étape de formation de voies dans le plan de Fourier. Initialement les données 601 issues de la méthode de formation de voies 503 sont représentées par des ronds et sont donc situés sur une grille polaire représentée en traits pleins. Les arcs de cercle correspondent aux différentes fréquences selon le théorème de diffraction de Fourier et les rayons aux directions 0 de propagation des ondes planes. Pour effectuer la migration de ces échantillons 601 vers les pixels d'une grille cartésienne (représentée par des tirets sur la figure), il faut effectuer : FIG. 6 represents the output signal of the channel formation step in the Fourier plane. Initially, the data 601 resulting from the channel formation method 503 are represented by circles and are therefore located on a polar grid represented by solid lines. The circular arcs correspond to the different frequencies according to Fourier's diffraction theorem and the rays to the 0 directions of plane wave propagation. To perform the migration of these samples 601 towards the pixels of a Cartesian grid (represented by dashes in the figure), it is necessary to perform:
- une dilatation le long des rayons u jusqu'à intersection avec la grille cartésienne : on obtient les échantillons 602 représentés par des triangles ; puis- an expansion along the rays u up to intersection with the Cartesian grid: the samples 602 represented by triangles are obtained; Then
- une compression le long d'une ligne de la grille cartésienne jusqu'à un point de la grille : on obtient les échantillons 603 représentés par des carrés. L'image SAS s'obtient alors par une transformée de Fourier bidimensionnelle. Contrairement à l'art antérieur, le passage à une grille cartésienne s'obtient seulement par des dilatations 1 D, qui sont rapides, et non des interpolations compliquées (comme l'interpolation de Stolt) qui sont très coûteuses en temps de calcul. - a compression along a line of the Cartesian grid up to a point of the grid: the samples 603 represented by squares are obtained. The SAS image is then obtained by a two-dimensional Fourier transform. Contrary to the prior art, the transition to a Cartesian grid is obtained only by 1D expansions, which are rapid, and not by complicated interpolations (such as the Stolt interpolation) which are very costly in computation time.
Les Figures 7a et 7b représentent respectivement les fonctions d'étalement du point obtenus par la méthode Omega-k d'une part, et par un procédé de reconstruction d'image selon un mode de réalisation de la présente invention d'autre part. Il apparaît de ces figures que la fonction d'étalement du point (ou PSF, pour « point spread function » en anglais) est beaucoup plus étalée pour l'algorithme Omega-k que pour le procédé selon la présente invention, ce qui signifie que la résolution d'un système d'imagerie selon la présente invention est meilleure que la résolution d'un système d'imagerie reposant sur l'algorithme Omega-k . Cela est dû au fait que le procédé selon la présente invention utilise directement des signaux à large bande, tandis que la méthode Omega-k utilise une transformée de Fourier bidimensionnelle et non une formation de voies, et qu'une interpolation, dite interpolation de Stolt, est alors nécessaire dans le plan de Fourier avant la transformée de Fourier inverse, conduisant à une dégradation de la PSF. FIGS. 7a and 7b represent respectively the spread functions of the point obtained by the Omega-k method on the one hand, and by an image reconstruction method according to an embodiment of the present invention on the other hand. It appears from these figures that the point spread function (or PSF, for "point spread function" in English) is much more spread for the Omega-k algorithm than for the method according to the present invention, which means that the resolution of an imaging system according to the present invention is better than the resolution of an imaging system based on the Omega-k algorithm. This is due to the fact that the process according to the present invention uses broadband signals directly, while the Omega-k method uses a two-dimensional Fourier transform and not lane formation, and an interpolation, called Stolt interpolation, is then necessary in the Fourier plane before the inverse Fourier transform, leading to a degradation of the PSF.
En effet, un avantage du procédé décrit en Figure 5 est que les ondes planes à large bande peuvent être calculées directement dans le domaine temporel pour un réseau d'antenne déformé (ce qui est le cas pour un sonar remorqué monté sur un véhicule sous-marin autonome), si les déformations (i.e. les erreurs de trajectoire) sont connues, par exemple en utilisant une méthode d'estimation de mouvement de l'art antérieur. Ainsi, le procédé est plus précis que les méthodes de l'art antérieur qui utilisent des signaux à bande étroites. Indeed, an advantage of the method described in Figure 5 is that the broadband plane waves can be calculated directly in the time domain for a deformed antenna array (which is the case for a towed sonar mounted on an underwater vehicle). autonomous sailor), if the deformations (i.e. the trajectory errors) are known, for example by using a motion estimation method of the prior art. Thus, the method is more accurate than prior art methods which use narrowband signals.
Un autre avantage est qu'il existe des méthodes rapides (en termes de coût de calcul) pour effectuer les étapes 503 et 504 de la Figure 5. Par exemple, en utilisant un algorithme itératif comme celui décrit dans « A fast beamforming algorithm » de Kenneth M. Houston, IEEE Oceans Conference Record 1 (1994) 211-216 pour l'étape 503, et des transformations CZT pour l'étape 504, le procédé de reconstruction d'image représenté en Figure 5 a une complexité calculatoire linéarithmique, i.e. en O(Nlog2N), c'est-à-dire du même ordre de grandeur que l'algorithme Omega-k. En comparaison, l'algorithme de rétroprojection, qui est une méthode temporelle intégrant les différences de marche exactes, a une complexité quadratique, i.e. en O(N2). L'invention propose ainsi un procédé à la fois précis et rapide. Another advantage is that there are fast methods (in terms of computational cost) to perform steps 503 and 504 of Figure 5. For example, using an iterative algorithm like the one described in "A fast beamforming algorithm" of Kenneth M. Houston, IEEE Oceans Conference Record 1 (1994) 211-216 for step 503, and CZT transformations for step 504, the image reconstruction method shown in Figure 5 has linear computational complexity, i.e. in O(Nlog2N), ie of the same order of magnitude as the Omega-k algorithm. In comparison, the back-projection algorithm, which is a temporal method integrating the exact path differences, has a quadratic complexity, ie in O(N 2 ). The invention thus proposes a method that is both precise and rapid.
La Figure 8 représente un bloc-diagramme schématique d'un dispositif de traitement de l'information 800 pour la mise en oeuvre d'un ou plusieurs modes de réalisation de l'invention. Le dispositif 800 peut comprendre une mémoire 805 pour stocker des instructions permettant la mise en oeuvre du procédé, les données issues du signal rétrodiffusé reçues, et des données temporaires pour réaliser les différentes étapes d'un procédé tel que décrit précédemment. Figure 8 shows a schematic block diagram of an information processing device 800 for implementing one or more embodiments of the invention. The device 800 can comprise a memory 805 for storing instructions allowing the implementation of the method, the data from the backscattered signal received, and temporary data for carrying out the different steps of a method as described previously.
Le dispositif peut en outre comporter un circuit 804. Ce circuit peut être, par exemple : The device may further comprise a circuit 804. This circuit may be, for example:
- un processeur apte à interpréter des instructions sous la forme de programme informatique, ou - une carte électronique dont les étapes du procédé de l'invention sont décrites dans le silicium, ou encore - a processor capable of interpreting instructions in the form of a computer program, or - an electronic card whose steps of the method of the invention are described in silicon, or else
- une puce électronique programmable, telle qu'une puce FPGA (pour « Field- Programmable Gate Array » en anglais), un SOC (pour « System On Chip » en anglais), un GPU (pour « Graphics Processing Unit » en anglais), ou un ASIC (pour « Application Specific Integrated Circuit » an anglais). a programmable electronic chip, such as an FPGA chip (for "Field-Programmable Gate Array" in English), a SOC (for "System On Chip" in English), a GPU (for "Graphics Processing Unit" in English) , or an ASIC (for "Application Specific Integrated Circuit").
Les SOC ou système sur puce sont des systèmes embarqués qui intègrent tous les composants d'un système électronique dans une puce unique. Un ASIC est un circuit électronique spécialisé qui regroupe des fonctionnalités sur mesure pour une application donnée. Les ASIC sont généralement configurés lors de leur fabrication et ne peuvent être que simulés par l'utilisateur. Les circuits logiques programmables de type FPGA (Field-Programmable Gate Array) sont des circuits électroniques reconfigurables par l'utilisateur. SOCs or system on a chip are embedded systems that integrate all the components of an electronic system into a single chip. An ASIC is a specialized electronic circuit that groups functionalities tailored to a given application. ASICs are usually configured when manufactured and can only be simulated by the user. Programmable logic circuits of the FPGA (Field-Programmable Gate Array) type are electronic circuits reconfigurable by the user.
Le dispositif 800 peut comporter une interface d'entrée 803 pour la réception de données issues du signal rétrodiffusé, et une interface de sortie 806 pour la fourniture de l'image d'un objet situé au fond de la mer et/ou des données de localisation d'un tel objet. Enfin, l'ordinateur peut comporter, pour permettre une interaction aisée avec un utilisateur, un écran 801 et un clavier 802. Bien entendu, le clavier est facultatif, notamment dans le cadre d'un ordinateur ayant la forme d'une tablette tactile, par exemple. The device 800 may include an input interface 803 for receiving data from the backscattered signal, and an output interface 806 for supplying the image of an object located at the bottom of the sea and/or data from location of such an object. Finally, the computer can include, to allow easy interaction with a user, a screen 801 and a keyboard 802. Of course, the keyboard is optional, especially in the context of a computer in the form of a touch pad, For example.
En fonction du mode de réalisation, le dispositif 800 peut être un ordinateur, un réseau d'ordinateurs, un composant électronique, ou un autre appareil comportant un processeur couplé de manière opérationnelle à une mémoire, ainsi que, selon le mode de réalisation choisi, une unité de stockage de données, et d'autres éléments matériels associés comme une interface de réseau et un lecteur de support pour lire un support de stockage amovible et écrire sur un tel support (non représentés sur la figure). Le support de stockage amovible peut être, par exemple, un disque compact (CD), un disque vidéo/polyvalent numérique (DVD), un disque flash, une clé USB, etc. Depending on the embodiment, the device 800 can be a computer, a computer network, an electronic component, or another device comprising a processor operatively coupled to a memory, as well as, according to the chosen embodiment, a data storage unit, and other associated hardware such as a network interface and a media drive for reading removable storage media and writing to such media (not shown in the figure). The removable storage medium can be, for example, a compact disc (CD), a digital video/versatile disc (DVD), a flash disc, a USB key, etc.
En fonction du mode de réalisation, la mémoire, l'unité de stockage de données ou le support de stockage amovible contient des instructions qui, lorsqu'elles sont exécutées par le circuit de commande 804, amènent ce circuit de commande 804 à effectuer ou contrôler les parties interface d'entrée 803, interface de sortie 806, stockage de données dans la mémoire 805 et/ou traitement de données selon un ou plusieurs modes de réalisation du procédé proposé. Par ailleurs, le schéma fonctionnel présenté sur la Figure 5 est un exemple typique d'un programme dont certaines instructions peuvent être réalisées auprès du dispositif 800. A ce titre, la Figure 5 peut correspondre à l'organigramme de l'algorithme général d'un programme informatique au sens de l'invention. Depending on the embodiment, the memory, data storage unit, or removable storage medium contains instructions which, when executed by control circuit 804, cause this control circuit 804 to perform or control the input interface 803, output interface 806, data storage in memory 805 and/or data processing parts according to one or more embodiments of the proposed method. Furthermore, the functional diagram shown in Figure 5 is a typical example of a program of which certain instructions can be carried out at the device 800. As such, Figure 5 may correspond to the flowchart of the general algorithm of a computer program within the meaning of the invention.
Bien entendu, la présente invention ne se limite pas aux formes de réalisation décrites ci-avant à titre d'exemples ; elle s'étend à d'autres variantes. Notamment, comme mentionné ci-dessus, la présente invention est applicable dans le cadre des systèmes d'antenne (sonar ou radar) fixe classiques, comprenant une antenne physique comportant un émetteur et une pluralité de capteurs (récepteurs), dans lesquels une série d'impulsions sont émises et dans lesquels les signaux retours de ces impulsions sont reçues par les différents capteurs. Dans ce cas, chaque centre de phase correspond au milieu de l'émetteur et de chaque capteur. Ainsi, la présente invention peut être utilisée dans de nombreux autres domaines, comme l'imagerie médicale ultrasonore (échographie, Doppler, etc.). Of course, the present invention is not limited to the embodiments described above by way of examples; it extends to other variants. In particular, as mentioned above, the present invention is applicable in the context of conventional fixed antenna (sonar or radar) systems, comprising a physical antenna comprising a transmitter and a plurality of sensors (receivers), in which a series of pulses are emitted and in which the return signals of these pulses are received by the various sensors. In this case, each phase center corresponds to the middle of the emitter and of each sensor. Thus, the present invention can be used in many other fields, such as ultrasonic medical imaging (echography, Doppler, etc.).
En fonction du mode de réalisation choisi, certains actes, actions, évènements ou fonctions de chacune des méthodes décrites dans le présent document peuvent être effectués ou se produire selon un ordre différent de celui dans lequel ils ont été décrits, ou peuvent être ajoutés, fusionnés ou bien ne pas être effectués ou ne pas se produire, selon le cas. En outre, dans certains modes de réalisation, certains actes, actions ou évènements sont effectués ou se produisent concurremment et non pas successivement. Depending on the chosen embodiment, certain acts, actions, events or functions of each of the methods described in this document may be performed or occur in a different order from that in which they were described, or may be added, merged or else not be effected or not occur, as the case may be. Further, in some embodiments, certain acts, actions or events are performed or occur concurrently and not sequentially.
Bien que décrits à travers un certain nombre d'exemples de réalisation détaillés, le procédé proposé et l'équipement pour la mise en oeuvre du procédé comprennent différentes variantes, modifications et perfectionnements qui apparaîtront de façon évidente à l'homme de l'art, étant entendu que ces différentes variantes, modifications et perfectionnements font partie de la portée de l'invention, telle que définie par les revendications qui suivent. De plus, différents aspects et caractéristiques décrits ci- dessus peuvent être mis en oeuvre ensemble, ou séparément, ou bien substitués les uns aux autres, et l'ensemble des différentes combinaisons et sous combinaisons des aspects et caractéristiques font partie de la portée de l'invention. En outre, il se peut que certains systèmes et équipements décrits ci-dessus n'incorporent pas la totalité des modules et fonctions décrits pour les modes de réalisation préférés. Annexe A Although described through a certain number of detailed exemplary embodiments, the proposed method and the equipment for implementing the method include various variants, modifications and improvements which will appear obvious to those skilled in the art, it being understood that these various variants, modifications and improvements form part of the scope of the invention, as defined by the following claims. Additionally, various aspects and features described above may be implemented together, or separately, or substituted for each other, and all of the various combinations and sub-combinations of aspects and features are within the scope of the 'invention. Further, some systems and equipment described above may not incorporate all of the modules and functions described for the preferred embodiments. Annex A
On a :
Figure imgf000026_0001
We have :
Figure imgf000026_0001
En effectuant le changement de variable on peut écrire :
Figure imgf000026_0002
By making the change of variable we can write:
Figure imgf000026_0002
La dérivée de la phase
Figure imgf000026_0003
Figure imgf000026_0004
The derivative of the phase
Figure imgf000026_0003
Figure imgf000026_0004
En utilisant une approximation stationnaire de la phase, on obtient :
Figure imgf000026_0005
où sgn{x) désigne le signe du réel x.
Using a stationary approximation of the phase, we get:
Figure imgf000026_0005
where sgn(x) denotes the sign of the real x.
On en déduit :
Figure imgf000026_0006
We can deduce :
Figure imgf000026_0006
En ignorant les termes qui varient lentement, on obtient l'approximation suivante :
Figure imgf000026_0007
By ignoring the terms which vary slowly, we obtain the following approximation:
Figure imgf000026_0007

Claims

REVENDICATIONS
1. Procédé de reconstruction d'une image d'une scène par un système d'antenne, ladite image comprenant une pluralité de pixels, le procédé étant mis en oeuvre par ordinateur et comprenant, pour chaque pixel parmi la pluralité de pixels : a. recevoir (501 ) des échantillons de signaux temporels à large bande rétrodiffusés par des réflecteurs de la scène pour un ou plusieurs capteurs du système d'antenne ; b. pour chaque direction parmi une pluralité de directions, calculer (503), à partir des échantillons reçus par ledit un ou plusieurs capteurs, des nouveaux échantillons d'un nouveau signal temporel respectivement associé à ladite chaque direction, chaque nouveau signal correspondant respectivement à une onde plane à large bande dans ladite chaque direction ; c. pour chaque direction parmi la pluralité de directions, sélectionner (504), parmi les nouveaux échantillons du nouveau signal temporel respectif, des échantillons correspondant à un temps de trajet aller et retour dudit nouveau signal depuis une origine de l'image jusqu'au dudit chaque pixel ; et d. déterminer (505) une intensité lumineuse dudit chaque pixel à partir des échantillons sélectionnés. 1. Method for reconstructing an image of a scene by an antenna system, said image comprising a plurality of pixels, the method being implemented by computer and comprising, for each pixel among the plurality of pixels: a. receiving (501) samples of wideband temporal signals backscattered by reflectors of the scene for one or more sensors of the antenna system; b. for each direction among a plurality of directions, calculating (503), from the samples received by said one or more sensors, new samples of a new temporal signal respectively associated with said each direction, each new signal corresponding respectively to a wave planar broadband in said each direction; vs. for each of the plurality of directions, selecting (504), from among the new samples of the respective new time signal, samples corresponding to a round trip time of said new signal from an origin of the image to said each pixels; and D. determining (505) a light intensity of said each pixel from the selected samples.
2. Procédé selon la revendication 1 , dans lequel le système d'antenne est un radar à synthèse d'ouverture ou un sonar à synthèse d'ouverture. 2. Method according to claim 1, in which the antenna system is a synthetic aperture radar or a synthetic aperture sonar.
3. Procédé selon la revendication 2, dans lequel le système d'antenne est un sonar à synthèse d'ouverture, et dans lequel la scène est une portion limitée d'un fond marin. 3. Method according to claim 2, in which the antenna system is a synthetic aperture sonar, and in which the scene is a limited portion of a seabed.
4. Procédé selon l'une des revendications précédentes, comprenant en outre une réception (502) de données relatives à une variation de mouvement du système par rapport à une trajectoire théorique, dans lequel les nouveaux échantillons des nouveaux signaux temporels sont en outre calculés à partir desdites données. 4. Method according to one of the preceding claims, further comprising a reception (502) of data relating to a variation of movement of the system with respect to a theoretical trajectory, in which the new samples of the new temporal signals are further calculated at from said data.
5. Procédé selon l'une des revendications précédentes, dans lequel les nouveaux échantillons des nouveaux signaux temporels sont calculés grâce à une méthode de formation de voies temporelle à large bande et en champ lointain. 5. Method according to one of the preceding claims, in which the new samples of the new temporal signals are calculated using a broadband and far-field temporal channel formation method.
6. Procédé selon la revendication 5, dans lequel la formation des voies temporelle à large bande et en champ lointain est basée sur un algorithme itératif. 6. A method according to claim 5, wherein the formation of the broadband and far-field time channels is based on an iterative algorithm.
7. Procédé selon l'une des revendications précédentes, dans lequel l'étape c comprend une mise en oeuvre d'au moins une transformée en Z-Chirp. 7. Method according to one of the preceding claims, in which step c comprises an implementation of at least one Z-Chirp transform.
8. Procédé selon l'une des revendications précédentes, dans lequel l'intensité lumineuse dudit chaque pixel est fonction d'une somme de valeurs des échantillons sélectionnés. 8. Method according to one of the preceding claims, in which the light intensity of said each pixel is a function of a sum of values of the selected samples.
9. Dispositif de reconstruction d'une image d'une scène à partir de données issues d'un système d'antenne, ladite image comprenant une pluralité de pixels, le dispositif comprenant : une interface d'entrée pour : a. recevoir (501 ) des échantillons de signaux temporels à large bande rétrodiffusés par des réflecteurs de la scène pour un ou plusieurs capteurs du système d'antenne ; le dispositif comprenant en outre un circuit pour mettre en oeuvre, pour chaque pixel parmi la pluralité de pixels : b. pour chaque direction parmi une pluralité de directions, calculer (503), à partir des échantillons reçus par ledit un ou plusieurs capteurs, des nouveaux échantillons d'un nouveau signal temporel respectivement associé à ladite chaque direction, chaque nouveau signal correspondant respectivement à une onde plane à large bande dans ladite chaque direction ; c. pour chaque direction parmi la pluralité de directions, sélectionner (504), parmi les nouveaux échantillons du nouveau signal temporel respectif, des échantillons correspondant à un temps de trajet aller et retour dudit nouveau signal depuis une origine de l'image jusqu'au dudit chaque pixel ; et d. déterminer (505) une intensité lumineuse dudit chaque pixel à partir des échantillons sélectionnés. 9. Device for reconstructing an image of a scene from data coming from an antenna system, said image comprising a plurality of pixels, the device comprising: an input interface for: a. receiving (501) samples of wideband temporal signals backscattered by reflectors of the scene for one or more sensors of the antenna system; the device further comprising circuitry for implementing, for each of the plurality of pixels: b. for each direction among a plurality of directions, calculating (503), from the samples received by said one or more sensors, new samples of a new temporal signal respectively associated with said each direction, each new signal corresponding respectively to a wave planar broadband in said each direction; vs. for each of the plurality of directions, selecting (504), from among the new samples of the respective new time signal, samples corresponding to a round trip time of said new signal from an origin of the image to said each pixels; and D. determining (505) a light intensity of said each pixel from the selected samples.
10. Produit programme informatique comportant des instructions pour la mise en oeuvre du procédé selon l'une des revendications 1 à 8, lorsque ce programme est exécuté par un processeur. 10. Computer program product comprising instructions for implementing the method according to one of claims 1 to 8, when this program is executed by a processor.
11. Support d'enregistrement non transitoire lisible par un ordinateur sur lequel est enregistré un programme pour la mise en oeuvre du procédé selon l'une des revendications 1 à 8 lorsque ce programme est exécuté par un processeur. 11. Non-transitory recording medium readable by a computer on which is recorded a program for implementing the method according to one of claims 1 to 8 when this program is executed by a processor.
PCT/FR2023/050108 2022-02-09 2023-01-27 Method for reconstructing an image of a scene WO2023152434A1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
FRFR2201132 2022-02-09
FR2201132A FR3132584B1 (en) 2022-02-09 2022-02-09 Process for reconstructing an image of a scene

Publications (1)

Publication Number Publication Date
WO2023152434A1 true WO2023152434A1 (en) 2023-08-17

Family

ID=81581242

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/FR2023/050108 WO2023152434A1 (en) 2022-02-09 2023-01-27 Method for reconstructing an image of a scene

Country Status (2)

Country Link
FR (1) FR3132584B1 (en)
WO (1) WO2023152434A1 (en)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR1457951A (en) 1964-12-10 1966-11-04 Westinghouse Electric Corp Self-propelled projectile

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR1457951A (en) 1964-12-10 1966-11-04 Westinghouse Electric Corp Self-propelled projectile

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
ADAMS A E ET AL: "Real-time synthetic aperture sonar processing system", IEE PROCEEDINGS: RADAR, SONAR & NAVIGATION, INSTITUTION OF ELECTRICAL ENGINEERS, GB, vol. 143, no. 3, 5 June 1996 (1996-06-05), pages 169 - 176, XP006006709, ISSN: 1350-2395, DOI: 10.1049/IP-RSN:19960425 *
KENNETH M. HOUSTON: "A fast beamforming algorithm", IEEE OCÉANS CONFÉRENCE RECORD, vol. 1, 1994, pages 211 - 216
SYNNES STIG ASLE VAKSVIK ET AL: "Wideband Synthetic Aperture Sonar Backprojection With Maximization of Wave Number Domain Support", IEEE JOURNAL OF OCEANIC ENGINEERING, IEEE SERVICE CENTER, PISCATAWAY, NJ, US, vol. 42, no. 4, 1 October 2017 (2017-10-01), pages 880 - 891, XP011661828, ISSN: 0364-9059, [retrieved on 20171006], DOI: 10.1109/JOE.2016.2614717 *

Also Published As

Publication number Publication date
FR3132584B1 (en) 2024-02-16
FR3132584A1 (en) 2023-08-11

Similar Documents

Publication Publication Date Title
JP6924221B2 (en) Systems and methods for synthetic aperture sonar
EP2100161B1 (en) Method for the multipath passive radar processing of an fm opportunity signal
FR2975782A1 (en) SYSTEM AND METHOD FOR DOPPLER POSITIONING OF SEISMIC SENSORS
FR2694097A1 (en) Very high resolution image formation system.
Sæbø Seafloor depth estimation by means of interferometric synthetic aperture sonar
FR2985040A1 (en) DEVICE AND METHOD FOR DEGHOSTING VARIABLE DEPTH STREAMER DATA
EP3575821B1 (en) Method and device for generating complex electromagnetic environments for electromagnetic sensor test benches
Marston et al. Semiparametric statistical stripmap synthetic aperture autofocusing
Yang An imaging algorithm for high-resolution imaging sonar system
FR3001301A1 (en)
Ferguson et al. Convolutional neural network for single-sensor acoustic localization of a transiting broadband source in very shallow water
FR3013867A1 (en) METHOD FOR SIMULATING WAVE PROPAGATION; SIMULATOR, COMPUTER PROGRAM AND RECORDING MEDIUM FOR IMPLEMENTING THE METHOD
Desmars Real-time reconstruction and prediction of ocean wave fields from remote optical measurements
EP2544020B1 (en) Method and device for detecting a target masked by high-energy reflectors
EP2453251A1 (en) Method for performing high-resolution analysis of an area of space by means of a frequency-agile pulsed wave
WO2021191148A1 (en) Method for generating a sea-clutter stream, associated programmable device and computer program
WO2023152434A1 (en) Method for reconstructing an image of a scene
CA2364938C (en) Method for determining seismic reflection travel times based on the interpretation of migrated cylindrical wave data
EP3526597B1 (en) Method and device for detecting and characterizing a reflecting element in an object
FR3086064A1 (en) METHOD FOR DETERMINING A DEPTH, OR A BATHYMMETRIC PROFILE, BASED ON AN AVERAGE CELERY PROFILE OF SOUND, METHOD FOR DETERMINING SUCH A CELERY PROFILE, AND ASSOCIATED SONAR SYSTEM
Leier et al. Aperture undersampling using compressive sensing for synthetic aperture stripmap imaging
EP2929343B1 (en) Ultrasound imaging apparatus and method with filtering of artefacts due to interferences between reconstruction modes
Barclay et al. Reconstructing seafloor bathymetry with a multichannel broadband InSAS using Belief Propagation
EP4083659B1 (en) Device and method for processing the signal from a set of ultrasonic transducers
FR2966253A1 (en) Method for deghosting marine seismic data related to subsurface of body of slanted streamer, involves generating final image of subsurface in processor based on deghosted reflectivity of joint deconvoluting images

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 23705444

Country of ref document: EP

Kind code of ref document: A1