DE10027828A1 - Aktives Ultraschall-Sichtgerät - Google Patents

Aktives Ultraschall-Sichtgerät

Info

Publication number
DE10027828A1
DE10027828A1 DE2000127828 DE10027828A DE10027828A1 DE 10027828 A1 DE10027828 A1 DE 10027828A1 DE 2000127828 DE2000127828 DE 2000127828 DE 10027828 A DE10027828 A DE 10027828A DE 10027828 A1 DE10027828 A1 DE 10027828A1
Authority
DE
Germany
Prior art keywords
signal
active ultrasonic
processor
viewing device
grid
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE2000127828
Other languages
English (en)
Inventor
Eckard Glaser
Janet Grasmann
Miroslaw Wrobel
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
SONEM GmbH
Original Assignee
SONEM GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by SONEM GmbH filed Critical SONEM GmbH
Priority to DE2000127828 priority Critical patent/DE10027828A1/de
Priority to PCT/EP2001/004917 priority patent/WO2001094976A1/de
Publication of DE10027828A1 publication Critical patent/DE10027828A1/de
Withdrawn legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S15/00Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
    • G01S15/87Combinations of sonar systems
    • G01S15/876Combination of several spaced transmitters or receivers of known location for determining the position of a transponder or a reflector
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S15/00Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
    • G01S15/02Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems using reflection of acoustic waves
    • G01S15/06Systems determining the position data of a target
    • G01S15/08Systems for measuring distance only
    • G01S15/32Systems for measuring distance only using transmission of continuous waves, whether amplitude-, frequency-, or phase-modulated, or unmodulated
    • G01S15/34Systems for measuring distance only using transmission of continuous waves, whether amplitude-, frequency-, or phase-modulated, or unmodulated using transmission of continuous, frequency-modulated waves while heterodyning the received signal, or a signal derived therefrom, with a locally-generated signal related to the contemporaneously transmitted signal
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S15/00Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
    • G01S15/88Sonar systems specially adapted for specific applications
    • G01S15/89Sonar systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/52Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S15/00
    • G01S7/534Details of non-pulse systems
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/52Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S15/00
    • G01S7/539Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S15/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/52Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S15/00
    • G01S7/56Display arrangements
    • G01S7/62Cathode-ray tube displays
    • G01S7/6245Stereoscopic displays; Three-dimensional displays; Pseudo-three dimensional displays

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • General Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Measurement Of Velocity Or Position Using Acoustic Or Ultrasonic Waves (AREA)

Abstract

Die Erfindung betrifft ein aktives Ultraschall-Sichtgerät, das Objekte in einem Medium erkennbar macht, die in Dunkelheit gehüllt sind, durch einen Rauch- oder Nebelvorhang nicht sichtbar sind oder sich z. B. in trübem Wasser (Hafenbecken, Flußwasser) befinden. Das aktive Ultraschall-Sichtgerät besitzt mindestens einen Sender zum Aussenden eines Sendesignals mit einer beliebigen bekannten Modulationsfunktion und einer mediumabhängigen Bandbreite des Signals, mindestens einen in einer bekannten Position dazu angeordneten Empfänger, denen jeweils eine erste Signalverarbeitungseinheit zur spektralen Zerlegung der von den Empfängern aufgenommenen Antwortsignale aus dem Medium und ein Speicher-Schieberegister nachgeordnet ist, eine zweite Signalverarbeitungseinheit zur Bestimmung der Raumkoordinaten der Reflexionspunkte und ein Display.

Description

Die Erfindung betrifft ein aktives Ultraschall-Sichtgerät, das Objekte in einem Medium erkennbar macht, die in Dunkelheit gehüllt sind, durch einen Rauch- oder Nebelvorhang nicht sichtbar sind oder sich z. B. in trübem Wasser (Hafenbecken, Flusswasser) befinden.
In der Technik ist es auf unterschiedlichen Einsatzgebieten immer wieder erforderlich, ein Sichtgerät zur Verfügung zu haben, mit dem für den Menschen unsichtbare Objekte sichtbar gemacht werden können. Diese Objekte können z. B. in Dunkelheit, Nebel, Rauch, im trüben Wasser oder hinter einem Temperaturvorhang für das menschliche Auge nicht erkennbar sein. In vielen Fällen kommt hinzu, dass trotz der Sichtbarkeit eines Objektes, seine Entfernung nicht abschätzbar ist. Zum Beispiel bei der Bekämpfung eines Brandes kann das zu zusätzlichen Problemen führen.
In der Vergangenheit haben Infrarotkamera, insbesondere mit Restlichtverstärkung zur Sichtbarmachung warmer Objekte, wie Tiere oder Menschen, breite Anwendung gefunden. Moderne Infrarotsensoren können Temperaturunterschiede bis zu 0,5°C erkennen. Durch eine geeignete Elektronik, die diesen Infrarotkameras nachgeschaltet ist, kann die Empfindlichkeit solcher Geräte wesentlich erhöht werden, wobei sogar eine eventuelle Beleuchtung im sichtbaren Bereich wenig oder nicht stört. Um die Bilder exakt bewerten zu können, ist jedoch ein ausgiebiges Training erforderlich. Für den Einsatz bei einem Brand sind diese Geräte jedoch nur bedingt oder nicht brauchbar, da das Feuer die interessierenden Objekte vollständig abschirmen kann.
Eine weitere bekannte Vorrichtung ist mit einem Bolometer ausgerüstet. Die Umgebung, in der ein warmes Objekt vermutet wird, wird mit einem Bolometer abgetastet und ein thermisches Bild im mittleren Infrarot (2-5 µm) aufgezeichnet. Dieses Bild weist Temperaturunterschiede bis zu 0,1°C auf. Mit diesem Gerät können auch Objekte in Nebel, Rauch oder anderen Gasen sichtbar gemacht werden, jedoch keine Objekte in einem Feuer oder unter Wasser.
Ein anderes Verfahren zur Sichtbarmachung von Objekten nutzt den Ultraschall aus. Es wird ein Ultraschallsignal ausgesendet und aus der Laufzeit bis zum Empfang des Antwortimpulses die Entfernung zu einem Objekt ermittelt. In Luft breitet sich der Ultraschall bekanntlich mit ca. 340 m/s aus, ein Objekt in 300 m Entfernung wird also nach etwa 2 s erkannt. Dabei ist zu beachten, dass nur das jeweils am nächsten liegende Objekt erkannt wird.
Bei einem anderen Verfahren werden Signale ausgesendet, die denen der Fledermaus ähnlich sind. Die als Chirp bezeichneten Signale enthalten ein Muster von Frequenzen. Die Antwortsignale werden dann mit den Sendesignalen verglichen, und die sogenannten "beat-frequencies" heraus gefiltert. Es können mit diesen Geräten alle Objekte im Blickfeld erkannt werden. Diese Geräte wurden vorzugsweise für Blinde entwickelt, die durch ein intensives Training auf das "Hören" von Hindernissen sensibilisiert werden.
Das menschliche Gehirn ist auch gefragt bei der Ultraschall- Spektroskopie, wie sie für die zerstörungsfreie Materialprüfung verwendet wird. Hier werden die Spektren der Echosignale auf dem Bildschirm angezeigt, und der Betrachter kann aufgrund seiner Erfahrung erkennen, ob sich in dem beschallten Material z. B. ein Riss oder eine Korrosionsstelle oder ähnliches befindet.
Während bei den erstgenannten Geräten die Laufzeiten der einzelnen Frequenzen zur Auswertung gelangen, werden bei den zweitgenannten die Frequenzverschiebungen des Signalmusters erfasst, das sich bei Reflexion an einem Objekt in dem Antwortsignal wiederfindet. Die Frequenzverschiebung ist proportional der Verzögerung zwischen dem ausgesendeten und dem empfangenen Signal. Dadurch kann auch die Entfernung der Objekte ermittelt werden.
Um mit diesem Verfahren den Charakter und die Form eines Objektes zu ermitteln, versucht man die Tatsache auszunutzen, dass jedes Objekt eine spezifische Reaktion auf das Signal besitzt. Aus den Klangunterschieden bzw. den Unterschieden von Frequenzmustern der Antwortsignale soll dann ermittelt werden, welche Eigenschaften das Objekt besitzt. Auch hier ist ein aufwendiges Lernsystem erforderlich, um die Objekte zu "hören" bzw. aus typischen Mustern zu erkennen.
Es sind auch Lösungen bekannt, bei denen versucht wird, aus den Reflexionen an einem unbekannten Objekt das Objekt zu klassifizieren. Allerdings ist die Klassifizierung der Objekte mit einer sehr großen Unsicherheit verbunden, die zur Zeit noch mit 30-40% angegeben wird. Diese Geräte sollen Blinden zur Orientierung helfen. Für den Einsatz zur Brandbekämpfung oder unter Wasser sind auch diese Geräte ungeeignet, da mindestens eine räumliche Vorstellung des Objektes geliefert werden muss.
Es ist deshalb die Aufgabe der vorliegenden Erfindung, eine Vorrichtung vorzuschlagen, die auch in einem undurchsichtigen Medium ein dimensionsgetreues Bild in 1D, 2D oder 3D liefert. Die Vorrichtung soll kompakt aufgebaut sein und bei einer Brandbekämpfung, im Einsatz unter Wasser oder als Nachtsichtgerät verwendbar sein.
Eine weitere Aufgabe besteht darin, ein aktives Ultraschall- Sichtgerät vorzuschlagen, das eine 3D-Darstellung von Objekten in Echtzeit liefert.
Die Aufgabe wird durch die anhängenden Ansprüche gelöst.
Das Aktive Ultraschall-Sichtgerät entsprechend der vorliegenden Erfindung besteht aus mindestens einem Sender zum Aussenden eines Sendesignal mit einer beliebigen bekannten Modulationsfunktion und einer mediumabhängigen Bandbreite des Signals, mindestens einem in einer bekannten Position dazu angeordneten Empfänger, denen jeweils eine erste Signalverarbeitungseinheit zur n-kanaligen spektralen Zerlegung der von den Empfängern aufgenommenen Antwortsignale aus dem Medium und ein Speicher-Schieberegister nachgeordnet ist, einer zweiten Signalverarbeitungseinheit zur Bestimmung der Raumkoordinaten, und einem Display. Die erforderliche Bandbreite beträgt unter Wasser etwa 1 kHz bis maximal 10 MHz, in Luft 20-500 kHz. In festen Materialien muss sie so eingestellt werden, dass die Signale in das Medium eindringen können und an eventuell eingebetteten Strukturen reflektiert oder absorbiert werden. Die Anzahl n der Kanäle muss vorher festgelegt werden. Mit dieser Zahl n (z. B. n = 1024) wird eine obere Grenze für die Auflösung des Bildes gegeben.
In einer vorteilhaften Ausführungsform sind die Empfänger symmetrisch zum Sender angeordnet.
Dem oder den Empfängern ist in bekannter Weise eine Signalkonditionierung nachgeschaltet, die z. B. aus einem Verstärker und einer Filterbank bestehen kann. Außerdem besitzt das Sichtgerät in ebenfalls bekannter Weise eine Zeitsteuerung.
Den Empfängern kann jeweils ein Mischer zur Erzeugung der Schwebungsfrequenz zwischen dem Sendesignal und dem Antwortsignalen nachgeordnet werden. Dadurch ist es möglich, die zu verarbeitende Frequenzen herabzusetzen.
Die Antwortsignale können sowohl analog als auch digital verarbeitet werden. Zur digitalen Verarbeitung ist jeweils vor den ersten Signalverarbeitungseinheiten zur spektralen Zerlegung ein A/D-Wandler vorgesehen.
Nach der Bestimmung der Raumkoordinaten der Reflexionspunkte in der zweiten Signalverarbeitungseinheit können diese direkt einem Display zugeleitet, und die Grauwerte der Reflexionspunkte können angezeigt werden. Es ist aber auch möglich, dem Speicher-Schieberegister eine Klassifikations­ einheit nachzuordnen. Diese Klassifikationseinheit ist ein Prozessor (z. B. ein neuronales Netz), der zunächst die Spektren der einzelnen Kanäle parallel aus dem Speicherschieberegister aufnimmt. Damit werden der Klassifikationseinheit mit jedem Zeitschritt n (z. B. n = 1024) Werte zugeführt. Die Klassifikationseinheit kann aus einer Vorverarbeitungseinheit, dem eigentlichen Klassifikator und einer Analyseeinheit bestehen. Die Vorverarbeitungseinheit hat die Aufgabe, die zu klassifizierenden Daten schon einmal vorab zusammenzufassen, zu normieren, zu selektieren o. ä. Der Klassifikator besteht aus einem Prozessor, der die aus der Vorverarbeitungseinheit eingehenden Daten anhand einer Berechnungsvorschrift, also eines mathematischen Modells, umwandelt. Das Berechnungsergebnis gibt z. B. eine Wahrscheinlichkeit an, mit der die eingegangenen Daten zu einer Struktur einer bestimmten Klasse gehören. Die zugrundeliegende Berechnungsvorschrift (also das mathematische Modell) wird im Laufe einer sogenannten Trainingsphase so optimiert, dass eine bestmögliche automatische Zuordnung der Daten zu vorgegebenen Klassen erreicht wird. Die Analyseeinheit hat nun die Aufgabe, die eingegangenen Daten (z. B. der n Variablen) nach ihrer Wichtigkeit für die optimale Klassenzuordnung auszusortieren.
In dieser Klassifikationseinheit können die Eigenschaften der Reflexionspunkte bewertet und klassifiziert werden oder es werden nur die Reflexionspunkte mit gleichen Spektren zusammengefasst und angezeigt.
Für die analoge Verarbeitung kann die erste Signalverarbeitungseinheit zur spektralen Zerlegung ein akusto­ optischer Prozessor, ein holographischer Wavelet-Prozessor oder ein ähnlicher analoger Prozessor zur Spektralzerlegung darstellen.
Für die digitale Verarbeitung kann die erste Signalverarbeitungseinheit zur spektralen Zerlegung ein Fast- Fourier-Prozessor, ein digitaler Wavelet-Prozessor oder ein ähnlicher digitaler Prozessor zur Spektralzerlegung darstellen.
Die Klassifikationseinheit kann ein statistischer Klassifikator, wie ein neuronales Netz, eine Support-Vector- Machine oder dergleichen darstellen.
Die zweite Signalverarbeitungseinheit zur Bestimmung der Raumkoordinaten besteht insbesondere für die digitale Verarbeitung aus einem Adaptive-Grid-Reconstruction-Prozessor, der ebenfalls Gegenstand der vorliegenden Erfindung ist. Der Adaptive-Grid-Reconstruction-Prozessor besteht aus einem Rastergenerator, einer Einheit zur Bestimmung der Wege der Signale von dem Sender zu den Rasterpunkten und von den Rasterpunkten zu den einzelnen Empfängern für jeden Rasterpunkt, einer Speicherzeile für die zum Empfänger gehörenden Summen aller Amplitudenwerte über die Kanäle der n- kanaligen spektralen Zerlegung, einem Sampling-Address- Generator zur Bestimmung der Adresse der Amplitudenwerte innerhalb der zum Empfänger gehörenden Speicherzeile, und einer Einheit zur mathematischen Verknüpfung der aus den Speicherzeilen entnommenen Amplitudenwerte.
Bei der analogen Verarbeitung kann auch eine bekannte Triangulation oder ellipsoidale Backprojektion zur Bestimmung der Raumkoordinaten verwendet werden. Wird nur ein Empfänger eingesetzt sind die Koordinaten der Reflexionspunkte unmittelbar bekannt.
Der Einsatz eines Adaptive-Grid-Reconstruction-Prozessors ist also erst von Vorteil, wenn mindestens zwei Empfänger vorhanden sind.
Der Adaptive-Grid-Reconstruction-Prozessor ist ebenfalls Gegenstand der vorliegenden Erfindung. Der Adaptive-Grid- Reconstruction-Prozessor besteht aus einem Rastergenerator, einer Einheit zur Bestimmung der Wege der Signale von dem Sender zu den Rasterpunkten und von den Rasterpunkten zu den einzelnen Empfängern für jeden Rasterpunkt, einer Speicherzeile für die zum Empfänger gehörenden Summe aller Amplitudenwerte entlang der Kanäle der spektralen Zerlegung, einem Sampling- Address-Generator zur Bestimmung der Adresse der Amplitudenwerte innerhalb der zum jeweiligen Empfänger gehörenden Speicherzeile, eine Einheit zur mathematischen Verknüpfung der aus den Speicherzeilen entnommenen Amplitudenwerte.
Zur Erzeugung einer Darstellung eines unsichtbaren Objektes wird ein Signal, das mit einer beliebigen bekannten Modulationsfunktion, die eine entsprechende Bandbreite des Signals garantiert, moduliert ist (vorzugsweise FM und/oder binär phasenkodiertes, jedoch keine Impuls(AM-Modulation)), in Richtung auf das Objekt ausgesendet und gleichzeitig als Referenzsignal gespeichert. Mindestens ein Empfänger empfängt simultan die an dem Objekt reflektierten Signale. Die reflektierten Signale werden dann gegebenenfalls mit dem als Referenzsignal gespeicherten Sendesignal gemischt und das erhaltene Schwebungssignal n-kanalig spektral zerlegt. Wenn kein Mischer vorhanden ist, wird das Antwortsignal direkt n- kanalig spektral zerlegt.
Zur spektralen Zerlegung in Echtzeit kann zum Beispiel ein akusto-optischer Prozessor verwendet werden. Es ist aber auch möglich, wenn ein digitalisiertes Signal vorliegt, einen Fast- Fourier-Prozessor oder einen anderen Prozessor, z. B. einen digitalen Wavelet-Prozessor, zu verwenden, mit dessen Hilfe eine schnelle Spektralzerlegung der Signale durchgeführt werden kann.
Die Ergebnisse der Spektralzerlegung werden zunächst für jeden Reflexionspunkt in einem parallelen Speicher-Schieberegister abgelegt. Gleichzeitig kann die Summe der Amplitudenwerte jedes Schieberegisters gebildet werden und in einer Speicherzeile des Adaptive-Grid-Reconstruction-Prozessors abgelegt werden, falls dieser zum Einsatz kommt.
Um die Koordinaten der Reflexionspunkte zu ermitteln, können wie bereits erwähnt, bekannte Verfahren, wie die ellipsoidale Backprojection und Triangulationsverfahren oder dergleichen eingesetzt werden. Die Grundlage dafür bildet, dass die Punkte gleicher Entfernung vom Sender zu den Reflexionspunkten und zum Empfänger auf einem Ellipsoiden liegen. Eine schnellere Lösung, die bei Sichtgeräten mit mehr als einem Empfänger und digitaler Signalverarbeitung wesentliche Vorteile liefert und diese erst in Echtzeit funktionsfähig macht, bietet ein Adaptive-Grid- Reconstruction-Prozessor. Dieser Prozessor ist ebenfalls Bestandteil der vorliegenden Erfindung.
Wie bereits angedeutet wurde, ist es möglich, die Signalwege di über die Messung der Schwebungsfrequenzen Δfi mit Hilfe der Formel
(wobei c die Schallgeschwindigkeit, TM die Zeitdauer des Sendesignals und M die Deviation des Sendesignals ist) bestimmen. Der Zeitverlauf der Schwebungsfrequenzen ist nach der spektralen Zerlegung des Schwebungssignals im parallelen Speicher-Schieberegister abgelegt worden. D. h., für jedes Δfi (also jeden Ellipsoiden) erhält man ein Spektrum, welches die spektralen Anteile aller Reflexionspunkte auf diesem Ellipsoiden enthält. Die Anzahl n der Kanäle bei der Spektralzerlegung gibt entsprechend der obigen Formel eine obere Schranke für die Auflösung des Bildes. Aus den Schnittpunkten dieser Ellipsoiden ergibt sich ein Koordinatensystem, das nicht metrisch ist. Um diese Schnittpunkte trotzdem in einem metrischen Raum sichtbar zu machen, kann hier eine spezielle Zusatzoptik (z. B. spezielle Korrekturlinse) vor den Bildschirm oder das HDM (Head Mounted Device) eingesetzt werden. Der durch die Schnittpunkte der Ellipsoiden gegebene Raum kann auch in einen metrischen Raum, der für die Visualisierung günstig ist, eindeutig durch eine Transformation umgewandelt werden. Jedoch erhält man hierbei keine gleichmäßige Verteilung der darzustellenden Punkte im Raum.
Bei der Anwendung des Adaptive-Grid-Reconstruction-Prozessor im digitalen Verfahren wird zuerst ein euklidisches Raster im über das Beschallungsvolumen gelegt, d. h. ein Raster mit vorteilhafterweise, aber nicht notwendigerweise gleichmäßigen Abständen (günstig im Samplingabstand) zwischen den Punkten in horizontaler und vertikaler Richtung. Aus den x,y,z-Koordinaten der Rasterpunkte können nun die Wege vom Sender zum Rasterpunkt (R0) sowie die Wege vom Rasterpunkt zum jeweiligen Empfänger (R1, R2, R3 bei 3 Empfängern) mit Hilfe des Satzes des Pythagoras abgeleitet werden. Die Summen dieser errechneten Wege R0+R1, R0+R2 und R0+R3 entsprechen aber nicht notwendig einem Samplingpunkt im Antwortsignal. Außerdem bilden die Samplingpunkte der Antwortsignale jedes Kanals einen eigenen Raum, der nicht linear auf den Raum der Samplingpunkte eines anderen Kanals abgebildet werden kann (siehe Fig. 6). D. h., die Empfänger sehen unterschiedliche Teilräume der beschallten Struktur (ähnlich der RGB-Maske beim Farb-TV). Man kann diesen Effekt auch als Maskeneffekt beschreiben, wobei jeder Empfänger die beschallte Struktur durch eine Maske sieht, welche durch die Samplingfrequenz sowie die Lage des Empfängers eindeutig definiert ist. Demzufolge können die Masken der einzelnen Empfänger nicht durch eine lineare Abbildung zur Deckung gebracht werden.
Deshalb wird für jeden Rasterpunkt eine δ-Umgebung (δ ≧ Rasterabstand) festgelegt. Für alle Samplingpunkte, die innerhalb dieser δ-Umgebung liegen, werden die Amplitudenwerte, die im Speicherregister des Adaptive-Grid- Reconstruction-Prozessors abgelegt wurden, gemittelt. Wenn δ groß ist, erhält man eine Glättung. Wenn δ kleiner ist als √3/2 mal dem Rasterabstand im 3D-Raster (1/√2 mal dem Rasterabstand im 2D-Raster), geht Information verloren. Hieraus ergibt sich ein einfacher Weg für das "Zoom-out", mit dem Speicherplatz und Rechenzeit gespart werden kann. Hierfür kann das Raster von vornherein grober gewählt werden. Dann werden nur die zu diesen Rasterpunkten gehörigen Wege R0+R1, R0+R2 und R0+R3 berechnet. Je nach Rastergröße und der Festlegung von δ wird dann über eine entsprechend höhere Anzahl von Samplingpunkten gemittelt. Analog kann man vorgehen, wenn eine höhere Detailgenauigkeit erreicht werden soll. Angenommen, die Samplingfrequenz ist kleiner als die Nyquistfrequenz des Empfangssignals. Dann treten laut dem Abtasttheorem Aliasing-Effekte auf. Bei einer geschickten Filterung und der Wahl des Rasterabstandes ist dieses jedoch nicht als Störfaktor anzusehen. Dann ist die Rastergröße durch diesen Samplingabstand nach unten beschränkt. Ist die Samplingfrequenz größer, z. B. durch Oversampling, dann kann hier eine noch größere Detailgenauigkeit erreicht werden, da dann in dem entsprechend kleineren Rasterausschnitt (Voxel) immer noch Samplingpunkte enthalten sind, die Information beinhalten.
Da auch hier, genau wie im analogen Fall, die Spektren aller Punkte, die auf einem Ellipsoiden liegen, überlagert sind, müssen auch hier wie bei der Computer-Tomographie für jeden Kanal des Spektrums Rückprojektionen durchgeführt werden, die das Spektrum jedes einzelnen darzustellenden Punktes liefern.
Die Wahl des Rasterabstandes kann auch lokal unterschiedlich erfolgen, somit auch die Festlegung von δ, welches dem Rasterabstand angepasst werden sollte. Dies ermöglicht ein lokales Zooming (wie z. B. beim Vogelauge). Man kann z. B. den Nahbereich detaillierter darstellen als den Fernbereich bzw. den Fernbereich ausschnittsweise detailliert darstellen. Die eigentliche Detail-Information bleibt dabei grundsätzlich in den Daten enthalten, es wird nur die Darstellung besonders nutzerfreundlich, und Rechenzeit wird gespart.
Um jeden Raumpunkt in 1D, 2D oder 3D mit nun gegebenem Spektrum klassifizieren zu können, werden die Spektren aus dem Speicherschieberegister parallel ausgelesen und es wird ein statistisches Klassifikationsverfahren, z. B. nächste Nachbarn, neuronales Netz, Support-Vector-Machine und der gleichen darauf angewendet.
Die Auswahl des statistischen Klassifikationsverfahrens hängt im wesentlichen von der Fähigkeit zur Verallgemeinerung und der Geschwindigkeit der Rechentechnik ab. Die Fähigkeit zur Verallgemeinerung bedeutet die Fähigkeit, einen Reflexionspunkt korrekt zu klassifizieren, dessen Klassenzugehörigkeit vorher nicht bekannt ist.
Das Verfahren kann dahingehend erweitert werden, dass genau die Frequenzbereiche im Signal ausgewählt werden, mit deren Hilfe eine für die gegebene Struktur "beste" Klassifikation möglich ist. Dafür kann dann erneut ein Sendesignal ausgesendet werden, aber diesmal mit einer nicht konstanten Modulationsfunktion, sondern mit einer Modulationsfunktion, die hauptsächlich die Frequenzbereiche enthält, die für eine optimale Klassifikation ("Farbzuordnung") der Reflexionspunkte benötigt werden. Diese "optimalen" Frequenzbereiche können z. B. mit Hilfe der Analyseeinheit, die mit dem Klassifikator verbunden ist, selektiert werden. Genau diese Bereiche werden dann im nächsten Durchlauf vom Generator erzeugt und gesendet.
Mit diesem Gerät kann deshalb genau der Frequenzbereich, d. h. das Spektrogramm, ermittelt werden, in dem eine maximale Reflexion der Sendesignale hervorgerufen wird. Es kann damit eine akustische Impedanz, durch die die Oberfläche eines Gegenstandes charakterisiert ist, "scharf" eingestellt werden bzw. seine "akustische Farbe" genauer bestimmt werden. Über­ gänge gleicher "akustischer Farbe" besitzen gleiche Eigen­ schaften und werden als gleiche Gegenstände ermittelt. Alle Reflexionspunkte mit gleichen Eigenschaften können geschlossen dargestellt werden. Da das sich ergebende Spektrum eine Eigenschaft ("Farbe") der Oberfläche eines Gegenstandes ist, an dem die Reflexion erfolgte, spielen die Erfahrungen eines Betrachters jetzt eine untergeordnete Rolle.
Mit diesem Verfahren ist es also möglich, Objekte wahrzunehmen, die für das menschliche Auge durch Rauch, Nebel, Dunkelheit, einen Temperaturvorhang, durch trübes Wasser oder dergleichen verdeckt sind. Mit dieser Vorrichtung werden alle Informationen, die über die Objektoberfläche in den Reflexionen des beliebig modulierten Ultraschalls enthalten sind, ausgenutzt. Werden gleichzeitig mehrere Sichtgeräte eingesetzt, können z. B. bei jedem Gerät andere Modulationen der Sende­ signale vorgenommen werden, um die Signale zu unterscheiden.
Die Erfindung soll nachfolgend anhand eines Ausführungs­ beispiels näher erläutert werden. In den Zeichnungen bedeuten gleiche Bezugszahlen gleiche oder ähnliche Teile.
Fig. 1A und Fig. 1B zeigen Blockschaltbilder eines aktiven Ultraschall-Sichtgerätes entsprechend der vorliegenden Erfindung für den 1D- bzw. 3D-Raum;
Fig. 2 zeigt eine grafische Darstellung zur Erläuterung der Frequenzverschiebung zwischen dem Sendesignal und dem Antwortsignal;
Fig. 3 zeigt eine grafische Darstellung der spektralzerlegten Reflexionssignale;
Fig. 4 zeigt ein Speicher-Schieberegister, wie er in der Erfindung eingesetzt wird;
Fig. 5 zeigt den prinzipiellen Aufbau eines Adaptive-Grid- Reconstruction-Prozessor;
Fig. 6 ist eine Darstellung der unterschiedlichen Räume, die von den Samplingpunkten verschiedener Empfänger gebildet werden; und
Fig. 7 ist eine Darstellung des durch den Adaptive-Grid- Reconstruction-Prozessor gebildeten Rasters.
Fig. 1A zeigt ein Blockschaltbild eines aktiven Ultraschall- Sichtgerätes entsprechend der vorliegenden Erfindung für eine eindimensionale Anwendung. Das aktive Ultraschall-Sichtgerät besteht in diesem Fall aus einem Sender 1, der mit einem Modulator 4, einem Generator 5 und einer Einrichtung zur Signalkonditionierung 3 gekoppelt ist, und einem Empfängern 2 mit einer Einrichtung zur Signalkonditionierung 3. Das aktive Ultraschall-Sichtgerät besteht weiterhin aus einer Zeitsteuerung 10, die die Signalverarbeitung beginnend mit dem Start des Sendesignals bis zur Darstellung eines Ultraschallbildes zeitlich steuert. Empfängerseitig folgt der Einrichtung zur Signalkonditionierung 3 ein Mischer 6, der die Antwortsignale mit dem Sendesignal mischt, um die Schwebungsfrequenzen zu erhalten, die die Reflexionen anzeigen. Auf den Mischer 6 folgt eine Einheit zur spektralen Zerlegung 9 der Schwebungsfrequenzen, z. B. ein akusto-optischer Prozessor. Die Einheit zur spektralen Zerlegung 9 kann in diesem Fall auch von einem holographischen Wavelet-Prozessor oder einer anderen Einheit zur schnellen analogen Spektralzerlegung durchgeführt werden. Für jeden Reflexionspunkt wird ein Signal erzeugt, das die Information über den Weg des Signals vom Sender über den Reflexionspunkt zum Empfänger und das Spektrum des Reflexionspunktes enthält und das in einem Speicher- Schieberegister 12 abgelegt wird. Dem Speicher-Schieberegister 12 folgen zwei Schaltungen, die die in den Signalen enthaltenen Informationen selektieren bzw. bewerten, eine Schaltung zur Bestimmung der Koordinate 15 des Reflexionspunktes und eine Schaltung zur Klassifizierung 14 des Reflexionspunktes, die zur Darstellung auf einem Display 16 geführt werden.
In Fig. 1B ist ein Blockschaltbild eines aktiven Ultraschall- Sichtgerätes entsprechend der vorliegenden Erfindung für den 3D-Raum und mit einer digitalen Signalverarbeitung dargestellt. Es kann hier also eine dreidimensionale Darstellung von Ultraschallbildern erfolgen. Das aktive Ultraschall-Sichtgerät besteht in diesem Fall aus einem Sender 1 und drei Empfängern 2. Das aktive Ultraschall-Sichtgerät besteht weiterhin aus einer Zeitsteuerung 10, die die Signalverarbeitung beginnend mit dem Start des Sendesignals bis zur Darstellung eines Ultraschallbildes steuert. Je eine Einrichtung zur Signalkonditionierung 3 ist nach jedem Empfänger 2 angeordnet. Die Signalkonditionierung 3 balanciert die Ungleichmäßigkeiten der Reflexionssignale aus, die von den Empfängern 2 empfangen werden. Der Einrichtung zur Signalkonditionierung 3 folgt je ein Mischer 6, der die Reflexionssignale jeweils mit dem Sendesignal mischt, um die Schwebungssignale zu erhalten, die die Reflexionen anzeigen. Auf den Mischer 6 folgt je ein A/D- Wandler 7 und eine Einheit zur spektralen Zerlegung 9, die die Schwebungssignale spektral zerlegen. Die Einheiten zur spektralen Zerlegung 9 können in diesem Fall durch einen digitalen Wavelet-Prozessor, eine Fast-Fourier-Transformation (FFT) oder eine andere Einheit zur schnellen digitalen Spektralzerlegung erfolgen.
Jeder Kanal der Spektralzerlegung enthält die Information über den Weg des Signals vom Sender 1 über alle Reflexionspunkte auf dem Ellipsoiden, der durch diesen Kanal bestimmt ist, zum Empfänger 2 und das übereinander gelagerte Spektrum dieser Reflexionspunkte. Diese Signale werden in einem Schieberegister 12 abgelegt. Die Summen der Zellen der Schieberegister 12 werden in einem Speicherregister 13 abgelegt, das Bestandteil des Adaptive-Grid-Reconstruction-Prozessors ist. Dem Speicher- Schieberegister 12, 13 folgen zwei Schaltungen, die die in den Signalen enthaltenen Informationen selektieren und bewerten, eine Schaltung zur Bestimmung der Koordinate 15 der Reflexionspunkte und eine Schaltung zur Klassifizierung 14 der Reflexionspunkte, die zur Darstellung auf einem Display 16 geführt werden.
Die Fig. 2 und Fig. 3 dienen der Erläuterung der Erfassung der Reflexionssignale. In Fig. 2 ist auf der x-Achse die Zeit, auf der y-Achse die Frequenz aufgetragen. Das Sendesignal besitzt die Frequenz , das Reflexionssignal die Frequenz und die Frequenzverschiebung beträgt Δf. besitzt eine Zeitdauer von .M = fmax - fmin ist die Deviation des Signals. Das Reflexionssignal mit den Frequenzen kommt nach einer Zeit Δt zurück. Es gilt:
Wird eine konstante Schallgeschwindigkeit, wie sie in einem homogenen Medium vorkommen würde, angenommen, so ist Δf konstant über die Zeit. Kann Δf gemessen werden, dann kann der Weg d vom Sender über den Reflexionspunkt zum Empfänger mit Hilfe der bekannten Größen TM, M, c und Δf berechnet werden. Im allgemeinen Fall kann die obige Formel durch
ersetzt werden.
Wird nun das Schwebungssignal spektral zerlegt, so erhält man Fig. 3. Es sind dieses die Signale, die in jedem Empfänger- Kanal getrennt verarbeitet werden. Die Gerade
ergibt sich getrennt dadurch, dass das Antwortsignal aus verschiedenen Tiefen der Struktur zu verschiedenen Zeiten am Empfänger eintrifft.
Bevor jedoch eine FFT oder eine andere schnelle Spektral­ zerlegung des Schwebungssignals vorgenommen wird, muss die Anzahl n der Kanäle festgelegt werden. Mit dieser Zahl n (z. B. n = 1024) wird eine obere Grenze für die Auflösung des Bildes gegeben. Für jede Schwebungsfrequenz , i = (l, . . ., n), bekommt man nun eine Reihe von Amplituden über die Länge des Signals bzw. vom Zeitpunkt des Aussendens bis zum Empfang des letzten Signals vom am weitesten entfernten Reflektor. Im Kanal erhält man eine Superposition von Anteilen dieser Schwebungsfrequenz in allen Antwortsignalen mit einer Laufzeit , d. h. von allen Reflektoren, die auf einem gedachten Ellipsoiden liegen, der Sender und Empfänger als Brennpunkte hat. Bei einer 1024-kanaligen Spektralzerlegung (z. B. FFT) werden alle 1024 Kanäle parallel in den Speicher geführt, d. h. mit jedem Zeitschritt, der durch die Zeitsteuerung gesteuert wird, werden 1024 Werte eingelesen. Da die Reflexionssignale aus tieferliegenden Bereichen später zurückkommen, erhält man die von links nach rechts zunehmende Verschiebung Δt. Aus dem Speicher-Schieberegister 12, 13 werden Signale an die Rekonstruktionseinheit 15 übergeben, die jeweils den zurückgelegten Weg jedes einzelnen Antwortsignals sowie das überlagerte Spektrum aller der Reflexionspunkte enthält, die auf der Oberfläche des diesem Weg entsprechenden Ellipsoiden liegen.
Im Speicherregister des Adaptive-Grid-Reconstruction-Prozessors befinden sich nach der spektralen Zerlegung 9 dann z. B. n = 1024 (n = Anzahl der Kanäle bei der Spektralzerlegung 9) Werte, die sich wiederum aus der Summe derselben über die Zeit ergeben, d. h. n = 1024 Amplitudenwerte (Attribute).
Für die Bestimmung der genauen 3D-Positionen, d. h. der Raumkoordianten der Reflexionspunkte, können bekannte Rekonstruktionsalgorithmen, wie z. B. Ellipsoide Backprojection oder Triangulation verwendet werden. Die Verwendung eines Adaptive-Grid-Reconstruction-Prozessors bietet jedoch einen entscheidenden Zeitvorteil gegenüber den anderen genannten Verfahren.
In Fig. 5 ist der Adaptive-Grid-Reconstruction-Prozessor dargestellt. Der Adaptive-Grid-Reconstruction-Prozessor besteht aus einem Rastergenerator 19, einer Einheit 18 zur Bestimmung der Wege der Signale von dem Sender 1 zu den Rasterpunkten und Einheiten 17 zur Bestimmung der Wege der Signale von den Rasterpunkten zu den einzelnen Empfängern 2 für jeden Rasterpunkt, dem bereits erwähnten Speicherregister 13 für die zum Empfänger 2 gehörenden Summe der Amplitudenwerte der Reflexionspunkte, einem Sampling-Address-Generator 21 zur Bestimmung der Adresse des zu dem jeweiligen Empfänger 2 gehörenden Speicherregisters 13 und einer Einheit zur mathematischen Verknüpfung 22 der aus den Speicherregistern 13 entnommenen Werte, sowie einer Einheit 23 zur Übergabe der δ- Umgebung und der Samplingfrequenz an den Sampling-Address- Generator 21.
Durch den Adaptive-Grid-Reconstruction-Prozessor wird zuerst ein virtuelles euklidisches Raster über das Beschallungsvolumen gelegt, wobei ein Raster mit gleichmäßigen Abständen (optimal im Samplingabstand) zwischen den Punkten in horizontaler und vertikaler Richtung vorteilhaft ist. Dazu sind Sender 1 und Empfänger 2 mit einem Rastergenerator 19 gekoppelt. Fig. 7 zeigt ein solches Raster der einfacheren Darstellung wegen hier in 2D.
Aus den x, y, z-Koordinaten der Rasterpunkte können dann die Wege vom Sender 1 zum Rasterpunkt (R0) sowie die Wege vom Rasterpunkt zum jeweiligen Empfänger 2 (R1, R2, R3 bei 3 Empfängern) mit Hilfe des Satzes des Pythagoras abgeleitet werden. Die Summen dieser errechneten Wege R0+R1, R0+R2 und R0+R3 entsprechen aber nicht notwendig einem Samplingpunkt im Antwortsignal. Wie bereits beschrieben bilden die Samplingpunkte der Antwortsignale jedes Kanals einen eigenen Raum, der nicht linear auf den Raum der Samplingpunkte eines anderen Kanals abgebildet werden kann. Zur Veranschaulichung dieses Effektes dient die Fig. 6. Deshalb ist eine Einheit zur Festlegung einer δ-Umgebung für jeden Rasterpunkt 23 vorgesehen. Für alle Samplingpunkte, die innerhalb dieser δ- Umgebung liegen, werden mit Hilfe der Einheit zur mathematischen Verknüpfung 22 die Amplitudenwerte gemittelt. Wenn δ groß ist, erhält man eine Glättung. Wenn δ kleiner ist als √3/2 mal dem Rasterabstand im 3D-Raster (1/√2 mal dem Rasterabstand im 2D-Raster, gehen Informationen verloren. Hieraus ergibt sich ein einfacher Weg für das "Zoom-out", bei dem Speicherplatz gespart werden kann. Hierfür kann das Raster von vornherein grober gewählt werden. Dann werden nur die zu diesen Rasterpunkten gehörigen Wege R0+R1, R0+R2 und R0+R3 berechnet. Je nach Rastergröße wird dann über eine entsprechend höhere Anzahl von Samplingpunkten gemittelt.
Analog kann man vorgehen, wenn eine höhere Detailgenauigkeit erreicht werden soll. Angenommen, die Samplingfrequenz ist kleiner als die Nyquistfrequenz des Empfangssignals. Dann treten laut dem Abtasttheorem Aliasing-Effekte auf. Bei einer geschickten Filterung und der Wahl des Rasterabstandes ist dieses jedoch nicht als Störfaktor anzusehen. Dann ist die Rastergröße durch diesen Samplingabstand nach unten beschränkt. Ist die Samplingfrequenz größer, z. B. durch Oversampling, dann kann hier eine noch größere Detailgenauigkeit erreicht werden, da dann in dem entsprechend kleineren Rasterausschnitt (Voxel) immer noch Samplingpunkte enthalten sind, die Information beinhalten.
Da auch hier genau wie im analogen Fall die Spektren aller Punkte überlagert sind, die auf einem Ellipsoiden liegen, müssen auch hier wie bei der Computer-Tomographie für jeden Kanal des Spektrums Rückprojektionen durchgeführt werden, die das Spektrum jedes einzelnen darzustellenden Punktes liefern.
Die Klassifikationseinheit 14 ist mit der Rekonstruktionsschaltung 15 gekoppelt und bewertet die Spektren der einzelnen Reflexionspunkte, die gemäß Fig. 4 im Speicher- Schieberegister 12, 13 gespeichert sind. Abhängig von den Eigenschaften der Reflexionspunkte treten in den Reflexionssignalen Veränderungen auf. Falls diese Veränderungen und damit der Charakter der Reflexionspunkte bereits bekannt ist, können die Eigenschaften für die Visualisierung entsprechend gekennzeichnet werden. Die Koordinaten der einzelnen Reflexionspunkte und deren Eigenschaften werden danach auf einem Display 16 zusammengeführt.
Für die Visualisierung kommen hauptsächlich zwei Möglichkeiten in Frage, zum einen die stereoskopische Visualisierung (z. B. für Personen oder Roboter) oder die direkte dreidimensionale Darstellung (z. B. für die Kartographie), die zweidimensional erfolgt.
Um die ausgesendete Energie zu verringern, kann erneut ein Sendesignal ausgesendet werden, das aber diesmal mit einer nicht konstanten Modulationsfunktion moduliert ist, bei der hauptsächlich nur die Frequenzbereiche enthalten sind, die für eine optimale Klassifikation ("Farbzuordnung") der Reflexionspunkte benötigt werden.
Aufstellung der verwendeten Bezugszeichen
1
Sender
2
Empfänger
3
Signalkonditionierung
4
Modulator
5
Generator
6
Mischer
7
A/D-Wandler
8
9
spektrale Zerlegung
10
Zeitsteuerung
11
12
Schieberegister
13
Speicherregister
14
Schaltung zur Klassifizierung
15
Schaltung zur Bestimmung der Koordinaten
16
Display

Claims (12)

1. Aktives Ultraschall-Sichtgerät mit mindestens einem Sender zum Aussenden eines Sendesignals mit einer beliebigen bekannten Modulationsfunktion und einer mediumabhängigen Bandbreite des Signals, mindestens einem in einer bekannten Position dazu angeordneten Empfänger, denen jeweils eine erste Signalverarbeitungseinheit zur n- kanaligen spektralen Zerlegung der von den Empfängern aufgenommenen Antwortsignale aus dem Medium und einem Speicher-Schieberegister nachgeordnet ist, einer zweiten Signalverarbeitungseinheit zur Bestimmung der Raumkoordinaten der Reflexionspunkte und einem Display.
2. Aktives Ultraschall-Sichtgerät nach Anspruch 1, bei dem die Empfänger symmetrisch zum Sender angeordnet sind.
3. Aktives Ultraschall-Sichtgerät nach Anspruch 1 oder 2, bei dem den Empfängern jeweils ein Mischer zur Erzeugung der Schwebungsfrequenz zwischen dem Sendesignal und dem Antwortsignalen nachgeordnet ist.
4. Aktives Ultraschall-Sichtgerät nach einem der Ansprüche 1 bis 3, bei dem jeweils vor den ersten Signalverarbeitungs­ einheiten zur n-kanaligen spektralen Zerlegung ein A/D- Wandler vorgesehen ist.
5. Aktives Ultraschall-Sichtgerät nach einem der Ansprüche 1 bis 4, bei dem dem Speicher-Schieberegister ein Klassifikator nachgeordnet ist.
6. Aktives Ultraschall-Sichtgerät nach Anspruch 5, bei dem dem Klassifikator eine Vorverarbeitungseinheit vorgeschaltet ist.
7. Aktives Ultraschall-Sichtgerät nach Anspruch 5 oder 6, bei dem dem Klassifikator eine Analyseeinheit nachgeschaltet ist.
8. Aktives Ultraschall-Sichtgerät nach einem der Ansprüche 5 bis 7, bei dem der Klassifikator ein statistischer Klassifikator, wie ein neuronales Netz, eine Support- Vector-Machine oder dergleichen darstellt.
9. Aktives Ultraschall-Sichtgerät nach einem der Ansprüche 1 bis 3, bei dem die erste Signalverarbeitungseinheit zur n- kanaligen spektralen Zerlegung ein akusto-optischer Prozessor, ein holographischer Wavelet-Prozessor oder ein ähnlicher analoger Prozessor zur Spektralzerlegung darstellt.
10. Aktives Ultraschall-Sichtgerät nach Anspruch 4, bei dem die erste Signalverarbeitungseinheit zur spektralen Zerlegung ein Fast-Fourier-Prozessor, ein digitaler Wavelet-Prozessor oder ein ähnlicher digitaler Prozessor zur Spektralzerlegung darstellt.
11. Aktives Ultraschall-Sichtgerät nach Anspruch 4, bei dem die zweite Signalverarbeitungseinheit zur Bestimmung der Raumkoordinaten aus einem Adaptive-Grid-Reconstruction- Prozessor besteht.
12. Adaptive-Grid-Reconstruction-Prozessor bestehend aus einem Rastergenerator, einer Einheit zur Bestimmung der Wege der Signale von dem Sender zu den Rasterpunkten und von den Rasterpunkten zu den einzelnen Empfängern für jeden Rasterpunkt, einer Speicherzeile für die zum Empfänger gehörenden Summen aller Amplitudenwerte über die Kanäle der n-kanaligen spektralen Zerlegung, einem Sampling-Address-Generator zur Bestimmung der Adresse der Amplitudenwerte innerhalb der zum Empfänger gehörenden Speicherzeile, und einer Einheit zur mathematischen Verknüpfung der aus den Speicherzeilen entnommenen Amplitudenwerte.
DE2000127828 2000-06-05 2000-06-05 Aktives Ultraschall-Sichtgerät Withdrawn DE10027828A1 (de)

Priority Applications (2)

Application Number Priority Date Filing Date Title
DE2000127828 DE10027828A1 (de) 2000-06-05 2000-06-05 Aktives Ultraschall-Sichtgerät
PCT/EP2001/004917 WO2001094976A1 (de) 2000-06-05 2001-05-02 Aktives ultraschall-sichtgerät

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE2000127828 DE10027828A1 (de) 2000-06-05 2000-06-05 Aktives Ultraschall-Sichtgerät

Publications (1)

Publication Number Publication Date
DE10027828A1 true DE10027828A1 (de) 2001-12-06

Family

ID=7644769

Family Applications (1)

Application Number Title Priority Date Filing Date
DE2000127828 Withdrawn DE10027828A1 (de) 2000-06-05 2000-06-05 Aktives Ultraschall-Sichtgerät

Country Status (2)

Country Link
DE (1) DE10027828A1 (de)
WO (1) WO2001094976A1 (de)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1464988A1 (de) * 2003-04-03 2004-10-06 Mitsubishi Electric Information Technology Centre Europe B.V. Laufzeitdifferenzbestimmung in verteilten Sensornetzwerken
WO2007020763A1 (en) 2005-08-19 2007-02-22 Mitsubishi Electric Corporation Computer implemented method for identifying a moving object by using a statistical classifier
WO2010095077A1 (en) * 2009-02-20 2010-08-26 Koninklijke Philips Electronics, N.V. Ultrasonic sensors for tracking objects even in a light dispersive media
WO2012066541A3 (en) * 2010-11-16 2012-07-19 Epos Development Ltd. System and method for object position estimation based on ultrasonic reflected signals
EP3579020A1 (de) * 2018-06-05 2019-12-11 Elmos Semiconductor Aktiengesellschaft Verfahren zur erkennung eines hindernisses mit hilfe von reflektierten ultraschallwellen
WO2021224001A1 (de) 2020-05-06 2021-11-11 Robert Bosch Gmbh Verfahren zur bestimmung der position von objekten unter verwendung von ultraschall und fahrerassistenzsystem zur bestimmung der position eines objekts in der umgebung eines fahrzeugs

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5111823A (en) * 1989-04-20 1992-05-12 National Fertility Institute Apparatus and method for generating echographic images
US5235857A (en) * 1986-05-02 1993-08-17 Forrest Anderson Real time 3D imaging device using filtered ellipsoidal backprojection with extended transmitters
DE4331020A1 (de) * 1992-12-08 1994-06-09 Siemens Ag Ultraschall-Abbildungseinrichtung
US5729660A (en) * 1994-05-03 1998-03-17 Chiabrera; Alessandro 3-D inverse scattering by artificial intelligence : apparatus and method
US5842991A (en) * 1997-02-20 1998-12-01 Barabash; Leonid S. Ultrasound transducer with extended field of view
DE19915583A1 (de) * 1999-04-07 2000-10-12 Miroslaw Wrobel Vorrichtung und Verfahren für die 3D-Echtzeitsonographie

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0008455B1 (de) * 1978-08-21 1984-03-14 Leslie Kay Verfahren und Einrichtung zum Anzeigen des Vorhandenseins oder der Lage von Objekten
US5601083A (en) * 1986-05-02 1997-02-11 Anderson; Forrest Real time 3D imaging device using filtered ellipsoidal backprojection
US5611343A (en) * 1995-04-05 1997-03-18 Loral Aerospace Corp. High resolution three-dimensional ultrasound imaging
US5966169A (en) * 1997-03-15 1999-10-12 Bullis; James K. Three dimensional beamformed television

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5235857A (en) * 1986-05-02 1993-08-17 Forrest Anderson Real time 3D imaging device using filtered ellipsoidal backprojection with extended transmitters
US5111823A (en) * 1989-04-20 1992-05-12 National Fertility Institute Apparatus and method for generating echographic images
DE4331020A1 (de) * 1992-12-08 1994-06-09 Siemens Ag Ultraschall-Abbildungseinrichtung
US5729660A (en) * 1994-05-03 1998-03-17 Chiabrera; Alessandro 3-D inverse scattering by artificial intelligence : apparatus and method
US5842991A (en) * 1997-02-20 1998-12-01 Barabash; Leonid S. Ultrasound transducer with extended field of view
DE19915583A1 (de) * 1999-04-07 2000-10-12 Miroslaw Wrobel Vorrichtung und Verfahren für die 3D-Echtzeitsonographie

Cited By (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1464988A1 (de) * 2003-04-03 2004-10-06 Mitsubishi Electric Information Technology Centre Europe B.V. Laufzeitdifferenzbestimmung in verteilten Sensornetzwerken
US7170820B2 (en) 2003-04-03 2007-01-30 Mitsubishi Denki Kabushiki Kaisha Determination of time difference of arrival in distributed sensor networks
US7616526B2 (en) 2003-04-03 2009-11-10 Mitsubishi Denki Kabushiki Kaisha Determination of time difference of arrival in distributed sensor networks
WO2007020763A1 (en) 2005-08-19 2007-02-22 Mitsubishi Electric Corporation Computer implemented method for identifying a moving object by using a statistical classifier
US7821870B2 (en) 2005-08-19 2010-10-26 Mitsubishi Electric Research Laboratories Inc. Method and system for identifying moving objects using acoustic signals
CN101223456B (zh) * 2005-08-19 2011-12-07 三菱电机株式会社 利用统计分类器识别移动对象的计算机实现的方法
WO2010095077A1 (en) * 2009-02-20 2010-08-26 Koninklijke Philips Electronics, N.V. Ultrasonic sensors for tracking objects even in a light dispersive media
CN103229071A (zh) * 2010-11-16 2013-07-31 高通股份有限公司 用于基于超声反射信号的对象位置估计的系统和方法
WO2012066541A3 (en) * 2010-11-16 2012-07-19 Epos Development Ltd. System and method for object position estimation based on ultrasonic reflected signals
CN103229071B (zh) * 2010-11-16 2015-09-23 高通股份有限公司 用于基于超声反射信号的对象位置估计的系统和方法
EP2930530A1 (de) * 2010-11-16 2015-10-14 Qualcomm Incorporated System und Verfahren zur Lagebestimmung eines Objektes auf Basis von reflektierten Ultraschallsignalen
US9810784B2 (en) 2010-11-16 2017-11-07 Qualcomm Incorporated System and method for object position estimation based on ultrasonic reflected signals
EP3579020A1 (de) * 2018-06-05 2019-12-11 Elmos Semiconductor Aktiengesellschaft Verfahren zur erkennung eines hindernisses mit hilfe von reflektierten ultraschallwellen
CN110568444A (zh) * 2018-06-05 2019-12-13 艾尔默斯半导体股份公司 通过反射超声波检测障碍物的方法
US11117518B2 (en) 2018-06-05 2021-09-14 Elmos Semiconductor Se Method for detecting an obstacle by means of reflected ultrasonic waves
CN110568444B (zh) * 2018-06-05 2024-11-15 艾尔默斯半导体股份公司 通过反射超声波检测障碍物的方法
WO2021224001A1 (de) 2020-05-06 2021-11-11 Robert Bosch Gmbh Verfahren zur bestimmung der position von objekten unter verwendung von ultraschall und fahrerassistenzsystem zur bestimmung der position eines objekts in der umgebung eines fahrzeugs
DE102020205683A1 (de) 2020-05-06 2021-11-11 Robert Bosch Gesellschaft mit beschränkter Haftung Verfahren zur Bestimmung der Position von Objekten unter Verwendung von Ultraschall und Fahrerassistenzsystem zur Bestimmung der Position eines Objekts in der Umgebung eines Fahrzeugs

Also Published As

Publication number Publication date
WO2001094976A1 (de) 2001-12-13

Similar Documents

Publication Publication Date Title
DE69127968T2 (de) Dreidimensionales echtzeit-sensorsystem
DE102014104712B4 (de) Registrierung einer in Cluster zerfallenden Szene mit visualisierten Clustern
DE69707886T2 (de) Verfahren und gerät zum lokalisieren einer sich bewegenden zone und bestimmung der schnellheit und richtung der bewegung eines gebietes von relativer bewegung in einer szene
DE3686401T2 (de) Darstellung von stromlinien in inhomogenen medien.
EP3014569B1 (de) Inspektion der konturierten fläche des unterbodens eines kraftfahrzeugs
DE102018132805A1 (de) Verfahren für eine verbesserte Objekterfassung
DE102019127283A1 (de) System und Verfahren zum Erfassen eines Objekts in einer dreidimensionalen Umgebung eines Trägerfahrzeugs
DE102019105630B4 (de) Anzeigesteuervorrichtung, Fahrzeugumgebungsanzeigesystem und Computerprogramm
EP4118628A2 (de) Verfahren und vorrichtung zum präzisen auswählen einer raumkoordinate mittels eines digitalen bildes
EP3921819B1 (de) Überwachungsvorrichtung und verfahren zur man-overboard-überwachung eines schiffsabschnitts
DE10027828A1 (de) Aktives Ultraschall-Sichtgerät
DE112019007225B4 (de) Fahrzeugumgebungsbilderzeugungsvorrichtung, Fahrzeugumgebungsanzeigesystem und Fahrzeugumgebungsanzeigeverfahren
DE102014116904B4 (de) Verfahren zum optischen Abtasten und Vermessen einer Szene und zur automatischen Erzeugung einesVideos
DE69322921T2 (de) Verbesserte Signalprozessor und Anzeigesystem für Sonaranlagen
DE10311497B3 (de) Verfahren zur synthetischen Generierung von Sonardaten
DE10049366A1 (de) Verfahren zum Überwachen eines Sicherheitsbereichs und entsprechendes System
EP3352139B1 (de) Verfahren zur darstellung einer umgebung eines fahrzeuges
DE102014104713A1 (de) Registrierung einer in Cluster zerfallenden Szene mit Paaren von Scans
EP1522874A1 (de) Manövrierhilfe für Kraftfahrzeuge
EP4402429A1 (de) Verfahren und vorrichtung zur messung von tiefeninformationen einer szene anhand von mittels zumindest einer parallelstrahlungsquelle generiertem strukturierten licht
DE4137510C2 (de) Scanner zur Untersuchung von Prüfobjekten
DE112021001664T5 (de) Erkennungsverarbeitungssystem, erkennungsverarbeitungsvorrichtung und erkennungsverarbeitungsverfahren
DE10048308A1 (de) Verfahren und Vorrichtung zum Klassifizieren von Objekten aus als Pixelmuster vorliegenden eingangsseitigen Bilddaten
DE102019102423A1 (de) Verfahren zur Live-Annotation von Sensordaten
DE102020106014A1 (de) Unterscheiden und schätzen der geschwindigkeiten mehrerer objekte mit hilfe eines mehrknoten-radarsystems

Legal Events

Date Code Title Description
OM8 Search report available as to paragraph 43 lit. 1 sentence 1 patent law
8139 Disposal/non-payment of the annual fee