DE10027828A1 - Aktives Ultraschall-Sichtgerät - Google Patents
Aktives Ultraschall-SichtgerätInfo
- Publication number
- DE10027828A1 DE10027828A1 DE2000127828 DE10027828A DE10027828A1 DE 10027828 A1 DE10027828 A1 DE 10027828A1 DE 2000127828 DE2000127828 DE 2000127828 DE 10027828 A DE10027828 A DE 10027828A DE 10027828 A1 DE10027828 A1 DE 10027828A1
- Authority
- DE
- Germany
- Prior art keywords
- signal
- active ultrasonic
- processor
- viewing device
- grid
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
- 238000012545 processing Methods 0.000 claims abstract description 23
- 230000005540 biological transmission Effects 0.000 claims abstract description 18
- 230000003595 spectral effect Effects 0.000 claims description 33
- 238000005070 sampling Methods 0.000 claims description 30
- 238000000354 decomposition reaction Methods 0.000 claims description 29
- 230000004044 response Effects 0.000 claims description 19
- 230000003044 adaptive effect Effects 0.000 claims description 17
- 230000035559 beat frequency Effects 0.000 claims description 9
- 230000006870 function Effects 0.000 claims description 6
- 238000004458 analytical method Methods 0.000 claims description 4
- 238000013528 artificial neural network Methods 0.000 claims description 4
- 238000007781 pre-processing Methods 0.000 claims description 4
- 230000004438 eyesight Effects 0.000 claims description 3
- 238000012706 support-vector machine Methods 0.000 claims description 3
- 230000001419 dependent effect Effects 0.000 claims description 2
- 238000011144 upstream manufacturing Methods 0.000 claims 1
- 238000001228 spectrum Methods 0.000 description 17
- 238000002604 ultrasonography Methods 0.000 description 13
- 230000003750 conditioning effect Effects 0.000 description 8
- 238000000034 method Methods 0.000 description 8
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 7
- 230000000694 effects Effects 0.000 description 5
- 230000008901 benefit Effects 0.000 description 4
- 239000000779 smoke Substances 0.000 description 4
- 238000012800 visualization Methods 0.000 description 4
- 238000004364 calculation method Methods 0.000 description 3
- 238000010586 diagram Methods 0.000 description 3
- 238000012549 training Methods 0.000 description 3
- 241000282412 Homo Species 0.000 description 2
- 238000002591 computed tomography Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 230000002349 favourable effect Effects 0.000 description 2
- 238000001914 filtration Methods 0.000 description 2
- 238000009499 grossing Methods 0.000 description 2
- 238000013178 mathematical model Methods 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 238000003045 statistical classification method Methods 0.000 description 2
- 238000003860 storage Methods 0.000 description 2
- 241001465754 Metazoa Species 0.000 description 1
- 235000004522 Pentaglottis sempervirens Nutrition 0.000 description 1
- 210000004556 brain Anatomy 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 238000005260 corrosion Methods 0.000 description 1
- 230000007797 corrosion Effects 0.000 description 1
- 230000001066 destructive effect Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 239000007789 gas Substances 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 230000004297 night vision Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000035945 sensitivity Effects 0.000 description 1
- 239000011343 solid material Substances 0.000 description 1
- 238000004611 spectroscopical analysis Methods 0.000 description 1
- 238000004154 testing of material Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 238000009827 uniform distribution Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S15/00—Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
- G01S15/87—Combinations of sonar systems
- G01S15/876—Combination of several spaced transmitters or receivers of known location for determining the position of a transponder or a reflector
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S15/00—Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
- G01S15/02—Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems using reflection of acoustic waves
- G01S15/06—Systems determining the position data of a target
- G01S15/08—Systems for measuring distance only
- G01S15/32—Systems for measuring distance only using transmission of continuous waves, whether amplitude-, frequency-, or phase-modulated, or unmodulated
- G01S15/34—Systems for measuring distance only using transmission of continuous waves, whether amplitude-, frequency-, or phase-modulated, or unmodulated using transmission of continuous, frequency-modulated waves while heterodyning the received signal, or a signal derived therefrom, with a locally-generated signal related to the contemporaneously transmitted signal
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S15/00—Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
- G01S15/88—Sonar systems specially adapted for specific applications
- G01S15/89—Sonar systems specially adapted for specific applications for mapping or imaging
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/52—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S15/00
- G01S7/534—Details of non-pulse systems
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/52—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S15/00
- G01S7/539—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S15/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/52—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S15/00
- G01S7/56—Display arrangements
- G01S7/62—Cathode-ray tube displays
- G01S7/6245—Stereoscopic displays; Three-dimensional displays; Pseudo-three dimensional displays
Landscapes
- Engineering & Computer Science (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Physics & Mathematics (AREA)
- Computer Networks & Wireless Communication (AREA)
- General Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Measurement Of Velocity Or Position Using Acoustic Or Ultrasonic Waves (AREA)
Abstract
Die Erfindung betrifft ein aktives Ultraschall-Sichtgerät, das Objekte in einem Medium erkennbar macht, die in Dunkelheit gehüllt sind, durch einen Rauch- oder Nebelvorhang nicht sichtbar sind oder sich z. B. in trübem Wasser (Hafenbecken, Flußwasser) befinden. Das aktive Ultraschall-Sichtgerät besitzt mindestens einen Sender zum Aussenden eines Sendesignals mit einer beliebigen bekannten Modulationsfunktion und einer mediumabhängigen Bandbreite des Signals, mindestens einen in einer bekannten Position dazu angeordneten Empfänger, denen jeweils eine erste Signalverarbeitungseinheit zur spektralen Zerlegung der von den Empfängern aufgenommenen Antwortsignale aus dem Medium und ein Speicher-Schieberegister nachgeordnet ist, eine zweite Signalverarbeitungseinheit zur Bestimmung der Raumkoordinaten der Reflexionspunkte und ein Display.
Description
Die Erfindung betrifft ein aktives Ultraschall-Sichtgerät, das
Objekte in einem Medium erkennbar macht, die in Dunkelheit
gehüllt sind, durch einen Rauch- oder Nebelvorhang nicht
sichtbar sind oder sich z. B. in trübem Wasser (Hafenbecken,
Flusswasser) befinden.
In der Technik ist es auf unterschiedlichen Einsatzgebieten
immer wieder erforderlich, ein Sichtgerät zur Verfügung zu
haben, mit dem für den Menschen unsichtbare Objekte sichtbar
gemacht werden können. Diese Objekte können z. B. in Dunkelheit,
Nebel, Rauch, im trüben Wasser oder hinter einem
Temperaturvorhang für das menschliche Auge nicht erkennbar
sein. In vielen Fällen kommt hinzu, dass trotz der Sichtbarkeit
eines Objektes, seine Entfernung nicht abschätzbar ist. Zum
Beispiel bei der Bekämpfung eines Brandes kann das zu
zusätzlichen Problemen führen.
In der Vergangenheit haben Infrarotkamera, insbesondere mit
Restlichtverstärkung zur Sichtbarmachung warmer Objekte, wie
Tiere oder Menschen, breite Anwendung gefunden. Moderne
Infrarotsensoren können Temperaturunterschiede bis zu 0,5°C
erkennen. Durch eine geeignete Elektronik, die diesen
Infrarotkameras nachgeschaltet ist, kann die Empfindlichkeit
solcher Geräte wesentlich erhöht werden, wobei sogar eine
eventuelle Beleuchtung im sichtbaren Bereich wenig oder nicht
stört. Um die Bilder exakt bewerten zu können, ist jedoch ein
ausgiebiges Training erforderlich. Für den Einsatz bei einem
Brand sind diese Geräte jedoch nur bedingt oder nicht
brauchbar, da das Feuer die interessierenden Objekte
vollständig abschirmen kann.
Eine weitere bekannte Vorrichtung ist mit einem Bolometer
ausgerüstet. Die Umgebung, in der ein warmes Objekt vermutet
wird, wird mit einem Bolometer abgetastet und ein thermisches
Bild im mittleren Infrarot (2-5 µm) aufgezeichnet. Dieses Bild
weist Temperaturunterschiede bis zu 0,1°C auf. Mit diesem Gerät
können auch Objekte in Nebel, Rauch oder anderen Gasen sichtbar
gemacht werden, jedoch keine Objekte in einem Feuer oder unter
Wasser.
Ein anderes Verfahren zur Sichtbarmachung von Objekten nutzt
den Ultraschall aus. Es wird ein Ultraschallsignal ausgesendet
und aus der Laufzeit bis zum Empfang des Antwortimpulses die
Entfernung zu einem Objekt ermittelt. In Luft breitet sich der
Ultraschall bekanntlich mit ca. 340 m/s aus, ein Objekt in 300 m
Entfernung wird also nach etwa 2 s erkannt. Dabei ist zu
beachten, dass nur das jeweils am nächsten liegende Objekt
erkannt wird.
Bei einem anderen Verfahren werden Signale ausgesendet, die
denen der Fledermaus ähnlich sind. Die als Chirp bezeichneten
Signale enthalten ein Muster von Frequenzen. Die Antwortsignale
werden dann mit den Sendesignalen verglichen, und die
sogenannten "beat-frequencies" heraus gefiltert. Es können mit
diesen Geräten alle Objekte im Blickfeld erkannt werden. Diese
Geräte wurden vorzugsweise für Blinde entwickelt, die durch ein
intensives Training auf das "Hören" von Hindernissen
sensibilisiert werden.
Das menschliche Gehirn ist auch gefragt bei der Ultraschall-
Spektroskopie, wie sie für die zerstörungsfreie Materialprüfung
verwendet wird. Hier werden die Spektren der Echosignale auf
dem Bildschirm angezeigt, und der Betrachter kann aufgrund
seiner Erfahrung erkennen, ob sich in dem beschallten Material
z. B. ein Riss oder eine Korrosionsstelle oder ähnliches
befindet.
Während bei den erstgenannten Geräten die Laufzeiten der
einzelnen Frequenzen zur Auswertung gelangen, werden bei den
zweitgenannten die Frequenzverschiebungen des Signalmusters
erfasst, das sich bei Reflexion an einem Objekt in dem
Antwortsignal wiederfindet. Die Frequenzverschiebung ist
proportional der Verzögerung zwischen dem ausgesendeten und dem
empfangenen Signal. Dadurch kann auch die Entfernung der
Objekte ermittelt werden.
Um mit diesem Verfahren den Charakter und die Form eines
Objektes zu ermitteln, versucht man die Tatsache auszunutzen,
dass jedes Objekt eine spezifische Reaktion auf das Signal
besitzt. Aus den Klangunterschieden bzw. den Unterschieden von
Frequenzmustern der Antwortsignale soll dann ermittelt werden,
welche Eigenschaften das Objekt besitzt. Auch hier ist ein
aufwendiges Lernsystem erforderlich, um die Objekte zu "hören"
bzw. aus typischen Mustern zu erkennen.
Es sind auch Lösungen bekannt, bei denen versucht wird, aus den
Reflexionen an einem unbekannten Objekt das Objekt zu
klassifizieren. Allerdings ist die Klassifizierung der Objekte
mit einer sehr großen Unsicherheit verbunden, die zur Zeit noch
mit 30-40% angegeben wird. Diese Geräte sollen Blinden zur
Orientierung helfen. Für den Einsatz zur Brandbekämpfung oder
unter Wasser sind auch diese Geräte ungeeignet, da mindestens
eine räumliche Vorstellung des Objektes geliefert werden muss.
Es ist deshalb die Aufgabe der vorliegenden Erfindung, eine
Vorrichtung vorzuschlagen, die auch in einem undurchsichtigen
Medium ein dimensionsgetreues Bild in 1D, 2D oder 3D liefert.
Die Vorrichtung soll kompakt aufgebaut sein und bei einer
Brandbekämpfung, im Einsatz unter Wasser oder als
Nachtsichtgerät verwendbar sein.
Eine weitere Aufgabe besteht darin, ein aktives Ultraschall-
Sichtgerät vorzuschlagen, das eine 3D-Darstellung von Objekten
in Echtzeit liefert.
Die Aufgabe wird durch die anhängenden Ansprüche gelöst.
Das Aktive Ultraschall-Sichtgerät entsprechend der vorliegenden
Erfindung besteht aus mindestens einem Sender zum Aussenden
eines Sendesignal mit einer beliebigen bekannten
Modulationsfunktion und einer mediumabhängigen Bandbreite des
Signals, mindestens einem in einer bekannten Position dazu
angeordneten Empfänger, denen jeweils eine erste
Signalverarbeitungseinheit zur n-kanaligen spektralen Zerlegung
der von den Empfängern aufgenommenen Antwortsignale aus dem
Medium und ein Speicher-Schieberegister nachgeordnet ist, einer
zweiten Signalverarbeitungseinheit zur Bestimmung der
Raumkoordinaten, und einem Display. Die erforderliche
Bandbreite beträgt unter Wasser etwa 1 kHz bis maximal 10 MHz,
in Luft 20-500 kHz. In festen Materialien muss sie so
eingestellt werden, dass die Signale in das Medium eindringen
können und an eventuell eingebetteten Strukturen reflektiert
oder absorbiert werden. Die Anzahl n der Kanäle muss vorher
festgelegt werden. Mit dieser Zahl n (z. B. n = 1024) wird eine
obere Grenze für die Auflösung des Bildes gegeben.
In einer vorteilhaften Ausführungsform sind die Empfänger
symmetrisch zum Sender angeordnet.
Dem oder den Empfängern ist in bekannter Weise eine
Signalkonditionierung nachgeschaltet, die z. B. aus einem
Verstärker und einer Filterbank bestehen kann. Außerdem besitzt
das Sichtgerät in ebenfalls bekannter Weise eine Zeitsteuerung.
Den Empfängern kann jeweils ein Mischer zur Erzeugung der
Schwebungsfrequenz zwischen dem Sendesignal und dem
Antwortsignalen nachgeordnet werden. Dadurch ist es möglich,
die zu verarbeitende Frequenzen herabzusetzen.
Die Antwortsignale können sowohl analog als auch digital
verarbeitet werden. Zur digitalen Verarbeitung ist jeweils vor
den ersten Signalverarbeitungseinheiten zur spektralen
Zerlegung ein A/D-Wandler vorgesehen.
Nach der Bestimmung der Raumkoordinaten der Reflexionspunkte in
der zweiten Signalverarbeitungseinheit können diese direkt
einem Display zugeleitet, und die Grauwerte der
Reflexionspunkte können angezeigt werden. Es ist aber auch
möglich, dem Speicher-Schieberegister eine Klassifikations
einheit nachzuordnen. Diese Klassifikationseinheit ist ein
Prozessor (z. B. ein neuronales Netz), der zunächst die Spektren
der einzelnen Kanäle parallel aus dem Speicherschieberegister
aufnimmt. Damit werden der Klassifikationseinheit mit jedem
Zeitschritt n (z. B. n = 1024) Werte zugeführt. Die
Klassifikationseinheit kann aus einer Vorverarbeitungseinheit,
dem eigentlichen Klassifikator und einer Analyseeinheit
bestehen. Die Vorverarbeitungseinheit hat die Aufgabe, die zu
klassifizierenden Daten schon einmal vorab zusammenzufassen, zu
normieren, zu selektieren o. ä. Der Klassifikator besteht aus
einem Prozessor, der die aus der Vorverarbeitungseinheit
eingehenden Daten anhand einer Berechnungsvorschrift, also
eines mathematischen Modells, umwandelt. Das
Berechnungsergebnis gibt z. B. eine Wahrscheinlichkeit an, mit
der die eingegangenen Daten zu einer Struktur einer bestimmten
Klasse gehören. Die zugrundeliegende Berechnungsvorschrift
(also das mathematische Modell) wird im Laufe einer sogenannten
Trainingsphase so optimiert, dass eine bestmögliche
automatische Zuordnung der Daten zu vorgegebenen Klassen
erreicht wird. Die Analyseeinheit hat nun die Aufgabe, die
eingegangenen Daten (z. B. der n Variablen) nach ihrer
Wichtigkeit für die optimale Klassenzuordnung auszusortieren.
In dieser Klassifikationseinheit können die Eigenschaften der
Reflexionspunkte bewertet und klassifiziert werden oder es
werden nur die Reflexionspunkte mit gleichen Spektren
zusammengefasst und angezeigt.
Für die analoge Verarbeitung kann die erste
Signalverarbeitungseinheit zur spektralen Zerlegung ein akusto
optischer Prozessor, ein holographischer Wavelet-Prozessor oder
ein ähnlicher analoger Prozessor zur Spektralzerlegung
darstellen.
Für die digitale Verarbeitung kann die erste
Signalverarbeitungseinheit zur spektralen Zerlegung ein Fast-
Fourier-Prozessor, ein digitaler Wavelet-Prozessor oder ein
ähnlicher digitaler Prozessor zur Spektralzerlegung darstellen.
Die Klassifikationseinheit kann ein statistischer
Klassifikator, wie ein neuronales Netz, eine Support-Vector-
Machine oder dergleichen darstellen.
Die zweite Signalverarbeitungseinheit zur Bestimmung der
Raumkoordinaten besteht insbesondere für die digitale
Verarbeitung aus einem Adaptive-Grid-Reconstruction-Prozessor,
der ebenfalls Gegenstand der vorliegenden Erfindung ist. Der
Adaptive-Grid-Reconstruction-Prozessor besteht aus einem
Rastergenerator, einer Einheit zur Bestimmung der Wege der
Signale von dem Sender zu den Rasterpunkten und von den
Rasterpunkten zu den einzelnen Empfängern für jeden
Rasterpunkt, einer Speicherzeile für die zum Empfänger
gehörenden Summen aller Amplitudenwerte über die Kanäle der n-
kanaligen spektralen Zerlegung, einem Sampling-Address-
Generator zur Bestimmung der Adresse der Amplitudenwerte
innerhalb der zum Empfänger gehörenden Speicherzeile, und einer
Einheit zur mathematischen Verknüpfung der aus den
Speicherzeilen entnommenen Amplitudenwerte.
Bei der analogen Verarbeitung kann auch eine bekannte
Triangulation oder ellipsoidale Backprojektion zur Bestimmung
der Raumkoordinaten verwendet werden. Wird nur ein Empfänger
eingesetzt sind die Koordinaten der Reflexionspunkte
unmittelbar bekannt.
Der Einsatz eines Adaptive-Grid-Reconstruction-Prozessors ist
also erst von Vorteil, wenn mindestens zwei Empfänger vorhanden
sind.
Der Adaptive-Grid-Reconstruction-Prozessor ist ebenfalls
Gegenstand der vorliegenden Erfindung. Der Adaptive-Grid-
Reconstruction-Prozessor besteht aus einem Rastergenerator,
einer Einheit zur Bestimmung der Wege der Signale von dem
Sender zu den Rasterpunkten und von den Rasterpunkten zu den
einzelnen Empfängern für jeden Rasterpunkt, einer Speicherzeile
für die zum Empfänger gehörenden Summe aller Amplitudenwerte
entlang der Kanäle der spektralen Zerlegung, einem Sampling-
Address-Generator zur Bestimmung der Adresse der
Amplitudenwerte innerhalb der zum jeweiligen Empfänger
gehörenden Speicherzeile, eine Einheit zur mathematischen
Verknüpfung der aus den Speicherzeilen entnommenen
Amplitudenwerte.
Zur Erzeugung einer Darstellung eines unsichtbaren Objektes
wird ein Signal, das mit einer beliebigen bekannten
Modulationsfunktion, die eine entsprechende Bandbreite des
Signals garantiert, moduliert ist (vorzugsweise FM und/oder
binär phasenkodiertes, jedoch keine Impuls(AM-Modulation)), in
Richtung auf das Objekt ausgesendet und gleichzeitig als
Referenzsignal gespeichert. Mindestens ein Empfänger empfängt
simultan die an dem Objekt reflektierten Signale. Die
reflektierten Signale werden dann gegebenenfalls mit dem als
Referenzsignal gespeicherten Sendesignal gemischt und das
erhaltene Schwebungssignal n-kanalig spektral zerlegt. Wenn
kein Mischer vorhanden ist, wird das Antwortsignal direkt n-
kanalig spektral zerlegt.
Zur spektralen Zerlegung in Echtzeit kann zum Beispiel ein
akusto-optischer Prozessor verwendet werden. Es ist aber auch
möglich, wenn ein digitalisiertes Signal vorliegt, einen Fast-
Fourier-Prozessor oder einen anderen Prozessor, z. B. einen
digitalen Wavelet-Prozessor, zu verwenden, mit dessen Hilfe
eine schnelle Spektralzerlegung der Signale durchgeführt werden
kann.
Die Ergebnisse der Spektralzerlegung werden zunächst für jeden
Reflexionspunkt in einem parallelen Speicher-Schieberegister
abgelegt. Gleichzeitig kann die Summe der Amplitudenwerte jedes
Schieberegisters gebildet werden und in einer Speicherzeile des
Adaptive-Grid-Reconstruction-Prozessors abgelegt werden, falls
dieser zum Einsatz kommt.
Um die Koordinaten der Reflexionspunkte zu ermitteln, können
wie bereits erwähnt, bekannte Verfahren, wie die ellipsoidale
Backprojection und Triangulationsverfahren oder dergleichen
eingesetzt werden. Die Grundlage dafür bildet, dass die Punkte
gleicher Entfernung vom Sender zu den Reflexionspunkten und zum
Empfänger auf einem Ellipsoiden liegen. Eine schnellere Lösung,
die bei Sichtgeräten mit mehr als einem Empfänger und digitaler
Signalverarbeitung wesentliche Vorteile liefert und diese erst
in Echtzeit funktionsfähig macht, bietet ein Adaptive-Grid-
Reconstruction-Prozessor. Dieser Prozessor ist ebenfalls
Bestandteil der vorliegenden Erfindung.
Wie bereits angedeutet wurde, ist es möglich, die Signalwege di
über die Messung der Schwebungsfrequenzen Δfi mit Hilfe der
Formel
(wobei c die Schallgeschwindigkeit, TM die
Zeitdauer des Sendesignals und M die Deviation des Sendesignals
ist) bestimmen. Der Zeitverlauf der Schwebungsfrequenzen ist
nach der spektralen Zerlegung des Schwebungssignals im
parallelen Speicher-Schieberegister abgelegt worden. D. h., für
jedes Δfi (also jeden Ellipsoiden) erhält man ein Spektrum,
welches die spektralen Anteile aller Reflexionspunkte auf
diesem Ellipsoiden enthält. Die Anzahl n der Kanäle bei der
Spektralzerlegung gibt entsprechend der obigen Formel eine
obere Schranke für die Auflösung des Bildes. Aus den
Schnittpunkten dieser Ellipsoiden ergibt sich ein
Koordinatensystem, das nicht metrisch ist. Um diese
Schnittpunkte trotzdem in einem metrischen Raum sichtbar zu
machen, kann hier eine spezielle Zusatzoptik (z. B. spezielle
Korrekturlinse) vor den Bildschirm oder das HDM (Head Mounted
Device) eingesetzt werden. Der durch die Schnittpunkte der
Ellipsoiden gegebene Raum kann auch in einen metrischen Raum,
der für die Visualisierung günstig ist, eindeutig durch eine
Transformation umgewandelt werden. Jedoch erhält man hierbei
keine gleichmäßige Verteilung der darzustellenden Punkte im
Raum.
Bei der Anwendung des Adaptive-Grid-Reconstruction-Prozessor im
digitalen Verfahren wird zuerst ein euklidisches Raster im über
das Beschallungsvolumen gelegt, d. h. ein Raster mit
vorteilhafterweise, aber nicht notwendigerweise gleichmäßigen
Abständen (günstig im Samplingabstand) zwischen den Punkten in
horizontaler und vertikaler Richtung. Aus den x,y,z-Koordinaten
der Rasterpunkte können nun die Wege vom Sender zum Rasterpunkt
(R0) sowie die Wege vom Rasterpunkt zum jeweiligen Empfänger
(R1, R2, R3 bei 3 Empfängern) mit Hilfe des Satzes des
Pythagoras abgeleitet werden. Die Summen dieser errechneten
Wege R0+R1, R0+R2 und R0+R3 entsprechen aber nicht notwendig
einem Samplingpunkt im Antwortsignal. Außerdem bilden die
Samplingpunkte der Antwortsignale jedes Kanals einen eigenen
Raum, der nicht linear auf den Raum der Samplingpunkte eines
anderen Kanals abgebildet werden kann (siehe Fig. 6). D. h., die
Empfänger sehen unterschiedliche Teilräume der beschallten
Struktur (ähnlich der RGB-Maske beim Farb-TV). Man kann diesen
Effekt auch als Maskeneffekt beschreiben, wobei jeder Empfänger
die beschallte Struktur durch eine Maske sieht, welche durch
die Samplingfrequenz sowie die Lage des Empfängers eindeutig
definiert ist. Demzufolge können die Masken der einzelnen
Empfänger nicht durch eine lineare Abbildung zur Deckung
gebracht werden.
Deshalb wird für jeden Rasterpunkt eine δ-Umgebung
(δ ≧ Rasterabstand) festgelegt. Für alle Samplingpunkte, die
innerhalb dieser δ-Umgebung liegen, werden die
Amplitudenwerte, die im Speicherregister des Adaptive-Grid-
Reconstruction-Prozessors abgelegt wurden, gemittelt. Wenn δ
groß ist, erhält man eine Glättung. Wenn δ kleiner ist als √3/2
mal dem Rasterabstand im 3D-Raster (1/√2 mal dem Rasterabstand
im 2D-Raster), geht Information verloren. Hieraus ergibt sich
ein einfacher Weg für das "Zoom-out", mit dem Speicherplatz und
Rechenzeit gespart werden kann. Hierfür kann das Raster von
vornherein grober gewählt werden. Dann werden nur die zu diesen
Rasterpunkten gehörigen Wege R0+R1, R0+R2 und R0+R3 berechnet.
Je nach Rastergröße und der Festlegung von δ wird dann über
eine entsprechend höhere Anzahl von Samplingpunkten gemittelt.
Analog kann man vorgehen, wenn eine höhere Detailgenauigkeit
erreicht werden soll. Angenommen, die Samplingfrequenz ist
kleiner als die Nyquistfrequenz des Empfangssignals. Dann
treten laut dem Abtasttheorem Aliasing-Effekte auf. Bei einer
geschickten Filterung und der Wahl des Rasterabstandes ist
dieses jedoch nicht als Störfaktor anzusehen. Dann ist die
Rastergröße durch diesen Samplingabstand nach unten
beschränkt. Ist die Samplingfrequenz größer, z. B. durch
Oversampling, dann kann hier eine noch größere
Detailgenauigkeit erreicht werden, da dann in dem entsprechend
kleineren Rasterausschnitt (Voxel) immer noch Samplingpunkte
enthalten sind, die Information beinhalten.
Da auch hier, genau wie im analogen Fall, die Spektren aller
Punkte, die auf einem Ellipsoiden liegen, überlagert sind,
müssen auch hier wie bei der Computer-Tomographie für jeden
Kanal des Spektrums Rückprojektionen durchgeführt werden, die
das Spektrum jedes einzelnen darzustellenden Punktes liefern.
Die Wahl des Rasterabstandes kann auch lokal unterschiedlich
erfolgen, somit auch die Festlegung von δ, welches dem
Rasterabstand angepasst werden sollte. Dies ermöglicht ein
lokales Zooming (wie z. B. beim Vogelauge). Man kann z. B. den
Nahbereich detaillierter darstellen als den Fernbereich bzw.
den Fernbereich ausschnittsweise detailliert darstellen. Die
eigentliche Detail-Information bleibt dabei grundsätzlich in
den Daten enthalten, es wird nur die Darstellung besonders
nutzerfreundlich, und Rechenzeit wird gespart.
Um jeden Raumpunkt in 1D, 2D oder 3D mit nun gegebenem Spektrum
klassifizieren zu können, werden die Spektren aus dem
Speicherschieberegister parallel ausgelesen und es wird ein
statistisches Klassifikationsverfahren, z. B. nächste Nachbarn,
neuronales Netz, Support-Vector-Machine und der gleichen darauf
angewendet.
Die Auswahl des statistischen Klassifikationsverfahrens hängt
im wesentlichen von der Fähigkeit zur Verallgemeinerung und der
Geschwindigkeit der Rechentechnik ab. Die Fähigkeit zur
Verallgemeinerung bedeutet die Fähigkeit, einen Reflexionspunkt
korrekt zu klassifizieren, dessen Klassenzugehörigkeit vorher
nicht bekannt ist.
Das Verfahren kann dahingehend erweitert werden, dass genau die
Frequenzbereiche im Signal ausgewählt werden, mit deren Hilfe
eine für die gegebene Struktur "beste" Klassifikation möglich
ist. Dafür kann dann erneut ein Sendesignal ausgesendet werden,
aber diesmal mit einer nicht konstanten Modulationsfunktion,
sondern mit einer Modulationsfunktion, die hauptsächlich die
Frequenzbereiche enthält, die für eine optimale Klassifikation
("Farbzuordnung") der Reflexionspunkte benötigt werden. Diese
"optimalen" Frequenzbereiche können z. B. mit Hilfe der
Analyseeinheit, die mit dem Klassifikator verbunden ist,
selektiert werden. Genau diese Bereiche werden dann im nächsten
Durchlauf vom Generator erzeugt und gesendet.
Mit diesem Gerät kann deshalb genau der Frequenzbereich, d. h.
das Spektrogramm, ermittelt werden, in dem eine maximale
Reflexion der Sendesignale hervorgerufen wird. Es kann damit
eine akustische Impedanz, durch die die Oberfläche eines
Gegenstandes charakterisiert ist, "scharf" eingestellt werden
bzw. seine "akustische Farbe" genauer bestimmt werden. Über
gänge gleicher "akustischer Farbe" besitzen gleiche Eigen
schaften und werden als gleiche Gegenstände ermittelt. Alle
Reflexionspunkte mit gleichen Eigenschaften können geschlossen
dargestellt werden. Da das sich ergebende Spektrum eine
Eigenschaft ("Farbe") der Oberfläche eines Gegenstandes ist, an
dem die Reflexion erfolgte, spielen die Erfahrungen eines
Betrachters jetzt eine untergeordnete Rolle.
Mit diesem Verfahren ist es also möglich, Objekte wahrzunehmen,
die für das menschliche Auge durch Rauch, Nebel, Dunkelheit,
einen Temperaturvorhang, durch trübes Wasser oder dergleichen
verdeckt sind. Mit dieser Vorrichtung werden alle
Informationen, die über die Objektoberfläche in den Reflexionen
des beliebig modulierten Ultraschalls enthalten sind,
ausgenutzt. Werden gleichzeitig mehrere Sichtgeräte eingesetzt,
können z. B. bei jedem Gerät andere Modulationen der Sende
signale vorgenommen werden, um die Signale zu unterscheiden.
Die Erfindung soll nachfolgend anhand eines Ausführungs
beispiels näher erläutert werden. In den Zeichnungen bedeuten
gleiche Bezugszahlen gleiche oder ähnliche Teile.
Fig. 1A und Fig. 1B zeigen Blockschaltbilder eines aktiven
Ultraschall-Sichtgerätes entsprechend der vorliegenden
Erfindung für den 1D- bzw. 3D-Raum;
Fig. 2 zeigt eine grafische Darstellung zur Erläuterung der
Frequenzverschiebung zwischen dem Sendesignal und dem
Antwortsignal;
Fig. 3 zeigt eine grafische Darstellung der spektralzerlegten
Reflexionssignale;
Fig. 4 zeigt ein Speicher-Schieberegister, wie er in der
Erfindung eingesetzt wird;
Fig. 5 zeigt den prinzipiellen Aufbau eines Adaptive-Grid-
Reconstruction-Prozessor;
Fig. 6 ist eine Darstellung der unterschiedlichen Räume, die
von den Samplingpunkten verschiedener Empfänger gebildet
werden; und
Fig. 7 ist eine Darstellung des durch den Adaptive-Grid-
Reconstruction-Prozessor gebildeten Rasters.
Fig. 1A zeigt ein Blockschaltbild eines aktiven Ultraschall-
Sichtgerätes entsprechend der vorliegenden Erfindung für eine
eindimensionale Anwendung. Das aktive Ultraschall-Sichtgerät
besteht in diesem Fall aus einem Sender 1, der mit einem
Modulator 4, einem Generator 5 und einer Einrichtung zur
Signalkonditionierung 3 gekoppelt ist, und einem Empfängern 2
mit einer Einrichtung zur Signalkonditionierung 3. Das aktive
Ultraschall-Sichtgerät besteht weiterhin aus einer
Zeitsteuerung 10, die die Signalverarbeitung beginnend mit dem
Start des Sendesignals bis zur Darstellung eines
Ultraschallbildes zeitlich steuert. Empfängerseitig folgt der
Einrichtung zur Signalkonditionierung 3 ein Mischer 6, der die
Antwortsignale mit dem Sendesignal mischt, um die
Schwebungsfrequenzen zu erhalten, die die Reflexionen anzeigen.
Auf den Mischer 6 folgt eine Einheit zur spektralen Zerlegung 9
der Schwebungsfrequenzen, z. B. ein akusto-optischer Prozessor.
Die Einheit zur spektralen Zerlegung 9 kann in diesem Fall auch
von einem holographischen Wavelet-Prozessor oder einer anderen
Einheit zur schnellen analogen Spektralzerlegung durchgeführt
werden. Für jeden Reflexionspunkt wird ein Signal erzeugt, das
die Information über den Weg des Signals vom Sender über den
Reflexionspunkt zum Empfänger und das Spektrum des
Reflexionspunktes enthält und das in einem Speicher-
Schieberegister 12 abgelegt wird. Dem Speicher-Schieberegister
12 folgen zwei Schaltungen, die die in den Signalen enthaltenen
Informationen selektieren bzw. bewerten, eine Schaltung zur
Bestimmung der Koordinate 15 des Reflexionspunktes und eine
Schaltung zur Klassifizierung 14 des Reflexionspunktes, die zur
Darstellung auf einem Display 16 geführt werden.
In Fig. 1B ist ein Blockschaltbild eines aktiven Ultraschall-
Sichtgerätes entsprechend der vorliegenden Erfindung für den
3D-Raum und mit einer digitalen Signalverarbeitung dargestellt.
Es kann hier also eine dreidimensionale Darstellung von
Ultraschallbildern erfolgen. Das aktive Ultraschall-Sichtgerät
besteht in diesem Fall aus einem Sender 1 und drei Empfängern
2. Das aktive Ultraschall-Sichtgerät besteht weiterhin aus
einer Zeitsteuerung 10, die die Signalverarbeitung beginnend
mit dem Start des Sendesignals bis zur Darstellung eines
Ultraschallbildes steuert. Je eine Einrichtung zur
Signalkonditionierung 3 ist nach jedem Empfänger 2 angeordnet.
Die Signalkonditionierung 3 balanciert die Ungleichmäßigkeiten
der Reflexionssignale aus, die von den Empfängern 2 empfangen
werden. Der Einrichtung zur Signalkonditionierung 3 folgt je
ein Mischer 6, der die Reflexionssignale jeweils mit dem
Sendesignal mischt, um die Schwebungssignale zu erhalten, die
die Reflexionen anzeigen. Auf den Mischer 6 folgt je ein A/D-
Wandler 7 und eine Einheit zur spektralen Zerlegung 9, die die
Schwebungssignale spektral zerlegen. Die Einheiten zur
spektralen Zerlegung 9 können in diesem Fall durch einen
digitalen Wavelet-Prozessor, eine Fast-Fourier-Transformation
(FFT) oder eine andere Einheit zur schnellen digitalen
Spektralzerlegung erfolgen.
Jeder Kanal der Spektralzerlegung enthält die Information über
den Weg des Signals vom Sender 1 über alle Reflexionspunkte auf
dem Ellipsoiden, der durch diesen Kanal bestimmt ist, zum
Empfänger 2 und das übereinander gelagerte Spektrum dieser
Reflexionspunkte. Diese Signale werden in einem Schieberegister
12 abgelegt. Die Summen der Zellen der Schieberegister 12
werden in einem Speicherregister 13 abgelegt, das Bestandteil
des Adaptive-Grid-Reconstruction-Prozessors ist. Dem Speicher-
Schieberegister 12, 13 folgen zwei Schaltungen, die die in den
Signalen enthaltenen Informationen selektieren und bewerten,
eine Schaltung zur Bestimmung der Koordinate 15 der
Reflexionspunkte und eine Schaltung zur Klassifizierung 14 der
Reflexionspunkte, die zur Darstellung auf einem Display 16
geführt werden.
Die Fig. 2 und Fig. 3 dienen der Erläuterung der Erfassung der
Reflexionssignale. In Fig. 2 ist auf der x-Achse die Zeit, auf
der y-Achse die Frequenz aufgetragen. Das Sendesignal besitzt
die Frequenz , das Reflexionssignal die Frequenz und die
Frequenzverschiebung beträgt Δf. besitzt eine Zeitdauer von
.M = fmax - fmin ist die Deviation des Signals. Das
Reflexionssignal mit den Frequenzen kommt nach einer Zeit
Δt zurück. Es gilt:
Wird eine konstante Schallgeschwindigkeit, wie sie in einem
homogenen Medium vorkommen würde, angenommen, so ist Δf
konstant über die Zeit. Kann Δf gemessen werden, dann kann
der Weg d vom Sender über den Reflexionspunkt zum Empfänger mit
Hilfe der bekannten Größen TM, M, c und Δf berechnet werden. Im
allgemeinen Fall kann die obige Formel durch
ersetzt
werden.
Wird nun das Schwebungssignal spektral zerlegt, so erhält man
Fig. 3. Es sind dieses die Signale, die in jedem Empfänger-
Kanal
getrennt verarbeitet werden. Die Gerade
ergibt sich
getrennt dadurch, dass das Antwortsignal aus verschiedenen
Tiefen der Struktur zu verschiedenen Zeiten am Empfänger
eintrifft.
Bevor jedoch eine FFT oder eine andere schnelle Spektral
zerlegung des Schwebungssignals vorgenommen wird, muss die
Anzahl n der Kanäle festgelegt werden. Mit dieser Zahl n (z. B.
n = 1024) wird eine obere Grenze für die Auflösung des Bildes
gegeben. Für jede Schwebungsfrequenz , i = (l, . . ., n), bekommt man
nun eine Reihe von Amplituden über die Länge des Signals bzw.
vom Zeitpunkt des Aussendens bis zum Empfang des letzten
Signals vom am weitesten entfernten Reflektor. Im Kanal
erhält man eine Superposition von Anteilen dieser
Schwebungsfrequenz in allen Antwortsignalen mit einer
Laufzeit , d. h. von allen Reflektoren, die auf einem
gedachten Ellipsoiden liegen, der Sender und Empfänger als
Brennpunkte hat. Bei einer 1024-kanaligen Spektralzerlegung
(z. B. FFT) werden alle 1024 Kanäle parallel in den Speicher
geführt, d. h. mit jedem Zeitschritt, der durch die
Zeitsteuerung gesteuert wird, werden 1024 Werte eingelesen. Da
die Reflexionssignale aus tieferliegenden Bereichen später
zurückkommen, erhält man die von links nach rechts zunehmende
Verschiebung Δt. Aus dem Speicher-Schieberegister 12, 13
werden Signale an die Rekonstruktionseinheit 15 übergeben, die
jeweils den zurückgelegten Weg jedes einzelnen Antwortsignals
sowie das überlagerte Spektrum aller der Reflexionspunkte
enthält, die auf der Oberfläche des diesem Weg entsprechenden
Ellipsoiden liegen.
Im Speicherregister des Adaptive-Grid-Reconstruction-Prozessors
befinden sich nach der spektralen Zerlegung 9 dann z. B. n = 1024
(n = Anzahl der Kanäle bei der Spektralzerlegung 9) Werte, die
sich wiederum aus der Summe derselben über die Zeit ergeben,
d. h. n = 1024 Amplitudenwerte (Attribute).
Für die Bestimmung der genauen 3D-Positionen, d. h. der
Raumkoordianten der Reflexionspunkte, können bekannte
Rekonstruktionsalgorithmen, wie z. B. Ellipsoide Backprojection
oder Triangulation verwendet werden. Die Verwendung eines
Adaptive-Grid-Reconstruction-Prozessors bietet jedoch einen
entscheidenden Zeitvorteil gegenüber den anderen genannten
Verfahren.
In Fig. 5 ist der Adaptive-Grid-Reconstruction-Prozessor
dargestellt. Der Adaptive-Grid-Reconstruction-Prozessor besteht
aus einem Rastergenerator 19, einer Einheit 18 zur Bestimmung
der Wege der Signale von dem Sender 1 zu den Rasterpunkten und
Einheiten 17 zur Bestimmung der Wege der Signale von den
Rasterpunkten zu den einzelnen Empfängern 2 für jeden
Rasterpunkt, dem bereits erwähnten Speicherregister 13 für die
zum Empfänger 2 gehörenden Summe der Amplitudenwerte der
Reflexionspunkte, einem Sampling-Address-Generator 21 zur
Bestimmung der Adresse des zu dem jeweiligen Empfänger 2
gehörenden Speicherregisters 13 und einer Einheit zur
mathematischen Verknüpfung 22 der aus den Speicherregistern 13
entnommenen Werte, sowie einer Einheit 23 zur Übergabe der δ-
Umgebung und der Samplingfrequenz an den Sampling-Address-
Generator 21.
Durch den Adaptive-Grid-Reconstruction-Prozessor wird zuerst
ein virtuelles euklidisches Raster über das Beschallungsvolumen
gelegt, wobei ein Raster mit gleichmäßigen Abständen (optimal
im Samplingabstand) zwischen den Punkten in horizontaler und
vertikaler Richtung vorteilhaft ist. Dazu sind Sender 1 und
Empfänger 2 mit einem Rastergenerator 19 gekoppelt. Fig. 7
zeigt ein solches Raster der einfacheren Darstellung wegen hier
in 2D.
Aus den x, y, z-Koordinaten der Rasterpunkte können dann die
Wege vom Sender 1 zum Rasterpunkt (R0) sowie die Wege vom
Rasterpunkt zum jeweiligen Empfänger 2 (R1, R2, R3 bei 3
Empfängern) mit Hilfe des Satzes des Pythagoras abgeleitet
werden. Die Summen dieser errechneten Wege R0+R1, R0+R2 und
R0+R3 entsprechen aber nicht notwendig einem Samplingpunkt im
Antwortsignal. Wie bereits beschrieben bilden die
Samplingpunkte der Antwortsignale jedes Kanals einen eigenen
Raum, der nicht linear auf den Raum der Samplingpunkte eines
anderen Kanals abgebildet werden kann. Zur Veranschaulichung
dieses Effektes dient die Fig. 6. Deshalb ist eine Einheit zur
Festlegung einer δ-Umgebung für jeden Rasterpunkt 23
vorgesehen. Für alle Samplingpunkte, die innerhalb dieser δ-
Umgebung liegen, werden mit Hilfe der Einheit zur
mathematischen Verknüpfung 22 die Amplitudenwerte gemittelt.
Wenn δ groß ist, erhält man eine Glättung. Wenn δ kleiner ist
als √3/2 mal dem Rasterabstand im 3D-Raster (1/√2 mal dem
Rasterabstand im 2D-Raster, gehen Informationen verloren.
Hieraus ergibt sich ein einfacher Weg für das "Zoom-out", bei
dem Speicherplatz gespart werden kann. Hierfür kann das Raster
von vornherein grober gewählt werden. Dann werden nur die zu
diesen Rasterpunkten gehörigen Wege R0+R1, R0+R2 und R0+R3
berechnet. Je nach Rastergröße wird dann über eine entsprechend
höhere Anzahl von Samplingpunkten gemittelt.
Analog kann man vorgehen, wenn eine höhere Detailgenauigkeit
erreicht werden soll. Angenommen, die Samplingfrequenz ist
kleiner als die Nyquistfrequenz des Empfangssignals. Dann
treten laut dem Abtasttheorem Aliasing-Effekte auf. Bei einer
geschickten Filterung und der Wahl des Rasterabstandes ist
dieses jedoch nicht als Störfaktor anzusehen. Dann ist die
Rastergröße durch diesen Samplingabstand nach unten beschränkt.
Ist die Samplingfrequenz größer, z. B. durch Oversampling, dann
kann hier eine noch größere Detailgenauigkeit erreicht werden,
da dann in dem entsprechend kleineren Rasterausschnitt (Voxel)
immer noch Samplingpunkte enthalten sind, die Information
beinhalten.
Da auch hier genau wie im analogen Fall die Spektren aller
Punkte überlagert sind, die auf einem Ellipsoiden liegen,
müssen auch hier wie bei der Computer-Tomographie für jeden
Kanal des Spektrums Rückprojektionen durchgeführt werden, die
das Spektrum jedes einzelnen darzustellenden Punktes liefern.
Die Klassifikationseinheit 14 ist mit der
Rekonstruktionsschaltung 15 gekoppelt und bewertet die Spektren
der einzelnen Reflexionspunkte, die gemäß Fig. 4 im Speicher-
Schieberegister 12, 13 gespeichert sind. Abhängig von den
Eigenschaften der Reflexionspunkte treten in den
Reflexionssignalen Veränderungen auf. Falls diese Veränderungen
und damit der Charakter der Reflexionspunkte bereits bekannt
ist, können die Eigenschaften für die Visualisierung
entsprechend gekennzeichnet werden. Die Koordinaten der
einzelnen Reflexionspunkte und deren Eigenschaften werden
danach auf einem Display 16 zusammengeführt.
Für die Visualisierung kommen hauptsächlich zwei Möglichkeiten
in Frage, zum einen die stereoskopische Visualisierung (z. B.
für Personen oder Roboter) oder die direkte dreidimensionale
Darstellung (z. B. für die Kartographie), die zweidimensional
erfolgt.
Um die ausgesendete Energie zu verringern, kann erneut ein
Sendesignal ausgesendet werden, das aber diesmal mit einer
nicht konstanten Modulationsfunktion moduliert ist, bei der
hauptsächlich nur die Frequenzbereiche enthalten sind, die für
eine optimale Klassifikation ("Farbzuordnung") der
Reflexionspunkte benötigt werden.
1
Sender
2
Empfänger
3
Signalkonditionierung
4
Modulator
5
Generator
6
Mischer
7
A/D-Wandler
8
9
spektrale Zerlegung
10
Zeitsteuerung
11
12
Schieberegister
13
Speicherregister
14
Schaltung zur Klassifizierung
15
Schaltung zur Bestimmung der Koordinaten
16
Display
Claims (12)
1. Aktives Ultraschall-Sichtgerät mit mindestens einem Sender
zum Aussenden eines Sendesignals mit einer beliebigen
bekannten Modulationsfunktion und einer mediumabhängigen
Bandbreite des Signals, mindestens einem in einer
bekannten Position dazu angeordneten Empfänger, denen
jeweils eine erste Signalverarbeitungseinheit zur n-
kanaligen spektralen Zerlegung der von den Empfängern
aufgenommenen Antwortsignale aus dem Medium und einem
Speicher-Schieberegister nachgeordnet ist, einer zweiten
Signalverarbeitungseinheit zur Bestimmung der
Raumkoordinaten der Reflexionspunkte und einem Display.
2. Aktives Ultraschall-Sichtgerät nach Anspruch 1, bei dem
die Empfänger symmetrisch zum Sender angeordnet sind.
3. Aktives Ultraschall-Sichtgerät nach Anspruch 1 oder 2, bei
dem den Empfängern jeweils ein Mischer zur Erzeugung der
Schwebungsfrequenz zwischen dem Sendesignal und dem
Antwortsignalen nachgeordnet ist.
4. Aktives Ultraschall-Sichtgerät nach einem der Ansprüche 1
bis 3, bei dem jeweils vor den ersten Signalverarbeitungs
einheiten zur n-kanaligen spektralen Zerlegung ein A/D-
Wandler vorgesehen ist.
5. Aktives Ultraschall-Sichtgerät nach einem der Ansprüche 1
bis 4, bei dem dem Speicher-Schieberegister ein
Klassifikator nachgeordnet ist.
6. Aktives Ultraschall-Sichtgerät nach Anspruch 5, bei dem
dem Klassifikator eine Vorverarbeitungseinheit
vorgeschaltet ist.
7. Aktives Ultraschall-Sichtgerät nach Anspruch 5 oder 6, bei
dem dem Klassifikator eine Analyseeinheit nachgeschaltet
ist.
8. Aktives Ultraschall-Sichtgerät nach einem der Ansprüche 5
bis 7, bei dem der Klassifikator ein statistischer
Klassifikator, wie ein neuronales Netz, eine Support-
Vector-Machine oder dergleichen darstellt.
9. Aktives Ultraschall-Sichtgerät nach einem der Ansprüche 1
bis 3, bei dem die erste Signalverarbeitungseinheit zur n-
kanaligen spektralen Zerlegung ein akusto-optischer
Prozessor, ein holographischer Wavelet-Prozessor oder ein
ähnlicher analoger Prozessor zur Spektralzerlegung
darstellt.
10. Aktives Ultraschall-Sichtgerät nach Anspruch 4, bei dem
die erste Signalverarbeitungseinheit zur spektralen
Zerlegung ein Fast-Fourier-Prozessor, ein digitaler
Wavelet-Prozessor oder ein ähnlicher digitaler Prozessor
zur Spektralzerlegung darstellt.
11. Aktives Ultraschall-Sichtgerät nach Anspruch 4, bei dem
die zweite Signalverarbeitungseinheit zur Bestimmung der
Raumkoordinaten aus einem Adaptive-Grid-Reconstruction-
Prozessor besteht.
12. Adaptive-Grid-Reconstruction-Prozessor bestehend aus
einem Rastergenerator, einer Einheit zur Bestimmung der
Wege der Signale von dem Sender zu den Rasterpunkten und
von den Rasterpunkten zu den einzelnen Empfängern für
jeden Rasterpunkt, einer Speicherzeile für die zum
Empfänger gehörenden Summen aller Amplitudenwerte über die
Kanäle der n-kanaligen spektralen Zerlegung, einem
Sampling-Address-Generator zur Bestimmung der Adresse der
Amplitudenwerte innerhalb der zum Empfänger gehörenden
Speicherzeile, und einer Einheit zur mathematischen
Verknüpfung der aus den Speicherzeilen entnommenen
Amplitudenwerte.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE2000127828 DE10027828A1 (de) | 2000-06-05 | 2000-06-05 | Aktives Ultraschall-Sichtgerät |
PCT/EP2001/004917 WO2001094976A1 (de) | 2000-06-05 | 2001-05-02 | Aktives ultraschall-sichtgerät |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE2000127828 DE10027828A1 (de) | 2000-06-05 | 2000-06-05 | Aktives Ultraschall-Sichtgerät |
Publications (1)
Publication Number | Publication Date |
---|---|
DE10027828A1 true DE10027828A1 (de) | 2001-12-06 |
Family
ID=7644769
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE2000127828 Withdrawn DE10027828A1 (de) | 2000-06-05 | 2000-06-05 | Aktives Ultraschall-Sichtgerät |
Country Status (2)
Country | Link |
---|---|
DE (1) | DE10027828A1 (de) |
WO (1) | WO2001094976A1 (de) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP1464988A1 (de) * | 2003-04-03 | 2004-10-06 | Mitsubishi Electric Information Technology Centre Europe B.V. | Laufzeitdifferenzbestimmung in verteilten Sensornetzwerken |
WO2007020763A1 (en) | 2005-08-19 | 2007-02-22 | Mitsubishi Electric Corporation | Computer implemented method for identifying a moving object by using a statistical classifier |
WO2010095077A1 (en) * | 2009-02-20 | 2010-08-26 | Koninklijke Philips Electronics, N.V. | Ultrasonic sensors for tracking objects even in a light dispersive media |
WO2012066541A3 (en) * | 2010-11-16 | 2012-07-19 | Epos Development Ltd. | System and method for object position estimation based on ultrasonic reflected signals |
EP3579020A1 (de) * | 2018-06-05 | 2019-12-11 | Elmos Semiconductor Aktiengesellschaft | Verfahren zur erkennung eines hindernisses mit hilfe von reflektierten ultraschallwellen |
WO2021224001A1 (de) | 2020-05-06 | 2021-11-11 | Robert Bosch Gmbh | Verfahren zur bestimmung der position von objekten unter verwendung von ultraschall und fahrerassistenzsystem zur bestimmung der position eines objekts in der umgebung eines fahrzeugs |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5111823A (en) * | 1989-04-20 | 1992-05-12 | National Fertility Institute | Apparatus and method for generating echographic images |
US5235857A (en) * | 1986-05-02 | 1993-08-17 | Forrest Anderson | Real time 3D imaging device using filtered ellipsoidal backprojection with extended transmitters |
DE4331020A1 (de) * | 1992-12-08 | 1994-06-09 | Siemens Ag | Ultraschall-Abbildungseinrichtung |
US5729660A (en) * | 1994-05-03 | 1998-03-17 | Chiabrera; Alessandro | 3-D inverse scattering by artificial intelligence : apparatus and method |
US5842991A (en) * | 1997-02-20 | 1998-12-01 | Barabash; Leonid S. | Ultrasound transducer with extended field of view |
DE19915583A1 (de) * | 1999-04-07 | 2000-10-12 | Miroslaw Wrobel | Vorrichtung und Verfahren für die 3D-Echtzeitsonographie |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP0008455B1 (de) * | 1978-08-21 | 1984-03-14 | Leslie Kay | Verfahren und Einrichtung zum Anzeigen des Vorhandenseins oder der Lage von Objekten |
US5601083A (en) * | 1986-05-02 | 1997-02-11 | Anderson; Forrest | Real time 3D imaging device using filtered ellipsoidal backprojection |
US5611343A (en) * | 1995-04-05 | 1997-03-18 | Loral Aerospace Corp. | High resolution three-dimensional ultrasound imaging |
US5966169A (en) * | 1997-03-15 | 1999-10-12 | Bullis; James K. | Three dimensional beamformed television |
-
2000
- 2000-06-05 DE DE2000127828 patent/DE10027828A1/de not_active Withdrawn
-
2001
- 2001-05-02 WO PCT/EP2001/004917 patent/WO2001094976A1/de active Application Filing
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5235857A (en) * | 1986-05-02 | 1993-08-17 | Forrest Anderson | Real time 3D imaging device using filtered ellipsoidal backprojection with extended transmitters |
US5111823A (en) * | 1989-04-20 | 1992-05-12 | National Fertility Institute | Apparatus and method for generating echographic images |
DE4331020A1 (de) * | 1992-12-08 | 1994-06-09 | Siemens Ag | Ultraschall-Abbildungseinrichtung |
US5729660A (en) * | 1994-05-03 | 1998-03-17 | Chiabrera; Alessandro | 3-D inverse scattering by artificial intelligence : apparatus and method |
US5842991A (en) * | 1997-02-20 | 1998-12-01 | Barabash; Leonid S. | Ultrasound transducer with extended field of view |
DE19915583A1 (de) * | 1999-04-07 | 2000-10-12 | Miroslaw Wrobel | Vorrichtung und Verfahren für die 3D-Echtzeitsonographie |
Cited By (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP1464988A1 (de) * | 2003-04-03 | 2004-10-06 | Mitsubishi Electric Information Technology Centre Europe B.V. | Laufzeitdifferenzbestimmung in verteilten Sensornetzwerken |
US7170820B2 (en) | 2003-04-03 | 2007-01-30 | Mitsubishi Denki Kabushiki Kaisha | Determination of time difference of arrival in distributed sensor networks |
US7616526B2 (en) | 2003-04-03 | 2009-11-10 | Mitsubishi Denki Kabushiki Kaisha | Determination of time difference of arrival in distributed sensor networks |
WO2007020763A1 (en) | 2005-08-19 | 2007-02-22 | Mitsubishi Electric Corporation | Computer implemented method for identifying a moving object by using a statistical classifier |
US7821870B2 (en) | 2005-08-19 | 2010-10-26 | Mitsubishi Electric Research Laboratories Inc. | Method and system for identifying moving objects using acoustic signals |
CN101223456B (zh) * | 2005-08-19 | 2011-12-07 | 三菱电机株式会社 | 利用统计分类器识别移动对象的计算机实现的方法 |
WO2010095077A1 (en) * | 2009-02-20 | 2010-08-26 | Koninklijke Philips Electronics, N.V. | Ultrasonic sensors for tracking objects even in a light dispersive media |
CN103229071A (zh) * | 2010-11-16 | 2013-07-31 | 高通股份有限公司 | 用于基于超声反射信号的对象位置估计的系统和方法 |
WO2012066541A3 (en) * | 2010-11-16 | 2012-07-19 | Epos Development Ltd. | System and method for object position estimation based on ultrasonic reflected signals |
CN103229071B (zh) * | 2010-11-16 | 2015-09-23 | 高通股份有限公司 | 用于基于超声反射信号的对象位置估计的系统和方法 |
EP2930530A1 (de) * | 2010-11-16 | 2015-10-14 | Qualcomm Incorporated | System und Verfahren zur Lagebestimmung eines Objektes auf Basis von reflektierten Ultraschallsignalen |
US9810784B2 (en) | 2010-11-16 | 2017-11-07 | Qualcomm Incorporated | System and method for object position estimation based on ultrasonic reflected signals |
EP3579020A1 (de) * | 2018-06-05 | 2019-12-11 | Elmos Semiconductor Aktiengesellschaft | Verfahren zur erkennung eines hindernisses mit hilfe von reflektierten ultraschallwellen |
CN110568444A (zh) * | 2018-06-05 | 2019-12-13 | 艾尔默斯半导体股份公司 | 通过反射超声波检测障碍物的方法 |
US11117518B2 (en) | 2018-06-05 | 2021-09-14 | Elmos Semiconductor Se | Method for detecting an obstacle by means of reflected ultrasonic waves |
CN110568444B (zh) * | 2018-06-05 | 2024-11-15 | 艾尔默斯半导体股份公司 | 通过反射超声波检测障碍物的方法 |
WO2021224001A1 (de) | 2020-05-06 | 2021-11-11 | Robert Bosch Gmbh | Verfahren zur bestimmung der position von objekten unter verwendung von ultraschall und fahrerassistenzsystem zur bestimmung der position eines objekts in der umgebung eines fahrzeugs |
DE102020205683A1 (de) | 2020-05-06 | 2021-11-11 | Robert Bosch Gesellschaft mit beschränkter Haftung | Verfahren zur Bestimmung der Position von Objekten unter Verwendung von Ultraschall und Fahrerassistenzsystem zur Bestimmung der Position eines Objekts in der Umgebung eines Fahrzeugs |
Also Published As
Publication number | Publication date |
---|---|
WO2001094976A1 (de) | 2001-12-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE69127968T2 (de) | Dreidimensionales echtzeit-sensorsystem | |
DE102014104712B4 (de) | Registrierung einer in Cluster zerfallenden Szene mit visualisierten Clustern | |
DE69707886T2 (de) | Verfahren und gerät zum lokalisieren einer sich bewegenden zone und bestimmung der schnellheit und richtung der bewegung eines gebietes von relativer bewegung in einer szene | |
DE3686401T2 (de) | Darstellung von stromlinien in inhomogenen medien. | |
EP3014569B1 (de) | Inspektion der konturierten fläche des unterbodens eines kraftfahrzeugs | |
DE102018132805A1 (de) | Verfahren für eine verbesserte Objekterfassung | |
DE102019127283A1 (de) | System und Verfahren zum Erfassen eines Objekts in einer dreidimensionalen Umgebung eines Trägerfahrzeugs | |
DE102019105630B4 (de) | Anzeigesteuervorrichtung, Fahrzeugumgebungsanzeigesystem und Computerprogramm | |
EP4118628A2 (de) | Verfahren und vorrichtung zum präzisen auswählen einer raumkoordinate mittels eines digitalen bildes | |
EP3921819B1 (de) | Überwachungsvorrichtung und verfahren zur man-overboard-überwachung eines schiffsabschnitts | |
DE10027828A1 (de) | Aktives Ultraschall-Sichtgerät | |
DE112019007225B4 (de) | Fahrzeugumgebungsbilderzeugungsvorrichtung, Fahrzeugumgebungsanzeigesystem und Fahrzeugumgebungsanzeigeverfahren | |
DE102014116904B4 (de) | Verfahren zum optischen Abtasten und Vermessen einer Szene und zur automatischen Erzeugung einesVideos | |
DE69322921T2 (de) | Verbesserte Signalprozessor und Anzeigesystem für Sonaranlagen | |
DE10311497B3 (de) | Verfahren zur synthetischen Generierung von Sonardaten | |
DE10049366A1 (de) | Verfahren zum Überwachen eines Sicherheitsbereichs und entsprechendes System | |
EP3352139B1 (de) | Verfahren zur darstellung einer umgebung eines fahrzeuges | |
DE102014104713A1 (de) | Registrierung einer in Cluster zerfallenden Szene mit Paaren von Scans | |
EP1522874A1 (de) | Manövrierhilfe für Kraftfahrzeuge | |
EP4402429A1 (de) | Verfahren und vorrichtung zur messung von tiefeninformationen einer szene anhand von mittels zumindest einer parallelstrahlungsquelle generiertem strukturierten licht | |
DE4137510C2 (de) | Scanner zur Untersuchung von Prüfobjekten | |
DE112021001664T5 (de) | Erkennungsverarbeitungssystem, erkennungsverarbeitungsvorrichtung und erkennungsverarbeitungsverfahren | |
DE10048308A1 (de) | Verfahren und Vorrichtung zum Klassifizieren von Objekten aus als Pixelmuster vorliegenden eingangsseitigen Bilddaten | |
DE102019102423A1 (de) | Verfahren zur Live-Annotation von Sensordaten | |
DE102020106014A1 (de) | Unterscheiden und schätzen der geschwindigkeiten mehrerer objekte mit hilfe eines mehrknoten-radarsystems |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
OM8 | Search report available as to paragraph 43 lit. 1 sentence 1 patent law | ||
8139 | Disposal/non-payment of the annual fee |