DE102016105891A1 - Handgehaltene Vorrichtung, Objektpositionierungsverfahren und computerlesbares Aufzeichnungsmedium - Google Patents
Handgehaltene Vorrichtung, Objektpositionierungsverfahren und computerlesbares Aufzeichnungsmedium Download PDFInfo
- Publication number
- DE102016105891A1 DE102016105891A1 DE102016105891.2A DE102016105891A DE102016105891A1 DE 102016105891 A1 DE102016105891 A1 DE 102016105891A1 DE 102016105891 A DE102016105891 A DE 102016105891A DE 102016105891 A1 DE102016105891 A1 DE 102016105891A1
- Authority
- DE
- Germany
- Prior art keywords
- depth
- image
- type
- azimuth
- positioning method
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/02—Systems using reflection of radio waves, e.g. primary radar systems; Analogous systems
- G01S13/06—Systems determining position data of a target
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/86—Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
- G01S13/867—Combination of radar systems with cameras
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/02—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
- G01S7/41—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
- G01S7/411—Identification of targets based on measurements of radar reflectivity
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/02—Systems using reflection of radio waves, e.g. primary radar systems; Analogous systems
- G01S13/06—Systems determining position data of a target
- G01S13/08—Systems for measuring distance only
- G01S13/10—Systems for measuring distance only using transmission of interrupted, pulse modulated waves
Landscapes
- Engineering & Computer Science (AREA)
- Remote Sensing (AREA)
- Radar, Positioning & Navigation (AREA)
- Physics & Mathematics (AREA)
- Computer Networks & Wireless Communication (AREA)
- General Physics & Mathematics (AREA)
- Radar Systems Or Details Thereof (AREA)
- Electromagnetism (AREA)
- Measurement Of Velocity Or Position Using Acoustic Or Ultrasonic Waves (AREA)
Abstract
Es wird eine handgehaltene Vorrichtung, ein Objektpositionierungsverfahren davon und ein computerlesbares Aufzeichnungsmedium bereitgestellt. Die handgehaltene Vorrichtung umfasst einen Radarsensor, einen Bildsensor und eine Steuereinheit. Der Radarsensor emittiert eine Detektionswelle und empfängt eine reflektierte Welle, erzeugt von einem Objekt durch das Reflektieren der Detektionswelle. Jedes Objekt erzeugt eine der reflektierten Wellen. Der Bildsensor erfasst ein Bild. Das Bild umfasst eine Untermenge der Objekte. Die Steuereinheit extrahiert eine Wellenformsignatur jeder reflektierten Welle, erkennt die Wellenformsignatur in einem Zeitbereich und einem Frequenzbereich, um einen ersten Typ jedes Objekts zu bestimmen, erhält eine erste Position des Objekts gemäß der reflektierten Welle, erhält einen zweiten Typ und eine zweite Position jedes Objekts gemäß dem ersten Bild und führt Objekt-Mapping durch, um die erste Position und die zweite Position des Objekts zu kombinieren oder zu vergleichen.
Description
- HINTERGRUND DER ERFINDUNG
- Gebiet der Erfindung
- Die Erfindung bezieht sich auf eine Positionierungsmethode und insbesondere bezieht sie sich auf eine handgehaltene Vorrichtung, ein Objektpositionierungsverfahren und ein nicht transitorisches computerlesbares Aufzeichnungsmedium.
- Beschreibung verwandter Techniken
- Es gibt viele Anwendungen für dreidimensionale Szenen (3D-Szenen), zum Beispiel virtuelle Realität oder erneutes Scharfstellen einer Vielzahl von Objekten in einem Bild, und diese Anwendungen erfreuen nach und nach größere Beliebtheit bei handgehaltenen Vorrichtungen wie etwa Smartphones etc. und diese Anwendungen erfordern alle das Detektieren oder Berechnen von Positionen einer Vielzahl von Objekten in einem 3D-Raum.
- Ein Radar kann zum Detektieren einer Position eines Objekts im 3D-Raum verwendet werden, allerdings wird in einem Radardetektionssystem mit einer einzigen Richtantenne eine relative Position eines bestimmten Objekts innerhalb eines wirksamen Strahlungsbereichs der Antenne lediglich gemäß einer Ankunftszeit (Time of Arrival, TOA) abgeleitet. Soll eine Position eines bestimmten Objekts, zum Beispiel einer Person, eines Fahrzeugs, eines Gebäudes etc., in dem 3D-Raum erhalten werden, muss zum Durchführen von Strahlabtastung eine Gruppenantenne verwendet werden. Unabhängig von dem Antennenentwurf oder der Back-End-Betriebsverarbeitung ist die Implementierung des obigen Verfahrens in den handgehaltenen Vorrichtungen schwierig.
- Manche hochwertigen handgehaltenen Vorrichtungen weisen zwei Bildsensoren auf, die zur Simulation der menschlichen Augen zum Erfassen von Stereobildern verwendet werden können. Diese handgehaltenen Vorrichtungen können die Stereobilder analysieren, indem ein Bildverarbeitungsalgorithmus verwendet wird, um eine allgemeine Situation des 3D-Raums zu deduzieren. Allerdings ist es im Falle einer komplexen Umgebung, zum Beispiel bei zu vielen ähnlichen Objekten in den Bildern oder wenn zu monotone Bilder ohne besondere Merkmale erfasst werden oder wenn ein charakteristisches Objekt, das verglichen werden soll, in einem der Bilder aufgrund unterschiedlicher Sichtwinkel verdeckt ist, schwierig, ein korrektes Schätzungsergebnis gemäß dem obigen Verfahren zu erhalten.
- ZUSAMMENFASSUNG DER ERFINDUNG
- Die Erfindung richtet sich auf eine handgehaltene Vorrichtung, ein Objektpositionierungsverfahren und ein computerlesbares Aufzeichnungsmedium. In der Erfindung wird eine vollständige und genaue Positionierung eines Objekts oder einer Vielzahl von Objekten im dreidimensionalen (3D) Raum in einer handgehaltenen Vorrichtung implementiert
- Die Erfindung stellt eine handgehaltene Vorrichtung bereit, die mindestens einen Radarsensor, einen Bildsensor und eine Steuereinheit umfasst. Der Radarsensor emittiert eine Detektionswelle und empfängt mindestens eine reflektierte Welle, erzeugt von mindestens einem Objekt durch das Reflektieren der Detektionswelle. Jedes des mindestens einen Objekts erzeugt eine der mindestens einen reflektierten Welle. Der Bildsensor erfasst ein Bild. Das Bild umfasst eine Untermenge des mindestens einen Objekts. Die Steuereinheit ist an den Radarsensor und den Bildsensor gekoppelt. Die Steuereinheit extrahiert eine Wellenformsignatur von jeder der mindestens einen reflektierten Welle und erkennt jeweils die Wellenformsignatur in einem Zeitbereich und einem Frequenzbereich, um einen ersten Typ von jedem von dem mindestens einen Objekt zu bestimmen, die Steuereinheit erhält eine erste Position von jedem von dem mindestens einen Objekt gemäß der mindestens einen reflektierten Welle, erhält einen zweiten Typ und eine zweite Position von jedem von dem mindestens einen Objekt gemäß dem Bild und führt einen Mapping-Vorgang basierend auf dem ersten Typ, dem zweiten Typ, der ersten Position und der zweiten Position von jedem von dem mindestens einen Objekt durch, um die erste Position und die zweite Position des mindestens einen Objekts zu kombinieren oder zu vergleichen.
- Die Erfindung stellt ein Objektpositionierungsverfahren bereit, das die folgenden Schritte beinhaltet. Eine Detektionswelle wird emittiert und mindestens eine reflektierte Welle, erzeugt von mindestens einem Objekt durch das Reflektieren der Detektionswelle, wird empfangen, wobei jedes von dem mindestens einen Objekt eine der mindestens einen reflektierten Welle erzeugt. Ein Bild wird erfasst, wobei das Bild eine Untermenge des mindestens einen Objekts umfasst. Eine Wellenformsignatur von jeder der mindestens einen reflektierten Welle wird extrahiert und die Wellenformsignatur wird jeweils in einem Zeitbereich und einem Frequenzbereich erkannt, um einen ersten Typ von jedem von dem mindestens einen Objekt zu bestimmen. Eine erste Position von jedem von dem mindestens einen Objekt wird gemäß der mindestens einen reflektierten Welle erhalten. Ein zweiter Typ und eine zweite Position von jedem von dem mindestens einen Objekt werden gemäß dem Bild erhalten. Ein Mapping-Vorgang wird basierend auf dem ersten Typ, dem zweiten Typ, der ersten Position und der zweiten Position von jedem von dem mindestens einen Objekt durchgeführt, um die erste Position und die zweite Position des mindestens einen Objekts zu kombinieren oder zu vergleichen.
- Die Erfindung stellt ein nicht transitorisches computerlesbares Aufzeichnungsmedium, auf dem ein Computerprogramm gespeichert ist, bereit. Nachdem eine handgehaltene Vorrichtung das Computerprogramm lädt und ausführt, wird das oben erwähnte Objektpositionierungsverfahren implementiert.
- Gemäß den obigen Beschreibungen werden der einfache Radarsensor und Bildsensor zusammen verwendet, um eine vollständige und genaue Positionierung eines Objekts oder einer Vielzahl von Objekten im 3D-Raum in der handgehaltenen Vorrichtung zu implementieren.
- Um die zuvor erwähnten und andere Merkmale und Vorteile der Erfindung verständlich zu machen, sind nachfolgend mehrere, von Figuren begleitete, beispielhafte Ausführungsformen detailliert beschrieben.
- KURZBESCHREIBUNG DER FIGUREN
- Die begleitenden Zeichnungen sind beigefügt, um ein tieferes Verständnis der Erfindung bereitzustellen und sind in diese Patentschrift mit aufgenommen und stellen einen Teil derselben dar. Die Zeichnungen veranschaulichen Ausführungsformen der Erfindung und dienen zusammen mit der Beschreibung der Erläuterung der Grundsätze der Erfindung.
-
1 ist eine schematische Darstellung einer handgehaltenen Vorrichtung gemäß einer Ausführungsform der Erfindung. -
2 ist eine schematische Darstellung von Tiefen und Azimuten einer Vielzahl von Objekten gemäß einer Ausführungsform der Erfindung. -
3 bis5 sind Ablaufdiagramme, die Objektpositionierungsverfahren gemäß einer Vielzahl von Ausführungsformen der Erfindung veranschaulichen. - BESCHREIBUNG DER AUSFÜHRUNGSFORMEN
-
1 ist eine schematische Darstellung einer handgehaltenen Vorrichtung100 gemäß einer Ausführungsform der Erfindung. Die handgehaltene Vorrichtung100 kann eine handgehaltene elektronische Vorrichtung wie etwa ein Smartphone, einen Tablet Personal Computer (PC) etc. sein. Die handgehaltene Vorrichtung100 umfasst einen Radarsensor120 , einen Bildsensor140 und eine Steuereinheit160 . Die Steuereinheit160 ist an den Radarsensor120 und den Bildsensor140 gekoppelt. - Der Radarsensor
120 kann eine Detektionswelle emittieren, zum Beispiel emittiert er eine Detektionswelle in Form einer kontinuierlichen Impulsfolge125 . Die Detektionswelle kann eine elektromagnetische Welle oder eine Ultraschallwelle sein. Die handgehaltene Vorrichtung100 kann von einem Objekt oder einer Vielzahl von Objekten umgeben sein. Der Radarsensor120 kann mindestens eine reflektierte Welle, erzeugt von dem mindestens einen Objekt durch das Reflektieren der Detektionswelle, empfangen. Jedes der Objekte kann eine reflektierte Welle erzeugen. Ist die handgehaltene Vorrichtung100 ein Smartphone, kann der Radarsensor120 durch eine Antenne der handgehaltenen Vorrichtung100 implementiert sein. - Der Bildsensor
140 kann ein Bild erfassen und das Bild umfasst eine Untermenge der oben erwähnten Objekte. Eingeschränkt durch ein Sichtfeld (Field of View, FOV) des Bildsensors140 kann die Untermenge alle oben erwähnten Objekte umfassen oder einen Teil der oben erwähnten Objekte umfassen oder keines der Objekte umfassen. - Die Steuereinheit
160 kann einen ersten Typ T1 und eine erste Position P1 jedes Objekts gemäß den reflektierten Wellen der oben erwähnten Objekte erhalten. Die Steuereinheit160 kann auch einen zweiten Typ T2 und eine zweite Position P2 jedes Objekts gemäß dem erfassten Bild erhalten. Dann führt die Steuereinheit160 ein Objekt-Mapping durch. Das sogenannte „Objekt-Mapping“ dient dazu, einen Mapping-Vorgang basierend auf dem ersten Typ T1, dem zweiten Typ T2, der ersten Position P1 und der zweiten Position P2 jedes Objekts durchzuführen, um die erste Position P1 und die zweite Position P2 des Objekts zu kombinieren oder zu vergleichen. - Zum Beispiel kann die erste Position P1 eine Tiefe (d. h. ein Abstand) des Objekts relativ zu der handgehaltenen Vorrichtung
100 sein und die zweite Position P2 kann ein Azimut des Objekts relativ zu der handgehaltenen Vorrichtung100 sein.2 ist eine Ansicht der sich vor der handgehaltenen Vorrichtung100 befindenden Objekte201 –204 gemäß einer Ausführungsform der Erfindung von oben. Die Objekte201 –204 weisen die entsprechenden Tiefen D1–D4 und Azimute θ1–θ4 auf. - Die handgehaltene Vorrichtung
100 kann eine Wellenformsignaturdatenbank umfassen. Die Wellenformsignaturdatenbank speichert eine Vielzahl von Wellenformsignaturen und einen Objekttyp, der jeder der Wellenformsignaturen entspricht. Die Steuereinheit160 kann eine Wellenformsignatur der reflektierten Welle von jedem der Objekte extrahieren und erkennt jeweils die Wellenformsignatur in einem Zeitbereich und einem Frequenzbereich gemäß der Wellenformsignaturdatenbank, um den ersten Typ T1 jedes Objekts zu bestimmen. Der erste Typ T1 kann ein Mensch, Fahrzeug oder Gebäude etc. sein. Zudem kann die Steuereinheit160 die Tiefe P1 jedes Objekts gemäß einer Ankunftszeit der reflektierten Welle des Objekts berechnen. Auf diese Weise werden die erhaltenen ersten Typen T1 und die Tiefen P1 als folgende Tabelle gezeigt.Objekt 201 202 203 204 Erster Typ T1 A B C D Tiefe P1 D2 D4 D3 D1 - Die handgehaltene Vorrichtung
100 kann auch eine Bildsignaturdatenbank umfassen. Die Bildsignaturdatenbank speichert eine Vielzahl von Bildsignaturen und einen jeder Bildsignatur entsprechenden Objekttyp. Die Steuereinheit160 kann ein Schwellenwertverfahren und eine Kantendetektion hinsichtlich jedes Objekts in dem Bild durchführen, um die Bildsignatur des Objekts zu extrahieren. Dann identifiziert die Steuereinheit160 die Bildsignatur gemäß der Bildsignaturdatenbank, um den zweiten Typ T2 jedes Objekts zu bestimmen. Der zweite Typ T2 kann ein Mensch, Fahrzeug oder Gebäude etc. sein. Zudem kann die Steuereinheit160 den Azimut P2 jedes Objekts gemäß der Position des Objekts in dem Bild erhalten. Auf diese Weise werden die erhaltenen zweiten Typen T2 und die Azimute P2 als folgende Tabelle gezeigt.Objekt 201 202 203 204 Zweiter Typ T2 A B C D Azimut P2 θ1 θ2 θ3 θ4 - Falls die Bestimmungsergebnisse des ersten Typs T1 und des zweiten Typs T2 jedes Objekts dieselben sind, kann das Objekt-Mapping durchgeführt werden, um die Tiefe P1 und den Azimut P2 des Objekts zu kombinieren, um eine vollständige Raumposition jedes Objekts zu erhalten, die in der folgenden Tabelle gezeigt ist.
Objekt 201 202 203 204 Tiefe P1 D2 D4 D3 D1 Azimut P2 θ1 θ2 θ3 θ4 -
3 ist ein Ablaufdiagramm, das ein Objektpositionierungsverfahren gemäß einer Ausführungsform der Erfindung veranschaulicht. Bei der vorliegenden Ausführungsform ist die erste Position P1 jedes Objekts eine Tiefe des Objekts relativ zu der handgehaltenen Vorrichtung100 , und die zweite Position P2 jedes Objekts ist ein Azimut des Objekts relativ zu der handgehaltenen Vorrichtung100 . In Schritt305 emittiert der Radarsensor120 eine Detektionswelle und empfängt reflektierte Wellen der Objekte. In Schritt310 extrahiert die Steuereinheit160 eine Wellenformsignatur der reflektierten Welle jedes Objekts. In Schritt315 erkennt die Steuereinheit160 die Wellenformsignatur gemäß der Wellenformsignaturdatenbank, um den ersten Typ T1 des Objekts zu bestimmen. In Schritt320 berechnet die Steuereinheit160 eine Tiefe jedes Objekts gemäß einer Ankunftszeit der reflektierten Welle des Objekts. - Andererseits erfasst in Schritt
325 der Bildsensor140 ein Bild. In Schritt330 korrigiert die Steuereinheit160 das Bild, d. h. sie beseitigt die durch einen Erfassungswinkel verursachte Bildverzerrung. In Schritt335 identifiziert die Steuereinheit160 das Bild, d. h. sie extrahiert eine Bildsignatur und identifiziert die Bildsignatur gemäß der Bildsignaturdatenbank, um den zweiten Typ T2 des Objekts zu bestimmen. In Schritt340 bestimmt die Steuereinheit160 einen Azimut des Objekts im Hinblick darauf, ob das Objekt in dem Bild vorhanden ist. Bei der vorliegenden Ausführungsform weisen die Azimute zwei Typen auf, die einer Situation, bei der das Objekt in dem Bild vorhanden ist, bzw. einer Situation, bei der das Objekt nicht in dem Bild vorhanden ist, entsprechen. - Dann führt in Schritt
345 die Steuereinheit160 ein Objekt-Mapping durch, um die Tiefe und den Azimut des Objekts auf eine in2 gezeigte Weise zu kombinieren. In Schritt350 überprüft die Steuereinheit160 , ob der erste Typ T1 und der zweite Typ T2 des Objekts ein bestimmter Typ sind und die Tiefe und der Azimut des Objekts innerhalb eines bestimmten Bereichs liegen. Der bestimmte Typ kann der Typ Mensch oder ein anderes Tier mit physiologischen Bewegungsabläufen wie etwa Atmen, Herzschlag etc. sein. Der bestimmte Bereich bezieht sich darauf, dass sich das Objekt in dem Bild befindet und die Tiefe des Objekts innerhalb eines zuvor bestimmten Bereichs (zum Beispiel 1,3–1,7 Meter) liegt, der zum Messen der physiologischen Bewegungsabläufe geeignet ist. - Wenn der Prüfvorgang von Schritt
350 ein negatives Ergebnis liefert, kehrt der Ablauf zu den Schritten305 und325 zurück. Wenn der Prüfvorgang von Schritt350 ein positives Ergebnis liefert, steuert in Schritt355 die Steuereinheit160 den Radarsensor120 , um eine weitere Detektionswelle zu emittieren und reflektierte Wellen des Objekts zu empfangen. Sowohl die Detektionswelle in Schritt305 als auch die in Schritt355 umfassen eine Vielzahl von Impulsen und ein Impulsintervall der Detektionswelle von Schritt305 ist größer als ein Impulsintervall der Detektionswelle von Schritt344 . Zum Beispiel wird in Schritt305 die Detektionswelle mit dem Impulsintervall von 1 ms emittiert und in Schritt355 wird die Detektionswelle mit dem Impulsintervall von 0,1 ms emittiert. Die Detektionswelle von Schritt305 kann zum Bestimmen einer Objektposition verwendet werden. In Schritt360 kann die Steuereinheit160 die Detektionswelle von Schritt355 verwenden, um fast unmerkliche physiologische Bewegungsabläufe wie etwa Atmen oder Herzschlag etc. zu detektieren. Die vorliegende Ausführungsform kann für die medizinische Überwachung älterer Menschen, von Kleinkindern, verletzten Personen oder Patienten angewendet werden. -
4 ist ein Ablaufdiagramm, das ein Objektpositionierungsverfahren gemäß einer Ausführungsform der Erfindung veranschaulicht. Bei der vorliegenden Ausführungsform ist die erste Position P1 jedes Objekts eine Tiefe des Objekts relativ zu der handgehaltenen Vorrichtung100 , und die zweite Position P2 jedes Objekts ist ein Azimut des Objekts relativ zu der handgehaltenen Vorrichtung100 . Die Schritte405 –420 sind dieselben wie die Schritte305 –320 . Die Schritte425 bzw.430 sind dieselben wie die Schritte325 bzw.330 . Die Schritte435 und440 werden in der Ausführungsform von2 eingeführt. - Dann erhält in Schritt
445 die Steuereinheit160 einen Azimut jedes Objekts gemäß dem von dem Bildsensor140 erfassten Bild. Genauer gesagt kann die Steuereinheit160 das Bild in eine Vielzahl von Bereiche unterteilen und sie weist jedem Bereich einen entsprechenden Azimut zu und legt dann den Azimut jedes Objekts als den Azimut fest, welcher dem Bereich entspricht, einschließlich dem Objekt in den Bereichen. Der oben erwähnte Azimut kann ein eindimensionaler oder zweidimensionaler Azimut sein. - Dann führt in Schritt
450 die Steuereinheit160 ein Objekt-Mapping durch, um die Tiefe und den Azimut jedes Objekts zu kombinieren. Auf diese Weise wird eine vollständige Position jedes Objekts in dem 3D-Raum erhalten, die zum Konstruieren eines 3D-Bilds oder einer Szene der virtuellen Realität angewendet werden kann oder zum erneuten Scharfstellen einer Vielzahl der Objekte angewendet werden kann. -
5 ist ein Ablaufdiagramm, das ein Objektpositionierungsverfahren gemäß einer Ausführungsform der Erfindung veranschaulicht. Bei der vorliegenden Ausführungsform sind die erste Position P1 und die zweite Position P2 jedes Objekts alles Tiefen des Objekts relativ zu der handgehaltenen Vorrichtung100 und die zwei Tiefen werden von dem Radarsensor120 bzw. dem Bildsensor140 erhalten. Der Bildsensor140 der vorliegenden Ausführungsform kann das menschliche Auge simulieren, um gleichzeitig zwei Bilder zu erfassen, die einem linken Auge bzw. einem rechten entsprechen, so dass die Objekte in beiden Bildern vorhanden sind. - Die Schritte
505 –520 sind dieselben wie die Schritte305 –320 . In Schritt525 erfasst der Bildsensor140 zwei Bilder. In Schritt530 korrigiert die Steuereinheit160 jeweils die zwei Bilder und in Schritt S535 extrahiert die Steuereinheit160 Bildsignaturen der Objekte in den zwei Bildern. In Schritt540 identifiziert die Steuereinheit160 die Bildsignaturen gemäß der Bildsignaturdatenbank, um den zweiten Typ T2 jedes Objekts zu bestimmen. In Schritt545 erhält die Steuereinheit160 unter Verwendung einer Bildsignaturübereinstimmung der zwei Bilder eine Ungleichheit und wandelt die Ungleichheit in die Tiefe des Objekts um. - Dann führt in Schritt
550 die Steuereinheit160 ein Objekt-Mapping durch, um die Tiefe des Objekts, berechnet gemäß der reflektieren Radarwelle, und die Tiefe, berechnet gemäß dem Bild, zu vergleichen, und in Schritt555 überprüft die Steuereinheit160 , ob die zwei Tiefen gleich sind. Sind die zwei Tiefen gleich, erzeugt in Schritt560 die Steuereinheit160 Tiefeninformationen der Objekte gemäß den zwei Tiefen. Die Tiefeninformationen können zum Konstruieren eines 3D-Bilds oder einer Szene der virtuellen Realität angewendet werden oder zum erneuten Scharfstellen einer Vielzahl der Objekte angewendet werden. - Sind die zwei Tiefen nicht gleich, passt in Schritt
565 die Steuereinheit160 die Bildsignatur des Objekts an und der Ablauf kehrt zu Schritt545 zurück, um die von der Bildsignatur herrührende Tiefe des Objekts erneut zu berechnen und das Objekt-Mapping von Schritt550 erneut durchzuführen. Die Anpassung von Schritt565 ist das Vernachlässigen der Bildsignatur entsprechend der ungleichen Tiefe oder das erneute Auswählen der Bildsignatur des Objekts entsprechend der ungleichen Tiefe. - Bei der vorliegenden Ausführungsform wird der Radar verwendet, um dabei zu helfen, die korrekte Objekttiefe zu erhalten. Ist das Bild zu komplex oder zu monoton, ist die lediglich gemäß dem Bild geschätzte Tiefe vermutlich ungenau und falls die gemäß der Radardetektion erzeugte Tiefe zum Vergleich hinzugenommen wird, kann das oben erwähnte Problem gelöst werden.
- Die Erfindung stellt auch ein nicht transitorisches computerlesbares Aufzeichnungsmedium bereit, und das Aufzeichnungsmedium kann eine physische Speichervorrichtung wie etwa ein Speicher, eine Magnetplatte oder eine CD sein. Auf dem Aufzeichnungsmedium kann ein Computerprogramm gespeichert sein. Wenn die handgehaltene Vorrichtung das Computerprogramm lädt und ausführt, wird das zuvor erwähnte Objektpositionierungsverfahren implementiert.
- Zusammenfassend ausgedrückt werden in der Erfindung der Radarsensor und der Bildsensor gleichzeitig verwendet, um die Tiefen und die Azimute der Objekte zu schätzen, um eine vollständige Objektposition zu erhalten. In der Erfindung werden durch die Kollaboration und das Mapping der von dem Radarsensor und dem Bildsensor erhaltenen Informationen die korrekten Objekttiefen und Objektpositionen erhalten. Auf diese Weise wird eine korrekte Bildverarbeitung erzielt und es wird ein besserer 3D-Bild-Anwendungseffekt umgesetzt.
- Fachleuten wird es offensichtlich sein, dass an der Struktur der Erfindung verschiedene Abwandlungen und Variationen vorgenommen werden können, ohne von dem Umfang oder Wesen der Erfindung abzuweichen. Im Hinblick auf das Vorhergenannte wird beabsichtigt, dass die Erfindung Abwandlungen und Variationen dieser Erfindung abdeckt, vorausgesetzt, sie fallen in den Umfang der nachfolgenden Patentansprüche und ihrer Äquivalente.
Claims (21)
- Eine handgehaltene Vorrichtung, die Folgendes beinhaltet: einen Radarsensor, der eine erste Detektionswelle emittiert und mindestens eine reflektierte Welle, erzeugt von mindestens einem Objekt durch das Reflektieren der ersten Detektionswelle, empfängt, wobei jedes von dem mindestens einen Objekt eine der mindestens einen reflektierten Welle erzeugt; einen Bildsensor, der ein erstes Bild erfasst, wobei das erste Bild eine Untermenge des mindestens einen Objekts beinhaltet; und eine an den Radarsensor und den Bildsensor gekoppelte Steuereinheit, die eine Wellenformsignatur von jeder der mindestens einen reflektierten Welle extrahiert, die Wellenformsignatur jeweils in einem Zeitbereich und einem Frequenzbereich erkennt, um einen ersten Typ von jedem von dem mindestens einen Objekt zu bestimmen, eine erste Position von jedem von dem mindestens einen Objekt gemäß der mindestens einen reflektierten Welle erhält, einen zweiten Typ und eine zweite Position von jedem von dem mindestens einen Objekt gemäß dem ersten Bild erhält und einen Mapping-Vorgang basierend auf dem ersten Typ, dem zweiten Typ, der ersten Position und der zweiten Position von jedem von dem mindestens einen Objekt durchführt, um die erste Position und die zweite Position zu kombinieren oder zu vergleichen.
- Handgehaltene Vorrichtung gemäß Anspruch 1, wobei die Steuereinheit eine Bildsignatur von jedem von dem mindestens einen Objekt in dem ersten Bild extrahiert und die Bildsignatur identifiziert, um den zweiten Typ von jedem von dem mindestens einen Objekt zu bestimmen.
- Handgehaltene Vorrichtung gemäß Anspruch 1, wobei die erste Position von jedem von dem mindestens einen Objekt eine Tiefe ist, berechnet gemäß einer Ankunftszeit der mindestens einen reflektierten Welle des mindestens einen Objekts, und die zweite Position von jedem von dem mindestens einen Objekt ein Azimut des mindestens einen Objekts ist, bestimmt im Hinblick darauf, ob das mindestens eine Objekt in dem ersten Bild vorhanden ist, und die Steuereinheit den Mapping-Vorgang durchführt, um die Tiefe und den Azimut von jedem von dem mindestens einen Objekt zu kombinieren.
- Handgehaltene Vorrichtung gemäß Anspruch 3, wobei die Steuereinheit den Radarsensor steuert, um eine zweite Detektionswelle zu emittieren, um einen physiologischen Bewegungsablauf des mindestens einen Objekts zu detektieren, wenn sowohl der erste Typ als auch der zweite Typ des mindestens einen Objekts ein bestimmter Typ sind und die Tiefe und der Azimut des mindestens einen Objekts alle in einem bestimmten Bereich liegen.
- Handgehaltene Vorrichtung gemäß Anspruch 4, wobei die erste Detektionswelle eine Vielzahl von Impulsen beinhaltet und die zweite Detektionswelle eine Vielzahl von Impulsen beinhaltet; wobei ein Impulsintervall der ersten Detektionswelle größer ist als ein Impulsintervall der zweiten Detektionswelle.
- Handgehaltene Vorrichtung gemäß Anspruch 1, wobei die erste Position von jedem von dem mindestens einen Objekt eine Tiefe ist, berechnet gemäß einer Ankunftszeit der mindestens einen reflektierten Welle des mindestens einen Objekts, das erste Bild eine Vielzahl von Bereichen beinhaltet, wobei jeder Bereich einem Azimut entspricht, und die zweite Position von jedem von dem mindestens einen Objekt der Azimut ist, der dem Bereich entspricht, welcher das mindestens eine Objekt in den Bereichen beinhaltet, und die Steuereinheit den Mapping-Vorgang durchführt, um die Tiefe und den Azimut von jedem von dem mindestens einen Objekt zu kombinieren.
- Handgehaltene Vorrichtung gemäß Anspruch 1, wobei die erste Position von jedem von dem mindestens einen Objekt eine erste Tiefe ist, berechnet gemäß einer Ankunftszeit der mindestens einen reflektierten Welle des mindestens einen Objekts, der Bildsensor ferner ein zweites Bild erfasst, wobei sowohl das erste Bild als auch das zweite Bild das mindestens eine Objekt beinhalten, die zweite Position von jedem von dem mindestens einen Objekt eine zweite Tiefe des mindestens einen Objekts ist, berechnet gemäß einer Bildsignatur des mindestens einen Objekts in dem ersten Bild und dem zweiten Bild, und die Steuereinheit den Mapping-Vorgang durchführt, um die erste Tiefe und die zweite Tiefe des mindestens einen Objekts zu vergleichen.
- Handgehaltene Vorrichtung gemäß Anspruch 7, wobei, wenn die erste Tiefe und die zweite Tiefe des mindestens einen Objekts gleich sind, die Steuereinheit Tiefeninformationen des mindestens einen Objekts gemäß der ersten Tiefe und der zweiten Tiefe erzeugt.
- Handgehaltene Vorrichtung gemäß Anspruch 7, wobei, wenn die erste Tiefe und die zweite Tiefe des mindestens einen Objekts nicht gleich sind, die Steuereinheit die Bildsignatur entsprechend der nicht gleichen Tiefe vernachlässigt, die zweite Tiefe erneut berechnet und den Mapping-Vorgang erneut durchführt.
- Handgehaltene Vorrichtung gemäß Anspruch 7, wobei, wenn die erste Tiefe und die zweite Tiefe des mindestens einen Objekts nicht gleich sind, die Steuereinheit die Bildsignatur des mindestens einen Objekts entsprechend der nicht gleichen Tiefe erneut auswählt, die zweite Tiefe erneut berechnet und den Mapping-Vorgang erneut durchführt.
- Ein Objektpositionierungsverfahren, das Folgendes beinhaltet: Emittieren einer ersten Detektionswelle und Empfangen mindestens einer reflektierten Welle, erzeugt von mindestens einem Objekt durch das Reflektieren der ersten Detektionswelle, wobei jedes von dem mindestens einen Objekt eine der mindestens einen reflektierten Welle erzeugt; Erfassen eines ersten Bilds, wobei das erste Bild eine Untermenge des mindestens einen Objekts beinhaltet; Extrahieren einer Wellenformsignatur von jeder der mindestens einen reflektierten Welle und jeweils Erkennen der Wellenformsignatur in einem Zeitbereich und einem Frequenzbereich, um einen ersten Typ von jedem von dem mindestens einen Objekt zu bestimmen; Erhalten einer ersten Position von jedem von dem mindestens einen Objekt gemäß der mindestens einen reflektierten Welle; Erhalten eines zweiten Typs und einer zweiten Position von jedem von dem mindestens einen Objekt gemäß dem ersten Bild; und Durchführen eines Mapping-Vorgangs basierend auf dem ersten Typ, dem zweiten Typ, der ersten Position und der zweiten Position von jedem von dem mindestens einen Objekt, um die erste Position und die zweite Position zu kombinieren oder zu vergleichen.
- Objektpositionierungsverfahren gemäß Anspruch 11, das ferner Folgendes beinhaltet: Extrahieren einer Bildsignatur von jedem von dem mindestens einen Objekt in dem ersten Bild und Identifizieren der Bildsignatur, um den zweiten Typ von jedem von dem mindestens einen Objekt zu bestimmen.
- Objektpositionierungsverfahren gemäß Anspruch 11, wobei die erste Position von jedem von dem mindestens einen Objekt eine Tiefe ist, berechnet gemäß einer Ankunftszeit der mindestens einen reflektierten Welle des mindestens einen Objekts, und die zweite Position von jedem von dem mindestens einen Objekt ein Azimut des mindestens einen Objekts ist, bestimmt im Hinblick darauf, ob das mindestens eine Objekt in dem ersten Bild vorhanden ist, und der Mapping-Vorgang durchgeführt wird, um die Tiefe und den Azimut von jedem von dem mindestens einen Objekt zu kombinieren.
- Objektpositionierungsverfahren gemäß Anspruch 13, das ferner Folgendes beinhaltet: Emittieren einer zweiten Detektionswelle, um einen physiologischen Bewegungsablauf des mindestens einen Objekts zu detektieren, wenn sowohl der erste Typ als auch der zweite Typ des mindestens einen Objekts ein bestimmter Typ sind und die Tiefe und der Azimut des mindestens einen Objekts alle in einem bestimmten Bereich liegen.
- Objektpositionierungsverfahren gemäß Anspruch 14, wobei die erste Detektionswelle eine Vielzahl von Impulsen beinhaltet und die zweite Detektionswelle eine Vielzahl von Impulsen beinhaltet; wobei ein Impulsintervall der ersten Detektionswelle größer ist als ein Impulsintervall der zweiten Detektionswelle.
- Objektpositionierungsverfahren gemäß Anspruch 11, wobei die erste Position von jedem von dem mindestens einen Objekt eine Tiefe ist, berechnet gemäß einer Ankunftszeit der mindestens einen reflektierten Welle des mindestens einen Objekts, das erste Bild eine Vielzahl von Bereichen beinhaltet, wobei jeder Bereich einem Azimut entspricht, und die zweite Position von jedem von dem mindestens einen Objekt der Azimut ist, der dem Bereich entspricht, welcher das mindestens eine Objekt in den Bereichen beinhaltet, und wobei der Mapping-Vorgang durchgeführt wird, um die Tiefe und den Azimut von jedem von dem mindestens einen Objekt zu kombinieren.
- Objektpositionierungsverfahren gemäß Anspruch 11, wobei die erste Position von jedem von dem mindestens einen Objekt eine erste Tiefe ist, berechnet gemäß einer Ankunftszeit der mindestens einen reflektierten Welle des mindestens einen Objekts, und das Objektpositionierungsverfahren ferner Folgendes beinhaltet: Erfassen eines zweiten Bilds, wobei sowohl das erste Bild als auch das zweite Bild das mindestens eine Objekt beinhalten, die zweite Position von jedem von dem mindestens einen Objekt eine zweite Tiefe des mindestens einen Objekts ist, berechnet gemäß einer Bildsignatur des mindestens einen Objekts in dem ersten Bild und dem zweiten Bild, und der Mapping-Vorgang durchgeführt wird, um die erste Tiefe und die zweite Tiefe des mindestens einen Objekts zu vergleichen.
- Objektpositionierungsverfahren gemäß Anspruch 17, das ferner Folgendes beinhaltet: wenn die erste Tiefe und die zweite Tiefe des mindestens einen Objekts gleich sind, Erzeugen von Tiefeninformationen des mindestens einen Objekts gemäß der ersten Tiefe und der zweiten Tiefe.
- Objektpositionierungsverfahren gemäß Anspruch 17, das ferner Folgendes beinhaltet: wenn die erste Tiefe und die zweite Tiefe des mindestens einen Objekts nicht gleich sind, Vernachlässigen der Bildsignatur entsprechend der nicht gleichen Tiefe, erneutes Berechnen der zweiten Tiefe und erneutes Durchführen des Mapping-Vorgangs.
- Objektpositionierungsverfahren gemäß Anspruch 17, das ferner Folgendes beinhaltet: wenn die erste Tiefe und die zweite Tiefe des mindestens einen Objekts nicht gleich sind, erneutes Auswählen der Bildsignatur des mindestens einen Objekts entsprechend der nicht gleichen Tiefe, erneutes Berechnen der zweiten Tiefe und erneutes Durchführen des Mapping-Vorgangs.
- Ein nicht transitorisches computerlesbares Aufzeichnungsmedium, auf dem ein Computerprogramm gespeichert ist, wobei nach dem Laden und Ausführen des Computerprogramms durch die handgehaltene Vorrichtung das Objektpositionierungsverfahren gemäß Anspruch 11 implementiert wird.
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US14/749,617 | 2015-06-24 | ||
US14/749,617 US9778353B2 (en) | 2015-06-24 | 2015-06-24 | Handheld device, object positioning method and computer-readable recording medium |
Publications (2)
Publication Number | Publication Date |
---|---|
DE102016105891A1 true DE102016105891A1 (de) | 2016-12-29 |
DE102016105891B4 DE102016105891B4 (de) | 2021-06-24 |
Family
ID=56509424
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE102016105891.2A Active DE102016105891B4 (de) | 2015-06-24 | 2016-03-31 | Handgehaltene Vorrichtung, Objektpositionierungsverfahren und computerlesbares Aufzeichnungsmedium |
Country Status (4)
Country | Link |
---|---|
US (1) | US9778353B2 (de) |
CN (1) | CN106291523B (de) |
DE (1) | DE102016105891B4 (de) |
TW (1) | TWI535265B (de) |
Families Citing this family (22)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9575560B2 (en) | 2014-06-03 | 2017-02-21 | Google Inc. | Radar-based gesture-recognition through a wearable device |
US9811164B2 (en) | 2014-08-07 | 2017-11-07 | Google Inc. | Radar-based gesture sensing and data transmission |
US10268321B2 (en) | 2014-08-15 | 2019-04-23 | Google Llc | Interactive textiles within hard objects |
US9778749B2 (en) | 2014-08-22 | 2017-10-03 | Google Inc. | Occluded gesture recognition |
US11169988B2 (en) | 2014-08-22 | 2021-11-09 | Google Llc | Radar recognition-aided search |
US9600080B2 (en) | 2014-10-02 | 2017-03-21 | Google Inc. | Non-line-of-sight radar-based gesture recognition |
EP3289432B1 (de) | 2015-04-30 | 2019-06-12 | Google LLC | Hf-basierte mikrobewegungsverfolgung für gestenverfolgung und -erkennung |
EP3289434A1 (de) | 2015-04-30 | 2018-03-07 | Google LLC | Weitfeldradarbasierte gestenerkennung |
CN107466389B (zh) | 2015-04-30 | 2021-02-12 | 谷歌有限责任公司 | 用于确定类型不可知的rf信号表示的方法和装置 |
US10088908B1 (en) | 2015-05-27 | 2018-10-02 | Google Llc | Gesture detection and interactions |
US9693592B2 (en) | 2015-05-27 | 2017-07-04 | Google Inc. | Attaching electronic components to interactive textiles |
US20170016986A1 (en) * | 2015-07-17 | 2017-01-19 | Thales-Raytheon Systems Company Llc | System and method for providing remote target identification using optical tagging |
WO2017020077A1 (en) * | 2015-08-03 | 2017-02-09 | Commonwealth Scientific And Industrial Research Organisation | Monitoring systems and methods |
US10817065B1 (en) | 2015-10-06 | 2020-10-27 | Google Llc | Gesture recognition using multiple antenna |
US10492302B2 (en) | 2016-05-03 | 2019-11-26 | Google Llc | Connecting an electronic component to an interactive textile |
US10175781B2 (en) | 2016-05-16 | 2019-01-08 | Google Llc | Interactive object with multiple electronics modules |
US10285456B2 (en) | 2016-05-16 | 2019-05-14 | Google Llc | Interactive fabric |
US10579150B2 (en) | 2016-12-05 | 2020-03-03 | Google Llc | Concurrent detection of absolute distance and relative movement for sensing action gestures |
EP3612858A4 (de) * | 2017-04-21 | 2021-05-26 | TLC Millimeter Wave Products, Inc. | Fortschrittliches millimeterwellensystemnetzwerk zur bedrohungsdetektion |
TWI641857B (zh) | 2018-02-09 | 2018-11-21 | 宏碁股份有限公司 | 電子裝置以及定位方法 |
CN110609274B (zh) * | 2018-06-15 | 2022-07-01 | 杭州海康威视数字技术股份有限公司 | 一种测距方法、装置及系统 |
US20230067564A1 (en) * | 2021-08-31 | 2023-03-02 | Htc Corporation | Virtual image display system and calibration method for pointing direction of controller thereof |
Family Cites Families (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
IL134518A0 (en) * | 2000-02-13 | 2001-04-30 | Hexagon System Engineering Ltd | Integrated radar and communication system |
JP4426436B2 (ja) | 2004-12-27 | 2010-03-03 | 株式会社日立製作所 | 車両検知装置 |
US7990308B2 (en) | 2009-02-20 | 2011-08-02 | Raytheon Company | Mirror image target detection and recognition |
JP4858574B2 (ja) * | 2009-05-19 | 2012-01-18 | トヨタ自動車株式会社 | 物体検出装置 |
US8988276B2 (en) * | 2010-03-17 | 2015-03-24 | Honda Motor Co., Ltd. | Vehicle surroundings monitoring device |
CN102542843A (zh) * | 2010-12-07 | 2012-07-04 | 比亚迪股份有限公司 | 防止车辆碰撞的预警方法及装置 |
CN102114809A (zh) * | 2011-03-11 | 2011-07-06 | 同致电子科技(厦门)有限公司 | 一体式视觉化倒车雷达影像辅助系统及信号的叠加方法 |
CN102508246B (zh) * | 2011-10-13 | 2013-04-17 | 吉林大学 | 车辆前方障碍物检测跟踪方法 |
US9830523B2 (en) | 2012-05-31 | 2017-11-28 | Korea Institute Of Science And Technology | Method and apparatus for recognizing object material using spatial image and spatial radar information |
US9429650B2 (en) * | 2012-08-01 | 2016-08-30 | Gm Global Technology Operations | Fusion of obstacle detection using radar and camera |
DE102013113054B4 (de) * | 2012-12-03 | 2022-01-27 | Denso Corporation | Zielerfassungsvorrichtung zum Vermeiden einer Kollision zwischen einem Fahrzeug und einem durch einen an dem Fahrzeug montierten Sensor erfassten Ziel |
-
2015
- 2015-06-24 US US14/749,617 patent/US9778353B2/en active Active
- 2015-07-01 CN CN201510377282.1A patent/CN106291523B/zh active Active
- 2015-07-09 TW TW104122353A patent/TWI535265B/zh active
-
2016
- 2016-03-31 DE DE102016105891.2A patent/DE102016105891B4/de active Active
Also Published As
Publication number | Publication date |
---|---|
US20160377712A1 (en) | 2016-12-29 |
CN106291523A (zh) | 2017-01-04 |
TW201701659A (zh) | 2017-01-01 |
TWI535265B (zh) | 2016-05-21 |
CN106291523B (zh) | 2019-04-05 |
DE102016105891B4 (de) | 2021-06-24 |
US9778353B2 (en) | 2017-10-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE102016105891A1 (de) | Handgehaltene Vorrichtung, Objektpositionierungsverfahren und computerlesbares Aufzeichnungsmedium | |
KR101121353B1 (ko) | 2차원 초음파 영상에 대응하는 2차원 ct 영상을 제공하는 시스템 및 방법 | |
DE102013021729B4 (de) | Verbesserung der Nadelvisualisierung in der diagnostischen Ultraschallbildgebung | |
US20160317118A1 (en) | Automatic ultrasound beam steering and needle artifact suppression | |
KR101121396B1 (ko) | 2차원 초음파 영상에 대응하는 2차원 ct 영상을 제공하는 시스템 및 방법 | |
CN107909622B (zh) | 模型生成方法、医学成像的扫描规划方法及医学成像系统 | |
US8900147B2 (en) | Performing image process and size measurement upon a three-dimensional ultrasound image in an ultrasound system | |
DE112012003583T5 (de) | Verfahren zur Erfassung und Verfolgung einer Nadel | |
JP2016157336A (ja) | 画像処理装置、画像処理方法及びプログラム | |
US8956298B2 (en) | Providing an ultrasound spatial compound image in an ultrasound system | |
US10667786B2 (en) | Ultrasound imaging apparatus and method for segmenting anatomical objects | |
EP2194506A2 (de) | Bildbasierte Registrierung | |
Hacihaliloglu et al. | Projection-based phase features for localization of a needle tip in 2D curvilinear ultrasound | |
US7983464B2 (en) | System and method for corpus callosum segmentation in magnetic resonance images | |
US20110028842A1 (en) | Providing A Plurality Of Slice Images In An Ultrasound System | |
DE112021005277T5 (de) | Objektschlüsselpunkterfassung | |
CN107292351B (zh) | 一种结节的匹配方法及装置 | |
US20200043143A1 (en) | Motion correction systems and methods for improving medical image data | |
IL262027A (en) | System and methods for diagnostic image processing and image quality assessment | |
Bandyopadhyay et al. | Bone contour tracing in digital X-ray images based on adaptive thresholding | |
CN113269732B (zh) | 一种基于特征扫描图像的线性物体检测方法 | |
JP2019192170A (ja) | 3次元モデル生成装置及び3次元モデル生成方法 | |
EP3777686B1 (de) | Vorrichtung zur verarbeitung medizinischer bilder, verfahren zur verarbeitung medizinischer bilder und programm | |
CN104680513B (zh) | 估计心室容积的方法和装置 | |
WO2018036893A1 (en) | Image processing apparatus and method for segmenting a region of interest |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
R012 | Request for examination validly filed | ||
R016 | Response to examination communication | ||
R016 | Response to examination communication | ||
R018 | Grant decision by examination section/examining division | ||
R020 | Patent grant now final | ||
R082 | Change of representative |
Representative=s name: WAGNER & GEYER PARTNERSCHAFT MBB PATENT- UND R, DE |