-
HINTERGRUND DER ERFINDUNG
-
Gebiet der Erfindung
-
Die Erfindung bezieht sich auf eine Positionierungsmethode und insbesondere bezieht sie sich auf eine handgehaltene Vorrichtung, ein Objektpositionierungsverfahren und ein nicht transitorisches computerlesbares Aufzeichnungsmedium.
-
Beschreibung verwandter Techniken
-
Es gibt viele Anwendungen für dreidimensionale Szenen (3D-Szenen), zum Beispiel virtuelle Realität oder erneutes Scharfstellen einer Vielzahl von Objekten in einem Bild, und diese Anwendungen erfreuen nach und nach größere Beliebtheit bei handgehaltenen Vorrichtungen wie etwa Smartphones etc. und diese Anwendungen erfordern alle das Detektieren oder Berechnen von Positionen einer Vielzahl von Objekten in einem 3D-Raum.
-
Ein Radar kann zum Detektieren einer Position eines Objekts im 3D-Raum verwendet werden, allerdings wird in einem Radardetektionssystem mit einer einzigen Richtantenne eine relative Position eines bestimmten Objekts innerhalb eines wirksamen Strahlungsbereichs der Antenne lediglich gemäß einer Ankunftszeit (Time of Arrival, TOA) abgeleitet. Soll eine Position eines bestimmten Objekts, zum Beispiel einer Person, eines Fahrzeugs, eines Gebäudes etc., in dem 3D-Raum erhalten werden, muss zum Durchführen von Strahlabtastung eine Gruppenantenne verwendet werden. Unabhängig von dem Antennenentwurf oder der Back-End-Betriebsverarbeitung ist die Implementierung des obigen Verfahrens in den handgehaltenen Vorrichtungen schwierig.
-
Manche hochwertigen handgehaltenen Vorrichtungen weisen zwei Bildsensoren auf, die zur Simulation der menschlichen Augen zum Erfassen von Stereobildern verwendet werden können. Diese handgehaltenen Vorrichtungen können die Stereobilder analysieren, indem ein Bildverarbeitungsalgorithmus verwendet wird, um eine allgemeine Situation des 3D-Raums zu deduzieren. Allerdings ist es im Falle einer komplexen Umgebung, zum Beispiel bei zu vielen ähnlichen Objekten in den Bildern oder wenn zu monotone Bilder ohne besondere Merkmale erfasst werden oder wenn ein charakteristisches Objekt, das verglichen werden soll, in einem der Bilder aufgrund unterschiedlicher Sichtwinkel verdeckt ist, schwierig, ein korrektes Schätzungsergebnis gemäß dem obigen Verfahren zu erhalten.
-
US 2006/0140449 A1 offenbart eine Fahrzeugerkennungsvorrichtung mit einen Klassifikator, der Merkmale eines Bildes empfängt und beurteilt, ob das Bild ein Fahrzeug ist. Die aus dem aufgenommenen Bild extrahierten Merkmale werden dem Klassifikator zugeführt, so dass beurteilt werden kann, ob es sich bei dem Bild um das Fahrzeug handelt. Wenn das Urteilsergebnis und das Ergebnis vom Radar nicht übereinstimmen, wird das aufgenommene Bildmuster in den Lerndaten registriert. Der Klassifikator wird durch Lernen aus den Lerndaten aktualisiert.
-
In der
US 2010/0214154 A1 wird ein System und Verfahren zur Erkennung von Zielen offenbart. Ein Sender kann ein erstes Invers-Transformations-Signal senden, wobei das erste Invers-Transformations-Signal von einem Referenzbild eines ersten Referenzziels unter einem ersten Blickwinkel abgeleitet ist. Ein Empfänger kann ein von einer Szene reflektiertes Rücksignal empfangen. Ein Detektor kann basierend auf dem Rücksignal bestimmen, ob ein Objekt, das dem ersten Ziel unter dem ersten Blickwinkel ähnlich ist, innerhalb der Szene erkannt wird.
-
Die Veröffentlichung „Range Doppler Detection for automotive FMCW Radars“ von Volker Winkler in „Proceedings of the 37th European Microwave Conference“, 2007, S. 1445 - 1448, ISBN 978-2-87487-001-9 befasst sich im Allgemeinen mit dem FMCW-Radar-Prinzip und dessen Anwendung in automotiven Radar-Systemen.
-
Die
US 2002/0003488 A1 offenbart ein Fahrzeugkommunikationssystem mit einem kombinierten Radar- und drahtlosen Kommunikationssystem, das eine Vielzahl von Fahrzeugen koppelt. Vorzugsweise enthält das System auch eine Vielzahl von Zugangspunkten, die zur drahtlosen Kommunikation mit den Fahrzeugen gekoppelt sind. Es wird auch ein Verfahren zur Fahrzeugkommunikation gezeigt, dass die Kopplung einer Vielzahl von Fahrzeugen mittels eines kombinierten Radar- und drahtlosen Kommunikationssystems einschließt.
-
ZUSAMMENFASSUNG DER ERFINDUNG
-
Die Erfindung richtet sich auf eine handgehaltene Vorrichtung,. In der Erfindung wird eine vollständige und genaue Positionierung eines Objekts oder einer Vielzahl von Objekten im dreidimensionalen (3D) Raum in einer handgehaltenen Vorrichtung implementiert
-
Die Erfindung stellt eine handgehaltene Vorrichtung bereit, die mindestens einen Radarsensor, einen Bildsensor und eine Steuereinheit umfasst. Der Radarsensor emittiert eine Detektionswelle und empfängt mindestens eine reflektierte Welle, erzeugt von mindestens einem Objekt durch das Reflektieren der Detektionswelle. Jedes des mindestens einen Objekts erzeugt eine der mindestens einen reflektierten Welle. Der Bildsensor erfasst ein Bild. Das Bild umfasst eine Untermenge des mindestens einen Objekts. Die Steuereinheit ist an den Radarsensor und den Bildsensor gekoppelt. Die Steuereinheit extrahiert eine Wellenformsignatur von jeder der mindestens einen reflektierten Welle und erkennt jeweils die Wellenformsignatur in einem Zeitbereich und einem Frequenzbereich, um einen ersten Typ von jedem von dem mindestens einen Objekt zu bestimmen, die Steuereinheit erhält eine erste Position von jedem von dem mindestens einen Objekt gemäß der mindestens einen reflektierten Welle, erhält einen zweiten Typ und eine zweite Position von jedem von dem mindestens einen Objekt gemäß dem Bild und führt einen Mapping-Vorgang basierend auf dem ersten Typ, dem zweiten Typ, der ersten Position und der zweiten Position von jedem von dem mindestens einen Objekt durch, um die erste Position und die zweite Position des mindestens einen Objekts zu kombinieren oder zu vergleichen.
-
Die vorliegende Offenbarung betrifft weiterhin ein Objektpositionierungsverfahren, das die folgenden Schritte beinhaltet. Eine Detektionswelle wird emittiert und mindestens eine reflektierte Welle, erzeugt von mindestens einem Objekt durch das Reflektieren der Detektionswelle, wird empfangen, wobei jedes von dem mindestens einen Objekt eine der mindestens einen reflektierten Welle erzeugt. Ein Bild wird erfasst, wobei das Bild eine Untermenge des mindestens einen Objekts umfasst. Eine Wellenformsignatur von jeder der mindestens einen reflektierten Welle wird extrahiert und die Wellenformsignatur wird jeweils in einem Zeitbereich und einem Frequenzbereich erkannt, um einen ersten Typ von jedem von dem mindestens einen Objekt zu bestimmen. Eine erste Position von jedem von dem mindestens einen Objekt wird gemäß der mindestens einen reflektierten Welle erhalten. Ein zweiter Typ und eine zweite Position von jedem von dem mindestens einen Objekt werden gemäß dem Bild erhalten. Ein Mapping-Vorgang wird basierend auf dem ersten Typ, dem zweiten Typ, der ersten Position und der zweiten Position von jedem von dem mindestens einen Objekt durchgeführt, um die erste Position und die zweite Position des mindestens einen Objekts zu kombinieren oder zu vergleichen.
-
Schließlich betrifft die vorliegende Offenbarung auch ein nicht transitorisches computerlesbares Aufzeichnungsmedium, auf dem ein Computerprogramm gespeichert ist, bereit. Nachdem eine handgehaltene Vorrichtung das Computerprogramm lädt und ausführt, wird das oben erwähnte Objektpositionierungsverfahren implementiert.
-
Gemäß den obigen Beschreibungen werden der einfache Radarsensor und Bildsensor zusammen verwendet, um eine vollständige und genaue Positionierung eines Objekts oder einer Vielzahl von Objekten im 3D-Raum in der handgehaltenen Vorrichtung zu implementieren.
-
Um die zuvor erwähnten und andere Merkmale und Vorteile der Erfindung verständlich zu machen, sind nachfolgend mehrere, von Figuren begleitete, beispielhafte Ausführungsformen detailliert beschrieben.
-
Figurenliste
-
Die begleitenden Zeichnungen sind beigefügt, um ein tieferes Verständnis der Erfindung bereitzustellen und sind in diese Patentschrift mit aufgenommen und stellen einen Teil derselben dar. Die Zeichnungen veranschaulichen Ausführungsformen der Erfindung und dienen zusammen mit der Beschreibung der Erläuterung der Grundsätze der Erfindung.
- 1 ist eine schematische Darstellung einer handgehaltenen Vorrichtung gemäß einer Ausführungsform der Erfindung.
- 2 ist eine schematische Darstellung von Tiefen und Azimuten einer Vielzahl von Objekten gemäß einer Ausführungsform der Erfindung.
- 3 bis 5 sind Ablaufdiagramme, die Objektpositionierungsverfahren gemäß einer Vielzahl von Ausführungsformen der Erfindung veranschaulichen.
-
BESCHREIBUNG DER AUSFÜHRUNGSFORMEN
-
1 ist eine schematische Darstellung einer handgehaltenen Vorrichtung 100 gemäß einer Ausführungsform der Erfindung. Die handgehaltene Vorrichtung 100 kann eine handgehaltene elektronische Vorrichtung wie etwa ein Smartphone, einen Tablet Personal Computer (PC) etc. sein. Die handgehaltene Vorrichtung 100 umfasst einen Radarsensor 120, einen Bildsensor 140 und eine Steuereinheit 160. Die Steuereinheit 160 ist an den Radarsensor 120 und den Bildsensor 140 gekoppelt.
-
Der Radarsensor 120 kann eine Detektionswelle emittieren, zum Beispiel emittiert er eine Detektionswelle in Form einer kontinuierlichen Impulsfolge 125. Die Detektionswelle kann eine elektromagnetische Welle oder eine Ultraschallwelle sein. Die handgehaltene Vorrichtung 100 kann von einem Objekt oder einer Vielzahl von Objekten umgeben sein. Der Radarsensor 120 kann mindestens eine reflektierte Welle, erzeugt von dem mindestens einen Objekt durch das Reflektieren der Detektionswelle, empfangen. Jedes der Objekte kann eine reflektierte Welle erzeugen. Ist die handgehaltene Vorrichtung 100 ein Smartphone, kann der Radarsensor 120 durch eine Antenne der handgehaltenen Vorrichtung 100 implementiert sein.
-
Der Bildsensor 140 kann ein Bild erfassen und das Bild umfasst eine Untermenge der oben erwähnten Objekte. Eingeschränkt durch ein Sichtfeld (Field of View, FOV) des Bildsensors 140 kann die Untermenge alle oben erwähnten Objekte umfassen oder einen Teil der oben erwähnten Objekte umfassen oder keines der Objekte umfassen.
-
Die Steuereinheit 160 kann einen ersten Typ T1 und eine erste Position P1 jedes Objekts gemäß den reflektierten Wellen der oben erwähnten Objekte erhalten. Die Steuereinheit 160 kann auch einen zweiten Typ T2 und eine zweite Position P2 jedes Objekts gemäß dem erfassten Bild erhalten. Dann führt die Steuereinheit 160 ein Objekt-Mapping durch. Das sogenannte „Objekt-Mapping“ dient dazu, einen Mapping-Vorgang basierend auf dem ersten Typ T1, dem zweiten Typ T2, der ersten Position P1 und der zweiten Position P2 jedes Objekts durchzuführen, um die erste Position P1 und die zweite Position P2 des Objekts zu kombinieren oder zu vergleichen.
-
Zum Beispiel kann die erste Position P1 eine Tiefe (d. h. ein Abstand) des Objekts relativ zu der handgehaltenen Vorrichtung 100 sein und die zweite Position P2 kann ein Azimut des Objekts relativ zu der handgehaltenen Vorrichtung 100 sein. 2 ist eine Ansicht der sich vor der handgehaltenen Vorrichtung 100 befindenden Objekte 201-204 gemäß einer Ausführungsform der Erfindung von oben. Die Objekte 201-204 weisen die entsprechenden Tiefen D1-D4 und Azimute θ1-θ4 auf.
-
Die handgehaltene Vorrichtung
100 kann eine Wellenformsignaturdatenbank umfassen. Die Wellenformsignaturdatenbank speichert eine Vielzahl von Wellenformsignaturen und einen Objekttyp, der jeder der Wellenformsignaturen entspricht. Die Steuereinheit
160 kann eine Wellenformsignatur der reflektierten Welle von jedem der Objekte extrahieren und erkennt jeweils die Wellenformsignatur in einem Zeitbereich und einem Frequenzbereich gemäß der Wellenformsignaturdatenbank, um den ersten Typ T
1 jedes Objekts zu bestimmen. Der erste Typ T
1 kann ein Mensch, Fahrzeug oder Gebäude etc. sein. Zudem kann die Steuereinheit
160 die Tiefe P
1 jedes Objekts gemäß einer Ankunftszeit der reflektierten Welle des Objekts berechnen. Auf diese Weise werden die erhaltenen ersten Typen T
1 und die Tiefen P
1 als folgende Tabelle gezeigt.
Objekt | 201 | 202 | 203 | 204 |
Erster Typ T1 | A | B | C | D |
Tiefe P1 | D2 | D4 | D3 | D1 |
-
Die handgehaltene Vorrichtung
100 kann auch eine Bildsignaturdatenbank umfassen. Die Bildsignaturdatenbank speichert eine Vielzahl von Bildsignaturen und einen jeder Bildsignatur entsprechenden Objekttyp. Die Steuereinheit
160 kann ein Schwellenwertverfahren und eine Kantendetektion hinsichtlich jedes Objekts in dem Bild durchführen, um die Bildsignatur des Objekts zu extrahieren. Dann identifiziert die Steuereinheit
160 die Bildsignatur gemäß der Bildsignaturdatenbank, um den zweiten Typ T
2 jedes Objekts zu bestimmen. Der zweite Typ T
2 kann ein Mensch, Fahrzeug oder Gebäude etc. sein. Zudem kann die Steuereinheit
160 den Azimut P
2 jedes Objekts gemäß der Position des Objekts in dem Bild erhalten. Auf diese Weise werden die erhaltenen zweiten Typen T
2 und die Azimute P
2 als folgende Tabelle gezeigt.
Objekt | 201 | 202 | 203 | 204 |
Zweiter Typ T2 | A | B | C | D |
Azimut P2 | θ1 | θ2 | θ3 | θ4 |
-
Falls die Bestimmungsergebnisse des ersten Typs T
1 und des zweiten Typs T
2 jedes Objekts dieselben sind, kann das Objekt-Mapping durchgeführt werden, um die Tiefe P
1 und den Azimut P
2 des Objekts zu kombinieren, um eine vollständige Raumposition jedes Objekts zu erhalten, die in der folgenden Tabelle gezeigt ist.
Objekt | 201 | 202 | 203 | 204 |
Tiefe P1 | D2 | D4 | D3 | D1 |
Azimut P2 | θ1 | θ2 | θ3 | θ4 |
-
3 ist ein Ablaufdiagramm, das ein Objektpositionierungsverfahren gemäß einer Ausführungsform der Erfindung veranschaulicht. Bei der vorliegenden Ausführungsform ist die erste Position P1 jedes Objekts eine Tiefe des Objekts relativ zu der handgehaltenen Vorrichtung 100, und die zweite Position P2 jedes Objekts ist ein Azimut des Objekts relativ zu der handgehaltenen Vorrichtung 100. In Schritt 305 emittiert der Radarsensor 120 eine Detektionswelle und empfängt reflektierte Wellen der Objekte. In Schritt 310 extrahiert die Steuereinheit 160 eine Wellenformsignatur der reflektierten Welle jedes Objekts. In Schritt 315 erkennt die Steuereinheit 160 die Wellenformsignatur gemäß der Wellenformsignaturdatenbank, um den ersten Typ T1 des Objekts zu bestimmen. In Schritt 320 berechnet die Steuereinheit 160 eine Tiefe jedes Objekts gemäß einer Ankunftszeit der reflektierten Welle des Objekts.
-
Andererseits erfasst in Schritt 325 der Bildsensor 140 ein Bild. In Schritt 330 korrigiert die Steuereinheit 160 das Bild, d. h. sie beseitigt die durch einen Erfassungswinkel verursachte Bildverzerrung. In Schritt 335 identifiziert die Steuereinheit 160 das Bild, d. h. sie extrahiert eine Bildsignatur und identifiziert die Bildsignatur gemäß der Bildsignaturdatenbank, um den zweiten Typ T2 des Objekts zu bestimmen. In Schritt 340 bestimmt die Steuereinheit 160 einen Azimut des Objekts im Hinblick darauf, ob das Objekt in dem Bild vorhanden ist. Bei der vorliegenden Ausführungsform weisen die Azimute zwei Typen auf, die einer Situation, bei der das Objekt in dem Bild vorhanden ist, bzw. einer Situation, bei der das Objekt nicht in dem Bild vorhanden ist, entsprechen.
-
Dann führt in Schritt 345 die Steuereinheit 160 ein Objekt-Mapping durch, um die Tiefe und den Azimut des Objekts auf eine in 2 gezeigte Weise zu kombinieren. In Schritt 350 überprüft die Steuereinheit 160, ob der erste Typ T1 und der zweite Typ T2 des Objekts ein bestimmter Typ sind und die Tiefe und der Azimut des Objekts innerhalb eines bestimmten Bereichs liegen. Der bestimmte Typ kann der Typ Mensch oder ein anderes Tier mit physiologischen Bewegungsabläufen wie etwa Atmen, Herzschlag etc. sein. Der bestimmte Bereich bezieht sich darauf, dass sich das Objekt in dem Bild befindet und die Tiefe des Objekts innerhalb eines zuvor bestimmten Bereichs (zum Beispiel 1,3-1,7 Meter) liegt, der zum Messen der physiologischen Bewegungsabläufe geeignet ist.
-
Wenn der Prüfvorgang von Schritt 350 ein negatives Ergebnis liefert, kehrt der Ablauf zu den Schritten 305 und 325 zurück. Wenn der Prüfvorgang von Schritt 350 ein positives Ergebnis liefert, steuert in Schritt 355 die Steuereinheit 160 den Radarsensor 120, um eine weitere Detektionswelle zu emittieren und reflektierte Wellen des Objekts zu empfangen. Sowohl die Detektionswelle in Schritt 305 als auch die in Schritt 355 umfassen eine Vielzahl von Impulsen und ein Impulsintervall der Detektionswelle von Schritt 305 ist größer als ein Impulsintervall der Detektionswelle von Schritt 344. Zum Beispiel wird in Schritt 305 die Detektionswelle mit dem Impulsintervall von 1 ms emittiert und in Schritt 355 wird die Detektionswelle mit dem Impulsintervall von 0,1 ms emittiert. Die Detektionswelle von Schritt 305 kann zum Bestimmen einer Objektposition verwendet werden. In Schritt 360 kann die Steuereinheit 160 die Detektionswelle von Schritt 355 verwenden, um fast unmerkliche physiologische Bewegungsabläufe wie etwa Atmen oder Herzschlag etc. zu detektieren. Die vorliegende Ausführungsform kann für die medizinische Überwachung älterer Menschen, von Kleinkindern, verletzten Personen oder Patienten angewendet werden.
-
4 ist ein Ablaufdiagramm, das ein Objektpositionierungsverfahren gemäß einer Ausführungsform der Erfindung veranschaulicht. Bei der vorliegenden Ausführungsform ist die erste Position P1 jedes Objekts eine Tiefe des Objekts relativ zu der handgehaltenen Vorrichtung 100, und die zweite Position P2 jedes Objekts ist ein Azimut des Objekts relativ zu der handgehaltenen Vorrichtung 100. Die Schritte 405-420 sind dieselben wie die Schritte 305-320. Die Schritte 425 bzw. 430 sind dieselben wie die Schritte 325 bzw. 330. Die Schritte 435 und 440 werden in der Ausführungsform von 2 eingeführt.
-
Dann erhält in Schritt 445 die Steuereinheit 160 einen Azimut jedes Objekts gemäß dem von dem Bildsensor 140 erfassten Bild. Genauer gesagt kann die Steuereinheit 160 das Bild in eine Vielzahl von Bereiche unterteilen und sie weist jedem Bereich einen entsprechenden Azimut zu und legt dann den Azimut jedes Objekts als den Azimut fest, welcher dem Bereich entspricht, einschließlich dem Objekt in den Bereichen. Der oben erwähnte Azimut kann ein eindimensionaler oder zweidimensionaler Azimut sein.
-
Dann führt in Schritt 450 die Steuereinheit 160 ein Objekt-Mapping durch, um die Tiefe und den Azimut jedes Objekts zu kombinieren. Auf diese Weise wird eine vollständige Position jedes Objekts in dem 3D-Raum erhalten, die zum Konstruieren eines 3D-Bilds oder einer Szene der virtuellen Realität angewendet werden kann oder zum erneuten Scharfstellen einer Vielzahl der Objekte angewendet werden kann.
-
5 ist ein Ablaufdiagramm, das ein Objektpositionierungsverfahren gemäß einer Ausführungsform der Erfindung veranschaulicht. Bei der vorliegenden Ausführungsform sind die erste Position P1 und die zweite Position P2 jedes Objekts alles Tiefen des Objekts relativ zu der handgehaltenen Vorrichtung 100 und die zwei Tiefen werden von dem Radarsensor 120 bzw. dem Bildsensor 140 erhalten. Der Bildsensor 140 der vorliegenden Ausführungsform kann das menschliche Auge simulieren, um gleichzeitig zwei Bilder zu erfassen, die einem linken Auge bzw. einem rechten entsprechen, so dass die Objekte in beiden Bildern vorhanden sind.
-
Die Schritte 505-520 sind dieselben wie die Schritte 305-320. In Schritt 525 erfasst der Bildsensor 140 zwei Bilder. In Schritt 530 korrigiert die Steuereinheit 160 jeweils die zwei Bilder und in Schritt S535 extrahiert die Steuereinheit 160 Bildsignaturen der Objekte in den zwei Bildern. In Schritt 540 identifiziert die Steuereinheit 160 die Bildsignaturen gemäß der Bildsignaturdatenbank, um den zweiten Typ T2 jedes Objekts zu bestimmen. In Schritt 545 erhält die Steuereinheit 160 unter Verwendung einer Bildsignaturübereinstimmung der zwei Bilder eine Ungleichheit und wandelt die Ungleichheit in die Tiefe des Objekts um.
-
Dann führt in Schritt 550 die Steuereinheit 160 ein Objekt-Mapping durch, um die Tiefe des Objekts, berechnet gemäß der reflektieren Radarwelle, und die Tiefe, berechnet gemäß dem Bild, zu vergleichen, und in Schritt 555 überprüft die Steuereinheit 160, ob die zwei Tiefen gleich sind. Sind die zwei Tiefen gleich, erzeugt in Schritt 560 die Steuereinheit 160 Tiefeninformationen der Objekte gemäß den zwei Tiefen. Die Tiefeninformationen können zum Konstruieren eines 3D-Bilds oder einer Szene der virtuellen Realität angewendet werden oder zum erneuten Scharfstellen einer Vielzahl der Objekte angewendet werden.
-
Sind die zwei Tiefen nicht gleich, passt in Schritt 565 die Steuereinheit 160 die Bildsignatur des Objekts an und der Ablauf kehrt zu Schritt 545 zurück, um die von der Bildsignatur herrührende Tiefe des Objekts erneut zu berechnen und das Objekt-Mapping von Schritt 550 erneut durchzuführen. Die Anpassung von Schritt 565 ist das Vernachlässigen der Bildsignatur entsprechend der ungleichen Tiefe oder das erneute Auswählen der Bildsignatur des Objekts entsprechend der ungleichen Tiefe.
-
Bei der vorliegenden Ausführungsform wird der Radar verwendet, um dabei zu helfen, die korrekte Objekttiefe zu erhalten. Ist das Bild zu komplex oder zu monoton, ist die lediglich gemäß dem Bild geschätzte Tiefe vermutlich ungenau und falls die gemäß der Radardetektion erzeugte Tiefe zum Vergleich hinzugenommen wird, kann das oben erwähnte Problem gelöst werden.
-
Die Erfindung stellt auch ein nicht transitorisches computerlesbares Aufzeichnungsmedium bereit, und das Aufzeichnungsmedium kann eine physische Speichervorrichtung wie etwa ein Speicher, eine Magnetplatte oder eine CD sein. Auf dem Aufzeichnungsmedium kann ein Computerprogramm gespeichert sein. Wenn die handgehaltene Vorrichtung das Computerprogramm lädt und ausführt, wird das zuvor erwähnte Objektpositionierungsverfahren implementiert.
-
Zusammenfassend ausgedrückt werden in der Erfindung der Radarsensor und der Bildsensor gleichzeitig verwendet, um die Tiefen und die Azimute der Objekte zu schätzen, um eine vollständige Objektposition zu erhalten. In der Erfindung werden durch die Kollaboration und das Mapping der von dem Radarsensor und dem Bildsensor erhaltenen Informationen die korrekten Objekttiefen und Objektpositionen erhalten. Auf diese Weise wird eine korrekte Bildverarbeitung erzielt und es wird ein besserer 3D-Bild-Anwendungseffekt umgesetzt.
-
Fachleuten wird es offensichtlich sein, dass an der Struktur der Erfindung verschiedene Abwandlungen und Variationen vorgenommen werden können, ohne von dem Umfang oder Wesen der Erfindung abzuweichen. Im Hinblick auf das Vorhergenannte wird beabsichtigt, dass die Erfindung Abwandlungen und Variationen dieser Erfindung abdeckt, vorausgesetzt, sie fallen in den Umfang der nachfolgenden Patentansprüche und ihrer Äquivalente.