DE102017117212A9 - System and method for stereotriangulation - Google Patents
System and method for stereotriangulation Download PDFInfo
- Publication number
- DE102017117212A9 DE102017117212A9 DE102017117212.2A DE102017117212A DE102017117212A9 DE 102017117212 A9 DE102017117212 A9 DE 102017117212A9 DE 102017117212 A DE102017117212 A DE 102017117212A DE 102017117212 A9 DE102017117212 A9 DE 102017117212A9
- Authority
- DE
- Germany
- Prior art keywords
- camera
- light
- source
- reflected light
- reflected
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/02—Systems using the reflection of electromagnetic waves other than radio waves
- G01S17/06—Systems determining position data of a target
- G01S17/46—Indirect determination of position data
- G01S17/48—Active triangulation systems, i.e. using the transmission and reflection of electromagnetic waves other than radio waves
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/86—Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/87—Combinations of systems using electromagnetic waves other than radio waves
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
- G01S17/93—Lidar systems specially adapted for specific applications for anti-collision purposes
- G01S17/931—Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/10—Image acquisition
- G06V10/12—Details of acquisition arrangements; Constructional details thereof
- G06V10/14—Optical characteristics of the device performing the acquisition or on the illumination arrangements
- G06V10/147—Details of sensors, e.g. sensor lenses
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Electromagnetism (AREA)
- General Physics & Mathematics (AREA)
- Remote Sensing (AREA)
- Radar, Positioning & Navigation (AREA)
- Computer Networks & Wireless Communication (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Vascular Medicine (AREA)
- Length Measuring Devices By Optical Means (AREA)
Abstract
Ein System zum Erfassen eines Objekts (130) weist eine im Wesentlichen kollimierte Abtastlichtquelle (120, 234, 300) auf, die konfiguriert ist, ein Quelllicht auszugeben; eine erste Kamera (110), die konfiguriert ist, ein erstes reflektiertes Licht zu empfangen, wobei das erste reflektierte Licht das von dem Objekt (130) zu der ersten Kamera (110) reflektierte Quelllicht ist; eine zweite Kamera (112), die konfiguriert ist, ein zweites reflektiertes Licht zu empfangen, wobei das zweite reflektierte Licht das von dem Objekt (130) zu der zweiten Kamera (112) reflektierte Quelllicht ist, und wobei die zweite Kamera (112) von der ersten Kamera räumlich getrennt ist; und einen oder mehrere Prozessoren (210), die konfiguriert sind, die Abtastlichtquelle (120, 234, 300), die erste Kamera (110) und die zweite Kamera (112) zu steuern; und das erste reflektierte Licht und das zweite reflektierte Licht zu verarbeiten, um das Objekt (130) zu erfassen.A system for detecting an object (130) comprises a substantially collimated scanning light source (120, 234, 300) configured to output source light; a first camera (110) configured to receive a first reflected light, wherein the first reflected light is the source light reflected from the object (130) to the first camera (110); a second camera (112) configured to receive a second reflected light, wherein the second reflected light is the source light reflected from the object (130) to the second camera (112), and wherein the second camera (112) of the first camera is spatially separated; and one or more processors (210) configured to control the scanning light source (120, 234, 300), the first camera (110), and the second camera (112); and process the first reflected light and the second reflected light to detect the object (130).
Description
Verwandte Anmeldung(en)Related Application (s)
Diese Anmeldung beansprucht die Priorität der vorläufigen US Anmeldung 62/369,879, eingereicht am 2. August 2016, deren Offenbarung hierin in ihrer Gesamtheit durch Bezugnahme aufgenommen ist.This application claims the benefit of US Provisional Application 62 / 369,879, filed on Aug. 2, 2016, the disclosure of which is incorporated herein by reference in its entirety.
Hintergrundbackground
Die vorliegende Offenbarung bezieht sich auf ein Abstandsmessen, und insbesondere auf eine Stereotriangulation. Für Stereo-Vision-Systeme zum Messen von Abständen und 3-D Bildgebung werden vielfältige Bemühungen unternommen, allerdings sind diese Bemühungen zeitintensiv und könnten teure Vorrichtungen erfordern.The present disclosure relates to distance measurement, and more particularly to stereotriangulation. A variety of efforts are being made for stereo vision systems to measure distances and 3-D imaging, but these efforts are time-consuming and may require expensive equipment.
Verschiedene Einschränkungen und Nachteile von konventionellen und traditionellen Ansätze werden für den Fachmann offensichtlich werden, durch Vergleich von solchen System mit einigen Aspekten der vorliegenden Offenbarung, wie im dem Rest der Anmeldung in Bezug auf die Zeichnungen dargestellt.Various limitations and disadvantages of conventional and traditional approaches will become apparent to those skilled in the art by comparing such system with some aspects of the present disclosure as illustrated in the remainder of the application with reference to the drawings.
ZusammenfassungSummary
Es wird ein System und/oder ein Verfahren zur Stereotriangulation, im Wesentlichen wie in und/oder in Verbindung mit wenigstens einer der Zeichnungen dargestellt, beschrieben.A system and / or method for stereotriangulation, substantially as depicted in and / or in conjunction with at least one of the drawings, is described.
Verschiedene Vorteile, Aspekte und neue Merkmale der vorliegenden Offenbarung, ebenso wie Details einer illustrierten Ausführungsform davon, werden von der folgenden Beschreibung und Zeichnungen besser verstanden werden.Various advantages, aspects, and novel features of the present disclosure, as well as details of an illustrated embodiment thereof, will be better understood from the following description and drawings.
Kurze Beschreibung der ZeichnungenBrief description of the drawings
Das Obige und andere Aufgaben, Merkmale und Vorteile der vorliegenden Offenbarung werden aus der folgenden detaillierten Beschreibung in Verbindung mit den begleitenden Zeichnungen ersichtlich werden, in welchen:The above and other objects, features and advantages of the present disclosure will become more apparent from the following detailed description when taken in conjunction with the accompanying drawings, in which:
Detaillierte BeschreibungDetailed description
Die vorliegenden Ausführungsformen sollten nicht als auf die hier dargelegten Beschreibungen beschränkt ausgelegt werden. Diese Ausführungsformen sind vielmehr als Beispiele vorgesehen, sodass diese Offenbarung gründlich und komplett sein wird und das Konzept der vorliegenden Ausführungsformen einem Durchschnittsfachmann vermittelt wird. Die angehängten Ansprüche illustrieren einige der Ausführungsformen der vorliegenden Offenbarung.The present embodiments should not be construed as limited to the descriptions set forth herein. Rather, these embodiments are provided as examples, so that this disclosure will be thorough and complete, and the concept of the present embodiments will be conveyed to one of ordinary skill in the art. The appended claims illustrate some of the embodiments of the present disclosure.
Gleiche Bezugszeichen beziehen sich, durch die Spezifikation hindurch, auf gleiche Elemente. Alle hierin verwendeten Ausdrücke, die beschreibende oder technische Ausdrücke enthalten, sollten derart ausgelegt werden, dass sie Bedeutungen haben, die für einen Durchschnittsfachmann offensichtlich sind. Wenn ein Ausdruck wegen sich entwickelnder Sprache, Präzedenzfällen oder dem Auftreten von neuen Technologien eine mehrdeutige Bedeutung aufweist, sollte die Bedeutung eines in dieser Offenbarung verwendeten Ausdrucks, zuerst durch seine Verwendung und/oder Definition in dieser Offenbarung klargestellt werden. Der Ausdruck sollte dann so klargestellt werden, wie ein Durchschnittsfachmann den Ausdruck zur Zeit dieser Offenbarung verstanden hätte.Like reference numerals refer to like elements throughout the specification. All terms used herein that include descriptive or technical terms should be construed to have meanings that are obvious to one of ordinary skill in the art. When an expression has ambiguous meaning due to evolving language, precedents or the advent of new technologies, the meaning of an expression used in this disclosure should be clarified, first by its use and / or definition in this disclosure. The term should then be clarified as one of ordinary skill in the art would have understood the term at the time of this disclosure.
Wenn ein Teil ein Element „enthält” oder „aufweist”, kann der Teil ferner weitere Elemente enthalten, es sei denn es gibt diesbezüglich eine gegenteilige Angabe. Der Ausdruck „Einheit” bei den Ausführungsformen der vorliegenden Offenbarung bedeutet eine Softwarekomponente oder eine Hardwarekomponente, die eine spezifische Funktion durchführt. Die Hardwarekomponente könnte zum Beispiel einen Field-Programmable-Gate-Array (FPGA) oder eine anwendungsspezifische integrierte Schaltung (ASIC) enthalten.If a part "contains" or "comprises" an element, the part may further contain other elements, unless there is an indication to the contrary. The term "unit" in the embodiments of the present disclosure means a software component or a hardware component that performs a specific function. The hardware component could include, for example, a Field Programmable Gate Array (FPGA) or an Application Specific Integrated Circuit (ASIC).
Software, oder Softwarekomponente, könnte sich auf ausführbaren Code und/oder sich auf von dem ausführbaren Code verwendete Daten in einem adressierten Speichermedium beziehen. Somit könnte Software zum Beispiel objektorientierte Softwarekomponenten, Klassenkomponenten und Taskkomponenten sein und könnte Prozesse, Funktionen, Attribute, Prozeduren, Unterroutinen, Segmente von Programmcode, Treiber, Firmware, Anwendungsprogramme, Micro-Code/Schaltkreise, Daten, eine Datenbank, Datenstrukturen, Tabellen, Arrays oder Variablen enthalten.Software, or software component, could refer to executable code and / or data used by the executable code in an addressed storage medium. Consequently For example, software could be object-oriented software components, class components, and task components, and could include processes, functions, attributes, procedures, subroutines, segments of program code, drivers, firmware, application programs, microcode / circuits, data, a database, data structures, tables, arrays, or Contain variables.
Eine von einer „Einheit” vorgesehene Funktion könnte in zusätzliche Komponenten und „Einheiten” unterteilt sein.A function provided by a "unit" could be divided into additional components and "units".
Nun wird in Detail auf Ausführungsformen Bezug genommen werden, Beispiele davon sind in den begleitenden Zeichnungen illustriert. Diesbezüglich könnten die vorliegenden Ausführungsformen unterschiedliche Formen aufweisen und sollten nicht auf die hierin dargelegten Beschreibungen beschränkt ausgelegt werden.Reference will now be made in detail to embodiments, examples of which are illustrated in the accompanying drawings. In this regard, the present embodiments may have different forms and should not be construed as limited to the descriptions set forth herein.
In der folgenden Beschreibung werden wohlbekannte Funktionen und Konstruktionen nicht im Detail beschrieben werden, um die Ausführungsform nicht mit unnötigen Details zu verschleiern.In the following description, well-known functions and constructions will not be described in detail so as not to obscure the embodiment with unnecessary detail.
Verschiedene Ausführungsformen könnten eine verschiedene horizontale und/oder vertikale Auflösung für spezifische Zwecke bereitstellen. Zum Beispiel könnten einige Ausführungsformen 1080 Pixellinien mit 1920 Pixel per Linie aufweisen. Um verschiedene Beschreibungen in dieser Offenbarung zu vereinfachen, wird eine Annahme von 1080 Linien per Einzelbild und 1920 Pixeln per Linie gemacht werden, mit dem vollen Verständnis, dass dies nicht den Umfang der Offenbarung auf irgendeine spezifische Anzahl von Linien per Einzelbild oder Pixel per Linie beschränkt.Various embodiments could provide a different horizontal and / or vertical resolution for specific purposes. For example, some embodiments could have 1080 pixel lines with 1920 pixels per line. To simplify various descriptions in this disclosure, an assumption of 1080 lines per frame and 1920 pixels per line will be made, with the full understanding that this does not limit the scope of the disclosure to any specific number of lines per frame or pixel per line ,
Außerdem können, da der Abstand zwischen den Kameras
Eine strukturierte Lichtsequenz, wie zum Beispiel die Bruijn Sequenz, könnte für eine Bildgebung im Allgemeinen, einschließlich für eine 3-D Bildgebung, verwendet werden, um eine Bilderfassung zu optimieren. Allerdings sind verschiedene Ausführungsformen der Offenbarung nicht auf ein Verwenden von strukturierten Lichtsequenzen beschränkt. Zudem könnten verschiedene Ausführungsformen der Offenbarung es dem Abtaster
Verschiedene Ausführungsformen könnten auch die horizontale Bewegung
Außerdem könnte der Abtaster
Auf diese Art könnten es verschiedene Ausführungsformen der Offenbarung ermöglichen, einen Start eines horizontalen Sweeps und einen horizontalen Sweep-Bereich zu spezifizieren. Ebenso könnte der Start des vertikalen Sweeps spezifiziert werden, und auch der vertikale Sweep-Bereich.In this way, various embodiments of the disclosure may allow for specifying a start of a horizontal sweep and a horizontal sweep range. Similarly, the start of the vertical sweep could be specified, as well as the vertical sweep range.
Die Kameras
Außerdem könnten es einige Ausführungsformen ermöglichen, die Kameras so zu steuern, dass sie einen gewissen Betrag schwenken. Dies könnte zum Beispiel ermöglichen, dass jede einzelne Kamera
Verschiedene Ausführungsformen der Offenbarung könnten es auch ermöglichen, dass der Abtaster
Während
Außerdem könnten die Kameras
Außerdem könnten, während beschrieben wurde, dass der Abtaster
Verschiedene Ausführungsformen der Offenbarung könnten den Abtaster
Zusätzlich könnten, wie oben beschrieben, die Kameras
Verschiedene Ausführungsformen könnten auch einen Abtaster
Entsprechend könnten die Kameras
Ein Abtaster
Verschiedene Ausführungsformen der Offenbarung könnten, während der Abtaster in dem Scheinwerfer in Bezug auf eine Fahrzeugplattform beschrieben wurde, den Abtaster in einer Scheinwerfer-Ausführungsform in irgendeinem Fahrzeug (Land, Luft, Wasser, Weltraum, etc.) gebrauchen, und auch mit anderen Arten von Licht, wie zum Beispiel einem Blitzlicht, welches mit einer empfangenden Kamera(s) auf einer Person synchronisiert ist. Eine Ausführungsform der Offenbarung kann, wie von einem Durchschnittsfachmann gesehen werden kann, in beliebig vielen Szenarien verwendet werden.Various embodiments of the disclosure, while the scanner has been described in the headlamp with respect to a vehicle platform, could use the scanner in a headlamp embodiment in any vehicle (land, air, water, space, etc.), as well as other types of vehicles Light, such as a flash, which is synchronized with a receiving camera (s) on a person. An embodiment of the disclosure may be used in as many scenarios as one of ordinary skill in the art can appreciate.
Der Prozessor
Der Prozessor
Ein Verwenden von zwei Kameras
Die vorliegende Offenbarung beschränkt weder die Anzahl der Kameras, die mit einem einzelnen Abtaster verwendet werden können, noch das Verhältnis von Kameras zu Abtaster, noch die Anzahl von Abtaster/Kamera(s) Konfigurationen, die auf einer gegebenen Plattform verwendet werden können. Die Abtaster/Kamera(s) Konfigurationen könnten unabhängig verwendet werden oder zum Bearbeiten eines ähnlichen Objekts (Objekten) oder Bereiche der Umgebung. Zum Beispiel können eine oder mehrere Abtaster(s)/Kamera(s) Konfigurationen verwendet werden, um 360-Grad (oder weniger) 3-D Ausgaben zu erzeugen. In manchen Fällen kann die Ausgabe 2-D sein.The present disclosure does not limit the number of cameras that can be used with a single scanner, nor the ratio of cameras to scanner, nor the number of scanner / camera (s) configurations that can be used on a given platform. The scanner / camera (s) configurations could be used independently or to manipulate a similar object (s) or areas of the environment. For example, one or more scanner (s) / camera (s) configurations may be used to generate 360-degree (or less) 3-D outputs. In some cases, the output may be 2-D.
Während beschrieben wurde, dass der Abtaster
Dies ermöglicht höhere Einzelbildraten und gute Schwachlichtleistung zum Beispiel durch die Kameras
Ein Rolling-Shutter-Kamera-Prozess könnte zum Beispiel eine Farbcodierung durch den Abtaster
Darüber hinaus ist durch die Verwendung von beispielsweise dem Abtaster
Während sich die obige Beschreibung auf den Rolling-Shutter-Kamera-Prozess für eine Reihe von Pixeln, die gleichzeitig verarbeitet werden, bezieht, brauchen verschiedene Ausführungsformen der Offenbarung nicht so beschränkt sein. Zum Beispiel könnte eine kleinere Anzahl von Pixeln gleichzeitig belichtet werden. Die Anzahl der belichteten Pixel könnte so wenig wie beispielsweise ein Pixel zu einer Zeit sein. Dementsprechend kann man sehen, dass die Umgebungslichteingabe zu einem Pixel noch mehr reduziert werden kann, wenn das Bild pixelweise verarbeitet wird. Es könnte verschiedene Verfahren zum Steuern der mit Licht beleuchteten Pixel geben, einschließlich beispielsweise das Steuern jedes Pixels oder einer Gruppe von Pixeln, um Licht zu einem geeigneten Zeitpunkt zu empfangen. Der Abtaster
Wenn jedoch eine Korrelation von Information von der reduzierten Anzahl von Pixeln für die beiden Kameras schwieriger wird, so könnte die Anzahl von Pixeln periodisch erhöht werden oder wie erforderlich, um die von den verschiedenen Kameras empfangenen Informationen zu synchronisieren.However, if correlation of information from the reduced number of pixels becomes more difficult for the two cameras, the number of pixels could be increased periodically or as required to synchronize the information received from the various cameras.
Wenn ein Pixel nach dem anderen verarbeitet wird, könnten sie als Voxel betrachtet werden, wo die Zeitcodierung jedem Voxel seine dritte Dimension der Tiefe geben könnte. Da aufgrund der Zeitcodierung nicht für jedes Voxel eine Codierung oder Decodierung notwendig ist, kann die Verarbeitung vereinfacht werden. Entsprechend kann die Latenz aufgrund der Verarbeitung gemindert werden.When one pixel after another is processed, they could be considered as voxels, where the time encoding could give each voxel its third dimension of depth. Since coding or decoding is not necessary for each voxel due to the time coding, the processing can be simplified. Accordingly, the latency due to the processing can be alleviated.
Daher kann man sehen, dass sich eine Ausführungsform der vorliegenden Offenbarung auf ein Verfahren und ein System zur Stereotriangulation bezieht, das auch für die 3D-Abbildung der Umgebung verwendet werden kann, und das Rollbelichtungs-RGB-Kameras aufweist, wobei RGB-Reihendaten aus jeder Reihe gelesen werden, nachdem die Belichtungszeit für diese Reihe beendet ist, während die nächste Reihe dem Licht ausgesetzt wird, und wobei die RGB-Reihendaten nach dem Lesen der RGB-Reihendaten verarbeitet werden. Wie oben bemerkt, kann die Anzahl der gleichzeitig belichteten Pixel kleiner als eine Reihe sein. Dementsprechend kann man sehen, dass das Rollbelichtungs-(oder Rolling-Shutter-)Verfahren einen signifikanten Vorteil für die Anzahl der verwendeten Kameras bietet, sei es eine oder zwei oder mehrere Kameras.Therefore, it can be seen that one embodiment of the present disclosure relates to a method and system for stereotriangulation that can also be used for 3D imaging of the environment, and that has roll-exposure RGB cameras, where RGB Row data is read from each row after the exposure time for that row is completed while exposing the next row to the light, and the RGB row data is processed after reading the RGB row data. As noted above, the number of simultaneously exposed pixels may be less than one row. Accordingly, it can be seen that the roll exposure (or rolling shutter) method provides a significant advantage to the number of cameras used, be it one or two or more cameras.
Die Verwendung eines Abtasters verringert die Menge an Verarbeitungs-Overhead für Bilder, die von den Kameras empfangen werden, stark, und die Verwendung des Rolling-Belichtungsverfahrens ermöglicht eine extrem geringe Latenz, da es möglich ist, Triangulationsdaten Reihe für Reihe auszulesen. Wenn die Pixel jeweils einzeln (oder ein paar Pixel gleichzeitig) ausgelesen werden, wobei jedes Pixel als Voxel zeitcodiert ist, kann die Verarbeitungslatenz erheblich reduziert oder eliminiert werden. Dementsprechend könnten 3-D-Bilder mit einem Bruchteil der Verarbeitung erzeugt werden, die erforderlich ist, wenn kein Abtaster und/oder keine Rollbelichtung verwendet wird.The use of a scanner greatly reduces the amount of processing overhead for images received from the cameras, and the use of the rolling exposure technique allows extremely low latency since it is possible to read triangulation data row by row. If the pixels are read out one at a time (or a few pixels at a time) with each pixel time-coded as a voxel, the processing latency can be significantly reduced or eliminated. Accordingly, 3-D images could be generated with a fraction of the processing required when no scanner and / or roll exposure is used.
Während verschiedene Ausführungsformen für funktionelle Verwendungen der vorliegenden Offenbarung beschrieben worden sind, sollte verstanden werden, dass die Verwendungen nicht nur auf die offenbarten Beispiele beschränkt sind. Zusätzlich könnten, während beschrieben wurde, dass die Rollbelichtung-Kameras eine einzelne Reihe gleichzeitig belichten, verschiedene Ausführungsformen mehr als eine Reihe gleichzeitig belichten. Zum Beispiel könnten zwei oder mehrere Reihen gleichzeitig belichtet werden, oder eine Teilmenge von Pixeln in einer Reihe könnte gleichzeitig belichtet werden, wobei die Teilmenge aus nur einem Pixel oder mehr als einem Pixel bestehen könnte, abhängig von verschiedenen Designs und/oder Umgebungsbedingungen.While various embodiments have been described for functional uses of the present disclosure, it should be understood that the uses are not limited to the disclosed examples. In addition, while it has been described that the roll exposure cameras expose a single row simultaneously, different embodiments could simultaneously expose more than one row. For example, two or more rows could be exposed simultaneously, or a subset of pixels in a row could be exposed simultaneously, which subset could consist of only one pixel or more than one pixel, depending on different designs and / or environmental conditions.
Während die Offenbarung bisher einen (mehrere) Abtaster beschrieben hat, der mit einer oder mehreren Kameras verwendet wird, könnten andere Ausführungsformen das Abtaster/Kamera(s)-System mit beispielsweise anderen Geräten wie Radar, Lidar, Sonar etc., verwenden. Dementsprechend könnten verschiedene Ausführungsformen jede einen oder mehrere Transmitter aufweisen, die ein Signal projizieren, das strukturierten Sequenzen entsprechen könnte oder nicht, und ein oder mehrere Empfänger die das Signal empfangen, und ein oder mehrere Prozessoren die die empfangenen Signale verarbeiten. In einigen Fällen könnten der Transmitter und der Empfänger getrennte Geräte sein. In anderen Fällen könnten der Transmitter und der Empfänger Teil der gleichen Vorrichtung sein, wie beispielsweise eine Radarantenne, die ein Signal überträgt und eine Reflexion dieses Signals empfängt.While the disclosure so far has described a (multiple) scanner used with one or more cameras, other embodiments could use the scanner / camera (s) system with, for example, other devices such as radar, lidar, sonar, etc. Accordingly, various embodiments could each include one or more transmitters that project a signal that may or may not correspond to structured sequences, and one or more receivers that receive the signal, and one or more processors that process the received signals. In some cases, the transmitter and the receiver could be separate devices. In other cases, the transmitter and the receiver could be part of the same device, such as a radar antenna, which transmits a signal and receives a reflection of that signal.
Diese verschiedenen Ausführungsformen können von jeder Plattform verwendet werden, um Notiz von ihrer umgebenen Umgebung zu nehmen. Dementsprechend könnte jedes Fahrzeug, ob unter voller Kontrolle eines lokalen oder fernen Fahrers/Betreibers, halbautonom oder vollständig autonom, jede der hierin beschriebenen Ausführungsformen verwenden. Das Fahrzeug kann beispielsweise ein Automobil-, Boot-, Flugzeug-, Raumfahrzeug-, Luft-, Land- und/oder Wasser-basierte Drohne, Roboter usw. sein und einen Roboter-Staubsauger, einen Roboter-Rasenmäher usw. enthalten.These various embodiments may be used by any platform to take notice of their surrounding environment. Accordingly, any vehicle, whether under the full control of a local or remote driver / operator, semi-autonomously or fully autonomously, could use any of the embodiments described herein. The vehicle may be, for example, an automobile, boat, aircraft, spacecraft, aerial, land and / or water-based drone, robot, etc., and may include a robotic vacuum cleaner, a robotic lawnmower, etc.
Zudem könnte jede stationäre Plattform die verschiedenen Ausführungsformen verwenden. Ein Leuchtturm könnte zum Beispiel eine oder mehrere der verschiedenen Ausführungsformen verwenden, um Verkehr (möglicherweise Luftverkehr, Landverkehr und/oder Wasserverkehr) zu überwachen und zu steuern, ebenso ein Warnsignal (Licht, Elektronik, Schall, etc.) bereitstellen, um Wasserfahrzeug oder andere Arten von Fahrzeugen vor Gefahr zu warnen. Zusätzlich könnten Luftverkehrssteuersysteme und/oder Verkehrssteuerungssysteme verschiedene Ausführungsformen der Offenbarung verwenden.In addition, each stationary platform could use the various embodiments. For example, a lighthouse could use one or more of the various embodiments to monitor and control traffic (possibly air traffic, land transport, and / or water traffic), as well as provide a warning signal (light, electronics, sound, etc.) to watercraft or others Warn types of vehicles from danger. In addition, air traffic control systems and / or traffic control systems could use various embodiments of the disclosure.
Zusätzlich könnten verschiedene Ausführungsformen der vorliegenden Offenbarung auch für andere Zwecke verwendet werden. Beispielsweise könnten Ausführungsformen für Spiele verwendet werden, die umgebende Objekte (Spielspieler, die als Teil der Spielanzeige etc. eingefügt werden sollen) erfassen, oder durch Personen, die eine Vorrichtung tragen, die verschiedene Ausführungsformen der Offenbarung enthält. Ein Beispiel für eine vom Benutzer getragene Vorrichtung könnte beispielsweise Augmented-Reality-Headsets, Virtual-Reality-Headsets etc. sein. Verschiedene Ausführungsformen der Offenbarung könnten auch verwendet werden, um Sehbehinderte zu führen. In dieser Angelegenheit könnten nicht sehbehinderte Personen auch ein Gerät tragen, das eine Ausführungsform der Offenbarung beinhaltet, um sie vor Hindernissen, Gefahren etc. zu warnen, wenn sie nicht auf ihre Umgebung achten, während sie mobil (Gehen/Joggen/Laufen, Radfahren, Inlineskating, Reiten, Segway etc.) oder stationär sind. Dementsprechend kann man sehen, dass verschiedene Ausführungsformen der Offenbarung für alle Fahrzeugtypen, für Benutzer getragene Vorrichtungen (Headsets, Schutzbrillen usw.) und für verschiedene Vorrichtungen verwendet werden können, die Objekte erfassen und/oder einen Bereich abbilden müssen. Die Offenbarung beschränkt die verschiedenen Ausführungsformen nicht auf irgendeine spezielle Verwendung.Additionally, various embodiments of the present disclosure could be used for other purposes. For example, embodiments could be used for games that capture surrounding objects (game players to be included as part of the game display, etc.) or by people carrying a device that includes various embodiments of the disclosure. An example of a user-carried device could be, for example, augmented reality headsets, virtual reality headsets, etc. Various embodiments of the disclosure could also be used to guide the visually impaired. In this matter, non-visually impaired persons could also carry a device that incorporates an embodiment of the disclosure to warn them of obstacles, hazards, etc., if they are not aware of their surroundings while being mobile (walking / jogging / running, cycling, Inline skating, horseback riding, Segway etc.) or stationary. Accordingly, it can be seen that various embodiments of the disclosure may be used for all vehicle types, user-worn devices (headsets, goggles, etc.), and various devices that need to detect and / or map an area. The disclosure does not limit the various embodiments to any specific use.
Daher kann man sehen, dass verschiedene Ausführungsformen der Offenbarung in vielen Anwendungen verwendet werden können, um den umgebenden Bereich zu erfassen, die erfassten Signale zu analysieren und wie benötigt Antworten zu erzeugen. Die Antwort könnte beispielsweise sein, Ausweichmanöver zu machen, andere Plattformen/Geräte/Personen zu benachrichtigen, was erfasst/analysiert/geantwortet wurde, sowie von anderen ähnlichen Informationen zu empfangen. Somit kann der effektive Bereich, der für das Erfassen/Analysieren/Antworten-Schema abgedeckt ist, stark gegenüber dem, was durch eine einzige Plattform erreicht werden kann, erhöht werden, indem Informationen mit mindestens einer anderen Plattform geteilt wird. Die verschiedenen Informationen können direkt oder über Drittanbieter-Plattformen oder das Internet/Cloud geteilt werden. Dementsprechend könnten verschiedene Objekte (mobil und stationär), ein Zustand der Straßen, ein Verkehr auf den Straßen, in der Luft und/oder das Wasser im Laufe der Zeit verfolgt werden, und korrekte Antworten können nach Bedarf gemacht werden. Therefore, it can be seen that various embodiments of the disclosure may be used in many applications to detect the surrounding area, analyze the detected signals, and generate responses as needed. For example, the answer might be to make evasive maneuvers, notify other platforms / devices / people of what has been collected / analyzed / responded, as well as receiving other similar information. Thus, the effective range covered for the Acquire / Analyze / Reply scheme can be greatly increased over what can be achieved by a single platform by sharing information with at least one other platform. The various information can be shared directly or through third-party platforms or the Internet / Cloud. Accordingly, various objects (mobile and stationary), a condition of the roads, a traffic on the streets, in the air, and / or the water could be tracked over time, and correct answers can be made as needed.
Eine Ausführungsform der Offenbarung könnte ein System zum Erfassen eines Objekts sein, das eine im wesentlichen kollimierte Abtastlichtquelle aufweist, die konfiguriert ist, Quelllicht auszugeben. Eine erste Kamera könnte konfiguriert sein, das erste reflektierte Licht zu empfangen, wobei das erste reflektierte Licht das von dem Objekt zu der ersten Kamera reflektierte Quelllicht ist. Eine zweite Kamera könnte konfiguriert sein, das zweite reflektierte Licht zu empfangen, wobei das zweite reflektierte Licht das von dem Objekt zu der zweiten Kamera reflektierte Quelllicht ist und die zweite Kamera ist von der ersten Kamera räumlich getrennt. Ein oder mehrere Prozessoren können so konfiguriert sein, dass sie die kollimierte Abtastlichtquelle, die erste Kamera und die zweite Kamera steuern und das erste reflektierte Licht und das zweite reflektierte Licht verarbeiten, um das Objekt zu erfassen. Die erste Kamera, die zweite Kamera und die kollimierte Abtastlichtquelle könnten konfiguriert sein, sich auf einer Epipolarebene zu befinden.An embodiment of the disclosure could be a system for detecting an object having a substantially collimated scanning light source configured to output source light. A first camera could be configured to receive the first reflected light, wherein the first reflected light is the source light reflected from the object to the first camera. A second camera could be configured to receive the second reflected light, wherein the second reflected light is the source light reflected from the object to the second camera, and the second camera is spatially separated from the first camera. One or more processors may be configured to control the collimated scanning light source, the first camera and the second camera and process the first reflected light and the second reflected light to detect the object. The first camera, the second camera and the collimated scanning light source could be configured to be at an epipolar plane.
Die kollimierte Abtastlichtquelle könnte konfiguriert sein, ihren horizontalen Sweep-Bereich und/oder vertikalen Sweep-Bereich zu verändern. Die erste Kamera und/oder die zweite Kamera könnten in der Lage sein horizontal und/oder vertikal zu schwenken. Die kollimierte Abtastlichtquelle könnte konfiguriert sein, eine Intensität des Quelllichts zu verändern. Die kollimierte Abtastlichtquelle könnte das Quelllicht als Rasterausgabe ausgeben.The collimated scanning light source could be configured to change its horizontal sweep range and / or vertical sweep range. The first camera and / or the second camera may be able to pan horizontally and / or vertically. The collimated scanning light source could be configured to vary an intensity of the source light. The collimated scanning light source could output the source light as a raster output.
Eine andere Ausführungsform der Offenbarung könnte ein Verfahren zum Erfassen eines Objekts sein, das aufweist, Ausgeben von Quelllicht durch eine im Wesentlichen kollimierte Abtastlichtquelle, Empfangen von erstem reflektierten Licht durch eine erste Kamera, wobei das erste reflektierte Licht von dem Objekt zu der ersten Kamera reflektiertes Quelllicht ist, und Empfangen eines zweiten reflektierten Lichts durch eine zweite Kamera, wobei das zweite reflektierte Licht das von dem Objekt zu der zweiten Kamera reflektierte Quelllicht ist, und die zweite Kamera ist von der ersten Kamera räumlich getrennt. Wenigstens ein Prozessor könnte die kollimierte Abtastlichtquelle, die erste Kamera und die zweite Kamera steuern und eines oder beides von dem ersten reflektierten Licht und dem zweiten reflektierten Licht verarbeiten, um das Objekt zu erfassen. Die erste Kamera, die zweite Kamera und die kollimierte Abtastlichtquelle sind auf einer Epipolarebene. Der Sweep-Bereich der kollimierten Abtastlichtquelle könnte horizontal und/oder vertikal variiert werden, und eine Intensität des Quelllichts der kollimierten Abtastlichtquelle könnte auch variiert werden.Another embodiment of the disclosure could be a method of detecting an object comprising outputting source light through a substantially collimated scanning light source, receiving first reflected light through a first camera, wherein the first reflected light reflects from the object to the first camera Is source light, and receiving a second reflected light through a second camera, wherein the second reflected light is the source light reflected from the object to the second camera, and the second camera is spatially separated from the first camera. At least one processor could control the collimated scanning light source, the first camera, and the second camera and process one or both of the first reflected light and the second reflected light to detect the object. The first camera, the second camera and the collimated scanning light source are on an epipolar plane. The sweep range of the collimated scanning light source could be varied horizontally and / or vertically, and an intensity of the source light of the collimated scanning light source could also be varied.
Die erste Kamera und die zweite Kamera könnten das erste reflektierte Licht beziehungsweise das zweite reflektierte Licht durch einen Rolling-Shutter-Kamera-Prozess empfangen. Wenigstens ein Prozessor könnte gleichzeitig eine Reihe von Pixeln oder gleichzeitig einen Teil einer Reihe von Pixel (einschließlich eines einzelnen Pixels) von der ersten Kamera und/oder der zweiten Kamera verarbeiten. Wenn die Pixel pixelweise verarbeitet werden, könnte jeder Pixel zeitcodiert sein. Das Objekt könnte durch Verwenden eines Dreiecks trianguliert werden, wobei die Eckpunkte das Objekt, die erste Kamera und die zweite Kammer sind.The first camera and the second camera could receive the first reflected light and the second reflected light, respectively, through a rolling shutter camera process. At least one processor could concurrently process a series of pixels or simultaneously a portion of a series of pixels (including a single pixel) from the first camera and / or the second camera. If the pixels are processed pixel by pixel, each pixel could be time coded. The object could be triangulated by using a triangle, where the vertices are the object, the first camera, and the second chamber.
Eine andere Ausführungsform der Offenbarung könnte ein System zum Erfassen eines Objekts sein, das aufweist, eine im Wesentlichen kollimierte Abtastlichtquelle, die konfiguriert ist Quelllicht auszugeben, wobei das Quelllicht drei diskrete Lichter in rot, grün und blau aufweist. Eine erste Kamera könnte konfiguriert sein, ein erstes reflektiertes Licht mit einem Rolling-Shutter-Kamera-Prozess zu empfangen, wobei das erste reflektierte Licht das von dem Objekt zu der ersten Kamera reflektierte Quelllicht ist. Eine zweite Kamera konfiguriert, mit dem Rolling-Shutter-Kamera-Prozess ein zweites reflektiertes Licht zu empfangen, wobei das zweite reflektierte Licht von dem Objekt zu der zweiten Kamera reflektiertes Quelllicht ist, und die zweite Kamera ist von der ersten Kamera räumlich getrennt. Wenigstens ein Prozessor könnte konfiguriert sein, die kollimierte Abtastlichtquelle, die erste Kamera und die zweite Kamera zu steuern und das erste reflektierte Licht und das zweite reflektierte Licht zu verarbeiten, um das Objekt zu erfassen.Another embodiment of the disclosure could be a system for detecting an object comprising a substantially collimated scanning light source configured to output source light, the source light having three discrete lights in red, green and blue. A first camera could be configured to receive a first reflected light with a rolling shutter camera process, wherein the first reflected light is the source light reflected from the object to the first camera. A second camera configures to receive a second reflected light using the rolling shutter camera process, wherein the second reflected light from the object to the second camera is reflected source light, and the second camera is spatially separated from the first camera. At least one processor could be configured to control the collimated scanning light source, the first camera, and the second camera and to process the first reflected light and the second reflected light to detect the object.
Die erste Kamera, die zweite Kamera und kollimierte Abtastlichtquelle könnten auf einer Epipolarebene sein. Die erste Kamera und/oder die zweite Kamera könnten das erste reflektierte Licht beziehungsweise das zweite reflektierte Licht durch einen Rolling-Shutter-Kamera-Prozess empfangen. Wenigstens ein Prozessor könnte konfiguriert sein, eine Reihe von Pixel oder einen Teil einer Reihe von Pixel (einschließlich eines Pixels) gleichzeitig von einer jeweiligen oder beiden der ersten Kamera und der zweiten Kamera zu verarbeiten. Wenn ein Pixel nach dem anderen verarbeitet wird, könnte jeder Pixel zeitcodiert sein. Wenigstens ein Prozessor könnte das Objekt, durch Verwenden des Objekts, der ersten Kamera und der zweiten Kamera als Eckpunkte eines Dreiecks, triangulieren.The first camera, the second camera, and the collimated scanning light source could be on an epipolar plane. The first camera and / or the second camera could receive the first reflected light and the second reflected light, respectively, by a rolling shutter camera process. At least one processor could be configured to process a series of pixels or a portion of a series of pixels (including a pixel) simultaneously from a respective one or both of the first camera and the second camera. If one pixel after another is processed, each pixel could be time-coded. At least one processor could triangulate the object by using the object, the first camera, and the second camera as vertices of a triangle.
Die erste Kamera und/oder die zweite Kamera könnten konfiguriert sein, dass sie das erste reflektierte Licht beziehungsweise das zweite reflektierte Licht durch einen Rolling-Shutter-Kamera-Prozess empfangen. Mindestens ein Prozessor könnte konfiguriert sein, gleichzeitig eine Reihe von Pixeln oder gleichzeitig einen Teil einer Reihe von Pixeln (einschließlich eines einzelnen Pixels) von der ersten Kamera und/oder der zweiten Kamera zu verarbeiten. Wenn das Verarbeiten für ein Pixel nach dem anderen erfolgt, könnte jeder Pixel zeitcodiert sein.The first camera and / or the second camera may be configured to receive the first reflected light and the second reflected light, respectively, through a rolling shutter camera process. At least one processor could be configured to simultaneously process a series of pixels or simultaneously a portion of a series of pixels (including a single pixel) from the first camera and / or the second camera. If the processing is done one pixel at a time, each pixel could be time coded.
Das Objekt könnte durch Verwenden eines Dreiecks trianguliert werden, wobei die Eckpunkte das Objekt, die erste Kamera und die zweite Kamera sind.The object could be triangulated using a triangle, where the vertices are the object, the first camera, and the second camera.
Verschiedene Teile der verschiedenen Ausführungsformen der Offenbarung könnten als Computerprogramme geschrieben werden und könnten mit Prozessoren implementiert werden, die die Programme unter Verwendung eines nicht-transitorischen computerlesbaren Aufzeichnungsmediums ausführen.Various portions of the various embodiments of the disclosure could be written as computer programs and could be implemented with processors executing the programs using a non-transitory computer-readable recording medium.
Nicht-flüchtiges computerlesbares Aufzeichnungsmedium könnte beispielsweise magnetische Speichermedien (z. B. ROM, Disketten, Festplatten etc.), optische Aufzeichnungsmedien (z. B. CD-ROMs oder DVDs), FLASH-Laufwerke, etc., enthalten.Non-transitory computer-readable recording media could include, for example, magnetic storage media (e.g., ROM, floppy disks, hard drives, etc.), optical recording media (e.g., CD-ROMs or DVDs), FLASH drives, etc.
Während verschiedene Ausführungsformen der Offenbarung unter Bezugnahme auf die Figuren beschrieben worden sind, wird es für den Fachmann verständlich sein, dass verschiedene Änderungen in der Form und in den Details gemacht werden können, ohne von dem Grundgedanken und dem Umfang der Offenlegung gemäß den folgenden Ansprüchen abzuweichen. Dementsprechend sind die obigen Ausführungsformen und alle Aspekte davon nur Beispiele und sind nicht beschränkend.While various embodiments of the disclosure have been described with reference to the figures, it will be understood by those skilled in the art that various changes in form and details may be made without departing from the spirit and scope of the disclosure according to the following claims , Accordingly, the above embodiments and all aspects thereof are only examples and are not restrictive.
Claims (23)
Applications Claiming Priority (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201662369879P | 2016-08-02 | 2016-08-02 | |
US62/369,879 | 2016-08-02 | ||
US15/658,952 US10884127B2 (en) | 2016-08-02 | 2017-07-25 | System and method for stereo triangulation |
US15/658,952 | 2017-07-25 |
Publications (2)
Publication Number | Publication Date |
---|---|
DE102017117212A1 DE102017117212A1 (en) | 2018-02-08 |
DE102017117212A9 true DE102017117212A9 (en) | 2018-04-05 |
Family
ID=60996369
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE102017117212.2A Pending DE102017117212A1 (en) | 2016-08-02 | 2017-07-31 | System and method for stereotriangulation |
Country Status (1)
Country | Link |
---|---|
DE (1) | DE102017117212A1 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102022113387A1 (en) | 2022-05-27 | 2023-11-30 | Robert Bosch Gesellschaft mit beschränkter Haftung | Lidar sensor, environment detection system and vehicle |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102019206231A1 (en) * | 2019-04-30 | 2020-11-05 | Zf Friedrichshafen Ag | Camera-based position determination for an object in the surroundings of a vehicle using an epipolar image line |
-
2017
- 2017-07-31 DE DE102017117212.2A patent/DE102017117212A1/en active Pending
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102022113387A1 (en) | 2022-05-27 | 2023-11-30 | Robert Bosch Gesellschaft mit beschränkter Haftung | Lidar sensor, environment detection system and vehicle |
Also Published As
Publication number | Publication date |
---|---|
DE102017117212A1 (en) | 2018-02-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE102012112322B4 (en) | Method for optically scanning and measuring an environment | |
DE102012112321B4 (en) | Device for optically scanning and measuring an environment | |
DE102013017500B3 (en) | Method and apparatus for optically scanning and measuring a scene | |
DE102011106050B4 (en) | Shadow removal in an image captured by a vehicle-based camera for detection of a clear path | |
DE102018121018A1 (en) | EXPAND REAL SENSOR RECORDINGS WITH SIMULATED SENSOR DATA BACKGROUND | |
EP3396409B1 (en) | Method for calibrating a camera and a laser scanner | |
DE102018121019A1 (en) | EXPANDING REAL SENSOR RECORDS WITH SIMULATED SENSOR DATA | |
DE102011106052B4 (en) | Shadow removal in an image captured by a vehicle based camera using a nonlinear illumination invariant core | |
EP3014569B1 (en) | Inspection of the contoured surface of the underbody of a motor vehicle | |
DE202012104890U1 (en) | Device for optically scanning and measuring an environment | |
DE102014208271A1 (en) | Method and apparatus for image based vision estimation | |
EP1589484A1 (en) | Method for detecting and/or tracking objects | |
DE102011106072A1 (en) | SHADOW REMOVAL IN A PICTURE BASED ON A VEHICLE-BASED CAMERA USING AN OPTIMIZED LINEAR AXIS | |
DE102007040176A1 (en) | An object detection device and method for identifying an object within a region | |
DE112016006213T5 (en) | System and method for fusing outputs from sensors having different resolutions | |
EP1460454B1 (en) | Method for combined processing of high resolution images and video images | |
DE102020129096A1 (en) | GENERATION OF THREE-DIMENSIONAL POINT CLOUDS USING A POLARIMETRIC CAMERA IN A VEHICLE EQUIPPED WITH A DRIVING ASSISTANT SYSTEM | |
DE112021006402T5 (en) | Estimating automatic exposure values of a camera by prioritizing an object of interest based on contextual input from 3D maps | |
DE102017106152A1 (en) | Determine an angle of a trailer with optimized template | |
EP3663881B1 (en) | Method for controlling an autonomous vehicle on the basis of estimated movement vectors | |
DE102005055879A1 (en) | Air Traffic guide | |
DE102017117212A9 (en) | System and method for stereotriangulation | |
DE102010020537A1 (en) | Passive water surface detector for use in autonomous system of self-propelled lawn mower moved over area of golf course, has sensor elements connected to data evaluation device and generating image with different polarizations from scene | |
DE102014208272A1 (en) | Method and apparatus for tracking-based visibility estimation | |
DE102014116904B4 (en) | Method for optically scanning and measuring a scene and automatically generating a video |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
R012 | Request for examination validly filed | ||
R016 | Response to examination communication |