DE102017117212A9 - System and method for stereotriangulation - Google Patents

System and method for stereotriangulation Download PDF

Info

Publication number
DE102017117212A9
DE102017117212A9 DE102017117212.2A DE102017117212A DE102017117212A9 DE 102017117212 A9 DE102017117212 A9 DE 102017117212A9 DE 102017117212 A DE102017117212 A DE 102017117212A DE 102017117212 A9 DE102017117212 A9 DE 102017117212A9
Authority
DE
Germany
Prior art keywords
camera
light
source
reflected light
reflected
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102017117212.2A
Other languages
German (de)
Other versions
DE102017117212A1 (en
Inventor
Gerard Dirk Smits
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Samsung Electronics Co Ltd
Original Assignee
Samsung Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from US15/658,952 external-priority patent/US10884127B2/en
Application filed by Samsung Electronics Co Ltd filed Critical Samsung Electronics Co Ltd
Publication of DE102017117212A1 publication Critical patent/DE102017117212A1/en
Publication of DE102017117212A9 publication Critical patent/DE102017117212A9/en
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/46Indirect determination of position data
    • G01S17/48Active triangulation systems, i.e. using the transmission and reflection of electromagnetic waves other than radio waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/86Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/87Combinations of systems using electromagnetic waves other than radio waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/931Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • G06V10/12Details of acquisition arrangements; Constructional details thereof
    • G06V10/14Optical characteristics of the device performing the acquisition or on the illumination arrangements
    • G06V10/147Details of sensors, e.g. sensor lenses
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Electromagnetism (AREA)
  • General Physics & Mathematics (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Vascular Medicine (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

Ein System zum Erfassen eines Objekts (130) weist eine im Wesentlichen kollimierte Abtastlichtquelle (120, 234, 300) auf, die konfiguriert ist, ein Quelllicht auszugeben; eine erste Kamera (110), die konfiguriert ist, ein erstes reflektiertes Licht zu empfangen, wobei das erste reflektierte Licht das von dem Objekt (130) zu der ersten Kamera (110) reflektierte Quelllicht ist; eine zweite Kamera (112), die konfiguriert ist, ein zweites reflektiertes Licht zu empfangen, wobei das zweite reflektierte Licht das von dem Objekt (130) zu der zweiten Kamera (112) reflektierte Quelllicht ist, und wobei die zweite Kamera (112) von der ersten Kamera räumlich getrennt ist; und einen oder mehrere Prozessoren (210), die konfiguriert sind, die Abtastlichtquelle (120, 234, 300), die erste Kamera (110) und die zweite Kamera (112) zu steuern; und das erste reflektierte Licht und das zweite reflektierte Licht zu verarbeiten, um das Objekt (130) zu erfassen.A system for detecting an object (130) comprises a substantially collimated scanning light source (120, 234, 300) configured to output source light; a first camera (110) configured to receive a first reflected light, wherein the first reflected light is the source light reflected from the object (130) to the first camera (110); a second camera (112) configured to receive a second reflected light, wherein the second reflected light is the source light reflected from the object (130) to the second camera (112), and wherein the second camera (112) of the first camera is spatially separated; and one or more processors (210) configured to control the scanning light source (120, 234, 300), the first camera (110), and the second camera (112); and process the first reflected light and the second reflected light to detect the object (130).

Description

Verwandte Anmeldung(en)Related Application (s)

Diese Anmeldung beansprucht die Priorität der vorläufigen US Anmeldung 62/369,879, eingereicht am 2. August 2016, deren Offenbarung hierin in ihrer Gesamtheit durch Bezugnahme aufgenommen ist.This application claims the benefit of US Provisional Application 62 / 369,879, filed on Aug. 2, 2016, the disclosure of which is incorporated herein by reference in its entirety.

Hintergrundbackground

Die vorliegende Offenbarung bezieht sich auf ein Abstandsmessen, und insbesondere auf eine Stereotriangulation. Für Stereo-Vision-Systeme zum Messen von Abständen und 3-D Bildgebung werden vielfältige Bemühungen unternommen, allerdings sind diese Bemühungen zeitintensiv und könnten teure Vorrichtungen erfordern.The present disclosure relates to distance measurement, and more particularly to stereotriangulation. A variety of efforts are being made for stereo vision systems to measure distances and 3-D imaging, but these efforts are time-consuming and may require expensive equipment.

Verschiedene Einschränkungen und Nachteile von konventionellen und traditionellen Ansätze werden für den Fachmann offensichtlich werden, durch Vergleich von solchen System mit einigen Aspekten der vorliegenden Offenbarung, wie im dem Rest der Anmeldung in Bezug auf die Zeichnungen dargestellt.Various limitations and disadvantages of conventional and traditional approaches will become apparent to those skilled in the art by comparing such system with some aspects of the present disclosure as illustrated in the remainder of the application with reference to the drawings.

ZusammenfassungSummary

Es wird ein System und/oder ein Verfahren zur Stereotriangulation, im Wesentlichen wie in und/oder in Verbindung mit wenigstens einer der Zeichnungen dargestellt, beschrieben.A system and / or method for stereotriangulation, substantially as depicted in and / or in conjunction with at least one of the drawings, is described.

Verschiedene Vorteile, Aspekte und neue Merkmale der vorliegenden Offenbarung, ebenso wie Details einer illustrierten Ausführungsform davon, werden von der folgenden Beschreibung und Zeichnungen besser verstanden werden.Various advantages, aspects, and novel features of the present disclosure, as well as details of an illustrated embodiment thereof, will be better understood from the following description and drawings.

Kurze Beschreibung der ZeichnungenBrief description of the drawings

Das Obige und andere Aufgaben, Merkmale und Vorteile der vorliegenden Offenbarung werden aus der folgenden detaillierten Beschreibung in Verbindung mit den begleitenden Zeichnungen ersichtlich werden, in welchen:The above and other objects, features and advantages of the present disclosure will become more apparent from the following detailed description when taken in conjunction with the accompanying drawings, in which:

1A eine Illustration einer Stereotriangulation gemäß einer Ausführungsform der Offenbarung ist. 1A FIG. 4 is an illustration of stereotriangulation according to an embodiment of the disclosure. FIG.

1B eine Illustration einer Stereotriangulation auf einer Fahrzeugplattform gemäß einer Ausführungsform der Offenbarung ist. 1B FIG. 12 is an illustration of stereotriangulation on a vehicle platform according to one embodiment of the disclosure. FIG.

2 ein Blockdiagramm auf höchster Darstellungsebene einer Stereotriangulation in einer Fahrzeugplattform gemäß einer Ausführungsform der Offenbarung ist. 2 is a high level block diagram of stereotriangulation in a vehicle platform according to an embodiment of the disclosure.

3 eine Illustration eines RGB-Abtasters für einen Gebrauch in einer Stereotriangulation gemäß einer Ausführungsform der vorliegenden Offenbarung ist. 3 Figure 12 is an illustration of an RGB scanner for use in stereo triangulation according to an embodiment of the present disclosure.

4A ein Schaubild eines Verarbeitungsplans für eine Gesamtbelichtungskamera ist. 4A is a diagram of a processing plan for a total exposure camera.

4B ein Schaubild eines Verarbeitungsplans für eine Rolling-Shutter-Kamera gemäß einer Ausführungsform der Offenbarung ist. 4B FIG. 12 is a diagram of a processing plan for a rolling shutter camera according to an embodiment of the disclosure. FIG.

Detaillierte BeschreibungDetailed description

Die vorliegenden Ausführungsformen sollten nicht als auf die hier dargelegten Beschreibungen beschränkt ausgelegt werden. Diese Ausführungsformen sind vielmehr als Beispiele vorgesehen, sodass diese Offenbarung gründlich und komplett sein wird und das Konzept der vorliegenden Ausführungsformen einem Durchschnittsfachmann vermittelt wird. Die angehängten Ansprüche illustrieren einige der Ausführungsformen der vorliegenden Offenbarung.The present embodiments should not be construed as limited to the descriptions set forth herein. Rather, these embodiments are provided as examples, so that this disclosure will be thorough and complete, and the concept of the present embodiments will be conveyed to one of ordinary skill in the art. The appended claims illustrate some of the embodiments of the present disclosure.

Gleiche Bezugszeichen beziehen sich, durch die Spezifikation hindurch, auf gleiche Elemente. Alle hierin verwendeten Ausdrücke, die beschreibende oder technische Ausdrücke enthalten, sollten derart ausgelegt werden, dass sie Bedeutungen haben, die für einen Durchschnittsfachmann offensichtlich sind. Wenn ein Ausdruck wegen sich entwickelnder Sprache, Präzedenzfällen oder dem Auftreten von neuen Technologien eine mehrdeutige Bedeutung aufweist, sollte die Bedeutung eines in dieser Offenbarung verwendeten Ausdrucks, zuerst durch seine Verwendung und/oder Definition in dieser Offenbarung klargestellt werden. Der Ausdruck sollte dann so klargestellt werden, wie ein Durchschnittsfachmann den Ausdruck zur Zeit dieser Offenbarung verstanden hätte.Like reference numerals refer to like elements throughout the specification. All terms used herein that include descriptive or technical terms should be construed to have meanings that are obvious to one of ordinary skill in the art. When an expression has ambiguous meaning due to evolving language, precedents or the advent of new technologies, the meaning of an expression used in this disclosure should be clarified, first by its use and / or definition in this disclosure. The term should then be clarified as one of ordinary skill in the art would have understood the term at the time of this disclosure.

Wenn ein Teil ein Element „enthält” oder „aufweist”, kann der Teil ferner weitere Elemente enthalten, es sei denn es gibt diesbezüglich eine gegenteilige Angabe. Der Ausdruck „Einheit” bei den Ausführungsformen der vorliegenden Offenbarung bedeutet eine Softwarekomponente oder eine Hardwarekomponente, die eine spezifische Funktion durchführt. Die Hardwarekomponente könnte zum Beispiel einen Field-Programmable-Gate-Array (FPGA) oder eine anwendungsspezifische integrierte Schaltung (ASIC) enthalten.If a part "contains" or "comprises" an element, the part may further contain other elements, unless there is an indication to the contrary. The term "unit" in the embodiments of the present disclosure means a software component or a hardware component that performs a specific function. The hardware component could include, for example, a Field Programmable Gate Array (FPGA) or an Application Specific Integrated Circuit (ASIC).

Software, oder Softwarekomponente, könnte sich auf ausführbaren Code und/oder sich auf von dem ausführbaren Code verwendete Daten in einem adressierten Speichermedium beziehen. Somit könnte Software zum Beispiel objektorientierte Softwarekomponenten, Klassenkomponenten und Taskkomponenten sein und könnte Prozesse, Funktionen, Attribute, Prozeduren, Unterroutinen, Segmente von Programmcode, Treiber, Firmware, Anwendungsprogramme, Micro-Code/Schaltkreise, Daten, eine Datenbank, Datenstrukturen, Tabellen, Arrays oder Variablen enthalten.Software, or software component, could refer to executable code and / or data used by the executable code in an addressed storage medium. Consequently For example, software could be object-oriented software components, class components, and task components, and could include processes, functions, attributes, procedures, subroutines, segments of program code, drivers, firmware, application programs, microcode / circuits, data, a database, data structures, tables, arrays, or Contain variables.

Eine von einer „Einheit” vorgesehene Funktion könnte in zusätzliche Komponenten und „Einheiten” unterteilt sein.A function provided by a "unit" could be divided into additional components and "units".

Nun wird in Detail auf Ausführungsformen Bezug genommen werden, Beispiele davon sind in den begleitenden Zeichnungen illustriert. Diesbezüglich könnten die vorliegenden Ausführungsformen unterschiedliche Formen aufweisen und sollten nicht auf die hierin dargelegten Beschreibungen beschränkt ausgelegt werden.Reference will now be made in detail to embodiments, examples of which are illustrated in the accompanying drawings. In this regard, the present embodiments may have different forms and should not be construed as limited to the descriptions set forth herein.

In der folgenden Beschreibung werden wohlbekannte Funktionen und Konstruktionen nicht im Detail beschrieben werden, um die Ausführungsform nicht mit unnötigen Details zu verschleiern.In the following description, well-known functions and constructions will not be described in detail so as not to obscure the embodiment with unnecessary detail.

1A ist eine Illustration einer Stereotriangulation gemäß einer Ausführungsform der Offenbarung. Es wird auf 1A Bezug genommen, dort wird gezeigt, eine Plattform 100 mit Kameras 110 und 112, ein Abtaster 120, der Quelllicht zum Belichten eines Objekts bereitstellt, und ein Objekt 130, das aufgenommen wird. Die Kameras 110 und 112 könnten irgendeine Art von geeigneten Kameras sein, einschließlich zum Beispiel CMOS Kameras. Der Abtaster 120 könnte irgendeine Art von geeigneter Lichtquelle sein, die einen Bereich in einem Rasterverfahren beleuchten kann, wie zum Beispiel ein Lichtabtaster mit einer MEMS-Abtasttechnologie, die Laserbeleuchtung in einer Folge von horizontalen Linien ausgibt. Dementsprechend könnte der Abtaster 120 bei einer Ausführungsform 1080 horizontale Linien per Einzelbild ausgeben. Bei verschiedenen Ausführungsformen der Offenbarung könnte der Abtaster 120 im Wesentlichen kollimiertes Licht bereitstellen, das Zerstreuung des emittierten Lichtes verringern könnte. Verschiedene Ausführungsformen der Offenbarung könnten den Abtaster 120 als eine Punktquelle für das emittierte Licht haben. 1A FIG. 12 is an illustration of stereotriangulation according to an embodiment of the disclosure. FIG. It will open 1A Referring, there is shown a platform 100 with cameras 110 and 112 , a scanner 120 that provides source light for exposing an object, and an object 130 that is being recorded. The cameras 110 and 112 could be any type of suitable camera including, for example, CMOS cameras. The scanner 120 could be any type of suitable light source that can illuminate an area in a rastering process, such as a light scanner with a MEMS scanning technology that outputs laser illumination in a sequence of horizontal lines. Accordingly, the scanner could 120 in one embodiment, output 1080 horizontal lines per frame. In various embodiments of the disclosure, the scanner could 120 provide substantially collimated light that could reduce scattering of the emitted light. Various embodiments of the disclosure could be the scanner 120 as a point source for the emitted light.

Verschiedene Ausführungsformen könnten eine verschiedene horizontale und/oder vertikale Auflösung für spezifische Zwecke bereitstellen. Zum Beispiel könnten einige Ausführungsformen 1080 Pixellinien mit 1920 Pixel per Linie aufweisen. Um verschiedene Beschreibungen in dieser Offenbarung zu vereinfachen, wird eine Annahme von 1080 Linien per Einzelbild und 1920 Pixeln per Linie gemacht werden, mit dem vollen Verständnis, dass dies nicht den Umfang der Offenbarung auf irgendeine spezifische Anzahl von Linien per Einzelbild oder Pixel per Linie beschränkt.Various embodiments could provide a different horizontal and / or vertical resolution for specific purposes. For example, some embodiments could have 1080 pixel lines with 1920 pixels per line. To simplify various descriptions in this disclosure, an assumption of 1080 lines per frame and 1920 pixels per line will be made, with the full understanding that this does not limit the scope of the disclosure to any specific number of lines per frame or pixel per line ,

Außerdem können, da der Abstand zwischen den Kameras 110 und 112 und des Abtasters 120 bekannt ist, die entsprechenden Pixel von jeder Kamera aufeinander abgestimmt werden, um Abstandsinformation von jeder Kamera bereitzustellen, und somit ist eine 3-D Bilddarstellung möglich. Außerdem könnten drei getrennte Triangulationen für die Konfiguration mit dem Abtaster 120 und den Kameras 110 und 112 möglich sein. Das erste Dreieck besteht aus der Kamera 110, dem Abtaster 120 und dem Objekt 130 als Eckpunkte. Das zweite Dreieck besteht aus der Kamera 112, dem Abtaster 120 und dem Objekt 130 als Eckpunkte. Das dritte Dreieck weist die Kamera 110, die Kamera 112 und das Objekt 130 als Eckpunkte auf. Information, die von einem oder mehr der Dreiecke empfangen wird, könnten verarbeitet werden, um verschiedene Arten von Bilderzeugung zu optimieren.Also, given the distance between the cameras 110 and 112 and the scanner 120 It is known that the respective pixels of each camera are matched to each other to provide distance information from each camera, and thus a 3-D image display is possible. There could also be three separate triangulations for the configuration with the scanner 120 and the cameras 110 and 112 to be possible. The first triangle consists of the camera 110 the scanner 120 and the object 130 as vertices. The second triangle consists of the camera 112 the scanner 120 and the object 130 as vertices. The third triangle points the camera 110 , the camera 112 and the object 130 as cornerstones. Information received from one or more of the triangles could be processed to optimize various types of imaging.

Eine strukturierte Lichtsequenz, wie zum Beispiel die Bruijn Sequenz, könnte für eine Bildgebung im Allgemeinen, einschließlich für eine 3-D Bildgebung, verwendet werden, um eine Bilderfassung zu optimieren. Allerdings sind verschiedene Ausführungsformen der Offenbarung nicht auf ein Verwenden von strukturierten Lichtsequenzen beschränkt. Zudem könnten verschiedene Ausführungsformen der Offenbarung es dem Abtaster 120 ermöglichen, die Ausgabeintensität zu variieren. Dies könnte zum Beispiel den Kameras 110 und 120 ermöglichen, Bilder von weiter weg zu erfassen.A structured light sequence, such as the Bruijn sequence, could be used for imaging in general, including for 3-D imaging, to optimize image capture. However, various embodiments of the disclosure are not limited to using structured light sequences. In addition, various embodiments of the disclosure could make it easier for the scanner 120 allow you to vary the output intensity. This could be for example the cameras 110 and 120 allow you to capture images from further away.

Verschiedene Ausführungsformen könnten auch die horizontale Bewegung 121 des Abtasters 120 steuern. Um zum Beispiel bei einer Abtastung mehr Details zu bekommen, könnte der Abtaster 120 so gesteuert sein, dass er bei der gleichen Zeitdauer eine kürzere horizontale Bewegung 121 als bei einer normalen Abtastung durchzuführt. Dies könnte es ermöglichen, einen kleineren Bildbereich mehr zu beleuchten, um mehr Detail zu bekommen. In anderen Fällen könnte der Abtaster 120 gesteuert sein, in der gleichen Zeitdauer eine längere horizontale Bewegung 121 als bei einen normalen Abtastung durchzuführen. Dies könnte eine Abdeckung eines größeren Bereichs ermöglichen, möglicherweise mit weniger Detail. Der Abtaster 120 könnte auch bezüglich der abgetasteten horizontalen Linien gesteuert sein.Various embodiments could include the horizontal movement 121 of the scanner 120 Taxes. For example, to get more detail on a scan, the scanner could 120 be controlled so that he at the same time a shorter horizontal movement 121 as in a normal scan. This could make it possible to illuminate a smaller area of the image more to get more detail. In other cases, the scanner could 120 be controlled, in the same period of time a longer horizontal movement 121 as in a normal scan. This could allow coverage of a larger area, possibly with less detail. The scanner 120 could also be controlled with respect to the scanned horizontal lines.

Außerdem könnte der Abtaster 120 bezüglich der abgetasteten horizontalen Position sowie der abgetasteten vertikalen Position gesteuert sein. Zum Beispiel könnte die abgetastete horizontale Position eine horizontale Startposition und eine horizontale Endposition anzeigen, um mehr Detail von einem spezifischen Bereich eines Objektes oder einer Umgebung zu bekommen. Ebenso könnte es für die abgetastete vertikale Position Anzeigen der Startlinie und der Endlinie geben. Auf diese Art kann der abgetastete Bereich verschmälert werden und somit einen Zoom-Effekt bereitstellen. Eine weitere Steuerung des Abtasters 120 könnte auch die Intensität des Ausgabestrahls umfassen, um den verkleinerten Bereich in der normalen Zeitspanne oder bei der normalen Abtastgeschwindigkeit abzutasten, aber effektiv mehr ”Einzelbilder” pro Sekunde zu haben, da die Einzelbilder kleiner sind.In addition, the scanner could 120 be controlled with respect to the scanned horizontal position and the scanned vertical position. For example, the scanned horizontal position could indicate a horizontal start position and a horizontal end position to get more detail from a specific area of an object or environment. Likewise it could be for the sampled vertical position indicate the starting line and the end line. In this way, the scanned area can be narrowed and thus provide a zoom effect. Another control of the scanner 120 could also include the intensity of the output beam to scan the reduced area in the normal time period or at the normal scanning speed, but effectively have more "frames" per second because the frames are smaller.

Auf diese Art könnten es verschiedene Ausführungsformen der Offenbarung ermöglichen, einen Start eines horizontalen Sweeps und einen horizontalen Sweep-Bereich zu spezifizieren. Ebenso könnte der Start des vertikalen Sweeps spezifiziert werden, und auch der vertikale Sweep-Bereich.In this way, various embodiments of the disclosure may allow for specifying a start of a horizontal sweep and a horizontal sweep range. Similarly, the start of the vertical sweep could be specified, as well as the vertical sweep range.

Die Kameras 110 und 120 könnten so gesteuert sein, dass spezifische horizontale Linien ausgelesen werden, indem durch Belichten einiger Linien (Reihen) von Pixeln mit dem Abtaster 120 synchronisiert wird, welcher eine andere Anzahl von Linien als die Anzahl von Reihen von Pixel in den Kamera 110 oder 112 abtasten könnte. Einige Ausführungsformen könnten es den Kameras 110 und 112 auch ermöglichen, einen aus einer Reihe zu lesenden Startpixel und einen Endpixel zu spezifizieren, um weiter mit dem Abtaster 120 zu synchronisieren. Dies könnte es ermöglichen, Pixel von dem gewünschten Abschnitt des Einzelbildes auszulesen und zu bearbeiten.The cameras 110 and 120 could be controlled to read out specific horizontal lines by exposing some lines (rows) of pixels to the scanner 120 which is a different number of lines than the number of rows of pixels in the camera 110 or 112 could scan. Some embodiments could do it the cameras 110 and 112 also allow to specify a start pixel to be read from a row and an end pixel to continue with the scanner 120 to synchronize. This could allow pixels to be read out and edited from the desired portion of the frame.

Außerdem könnten es einige Ausführungsformen ermöglichen, die Kameras so zu steuern, dass sie einen gewissen Betrag schwenken. Dies könnte zum Beispiel ermöglichen, dass jede einzelne Kamera 110 und 112 Bilder von verschiedenen Bereichen erfasst. Demzufolge könnten die Kameras 110 und 112 gesteuert sein, um ein Bild des Objekts 130 bereitzustellen, welches ein 3-D Bild sein könnte, oder jede Kamera 110 und 112 könnte Bilder von überlappenden oder nicht überlappenden Bereichen bereitstellen. Deshalb könnten die Kameras 110 und 112 konfiguriert sein, einzelne Bilder von der linken Seite des Bereichs vor der Kamera 110 und der rechten Seite des Bereichs vor der Kamera 112 bereitzustellen. Außerdem könnte im Fall, dass eine der Kameras 110 und 112 deaktiviert ist, oder dass Bearbeitungsschalttechnik/Software für eine der Kameras 110 und 112 deaktiviert ist, die andere der Kameras 110 und 112 verwendet werden, um Einzelbilder von dem Bereichs davor, welcher durch den Abtaster 120 beleuchtet wird, bereitzustellen. In manchen Fällen könnte die übrigbleibende Kamera 110 oder 112 horizontal und/oder vertikal schwenken, um einen breiteres Sichtfeld zu bieten.In addition, some embodiments may allow the cameras to be controlled to pivot a certain amount. This could, for example, allow every single camera 110 and 112 Captured images of different areas. As a result, the cameras could 110 and 112 be controlled to take a picture of the object 130 which could be a 3-D image, or any camera 110 and 112 could provide images of overlapping or non-overlapping areas. That's why the cameras could 110 and 112 be configured to take individual pictures from the left side of the area in front of the camera 110 and the right side of the area in front of the camera 112 provide. In addition, in the event that one of the cameras 110 and 112 is disabled, or that editing circuitry / software for one of the cameras 110 and 112 disabled, the other of the cameras 110 and 112 can be used to capture frames from the area in front of them by the scanner 120 is lit to provide. In some cases, the remaining camera could 110 or 112 Pan horizontally and / or vertically to provide a wider field of view.

Verschiedene Ausführungsformen der Offenbarung könnten es auch ermöglichen, dass der Abtaster 120 gesteuert wird, um zu schwenken. Dies könnte zum Beispiel sein, um der Kamera 110 und/oder 112, welche geschwenkt werden könnte, ein besseres Lichtmuster bereitzustellen. Das Schwenken des Abtasters 120 könnte jede geeignete Technik, die den Abtaster 120 und/oder einzelne Teile des Abtasters 120 steuert, verwenden. Die Bewegungsrichtung des emittierten Licht könnte auch innerhalb des Abtaster 120 oder außerhalb des Abtaster 120 gesteuert werden. Die Bewegungsrichtung könnte zum Beispiel durch Verwenden von einer optischen Linse(n) gesteuert werden.Various embodiments of the disclosure could also allow the scanner 120 is controlled to pan. This could be, for example, to the camera 110 and or 112 which could be panned to provide a better light pattern. The pivoting of the scanner 120 Any suitable technique could be used by the scanner 120 and / or individual parts of the scanner 120 controls, use. The direction of movement of the emitted light could also be within the scanner 120 or outside the scanner 120 to be controlled. The direction of movement could be controlled, for example, by using an optical lens (s).

Während 1A den Abtaster in der Mitte zwischen den Kameras 110 und 112 zeigt, braucht die Offenbarung nicht darauf beschränkt sein. Zum Beispiel kann der Abtaster 120 in Richtung eine der Kameras 110 oder 112 verdreht sein, oder der Abtaster 120 könnte rechts von beiden Kameras 110 und 112, oder links von beiden Kameras 110 und 112, lokalisiert sein.While 1A the scanner in the middle between the cameras 110 and 112 shows, the disclosure need not be limited thereto. For example, the scanner 120 in the direction of one of the cameras 110 or 112 be twisted, or the scanner 120 could be right of both cameras 110 and 112 , or left of both cameras 110 and 112 to be localized.

Außerdem könnten die Kameras 110 und 112 und der Abtaster 120 verschiedene Teile des Lichtspektrums verwenden, wie zum Beispiel sichtbares Licht, Infrarotlicht, etc. Während die Kameras 110 und 112 der gleichen Art sein könnten, brauchen verschiedene Ausführungsformen der Offenbarung nicht darauf beschränkt sein. Zum Beispiel könnte die Kamera 110 empfindlich für das RGB-Spektrum sein, während die Kamera 112 empfindlich für das Infrarotspektrum sein könnte. Andere Arten von Kameras, die verwendet werden könnten, könnten zum Beispiel empfindlich für sichtbares Licht und Infrarotlicht sein. Entsprechend beschränkt die Offenbarung eine Kamera, die in einer Ausführungsform verwendet wird, nicht für irgendein spezifisches Spektrum des elektromagnetischen Feldes. Jede Kamera 110 und 112 könnte auch eine optische Zoom-Fähigkeit zusätzlich zur Software-Zoom-Fähigkeit und der effektiven Zoom-Fähigkeit aufweisen, durch Spezifizieren der horizontalen/vertikalen Abtastbereiche des Abtasters 120 und der gleichen Empfang-Pixel-Bereiche für die Kameras 110 und 112.Besides, the cameras could 110 and 112 and the scanner 120 use different parts of the light spectrum, such as visible light, infrared light, etc. While the cameras 110 and 112 of the same type, various embodiments of the disclosure need not be limited thereto. For example, the camera could 110 be sensitive to the RGB spectrum while the camera 112 sensitive to the infrared spectrum. Other types of cameras that could be used, for example, could be sensitive to visible light and infrared light. Accordingly, the disclosure does not limit a camera used in one embodiment to any specific spectrum of the electromagnetic field. Every camera 110 and 112 could also have optical zoom capability in addition to software zoom capability and effective zoom capability by specifying the horizontal / vertical scan areas of the scanner 120 and the same receiving pixel areas for the cameras 110 and 112 ,

Außerdem könnten, während beschrieben wurde, dass der Abtaster 120 Rasterausgabelinien, welche horizontal und zueinander parallel sind, bereitstellt, verschiedene Ausführungsformen der Offenbarung eine Steuerung des Abtaster 120 ermöglichen, um verschiedene Lichtmuster zu ermöglichen. Entsprechend könnte das Licht in einem Muster, das nicht parallele, horizontale Linien aufweist, ausgeben werden. Verschiedene Muster könnten verwendet werden, wie zum Beispiel diagonale Linien, die parallel sind, verschiedene Linien, die in verschiedenen Winkeln ausgegeben werden, etc. Parallele Linien könnten auch mit der von der rechten Seite startenden Linie ausgegeben werden, oder wo die parallelen Linien vertikal sind. Entsprechend könnte der Abtaster 120 gesteuert werden können, dass er Linien von Licht ausgibt, wobei die Linien nicht notwendigerweise auf der linken Seite starten oder nicht parallele, horizontale Linien sind.Also, while it has been described that the sampler 120 Raster output lines that are horizontal and parallel to each other, various embodiments of the disclosure provide control of the scanner 120 allow to allow different light patterns. Accordingly, the light could be output in a pattern having non-parallel horizontal lines. Different patterns could be used, such as diagonal lines that are parallel, different lines output at different angles, etc. Parallel lines could also be output with the line starting from the right side, or where the parallel lines are vertical , Accordingly, the scanner could 120 he can be controlled Outputs lines of light, where the lines do not necessarily start on the left side or are non-parallel, horizontal lines.

Verschiedene Ausführungsformen der Offenbarung könnten den Abtaster 120 und die Kameras 110 und 112 auf einer Epipolarebene vorsehen.Various embodiments of the disclosure could be the scanner 120 and the cameras 110 and 112 provide at an epipolar level.

1B ist eine Illustration einer Stereotriangulation auf einer Fahrzeugplattform gemäß mit einer Ausführungsform der Offenbarung. Es wird auf 1B Bezug genommen, dort wird eine Fahrzeugplattform 150 gezeigt, die die Plattform 100 von 1 sein könnte. Entsprechend weist die Fahrzeugplattform 100 Kameras 110 und 112 und einen Abtaster 120 auf. Die Fahrzeugplattform 150 kann, wie oben beschrieben, die Umgebung davor noch erkennen, selbst wenn eine der Kameras 110 und 112 deaktiviert ist. 1B FIG. 12 is an illustration of stereotriangulation on a vehicle platform according to one embodiment of the disclosure. FIG. It will open 1B With reference, there will be a vehicle platform 150 shown the platform 100 from 1 could be. Accordingly, the vehicle platform 100 cameras 110 and 112 and a scanner 120 on. The vehicle platform 150 can, as described above, still recognize the environment even if one of the cameras 110 and 112 is disabled.

Zusätzlich könnten, wie oben beschrieben, die Kameras 110 und 112 bis zu einem bestimmten Ausmaß die Funktionalität eines anderen Sensor, welcher kaputtgegangen sein könnte, ausgleichen, indem mehr des vorderen rechten Bereichs beziehungsweise des vorderen linken Bereichs mit den Kameras 110 und 112 betrachtet wird, indem die 3-D Bildgebung nach vorne aufgegeben wird. Dies könnte ein Anpassen des Abtastbereichs durch den Abtaster 120 ebenso wie möglicherweise ein Anpassen eines Winkels der Kameras 110 und/oder 112 nach sich ziehen. Einige Ausführungsformen könnten konfiguriert sein, selbst in dieser Situation eingeschränkte 3-D Bildgebung nahe der zentralen Vorderseite der Fahrzeugplattform 150 bereitzustellen.In addition, as described above, the cameras could 110 and 112 to some extent, compensate for the functionality of another sensor that might have broken by adding more of the front right area and the front left area to the cameras, respectively 110 and 112 is considered by giving up the 3-D imaging to the front. This could be an adaptation of the scanning range by the scanner 120 as well as possibly adjusting an angle of the cameras 110 and or 112 entail. Some embodiments could be configured, even in this situation, limited 3-D imaging near the central front of the vehicle platform 150 provide.

Verschiedene Ausführungsformen könnten auch einen Abtaster 120 in einem Scheinwerfer aufweisen, und das abgetastete Licht kann durch den Scheinwerfer ausgegeben werden, so dass das Gesamtlicht, welches von dem Scheinwerfer emittiert wird, nicht irgendwelche lokale Vorschriften, die ein Scheinwerfer regulieren könnten, überschreitet. Zum Beispiel werden US Vorschriften für diese Vorrichtungen, die für den Gebrauch in den US bestimmt sind, befolgt werden, EU Vorschriften werden für diese Vorrichtungen, die für den Gebrauch in der EU bestimmt sind, befolgt werden, chinesische Vorschriften werden für diese Vorrichtungen, die für einen Gebrauch in China vorgesehen sind, befolgt werden, etc. Das emittierte Gesamtlicht in einem bestimmten Band (sichtbar, IR, etc.) kann gesteuert werden, egal ob der Abtaster 120 in einem Scheinwerfer oder einem anderen Teil eines Fahrzeuges ist, um die verschiedenen Vorschriften, die diese Bänder regulieren, zu erfüllen.Various embodiments could also be a scanner 120 in a headlamp, and the scanned light can be output by the headlamp so that the total light emitted from the headlamp does not exceed any local regulations that might regulate a headlamp. For example, US regulations for these devices intended for use in the US will be followed, EU regulations will be followed for these devices intended for use in the EU, Chinese regulations will apply to these devices be followed for use in China, etc. The emitted total light in a given band (visible, IR, etc.) can be controlled, whether the scanner 120 in a headlight or other part of a vehicle is to meet the various regulations that regulate these bands.

Entsprechend könnten die Kameras 110 und 112 empfindlicher sein für die Wellenlänge des Abtastlicht, das durch den Abtaster 102 in dem Scheinwerfer ausgegeben wird, als für eine Wellenlänge des Lichts, das vorgesehen ist die Straße davor zu beleuchten. Das Licht von dem Abtaster 120 in dem Scheinwerfer könnte auch, wie früher beschrieben, strukturiert (gemustert) oder nicht strukturiert sein. Zusätzlich könnte ein Abtaster 120 in beiden Scheinwerfern, oder in mehreren Lichtern, sein, und jeder Abtaster 120 könnte nicht-strukturiertes Licht bereitstellen oder strukturiertes Licht bereitstellen. Deshalb könnte eine Kamera die Fähigkeit haben, strukturiertes Licht von einer Kamera oder strukturierte Lichter von mehreren Kameras zu nutzen.Accordingly, the cameras could 110 and 112 be more sensitive to the wavelength of the scanning light emitted by the scanner 102 is spent in the headlight, as for a wavelength of light, which is intended to illuminate the street in front of it. The light from the scanner 120 in the headlight could also, as described earlier, structured (patterned) or not structured. In addition, a scanner could 120 in both headlights, or in several lights, and every scanner 120 could provide non-structured light or provide structured light. Therefore, a camera might have the ability to use structured light from one camera or structured lights from multiple cameras.

Ein Abtaster 120 könnte auch abgestimmt sein, strukturiertes Licht, welches eine bessere Unterscheidung horizontaler Details ermöglicht, zu projizieren, und ein anderer Abtaster 120 könnte abgestimmt sein, strukturiertes Licht, welches eine bessere Unterscheidung vertikaler Details ermöglicht, zu projizieren. Die Abtaster 120 könnten auch gesteuert werden, um das Strukturieren des emittierten Lichts an/abzuschalten sowie strukturiertes Licht für horizontale Unterscheidung und vertikale Unterscheidung bereitzustellen. Eine Ausführungsform könnte einen Abtaster 120, welcher strukturiertes Licht für eine vertikale Unterscheidung bereitstellt, und einen anderen Abtaster 120, welcher strukturiertes Licht für eine horizontale Unterscheidung bereitstellt, aufweisen. Eine oder mehrere Kameras könnten dann mit dem einen oder mehreren Abtastern synchronisiert werden, um Licht zu empfangen, ob strukturiert oder nicht.A scanner 120 could also be tuned to project structured light, which allows better differentiation of horizontal details, and another scanner 120 could be tuned to project structured light, which allows a better differentiation of vertical details. The scanners 120 could also be controlled to turn on / off the patterning of the emitted light as well as provide structured light for horizontal discrimination and vertical discrimination. An embodiment could be a scanner 120 , which provides structured light for vertical discrimination, and another scanner 120 , which provides structured light for horizontal discrimination. One or more cameras could then be synchronized with the one or more scanners to receive light, whether structured or not.

Verschiedene Ausführungsformen der Offenbarung könnten, während der Abtaster in dem Scheinwerfer in Bezug auf eine Fahrzeugplattform beschrieben wurde, den Abtaster in einer Scheinwerfer-Ausführungsform in irgendeinem Fahrzeug (Land, Luft, Wasser, Weltraum, etc.) gebrauchen, und auch mit anderen Arten von Licht, wie zum Beispiel einem Blitzlicht, welches mit einer empfangenden Kamera(s) auf einer Person synchronisiert ist. Eine Ausführungsform der Offenbarung kann, wie von einem Durchschnittsfachmann gesehen werden kann, in beliebig vielen Szenarien verwendet werden.Various embodiments of the disclosure, while the scanner has been described in the headlamp with respect to a vehicle platform, could use the scanner in a headlamp embodiment in any vehicle (land, air, water, space, etc.), as well as other types of vehicles Light, such as a flash, which is synchronized with a receiving camera (s) on a person. An embodiment of the disclosure may be used in as many scenarios as one of ordinary skill in the art can appreciate.

2 ist ein Blockdiagramm auf höchster Darstellungsebene einer Stereotriangulation in einer Fahrzeugplattform gemäß einer Ausführungsform der Offenbarung. Auf 2 bezugnehmend, wird dort eine Plattform 200, die ähnlich wie die Plattform 100 oder die Fahrzeugplattform 150 sein könnte, gezeigt. Die Plattform 200 umfasst einen Prozessor 210, einen Speicher 220 und Sensoren 230. Der Prozessor 210 könnte einer oder mehrere irgendeiner Art von Prozessoren, die Instruktionen ausführen können, sein. Der Speicher 220 könnte flüchtigen Speicher 222, nicht-flüchtigen Speicher 224 und/oder Massenspeicher 226 aufweisen. Der Massenspeicher 226 könnte zum Beispiel magnetische Festplatten, optische Medien, Flash-Speicher etc. aufweisen. Daten und ausführbare Instruktionen könnten in dem Speicher 220 gespeichert sein. Die Sensoren 230 könnten Kameras 232 und Abtaster 234 aufweisen, ebenso wie andere Sensoren, die von der Plattform 200 verwendet werden könnten. Wenn die Plattform 200 zum Beispiel eine Fahrzeugplattform ist, könnten andere Sensoren, Radar, Lidar, Sonar etc. enthalten 2 5 is a high-level block diagram of stereotriangulation in a vehicle platform according to an embodiment of the disclosure. On 2 Referring, there will be a platform 200 that are similar to the platform 100 or the vehicle platform 150 could be shown. The platform 200 includes a processor 210 , a store 220 and sensors 230 , The processor 210 could be one or more of any type of processors that can execute instructions. The memory 220 could be volatile memory 222 , non-volatile memory 224 and / or mass storage 226 exhibit. The mass storage 226 could be magnetic for example Hard drives, optical media, flash memory, etc. Data and executable instructions could be in memory 220 be saved. The sensors 230 could cameras 232 and scanner 234 as well as other sensors coming from the platform 200 could be used. If the platform 200 For example, a vehicle platform may include other sensors, radar, lidar, sonar, etc.

Der Prozessor 210 könnte unabhängig von den Sensoren 230 sein, oder ein Prozessor, der mit anderen Teilen integriert ist. Der Prozessor 210 könnte zum Beispiel mit einem Vision-Modul, das logischerweise die Kameras 232 und den Abtaster 234 aufweist, integriert sein, oder er ist ein Prozessor, der logischerweise ein Teil der Sensoren 230 ist, und entsprechend die Sensoren 230 steuern und Daten zu/von den Sensoren 230 verarbeiten könnte. Der Prozessor 210 könnte ein unabhängiger Prozessor sein, der in Verbindung mit einem oder mehreren Prozessoren, einschließlich eines Prozessors(en), der Teil der Sensoren 230 sein könnte, arbeitet, oder unabhängig Daten von den Sensoren 230 verarbeitet und/oder die verschiedenen Sensoren 230 steuert.The processor 210 could be independent of the sensors 230 or a processor integrated with other parts. The processor 210 For example, with a vision module, logically the cameras 232 and the scanner 234 has, be integrated, or he is a processor, which logically part of the sensors 230 is, and accordingly the sensors 230 control and data to / from the sensors 230 could handle. The processor 210 could be an independent processor used in conjunction with one or more processors, including a processor (s), the part of the sensors 230 could be, works, or independently data from the sensors 230 processed and / or the various sensors 230 controls.

Der Prozessor 210 könnte die Kameras 232 und den Abtaster 234 wie obig beschriebenen steuern, so dass sie zusammen zu arbeiten, um zum Beispiel 3-D Bilder zu formen oder einen Ausfall von einem oder mehreren der anderer Sensoren zu kompensieren. Der Prozessor 210 könnte auch die Kameras 232 und den Abtaster 234 zur Bildgebung bei unterschiedlichen Abständen, Auflösungen, verschiedenen abgedeckten Bildbereichen, und/oder Nahaufnahmen steuern. Verschiedene Ausführungsformen könnten, während der Prozessor 210 ein einzelner Prozessor, der auch die von den Kameras 232 empfangene Information bearbeitet, sein könnte, mehrere Prozessoren 210 aufweisen, bei denen ein oder mehrere Prozessoren 210 die Informationen von den Kameras 232 verarbeiten könnte.The processor 210 could the cameras 232 and the scanner 234 as described above, allowing them to work together, for example, to shape 3-D images or compensate for a failure of one or more of the other sensors. The processor 210 could also be the cameras 232 and the scanner 234 for imaging at different distances, resolutions, different covered image areas, and / or close-ups control. Various embodiments could while the processor 210 a single processor, including those of the cameras 232 received information processed, could be multiple processors 210 have one or more processors 210 the information from the cameras 232 could handle.

3 ist eine Illustration eines RGB-Abtasters für einen Gebrauch in einer Stereotriangulation gemäß einer Ausführungsform der Offenbarung. Auf 3 bezugnehmend, wird dort ein Abtaster 300 gezeigt, der konfiguriert ist, drei unterschiedliche Beleuchtungslichter rot, grün, und blau (RGB) auszugeben. Während RGB gewöhnlich verwendet wird und dementsprechend kosteneffektiv ist, könnten in verschiedenen Ausführungsformen auch andere Farben verwendet werden. Durch Verwenden des Abtasters 300, der RGB-Licht ausgibt, können die empfangenden Kameras, wie zum Beispiel Kamera 110 und 112, ein vollständiges Farbbild erzeugen, welches zum Beispiel einem Fahrer und/oder Passagier in der Fahrzeugplattform 150 angezeigt wird. 3 FIG. 12 is an illustration of an RGB scanner for use in stereo triangulation according to one embodiment of the disclosure. FIG. On 3 Referring, there is a scanner 300 shown configured to output three different illumination lights red, green, and blue (RGB). While RGB is commonly used and therefore cost effective, other colors could be used in various embodiments. By using the scanner 300 , which outputs RGB light, can be the receiving cameras, such as camera 110 and 112 To generate a complete color image, for example, a driver and / or passenger in the vehicle platform 150 is shown.

Ein Verwenden von zwei Kameras 110 und 112 stellt im Allgemeinen eine höhere Genauigkeit und möglicherweise eine realistischere Farbe als mit einer einzelnen Kamera bereit, weil Daten der beiden Kameras relativ nahe beieinander sind. Zum Beispiel wird mit einer Einzelkamera die projizierte Lichtsequenz mit der auf der Einzelkamera empfangenden Lichtsequenz verglichen. Die empfangene Lichtsequenzintensität ist eine Funktion des Abstandes und des Reflexionsvermögen des Objekts. Deshalb können die empfangenen Lichtintensitäten sehr unterschiedlich von den projizierten Lichtentitäten sein, was zu einem nicht so robusten Vergleich führt. Im Falle der zwei Kameras werden allerdings Sequenzen mit ähnlichen Intensitäten verglichen, was robuster ist. Außerdem könnte eine Bestimmung einer Tiefe, Details und/oder Farbgenauigkeit/Intensität durch von einer Kamera empfangenes Licht wegen Verdeckung oder anderen Effekten nachteilig beeinträchtigt sein, aber Licht zu der zweiten Kamera könnte, wenn überhaupt, nicht stark beeinflusst sein oder auf dieselbe Art. Entsprechend könnten die getrennten Datensätze verarbeitet und korreliert werden, so dass ein genaueres Bild gebildet wird, als wenn nur eine Kamera verwendet worden wäre.A using two cameras 110 and 112 generally provides a higher accuracy and possibly a more realistic color than with a single camera because data from the two cameras are relatively close together. For example, with a single camera, the projected light sequence is compared with the light sequence received on the single camera. The received light sequence intensity is a function of the distance and reflectivity of the object. Therefore, the received light intensities can be very different from the projected light entities, resulting in a less robust comparison. In the case of the two cameras, however, sequences with similar intensities are compared, which is more robust. In addition, determination of depth, detail and / or color accuracy / intensity by light received by a camera could be adversely affected due to occlusion or other effects, but light to the second camera could not be much, if any, affected or in the same manner For example, the separate data sets could be processed and correlated to form a more accurate image than if only one camera had been used.

Die vorliegende Offenbarung beschränkt weder die Anzahl der Kameras, die mit einem einzelnen Abtaster verwendet werden können, noch das Verhältnis von Kameras zu Abtaster, noch die Anzahl von Abtaster/Kamera(s) Konfigurationen, die auf einer gegebenen Plattform verwendet werden können. Die Abtaster/Kamera(s) Konfigurationen könnten unabhängig verwendet werden oder zum Bearbeiten eines ähnlichen Objekts (Objekten) oder Bereiche der Umgebung. Zum Beispiel können eine oder mehrere Abtaster(s)/Kamera(s) Konfigurationen verwendet werden, um 360-Grad (oder weniger) 3-D Ausgaben zu erzeugen. In manchen Fällen kann die Ausgabe 2-D sein.The present disclosure does not limit the number of cameras that can be used with a single scanner, nor the ratio of cameras to scanner, nor the number of scanner / camera (s) configurations that can be used on a given platform. The scanner / camera (s) configurations could be used independently or to manipulate a similar object (s) or areas of the environment. For example, one or more scanner (s) / camera (s) configurations may be used to generate 360-degree (or less) 3-D outputs. In some cases, the output may be 2-D.

Während beschrieben wurde, dass der Abtaster 300 und die Kameras 110 und 120 drei Farben verwenden, so könnten verschiedene Ausführungsformen mehr als drei Farben verwenden und die verwendeten Farben könnten eine Anzahl von verschiedenen Farben enthalten, einschließlich rot, grün und/oder blau, oder keines von rot, grün und blau.While it was described that the scanner 300 and the cameras 110 and 120 Using three colors, different embodiments could use more than three colors and the colors used could include a number of different colors, including red, green and / or blue, or none of red, green and blue.

4A ist ein Schaubild eines Verarbeitungsplans für eine Gesamtbelichtungskamera. Auf 4A bezugnehmend, es wird dort ein Schaubild gezeigt mit Pixelreihen auf der vertikalen Achse und einer Zeit zum Erfassen und Verarbeiten der Pixelreihen auf der horizontalen Achse. Wie gesehen werden kann, wird ein ganzes Einzelbild von Bilddaten 402 erfasst, bevor irgendein Verarbeiten der Daten durchgeführt wird. Da alle Pixel während der gleichen Zeitdauer T Licht empfangen, könnte es mehr eingehende Lichtbelichtung geben, als wenn eine Einzelreihe von Pixels das eingehende Licht während eine kürzeren Zeitdauer T' empfängt. Außerdem kann das Verarbeiten der empfangenen Pixel nicht beginnen, bevor die Zeitdauer T verstrichen ist, was zu einer längeren Latenz wegen dem verzögerten Auslesen 404 der Pixel führt. Wenn die Belichtungszeit auf 1 ms pro Einzelbild beschränkt ist, gibt es bei einer 50 Hz Einzelbildrate eine Reduzierung des Umgebungslichts um einen Faktor von 20. 4A Fig. 10 is a diagram of a processing plan for a total exposure camera. On 4A Referring to Figure 1, there is shown a graph with pixel rows on the vertical axis and a time for detecting and processing the pixel rows on the horizontal axis. As can be seen, a whole frame of image data 402 detected before any processing of the data is performed. Since all pixels receive T light during the same period of time, there could be more incoming light exposure than if there were one Single row of pixels receiving the incoming light for a shorter period of time T '. In addition, the processing of the received pixels can not begin until the time T elapses, resulting in a longer latency due to the delayed readout 404 the pixel leads. If the exposure time is limited to 1 ms per frame, 50 Hz frame rate reduces the ambient light by a factor of 20.

4B ist ein Schaubild eines Verarbeitungszeitplans für eine Rolling-Shutter-Kamera gemäß einer Ausführungsform der Offenbarung. Auf 4B bezugnehmend, es wird dort ein Schaubild gezeigt mit Pixelreihen auf der vertikalen Achse und einer Zeit zum Erfassen und Verarbeiten der Pixelreihen auf der horizontalen Achse. Durch Verwenden eines Rolling-Shutter-Kamera-Prozesses wird jeweils nur eine Linie der Bilddaten gleichzeitig erfasst. Da die Zeitdauer T' zum Erfassen von Bilddaten einer einzelnen Linie kürzer als die Zeit ist, die notwendig ist, um Daten von einem gesamten Einzelbild aufzunehmen, können die Bilddaten der belichteten Linie früher ausgelesen werden als Bilddaten für die gesamte Einzelbildbelichtung, wie in 4A dargestellt. Da die nächste Linie belichtet werden kann während die Bilddaten ausgelesen und bearbeitet werden, kann die Rolling-Shutter-Kamera zu einer schnelleren Verarbeitung der Bilddaten führen. Außerdem ist das Umgebungslicht, wenn die Belichtungszeit auf 20 μs per Linie beschränkt ist, bei einer 50 Hz Einzelbildrate um einen Faktor von 1000 reduziert, wodurch eine bedeutend weniger verrauschte Bilderfassung erreicht wird. Dies führt zu einer Umgebungslichtreduktion um einen Faktor von 50 bezüglich der in 4A beschriebenen Gesamtbelichtungskamera. 4B FIG. 10 is a diagram of a processing schedule for a rolling shutter camera according to an embodiment of the disclosure. FIG. On 4B Referring to Figure 1, there is shown a graph with pixel rows on the vertical axis and a time for detecting and processing the pixel rows on the horizontal axis. By using a rolling shutter camera process, only one line of the image data is captured at a time. Since the time T 'for acquiring image data of a single line is shorter than the time necessary to acquire data from an entire frame, the image data of the exposed line may be read out earlier than image data for the whole frame exposure as in 4A shown. Since the next line can be exposed while the image data is being read out and edited, the rolling shutter camera can result in faster processing of the image data. In addition, when the exposure time is limited to 20 μs per line, ambient light is reduced by a factor of 1000 at a 50 Hz frame rate, resulting in significantly less noisy image capture. This results in an ambient light reduction by a factor of 50 with respect to 4A described overall exposure camera.

Dies ermöglicht höhere Einzelbildraten und gute Schwachlichtleistung zum Beispiel durch die Kameras 110 und 112. Indem das Abtastlichts, von zum Beispiel dem Abtaster 120, mit dem Rolling-Shutter-Verfahren für die Kameras 110 und 112 ausgerichtet und synchronisiert wird, gibt es außerdem für eine Bildverarbeitung bedeutend weniger Daten zum Korrelieren, einschließlich für eine 3-D Bildgebung. Die Reihen werden Reihe für Reihe ausgelesen und die 3-D Daten können erzeugt werden, indem Triangulation gleichzeitig für eine Reihe oder gleichzeitig für einer beschränkten Anzahl von Reihen verwendet wird. Dies vereinfacht eine Verarbeitung der Daten von den Kameras 110 und 112, dadurch dass nur mit einer kleineren Anzahl von Pixeln umgegangen werden muss, da nur die Pixel für eine Reihe gleichzeitig verarbeitet werden, wenn beispielsweise nur eine Reihe von Pixeln gleichzeitig belichtet wird.This allows for higher frame rates and good low light output, for example through the cameras 110 and 112 , By the scanning light of, for example, the scanner 120 , with the rolling shutter method for the cameras 110 and 112 In addition, there is significantly less data to correlate for image processing, including for 3-D imaging. The series are read out row by row and the 3-D data can be generated by using triangulation simultaneously for one row or simultaneously for a limited number of rows. This simplifies processing of the data from the cameras 110 and 112 in that only a smaller number of pixels have to be handled, since only the pixels for a row are processed simultaneously, for example when only a row of pixels is exposed simultaneously.

Ein Rolling-Shutter-Kamera-Prozess könnte zum Beispiel eine Farbcodierung durch den Abtaster 120 verwenden, um die Pixelverarbeitung zu vereinfachen.For example, a rolling shutter camera process could be color coded by the scanner 120 use to simplify pixel processing.

Darüber hinaus ist durch die Verwendung von beispielsweise dem Abtaster 120, der RGB-Laserlichter ausgeben könnte, und den Kameras 110 und 112, die RGB-Lichter erfassen können, keine Sensor-Fusion von 2-D-Sensoren und 3-D-Sensoren erforderlich, was wiederum einen komplexen Prozess und eine potentielle Quelle von Datenkonflikt vereinfacht.In addition, by using, for example, the scanner 120 that could output RGB laser lights, and the cameras 110 and 112 that can detect RGB lights, no sensor fusion of 2-D sensors and 3-D sensors required, which in turn simplifies a complex process and a potential source of data conflict.

Während sich die obige Beschreibung auf den Rolling-Shutter-Kamera-Prozess für eine Reihe von Pixeln, die gleichzeitig verarbeitet werden, bezieht, brauchen verschiedene Ausführungsformen der Offenbarung nicht so beschränkt sein. Zum Beispiel könnte eine kleinere Anzahl von Pixeln gleichzeitig belichtet werden. Die Anzahl der belichteten Pixel könnte so wenig wie beispielsweise ein Pixel zu einer Zeit sein. Dementsprechend kann man sehen, dass die Umgebungslichteingabe zu einem Pixel noch mehr reduziert werden kann, wenn das Bild pixelweise verarbeitet wird. Es könnte verschiedene Verfahren zum Steuern der mit Licht beleuchteten Pixel geben, einschließlich beispielsweise das Steuern jedes Pixels oder einer Gruppe von Pixeln, um Licht zu einem geeigneten Zeitpunkt zu empfangen. Der Abtaster 120, 234, 300 könnte auch bezüglich einer Dichtheit des Lichtstrahls (oder Photonen), der zu einem Objekt emittiert wird, gesteuert werden. Zum Beispiel, je enger der Lichtstrahl ist, desto kleiner ist der Bereich des Objekts, der den Lichtstrahl reflektiert. Die Anzahl von Pixeln, die zu einem gegebenen Zeitpunkt belichtet werden, könnte von verschiedenen Parametern abhängen, wie beispielsweise des Umgebungslicht, einer Empfindlichkeit der einzelnen Lichtdetektoren (Pixel), einem Prozessor(en), der für die Verarbeitung der Pixelinformation verwendet wird, eine von einem Abtaster ausgegebene Lichtmenge, etc.While the above description relates to the rolling shutter camera process for a series of pixels being processed simultaneously, various embodiments of the disclosure need not be so limited. For example, a smaller number of pixels could be exposed simultaneously. The number of exposed pixels could be as little as, for example, one pixel at a time. Accordingly, it can be seen that the ambient light input to a pixel can be reduced even more when the image is processed pixel by pixel. There could be various methods of controlling the light-illuminated pixels, including, for example, controlling each pixel or a group of pixels to receive light at an appropriate time. The scanner 120 . 234 . 300 could also be controlled for tightness of the light beam (or photons) emitted to an object. For example, the narrower the light beam, the smaller the area of the object that reflects the light beam. The number of pixels exposed at a given time could depend on various parameters, such as the ambient light, a sensitivity of the individual light detectors (pixels), a processor (s) used to process the pixel information, one of a quantity of light emitted to a scanner, etc.

Wenn jedoch eine Korrelation von Information von der reduzierten Anzahl von Pixeln für die beiden Kameras schwieriger wird, so könnte die Anzahl von Pixeln periodisch erhöht werden oder wie erforderlich, um die von den verschiedenen Kameras empfangenen Informationen zu synchronisieren.However, if correlation of information from the reduced number of pixels becomes more difficult for the two cameras, the number of pixels could be increased periodically or as required to synchronize the information received from the various cameras.

Wenn ein Pixel nach dem anderen verarbeitet wird, könnten sie als Voxel betrachtet werden, wo die Zeitcodierung jedem Voxel seine dritte Dimension der Tiefe geben könnte. Da aufgrund der Zeitcodierung nicht für jedes Voxel eine Codierung oder Decodierung notwendig ist, kann die Verarbeitung vereinfacht werden. Entsprechend kann die Latenz aufgrund der Verarbeitung gemindert werden.When one pixel after another is processed, they could be considered as voxels, where the time encoding could give each voxel its third dimension of depth. Since coding or decoding is not necessary for each voxel due to the time coding, the processing can be simplified. Accordingly, the latency due to the processing can be alleviated.

Daher kann man sehen, dass sich eine Ausführungsform der vorliegenden Offenbarung auf ein Verfahren und ein System zur Stereotriangulation bezieht, das auch für die 3D-Abbildung der Umgebung verwendet werden kann, und das Rollbelichtungs-RGB-Kameras aufweist, wobei RGB-Reihendaten aus jeder Reihe gelesen werden, nachdem die Belichtungszeit für diese Reihe beendet ist, während die nächste Reihe dem Licht ausgesetzt wird, und wobei die RGB-Reihendaten nach dem Lesen der RGB-Reihendaten verarbeitet werden. Wie oben bemerkt, kann die Anzahl der gleichzeitig belichteten Pixel kleiner als eine Reihe sein. Dementsprechend kann man sehen, dass das Rollbelichtungs-(oder Rolling-Shutter-)Verfahren einen signifikanten Vorteil für die Anzahl der verwendeten Kameras bietet, sei es eine oder zwei oder mehrere Kameras.Therefore, it can be seen that one embodiment of the present disclosure relates to a method and system for stereotriangulation that can also be used for 3D imaging of the environment, and that has roll-exposure RGB cameras, where RGB Row data is read from each row after the exposure time for that row is completed while exposing the next row to the light, and the RGB row data is processed after reading the RGB row data. As noted above, the number of simultaneously exposed pixels may be less than one row. Accordingly, it can be seen that the roll exposure (or rolling shutter) method provides a significant advantage to the number of cameras used, be it one or two or more cameras.

Die Verwendung eines Abtasters verringert die Menge an Verarbeitungs-Overhead für Bilder, die von den Kameras empfangen werden, stark, und die Verwendung des Rolling-Belichtungsverfahrens ermöglicht eine extrem geringe Latenz, da es möglich ist, Triangulationsdaten Reihe für Reihe auszulesen. Wenn die Pixel jeweils einzeln (oder ein paar Pixel gleichzeitig) ausgelesen werden, wobei jedes Pixel als Voxel zeitcodiert ist, kann die Verarbeitungslatenz erheblich reduziert oder eliminiert werden. Dementsprechend könnten 3-D-Bilder mit einem Bruchteil der Verarbeitung erzeugt werden, die erforderlich ist, wenn kein Abtaster und/oder keine Rollbelichtung verwendet wird.The use of a scanner greatly reduces the amount of processing overhead for images received from the cameras, and the use of the rolling exposure technique allows extremely low latency since it is possible to read triangulation data row by row. If the pixels are read out one at a time (or a few pixels at a time) with each pixel time-coded as a voxel, the processing latency can be significantly reduced or eliminated. Accordingly, 3-D images could be generated with a fraction of the processing required when no scanner and / or roll exposure is used.

Während verschiedene Ausführungsformen für funktionelle Verwendungen der vorliegenden Offenbarung beschrieben worden sind, sollte verstanden werden, dass die Verwendungen nicht nur auf die offenbarten Beispiele beschränkt sind. Zusätzlich könnten, während beschrieben wurde, dass die Rollbelichtung-Kameras eine einzelne Reihe gleichzeitig belichten, verschiedene Ausführungsformen mehr als eine Reihe gleichzeitig belichten. Zum Beispiel könnten zwei oder mehrere Reihen gleichzeitig belichtet werden, oder eine Teilmenge von Pixeln in einer Reihe könnte gleichzeitig belichtet werden, wobei die Teilmenge aus nur einem Pixel oder mehr als einem Pixel bestehen könnte, abhängig von verschiedenen Designs und/oder Umgebungsbedingungen.While various embodiments have been described for functional uses of the present disclosure, it should be understood that the uses are not limited to the disclosed examples. In addition, while it has been described that the roll exposure cameras expose a single row simultaneously, different embodiments could simultaneously expose more than one row. For example, two or more rows could be exposed simultaneously, or a subset of pixels in a row could be exposed simultaneously, which subset could consist of only one pixel or more than one pixel, depending on different designs and / or environmental conditions.

Während die Offenbarung bisher einen (mehrere) Abtaster beschrieben hat, der mit einer oder mehreren Kameras verwendet wird, könnten andere Ausführungsformen das Abtaster/Kamera(s)-System mit beispielsweise anderen Geräten wie Radar, Lidar, Sonar etc., verwenden. Dementsprechend könnten verschiedene Ausführungsformen jede einen oder mehrere Transmitter aufweisen, die ein Signal projizieren, das strukturierten Sequenzen entsprechen könnte oder nicht, und ein oder mehrere Empfänger die das Signal empfangen, und ein oder mehrere Prozessoren die die empfangenen Signale verarbeiten. In einigen Fällen könnten der Transmitter und der Empfänger getrennte Geräte sein. In anderen Fällen könnten der Transmitter und der Empfänger Teil der gleichen Vorrichtung sein, wie beispielsweise eine Radarantenne, die ein Signal überträgt und eine Reflexion dieses Signals empfängt.While the disclosure so far has described a (multiple) scanner used with one or more cameras, other embodiments could use the scanner / camera (s) system with, for example, other devices such as radar, lidar, sonar, etc. Accordingly, various embodiments could each include one or more transmitters that project a signal that may or may not correspond to structured sequences, and one or more receivers that receive the signal, and one or more processors that process the received signals. In some cases, the transmitter and the receiver could be separate devices. In other cases, the transmitter and the receiver could be part of the same device, such as a radar antenna, which transmits a signal and receives a reflection of that signal.

Diese verschiedenen Ausführungsformen können von jeder Plattform verwendet werden, um Notiz von ihrer umgebenen Umgebung zu nehmen. Dementsprechend könnte jedes Fahrzeug, ob unter voller Kontrolle eines lokalen oder fernen Fahrers/Betreibers, halbautonom oder vollständig autonom, jede der hierin beschriebenen Ausführungsformen verwenden. Das Fahrzeug kann beispielsweise ein Automobil-, Boot-, Flugzeug-, Raumfahrzeug-, Luft-, Land- und/oder Wasser-basierte Drohne, Roboter usw. sein und einen Roboter-Staubsauger, einen Roboter-Rasenmäher usw. enthalten.These various embodiments may be used by any platform to take notice of their surrounding environment. Accordingly, any vehicle, whether under the full control of a local or remote driver / operator, semi-autonomously or fully autonomously, could use any of the embodiments described herein. The vehicle may be, for example, an automobile, boat, aircraft, spacecraft, aerial, land and / or water-based drone, robot, etc., and may include a robotic vacuum cleaner, a robotic lawnmower, etc.

Zudem könnte jede stationäre Plattform die verschiedenen Ausführungsformen verwenden. Ein Leuchtturm könnte zum Beispiel eine oder mehrere der verschiedenen Ausführungsformen verwenden, um Verkehr (möglicherweise Luftverkehr, Landverkehr und/oder Wasserverkehr) zu überwachen und zu steuern, ebenso ein Warnsignal (Licht, Elektronik, Schall, etc.) bereitstellen, um Wasserfahrzeug oder andere Arten von Fahrzeugen vor Gefahr zu warnen. Zusätzlich könnten Luftverkehrssteuersysteme und/oder Verkehrssteuerungssysteme verschiedene Ausführungsformen der Offenbarung verwenden.In addition, each stationary platform could use the various embodiments. For example, a lighthouse could use one or more of the various embodiments to monitor and control traffic (possibly air traffic, land transport, and / or water traffic), as well as provide a warning signal (light, electronics, sound, etc.) to watercraft or others Warn types of vehicles from danger. In addition, air traffic control systems and / or traffic control systems could use various embodiments of the disclosure.

Zusätzlich könnten verschiedene Ausführungsformen der vorliegenden Offenbarung auch für andere Zwecke verwendet werden. Beispielsweise könnten Ausführungsformen für Spiele verwendet werden, die umgebende Objekte (Spielspieler, die als Teil der Spielanzeige etc. eingefügt werden sollen) erfassen, oder durch Personen, die eine Vorrichtung tragen, die verschiedene Ausführungsformen der Offenbarung enthält. Ein Beispiel für eine vom Benutzer getragene Vorrichtung könnte beispielsweise Augmented-Reality-Headsets, Virtual-Reality-Headsets etc. sein. Verschiedene Ausführungsformen der Offenbarung könnten auch verwendet werden, um Sehbehinderte zu führen. In dieser Angelegenheit könnten nicht sehbehinderte Personen auch ein Gerät tragen, das eine Ausführungsform der Offenbarung beinhaltet, um sie vor Hindernissen, Gefahren etc. zu warnen, wenn sie nicht auf ihre Umgebung achten, während sie mobil (Gehen/Joggen/Laufen, Radfahren, Inlineskating, Reiten, Segway etc.) oder stationär sind. Dementsprechend kann man sehen, dass verschiedene Ausführungsformen der Offenbarung für alle Fahrzeugtypen, für Benutzer getragene Vorrichtungen (Headsets, Schutzbrillen usw.) und für verschiedene Vorrichtungen verwendet werden können, die Objekte erfassen und/oder einen Bereich abbilden müssen. Die Offenbarung beschränkt die verschiedenen Ausführungsformen nicht auf irgendeine spezielle Verwendung.Additionally, various embodiments of the present disclosure could be used for other purposes. For example, embodiments could be used for games that capture surrounding objects (game players to be included as part of the game display, etc.) or by people carrying a device that includes various embodiments of the disclosure. An example of a user-carried device could be, for example, augmented reality headsets, virtual reality headsets, etc. Various embodiments of the disclosure could also be used to guide the visually impaired. In this matter, non-visually impaired persons could also carry a device that incorporates an embodiment of the disclosure to warn them of obstacles, hazards, etc., if they are not aware of their surroundings while being mobile (walking / jogging / running, cycling, Inline skating, horseback riding, Segway etc.) or stationary. Accordingly, it can be seen that various embodiments of the disclosure may be used for all vehicle types, user-worn devices (headsets, goggles, etc.), and various devices that need to detect and / or map an area. The disclosure does not limit the various embodiments to any specific use.

Daher kann man sehen, dass verschiedene Ausführungsformen der Offenbarung in vielen Anwendungen verwendet werden können, um den umgebenden Bereich zu erfassen, die erfassten Signale zu analysieren und wie benötigt Antworten zu erzeugen. Die Antwort könnte beispielsweise sein, Ausweichmanöver zu machen, andere Plattformen/Geräte/Personen zu benachrichtigen, was erfasst/analysiert/geantwortet wurde, sowie von anderen ähnlichen Informationen zu empfangen. Somit kann der effektive Bereich, der für das Erfassen/Analysieren/Antworten-Schema abgedeckt ist, stark gegenüber dem, was durch eine einzige Plattform erreicht werden kann, erhöht werden, indem Informationen mit mindestens einer anderen Plattform geteilt wird. Die verschiedenen Informationen können direkt oder über Drittanbieter-Plattformen oder das Internet/Cloud geteilt werden. Dementsprechend könnten verschiedene Objekte (mobil und stationär), ein Zustand der Straßen, ein Verkehr auf den Straßen, in der Luft und/oder das Wasser im Laufe der Zeit verfolgt werden, und korrekte Antworten können nach Bedarf gemacht werden. Therefore, it can be seen that various embodiments of the disclosure may be used in many applications to detect the surrounding area, analyze the detected signals, and generate responses as needed. For example, the answer might be to make evasive maneuvers, notify other platforms / devices / people of what has been collected / analyzed / responded, as well as receiving other similar information. Thus, the effective range covered for the Acquire / Analyze / Reply scheme can be greatly increased over what can be achieved by a single platform by sharing information with at least one other platform. The various information can be shared directly or through third-party platforms or the Internet / Cloud. Accordingly, various objects (mobile and stationary), a condition of the roads, a traffic on the streets, in the air, and / or the water could be tracked over time, and correct answers can be made as needed.

Eine Ausführungsform der Offenbarung könnte ein System zum Erfassen eines Objekts sein, das eine im wesentlichen kollimierte Abtastlichtquelle aufweist, die konfiguriert ist, Quelllicht auszugeben. Eine erste Kamera könnte konfiguriert sein, das erste reflektierte Licht zu empfangen, wobei das erste reflektierte Licht das von dem Objekt zu der ersten Kamera reflektierte Quelllicht ist. Eine zweite Kamera könnte konfiguriert sein, das zweite reflektierte Licht zu empfangen, wobei das zweite reflektierte Licht das von dem Objekt zu der zweiten Kamera reflektierte Quelllicht ist und die zweite Kamera ist von der ersten Kamera räumlich getrennt. Ein oder mehrere Prozessoren können so konfiguriert sein, dass sie die kollimierte Abtastlichtquelle, die erste Kamera und die zweite Kamera steuern und das erste reflektierte Licht und das zweite reflektierte Licht verarbeiten, um das Objekt zu erfassen. Die erste Kamera, die zweite Kamera und die kollimierte Abtastlichtquelle könnten konfiguriert sein, sich auf einer Epipolarebene zu befinden.An embodiment of the disclosure could be a system for detecting an object having a substantially collimated scanning light source configured to output source light. A first camera could be configured to receive the first reflected light, wherein the first reflected light is the source light reflected from the object to the first camera. A second camera could be configured to receive the second reflected light, wherein the second reflected light is the source light reflected from the object to the second camera, and the second camera is spatially separated from the first camera. One or more processors may be configured to control the collimated scanning light source, the first camera and the second camera and process the first reflected light and the second reflected light to detect the object. The first camera, the second camera and the collimated scanning light source could be configured to be at an epipolar plane.

Die kollimierte Abtastlichtquelle könnte konfiguriert sein, ihren horizontalen Sweep-Bereich und/oder vertikalen Sweep-Bereich zu verändern. Die erste Kamera und/oder die zweite Kamera könnten in der Lage sein horizontal und/oder vertikal zu schwenken. Die kollimierte Abtastlichtquelle könnte konfiguriert sein, eine Intensität des Quelllichts zu verändern. Die kollimierte Abtastlichtquelle könnte das Quelllicht als Rasterausgabe ausgeben.The collimated scanning light source could be configured to change its horizontal sweep range and / or vertical sweep range. The first camera and / or the second camera may be able to pan horizontally and / or vertically. The collimated scanning light source could be configured to vary an intensity of the source light. The collimated scanning light source could output the source light as a raster output.

Eine andere Ausführungsform der Offenbarung könnte ein Verfahren zum Erfassen eines Objekts sein, das aufweist, Ausgeben von Quelllicht durch eine im Wesentlichen kollimierte Abtastlichtquelle, Empfangen von erstem reflektierten Licht durch eine erste Kamera, wobei das erste reflektierte Licht von dem Objekt zu der ersten Kamera reflektiertes Quelllicht ist, und Empfangen eines zweiten reflektierten Lichts durch eine zweite Kamera, wobei das zweite reflektierte Licht das von dem Objekt zu der zweiten Kamera reflektierte Quelllicht ist, und die zweite Kamera ist von der ersten Kamera räumlich getrennt. Wenigstens ein Prozessor könnte die kollimierte Abtastlichtquelle, die erste Kamera und die zweite Kamera steuern und eines oder beides von dem ersten reflektierten Licht und dem zweiten reflektierten Licht verarbeiten, um das Objekt zu erfassen. Die erste Kamera, die zweite Kamera und die kollimierte Abtastlichtquelle sind auf einer Epipolarebene. Der Sweep-Bereich der kollimierten Abtastlichtquelle könnte horizontal und/oder vertikal variiert werden, und eine Intensität des Quelllichts der kollimierten Abtastlichtquelle könnte auch variiert werden.Another embodiment of the disclosure could be a method of detecting an object comprising outputting source light through a substantially collimated scanning light source, receiving first reflected light through a first camera, wherein the first reflected light reflects from the object to the first camera Is source light, and receiving a second reflected light through a second camera, wherein the second reflected light is the source light reflected from the object to the second camera, and the second camera is spatially separated from the first camera. At least one processor could control the collimated scanning light source, the first camera, and the second camera and process one or both of the first reflected light and the second reflected light to detect the object. The first camera, the second camera and the collimated scanning light source are on an epipolar plane. The sweep range of the collimated scanning light source could be varied horizontally and / or vertically, and an intensity of the source light of the collimated scanning light source could also be varied.

Die erste Kamera und die zweite Kamera könnten das erste reflektierte Licht beziehungsweise das zweite reflektierte Licht durch einen Rolling-Shutter-Kamera-Prozess empfangen. Wenigstens ein Prozessor könnte gleichzeitig eine Reihe von Pixeln oder gleichzeitig einen Teil einer Reihe von Pixel (einschließlich eines einzelnen Pixels) von der ersten Kamera und/oder der zweiten Kamera verarbeiten. Wenn die Pixel pixelweise verarbeitet werden, könnte jeder Pixel zeitcodiert sein. Das Objekt könnte durch Verwenden eines Dreiecks trianguliert werden, wobei die Eckpunkte das Objekt, die erste Kamera und die zweite Kammer sind.The first camera and the second camera could receive the first reflected light and the second reflected light, respectively, through a rolling shutter camera process. At least one processor could concurrently process a series of pixels or simultaneously a portion of a series of pixels (including a single pixel) from the first camera and / or the second camera. If the pixels are processed pixel by pixel, each pixel could be time coded. The object could be triangulated by using a triangle, where the vertices are the object, the first camera, and the second chamber.

Eine andere Ausführungsform der Offenbarung könnte ein System zum Erfassen eines Objekts sein, das aufweist, eine im Wesentlichen kollimierte Abtastlichtquelle, die konfiguriert ist Quelllicht auszugeben, wobei das Quelllicht drei diskrete Lichter in rot, grün und blau aufweist. Eine erste Kamera könnte konfiguriert sein, ein erstes reflektiertes Licht mit einem Rolling-Shutter-Kamera-Prozess zu empfangen, wobei das erste reflektierte Licht das von dem Objekt zu der ersten Kamera reflektierte Quelllicht ist. Eine zweite Kamera konfiguriert, mit dem Rolling-Shutter-Kamera-Prozess ein zweites reflektiertes Licht zu empfangen, wobei das zweite reflektierte Licht von dem Objekt zu der zweiten Kamera reflektiertes Quelllicht ist, und die zweite Kamera ist von der ersten Kamera räumlich getrennt. Wenigstens ein Prozessor könnte konfiguriert sein, die kollimierte Abtastlichtquelle, die erste Kamera und die zweite Kamera zu steuern und das erste reflektierte Licht und das zweite reflektierte Licht zu verarbeiten, um das Objekt zu erfassen.Another embodiment of the disclosure could be a system for detecting an object comprising a substantially collimated scanning light source configured to output source light, the source light having three discrete lights in red, green and blue. A first camera could be configured to receive a first reflected light with a rolling shutter camera process, wherein the first reflected light is the source light reflected from the object to the first camera. A second camera configures to receive a second reflected light using the rolling shutter camera process, wherein the second reflected light from the object to the second camera is reflected source light, and the second camera is spatially separated from the first camera. At least one processor could be configured to control the collimated scanning light source, the first camera, and the second camera and to process the first reflected light and the second reflected light to detect the object.

Die erste Kamera, die zweite Kamera und kollimierte Abtastlichtquelle könnten auf einer Epipolarebene sein. Die erste Kamera und/oder die zweite Kamera könnten das erste reflektierte Licht beziehungsweise das zweite reflektierte Licht durch einen Rolling-Shutter-Kamera-Prozess empfangen. Wenigstens ein Prozessor könnte konfiguriert sein, eine Reihe von Pixel oder einen Teil einer Reihe von Pixel (einschließlich eines Pixels) gleichzeitig von einer jeweiligen oder beiden der ersten Kamera und der zweiten Kamera zu verarbeiten. Wenn ein Pixel nach dem anderen verarbeitet wird, könnte jeder Pixel zeitcodiert sein. Wenigstens ein Prozessor könnte das Objekt, durch Verwenden des Objekts, der ersten Kamera und der zweiten Kamera als Eckpunkte eines Dreiecks, triangulieren.The first camera, the second camera, and the collimated scanning light source could be on an epipolar plane. The first camera and / or the second camera could receive the first reflected light and the second reflected light, respectively, by a rolling shutter camera process. At least one processor could be configured to process a series of pixels or a portion of a series of pixels (including a pixel) simultaneously from a respective one or both of the first camera and the second camera. If one pixel after another is processed, each pixel could be time-coded. At least one processor could triangulate the object by using the object, the first camera, and the second camera as vertices of a triangle.

Die erste Kamera und/oder die zweite Kamera könnten konfiguriert sein, dass sie das erste reflektierte Licht beziehungsweise das zweite reflektierte Licht durch einen Rolling-Shutter-Kamera-Prozess empfangen. Mindestens ein Prozessor könnte konfiguriert sein, gleichzeitig eine Reihe von Pixeln oder gleichzeitig einen Teil einer Reihe von Pixeln (einschließlich eines einzelnen Pixels) von der ersten Kamera und/oder der zweiten Kamera zu verarbeiten. Wenn das Verarbeiten für ein Pixel nach dem anderen erfolgt, könnte jeder Pixel zeitcodiert sein.The first camera and / or the second camera may be configured to receive the first reflected light and the second reflected light, respectively, through a rolling shutter camera process. At least one processor could be configured to simultaneously process a series of pixels or simultaneously a portion of a series of pixels (including a single pixel) from the first camera and / or the second camera. If the processing is done one pixel at a time, each pixel could be time coded.

Das Objekt könnte durch Verwenden eines Dreiecks trianguliert werden, wobei die Eckpunkte das Objekt, die erste Kamera und die zweite Kamera sind.The object could be triangulated using a triangle, where the vertices are the object, the first camera, and the second camera.

Verschiedene Teile der verschiedenen Ausführungsformen der Offenbarung könnten als Computerprogramme geschrieben werden und könnten mit Prozessoren implementiert werden, die die Programme unter Verwendung eines nicht-transitorischen computerlesbaren Aufzeichnungsmediums ausführen.Various portions of the various embodiments of the disclosure could be written as computer programs and could be implemented with processors executing the programs using a non-transitory computer-readable recording medium.

Nicht-flüchtiges computerlesbares Aufzeichnungsmedium könnte beispielsweise magnetische Speichermedien (z. B. ROM, Disketten, Festplatten etc.), optische Aufzeichnungsmedien (z. B. CD-ROMs oder DVDs), FLASH-Laufwerke, etc., enthalten.Non-transitory computer-readable recording media could include, for example, magnetic storage media (e.g., ROM, floppy disks, hard drives, etc.), optical recording media (e.g., CD-ROMs or DVDs), FLASH drives, etc.

Während verschiedene Ausführungsformen der Offenbarung unter Bezugnahme auf die Figuren beschrieben worden sind, wird es für den Fachmann verständlich sein, dass verschiedene Änderungen in der Form und in den Details gemacht werden können, ohne von dem Grundgedanken und dem Umfang der Offenlegung gemäß den folgenden Ansprüchen abzuweichen. Dementsprechend sind die obigen Ausführungsformen und alle Aspekte davon nur Beispiele und sind nicht beschränkend.While various embodiments of the disclosure have been described with reference to the figures, it will be understood by those skilled in the art that various changes in form and details may be made without departing from the spirit and scope of the disclosure according to the following claims , Accordingly, the above embodiments and all aspects thereof are only examples and are not restrictive.

Claims (23)

System zum Erfassen eines Objekts (130), das aufweist: eine im Wesentlichen kollimierte Abtastlichtquelle (120, 234, 300), die konfiguriert ist, ein Quelllicht auszugeben; eine erste Kamera (110), die konfiguriert ist, ein erstes reflektiertes Licht zu empfangen, wobei das erste reflektierte Licht, das von dem Objekt (130) zu der ersten Kamera reflektierte Quelllicht ist; eine zweite Kamera (112), die konfiguriert ist, ein zweites reflektiertes Licht zu empfangen, wobei das zweite reflektierte Licht, das von dem Objekt (130) zu der zweiten Kamera (112) reflektierte Quelllicht ist, und wobei die zweite Kamera (112) von der ersten Kamera räumlich getrennt ist; und ein oder mehrere Prozessoren (210), die konfiguriert sind: die Abtastlichtquelle (120, 234, 300), die erste Kamera (110) und die zweite Kamera (112) zu steuern; und das erste reflektierte Licht und das zweite reflektierte Licht zu verarbeiten, um das Objekt (130) zu erfassen.System for detecting an object ( 130 ), comprising: a substantially collimated scanning light source ( 120 . 234 . 300 ) configured to output a source light; a first camera ( 110 ) configured to receive a first reflected light, wherein the first reflected light received from the object (16) 130 ) is source light reflected to the first camera; a second camera ( 112 ) configured to receive a second reflected light, the second reflected light coming from the object ( 130 ) to the second camera ( 112 ) is reflected source light, and wherein the second camera ( 112 ) is spatially separated from the first camera; and one or more processors ( 210 ) configured: the scanning light source ( 120 . 234 . 300 ), the first camera ( 110 ) and the second camera ( 112 ) to control; and process the first reflected light and the second reflected light to form the object ( 130 ) capture. System nach Anspruch 1, wobei die erste Kamera (110), die zweite Kamera (112) und die Abtastlichtquelle (120, 234, 300) auf einer Epipolarebene sind.The system of claim 1, wherein the first camera ( 110 ), the second camera ( 112 ) and the scanning light source ( 120 . 234 . 300 ) are at an epipolar level. System nach Anspruch 1, wobei die Abtastlichtquelle (120, 234, 300) konfiguriert ist, ihren Sweep-Bereich horizontal und/oder vertikal zu verändern.A system according to claim 1, wherein the scanning light source ( 120 . 234 . 300 ) is configured to change its sweep range horizontally and / or vertically. System nach Anspruch 1, wobei eine oder beide von der ersten Kamera und der zweiten Kamera (112) horizontal und/oder vertikal schwenken kann.The system of claim 1, wherein one or both of the first camera and the second camera ( 112 ) horizontally and / or vertically. System nach Anspruch 1, wobei die Abtastlichtquelle (120, 234, 300) konfiguriert ist, eine Intensität des Quelllichts zu verändern.A system according to claim 1, wherein the scanning light source ( 120 . 234 . 300 ) is configured to change an intensity of the source light. System nach Anspruch 1, wobei eine oder beide von der ersten Kamera (110) und der zweiten Kamera (112) konfiguriert sind, durch einen Rolling-Shutter-Kamera-Prozess, das erste reflektierte Licht beziehungsweise das zweite reflektierte Licht zu empfangen.The system of claim 1, wherein one or both of the first camera (10) 110 ) and the second camera ( 112 ) are configured to receive, by a rolling shutter camera process, the first reflected light and the second reflected light, respectively. System nach Anspruch 6, wobei wenigstens einer der einen oder mehreren Prozessoren (210) konfiguriert ist, eine Reihe von Pixel gleichzeitig zu verarbeiten.The system of claim 6, wherein at least one of the one or more processors ( 210 ) is configured to process a number of pixels simultaneously. System nach Anspruch 6, wobei wenigstens einer der einen oder mehreren Prozessoren (210) konfiguriert ist, einen Teil einer Reihe von Pixel gleichzeitig zu verarbeiten.The system of claim 6, wherein at least one of the one or more processors ( 210 ) is configured to process a portion of a series of pixels simultaneously. System nach Anspruch 6, wobei wenigstens einer der einen oder mehreren Prozessoren (210) konfiguriert ist, immer ein Pixel zur Zeit von den Pixeln, die von einem oder beidem von dem ersten reflektierten Licht und dem zweiten reflektierten Licht erzeugt wurden, zu verarbeiten.The system of claim 6, wherein at least one of the one or more processors ( 210 ) is configured to always process one pixel at a time from the pixels generated by either or both of the first reflected light and the second reflected light. System nach Anspruch 9, wobei jeder der Pixel, die von einem oder beidem von dem ersten reflektierten Licht und dem zweiten reflektierten Licht erzeugt wurden, zeitcodiert ist The system of claim 9, wherein each of the pixels generated from one or both of the first reflected light and the second reflected light is time encoded System nach Anspruch 1, wobei der Prozessor (210) konfiguriert ist, eine Triangulation des Objekts (130) durchzuführen, wobei das Objekt (130), die erste Kamera (110) und die zweite Kamera (112) als Endpunkte eines Dreiecks verwendet werden.The system of claim 1, wherein the processor ( 210 ) is configured, a triangulation of the object ( 130 ), the object ( 130 ), the first camera ( 110 ) and the second camera ( 112 ) are used as endpoints of a triangle. System nach Anspruch 1, wobei die Abtastlichtquelle (120, 234, 300) konfiguriert ist, das Quelllicht als eine Rasterausgabe auszugeben.A system according to claim 1, wherein the scanning light source ( 120 . 234 . 300 ) is configured to output the source light as a raster output. Verfahren zum Erfassen eines Objekts (130), das aufweist: Ausgeben von Quelllicht durch eine im Wesentlichen kollimierte Abtastlichtquelle (120, 234, 300); Empfangen eines ersten reflektierten Lichts durch eine erste Kamera (110), wobei das erste reflektierte Licht das von dem Objekt (130) zu der ersten Kamera (110) reflektierte Quelllicht ist; Empfangen eines zweiten reflektierten Lichts durch eine zweite Kamera (112), wobei das zweite reflektierte Licht das von dem Objekt (130) zu der zweiten Kamera (112) reflektierte Quelllicht ist, und wobei die zweite Kamera (112) von der ersten Kamera (110) räumlich getrennt ist; Steuern, durch einen oder mehrere Prozessoren (210), der Abtastlichtquelle (120, 234, 300), der ersten Kamera (110) und der zweiten Kamera (112); und Verarbeiten von einem oder beidem von dem ersten reflektierten Licht und dem zweiten reflektierten Licht zum Erfassen des Objekts (130).Method for detecting an object ( 130 ), comprising outputting source light through a substantially collimated scanning light source ( 120 . 234 . 300 ); Receiving a first reflected light by a first camera ( 110 ), wherein the first reflected light from the object ( 130 ) to the first camera ( 110 ) is reflected source light; Receiving a second reflected light by a second camera ( 112 ), wherein the second reflected light from the object ( 130 ) to the second camera ( 112 ) is reflected source light, and wherein the second camera ( 112 ) from the first camera ( 110 ) is spatially separated; Taxes, by one or more processors ( 210 ), the scanning light source ( 120 . 234 . 300 ), the first camera ( 110 ) and the second camera ( 112 ); and processing one or both of the first reflected light and the second reflected light to detect the object ( 130 ). Verfahren nach Anspruch 13, wobei die erste Kamera (110), die zweite Kamera (112) und die Abtastlichtquelle (120, 234, 300) auf einer Epipolarebene sind.Method according to claim 13, wherein the first camera ( 110 ), the second camera ( 112 ) and the scanning light source ( 120 . 234 . 300 ) are at an epipolar level. Verfahren nach Anspruch 13, das aufweist, Verändern von einem oder beidem von horizontalem und vertikalem Sweep-Bereich der Abtastlichtquelle (120, 234, 300).The method of claim 13, comprising changing one or both of the horizontal and vertical sweep ranges of the scanning light source (10). 120 . 234 . 300 ). Verfahren nach Anspruch 13, das aufweist, Verändern einer Intensität des Quelllichts der Abtastlichtquelle (120, 234, 300).A method according to claim 13, comprising changing an intensity of the source light of the scanning light source ( 120 . 234 . 300 ). Verfahren nach Anspruch 13, wobei eine oder beide von der ersten Kamera (110) und der zweiten Kamera (112), durch einen Rolling-Shutter-Kamera-Prozess, das erste reflektierte Licht beziehungsweise zweite reflektierte Licht empfangen.The method of claim 13, wherein one or both of the first camera ( 110 ) and the second camera ( 112 ), by a rolling shutter camera process, receive the first reflected light and second reflected light, respectively. Verfahren nach Anspruch 17, das aufweist, gleichzeitiges Verarbeiten, durch wenigstens einen der einen oder mehreren Prozessoren (210), einer Reihe von Pixeln von einer jeweiligen oder beiden der ersten Kamera (110) und der zweiten Kamera (112).The method of claim 17, comprising, concurrently processing, by at least one of the one or more processors ( 210 ), a series of pixels from a respective one or both of the first camera ( 110 ) and the second camera ( 112 ). Verfahren nach Anspruch 17, das aufweist, gleichzeitiges Verarbeiten, durch wenigstens einen der einen oder mehrere Prozessoren (210), eines Teils einer Reihe von Pixeln von einer jeweiligen oder beiden der ersten Kamera (110) und der zweiten Kamera (112).The method of claim 17, comprising, concurrently processing, by at least one of the one or more processors ( 210 ), a part of a row of pixels from a respective one or both of the first camera ( 110 ) and the second camera ( 112 ). Verfahren nach Anspruch 19, das aufweist, Zeitcodieren des Einzelpixels, wenn der Teil einer Reihe von Pixel ein Einzelpixel ist.The method of claim 19, comprising time-encoding the single pixel when the portion of a row of pixels is a single pixel. Verfahren nach Anspruch 13, das aufweist, Triangulation des Objekts (130), wobei das Objekt (130), die erste Kamera (110) und die zweite Kamera (112) als Eckpunkte eines Dreiecks verwendet werden.Method according to claim 13, comprising triangulation of the object ( 130 ), where the object ( 130 ), the first camera ( 110 ) and the second camera ( 112 ) are used as vertices of a triangle. System zum Erfassen eines Objektes (130), das aufweist: eine Abtastlichtquelle (120, 234, 300), die konfiguriert ist, ein Quelllicht auszugeben, wobei die Abtastlichtquelle (120, 234, 300) wenigstens zwei diskrete Lichter, die im Wesentlichen kollimiert sind, aufweist; eine erste Kamera (110), die konfiguriert ist, ein erstes reflektiertes Licht mit einem Rolling-Shutter-Kamera-Prozess zu empfangen, wobei das erste reflektierte Licht das von dem Objekt (130) zu der ersten Kamera (110) reflektierte Quelllicht ist; eine zweite Kamera (112), die konfiguriert ist, ein zweites reflektiertes Licht mit dem Rolling-Shutter-Kamera-Prozess zu empfangen, wobei das zweite reflektierte Licht das von dem Objekt (130) zu der zweiten Kamera (112) reflektierte Quelllicht ist, und wobei die zweite Kamera (112) von der ersten Kamera (110) räumlich getrennt ist; und einen oder mehrere Prozessoren (210), die konfiguriert sind: die Abtastlichtquelle (120, 234, 300), die erste Kamera (110) und die zweite Kamera (112) zu steuern; und das erste reflektierte Licht und das zweite reflektierte Licht, in einer Reihe von Pixeln gleichzeitig zu verarbeiten, um das Objekt (130) zu erfassen.System for detecting an object ( 130 ), comprising: a scanning light source ( 120 . 234 . 300 ) configured to output a source light, the sample light source ( 120 . 234 . 300 ) has at least two discrete lights that are substantially collimated; a first camera ( 110 ) configured to receive a first reflected light with a rolling shutter camera process, the first reflected light being from the object (1). 130 ) to the first camera ( 110 ) is reflected source light; a second camera ( 112 ) configured to receive a second reflected light with the rolling shutter camera process, wherein the second reflected light is that of the object (2). 130 ) to the second camera ( 112 ) is reflected source light, and wherein the second camera ( 112 ) from the first camera ( 110 ) is spatially separated; and one or more processors ( 210 ) configured: the scanning light source ( 120 . 234 . 300 ), the first camera ( 110 ) and the second camera ( 112 ) to control; and the first reflected light and the second reflected light, in a series of pixels simultaneously to process the object ( 130 ) capture. System nach Anspruch 22, wobei der wenigstens eine von dem einen oder mehreren Prozessoren (210) konfiguriert ist, dass Objekt (130) zu triangulieren, wobei als Eckpunkte eines Dreiecks das Objekt und zwei von: der Abtastlichtquelle (120), der ersten Kamera (110) und der zweiten Kamera (112), verwendet werden.The system of claim 22, wherein the at least one of the one or more processors ( 210 ) is configured that object ( 130 ), where as vertices of a triangle the object and two of: the scanning light source ( 120 ), the first camera ( 110 ) and the second camera ( 112 ), be used.
DE102017117212.2A 2016-08-02 2017-07-31 System and method for stereotriangulation Pending DE102017117212A1 (en)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
US201662369879P 2016-08-02 2016-08-02
US62/369,879 2016-08-02
US15/658,952 US10884127B2 (en) 2016-08-02 2017-07-25 System and method for stereo triangulation
US15/658,952 2017-07-25

Publications (2)

Publication Number Publication Date
DE102017117212A1 DE102017117212A1 (en) 2018-02-08
DE102017117212A9 true DE102017117212A9 (en) 2018-04-05

Family

ID=60996369

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102017117212.2A Pending DE102017117212A1 (en) 2016-08-02 2017-07-31 System and method for stereotriangulation

Country Status (1)

Country Link
DE (1) DE102017117212A1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102022113387A1 (en) 2022-05-27 2023-11-30 Robert Bosch Gesellschaft mit beschränkter Haftung Lidar sensor, environment detection system and vehicle

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102019206231A1 (en) * 2019-04-30 2020-11-05 Zf Friedrichshafen Ag Camera-based position determination for an object in the surroundings of a vehicle using an epipolar image line

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102022113387A1 (en) 2022-05-27 2023-11-30 Robert Bosch Gesellschaft mit beschränkter Haftung Lidar sensor, environment detection system and vehicle

Also Published As

Publication number Publication date
DE102017117212A1 (en) 2018-02-08

Similar Documents

Publication Publication Date Title
DE102012112322B4 (en) Method for optically scanning and measuring an environment
DE102012112321B4 (en) Device for optically scanning and measuring an environment
DE102013017500B3 (en) Method and apparatus for optically scanning and measuring a scene
DE102011106050B4 (en) Shadow removal in an image captured by a vehicle-based camera for detection of a clear path
DE102018121018A1 (en) EXPAND REAL SENSOR RECORDINGS WITH SIMULATED SENSOR DATA BACKGROUND
EP3396409B1 (en) Method for calibrating a camera and a laser scanner
DE102018121019A1 (en) EXPANDING REAL SENSOR RECORDS WITH SIMULATED SENSOR DATA
DE102011106052B4 (en) Shadow removal in an image captured by a vehicle based camera using a nonlinear illumination invariant core
EP3014569B1 (en) Inspection of the contoured surface of the underbody of a motor vehicle
DE202012104890U1 (en) Device for optically scanning and measuring an environment
DE102014208271A1 (en) Method and apparatus for image based vision estimation
EP1589484A1 (en) Method for detecting and/or tracking objects
DE102011106072A1 (en) SHADOW REMOVAL IN A PICTURE BASED ON A VEHICLE-BASED CAMERA USING AN OPTIMIZED LINEAR AXIS
DE102007040176A1 (en) An object detection device and method for identifying an object within a region
DE112016006213T5 (en) System and method for fusing outputs from sensors having different resolutions
EP1460454B1 (en) Method for combined processing of high resolution images and video images
DE102020129096A1 (en) GENERATION OF THREE-DIMENSIONAL POINT CLOUDS USING A POLARIMETRIC CAMERA IN A VEHICLE EQUIPPED WITH A DRIVING ASSISTANT SYSTEM
DE112021006402T5 (en) Estimating automatic exposure values of a camera by prioritizing an object of interest based on contextual input from 3D maps
DE102017106152A1 (en) Determine an angle of a trailer with optimized template
EP3663881B1 (en) Method for controlling an autonomous vehicle on the basis of estimated movement vectors
DE102005055879A1 (en) Air Traffic guide
DE102017117212A9 (en) System and method for stereotriangulation
DE102010020537A1 (en) Passive water surface detector for use in autonomous system of self-propelled lawn mower moved over area of golf course, has sensor elements connected to data evaluation device and generating image with different polarizations from scene
DE102014208272A1 (en) Method and apparatus for tracking-based visibility estimation
DE102014116904B4 (en) Method for optically scanning and measuring a scene and automatically generating a video

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication