DE102011088332B4 - Method for improving object detection in multi-camera systems - Google Patents
Method for improving object detection in multi-camera systems Download PDFInfo
- Publication number
- DE102011088332B4 DE102011088332B4 DE102011088332.0A DE102011088332A DE102011088332B4 DE 102011088332 B4 DE102011088332 B4 DE 102011088332B4 DE 102011088332 A DE102011088332 A DE 102011088332A DE 102011088332 B4 DE102011088332 B4 DE 102011088332B4
- Authority
- DE
- Germany
- Prior art keywords
- vehicle
- area
- seam
- raised
- viewing areas
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 18
- 238000001514 detection method Methods 0.000 title claims abstract description 9
- 235000004522 Pentaglottis sempervirens Nutrition 0.000 claims abstract description 18
- 238000012545 processing Methods 0.000 claims abstract description 7
- 238000004590 computer program Methods 0.000 claims description 7
- 240000004050 Pentaglottis sempervirens Species 0.000 claims description 2
- 238000002604 ultrasonography Methods 0.000 claims description 2
- 238000012986 modification Methods 0.000 description 4
- 230000004048 modification Effects 0.000 description 4
- 230000009466 transformation Effects 0.000 description 3
- 238000012800 visualization Methods 0.000 description 3
- 230000008901 benefit Effects 0.000 description 2
- 230000015572 biosynthetic process Effects 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 238000012544 monitoring process Methods 0.000 description 2
- 230000007704 transition Effects 0.000 description 2
- 241000905137 Veronica schmidtiana Species 0.000 description 1
- 230000009471 action Effects 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 238000004040 coloring Methods 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000006073 displacement reaction Methods 0.000 description 1
- 230000002996 emotional effect Effects 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 238000009877 rendering Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/40—Scaling of whole images or parts thereof, e.g. expanding or contracting
- G06T3/4038—Image mosaicing, e.g. composing plane images from plane sub-images
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/18—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
- H04N7/181—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
Landscapes
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Image Analysis (AREA)
- Closed-Circuit Television Systems (AREA)
- Image Processing (AREA)
Abstract
Verfahren zur Wiedergabe von erhabenen Objekten (68), die sich im Bereich von Nahtstellen (52, 54, 56, 58) zusammengefügt aus von mehreren Kameras (28, 32, 36, 40) erfasster Sichtbereiche (30, 34, 38, 42) befinden, mit nachfolgenden Verfahrensschritten:d) Erfassung von Sichtbereichen (30, 34, 38, 42) mit jeweils einer Kamera (28, 32, 36, 40) an einem Fahrzeug (10),e) Zusammenfügen der Sichtbereiche (30, 34, 38, 42) an Nahtstellen (52, 54, 56, 58) zu einer transformierten Vogelperspektiv-Ansicht (24),f) Verschieben mindestens einer Nahtstelle (52, 54, 56, 58) zwischen angrenzenden Sichtbereichen (30, 34, 38, 42) bei Detektion mindestens eines sich im Bereich mindestens einer Nahtstelle (52, 54, 56, 58) befindenden oder sich auf diesen zubewegenden erhabenen Objekts (68), wobeii. das mindestens eine erhabene Objekt (68) durch Bildverarbeitungsalgorithmen detektiert wird,ii. die mindestens eine Nahtstelle (52, 54, 56, 58) innerhalb mindestens eines Überlappungsbereichs (44, 46, 48, 50) von einander überlappenden Sichtbereichen (30, 34, 38, 42) verschoben wird,iii. wobei bei mehreren sich im mindestens einen Überlappungsbereich (44, 46, 48, 50) befindender oder sich auf diesen zu bewegender erhabener Objekte (68), die mindestens eine Nahtstelle (52, 54, 56, 58) derart verschoben wird, dass das relevanteste der erhabenen Objekte (68) detektiert wird, undiv. das relevanteste erhabene Objekt (68) das beweglichste Objekt in der Nähe des Fahrzeugs (10) ist.Method for reproducing raised objects (68) which are assembled in the area of seams (52, 54, 56, 58) from viewing areas (30, 34, 38, 42) captured by several cameras (28, 32, 36, 40) with the following process steps: d) detection of viewing areas (30, 34, 38, 42) each with a camera (28, 32, 36, 40) on a vehicle (10), e) combining the viewing areas (30, 34, 38, 42) at seams (52, 54, 56, 58) to a transformed bird's eye view (24), f) moving at least one seam (52, 54, 56, 58) between adjacent viewing areas (30, 34, 38, 42) upon detection of at least one raised object (68) located in the area of at least one seam (52, 54, 56, 58) or moving towards this, wherein i. the at least one raised object (68) is detected by image processing algorithms, ii. the at least one seam (52, 54, 56, 58) is displaced within at least one overlapping area (44, 46, 48, 50) of overlapping viewing areas (30, 34, 38, 42), iii. with several raised objects (68) located in the at least one overlap area (44, 46, 48, 50) or to be moved on these, the at least one seam (52, 54, 56, 58) is shifted in such a way that the most relevant the raised objects (68) is detected, andiv. the most relevant raised object (68) is the most movable object in the vicinity of the vehicle (10).
Description
Stand der TechnikState of the art
Die Erfindung bezieht sich auf ein Verfahren zur Verbesserung der Objektdetektion bei Multikamerasystemen, insbesondere auf eine automatische Verschiebung von Nahtstellen bei Objektdetektion in Überlappungsbereichen von Bildern eines Multikamerasystems, eine Vorrichtung zur Implementierung des Verfahrens sowie auf ein Computerprogramm zur Ausführung des Verfahrens auf einer Computereinrichtung.The invention relates to a method for improving object detection in multi-camera systems, in particular to an automatic displacement of seams in the case of object detection in overlapping areas of images of a multi-camera system, a device for implementing the method and a computer program for executing the method on a computer device.
Weiteren Stand der Technik, aus dem zumindest Teile des Anspruches 1 bekannt sind, stellt die
Heute bei vielen Fahrzeugen eingebaute Multikamerasysteme, beispielsweise eine Frontkamera, mindestens eine Seitenkamera im Außenspiegel sowie eine Heckkamera umfassend, berechnen aus Bildern eine Ansicht von oben auf das Fahrzeug aus der Vogelperspektive und geben die Fahrzeugumgebung wieder (Bird's Eye View, Top View oder Area View). Dadurch wird dem Fahrer ermöglicht, durch einen einzigen Blick auf eine Anzeigeeinheit, beispielsweise ein Display in einer Mittelkonsole, die gesamte nähere Fahrzeugumgebung zu sehen. Somit kann der Fahrer aufgrund der Vogelperspektive auch tote Winkel überblicken.Multi-camera systems built into many vehicles today, for example a front camera, at least one side camera in the exterior mirror and a rear camera, use images to calculate a top view of the vehicle from a bird's eye view and reproduce the vehicle's surroundings (Bird's Eye View, Top View or Area View) . This enables the driver to see the entire area around the vehicle at a single glance at a display unit, for example a display in a center console. The driver can therefore also see blind spots due to the bird's eye view.
Um ein möglichst vollständiges Bild der Fahrzeugumgebung zu erhalten, sind die Kameras an unterschiedlichen Positionen montiert. Die Frontkamera befindet sich meistens im Frontend oder im Bereich der Windschutzscheibe, die Heckkamera entweder oberhalb der Heckscheibe oder in Höhe der Kofferraumklappe, während sich Seitenkameras meistens mit einer vertikal auf die Fahrbahn gerichteten Orientierung in den Außenspiegeln auf Fahrer- und Beifahrerseite des Fahrzeugs befinden. Dabei haben einige dieser Kameras einen gemeinsamen Sichtbereich, der im Folgenden als Überlappungsbereich bezeichnet wird. In gängigen Systemen werden die Bilder, welche diese Kameras liefern, durch eine perspektivische Transformation (auch Homographie genannt) auf eine Ebene abgebildet. Um die auf die Ebene transformierten Bilder zu einem gemeinsamen Bild zusammenzufügen, werden die Bilder „zusammengenäht“, was in der Fachsprache auch als „Stitching“ bezeichnet wird. In den Überlappungsbereichen einzelner nebeneinander liegender Bilder liegen Bilddaten vor, die von mehreren Kameras aufgenommen wurden. Derartige Überlappungsbereiche zweier nebeneinander liegender Bilder bzw. deren Bilddaten definieren. Nahtstellen (Stitching Stellen). Hierbei wird heutzutage jedem Kamerabild ein Bildbereich innerhalb der Vogelperspektive zugewiesen, d.h. einer Darstellung der Fahrzeugumgebung und des Fahrzeugs von oben her. Bei gängigen Systemen wird eine festimplementierte und nicht änderbare Nahtstelle (Stitching Stelle) innerhalb des Überlappungsbereichs der Bilder definiert. Da die Nahtstelle in der Regel im Bezug auf die Ebene optimiert ist, entsteht für erhabene Objekte nahe der Nahtstelle ein blinder Keil, in dem diese erhabenen Objekte nicht mehr bzw. kaum noch zu erkennen sind. Die Bilder, die von den einzelnen im Fahrzeug verbauten Kameras aufgenommen werden, können nicht entlang der Kameragrundlinien zusammengenäht werden, da die üblicherweise vorgesehenen Einbaupositionen der Kameras am Fahrzeug dieses nicht zulassen.In order to obtain the most complete picture possible of the vehicle environment, the cameras are mounted in different positions. The front camera is usually located in the front end or in the area of the windshield, the rear camera either above the rear window or at the height of the trunk lid, while side cameras are usually located in the exterior mirrors on the driver and passenger side of the vehicle with a vertical orientation towards the road. Some of these cameras have a common field of vision, which is referred to below as the overlap area. In current systems, the images that these cameras deliver are mapped onto a plane by means of a perspective transformation (also called homography). In order to combine the images transformed onto the layer into a common image, the images are "sewn together", which is also known as "stitching" in technical terms. In the overlapping areas of individual images lying next to one another, image data are available that were recorded by several cameras. Such areas of overlap define two adjacent images or their image data. Seams (stitching points). Nowadays, each camera image is assigned an image area within the bird's eye view, ie a representation of the vehicle surroundings and the vehicle from above. In current systems, a permanently implemented and unchangeable seam (stitching point) is defined within the overlapping area of the images. Since the seam is usually optimized in relation to the plane, a blind wedge is created for raised objects near the seam, in which these raised objects can no longer or can hardly be recognized. The images that are recorded by the individual cameras installed in the vehicle cannot be sewn together along the basic camera lines, since the installation positions of the cameras on the vehicle that are usually provided do not allow this.
Darstellung der ErfindungPresentation of the invention
Erfindungsgemäß wird vorgeschlagen, die einzelnen sich zwischen den Kameras ergebenden Überlappungsbereiche, in denen sich auch die Zusammenfügungsstellen (Stitching Stellen) der Einzelbilder befinden, so zu modifizieren, dass aufgrund des Vorhandenseins eines erhabenen Objektes, die Zusammenfügungsstelle (Stitching Stelle) innerhalb der Überlappungsbereichs verschoben wird, derart, dass das mindestens eine detektierte erhabene Objekt immer sichtbar bleibt. Dem erfindungsgemäß vorgeschlagenen Verfahren folgend, ist sichergestellt, dass bei Detektion eines erhabenen Objektes innerhalb eines Überlappungsbereiches oder bei Detektion eines erhabenen Objektes in der Nähe einer Zusammenfügungsstelle (Stitching Stelle) die Visualisierung des mindestens einen detektierten erhabenen Objektes in diesem Bereich Priorität vor der Ausbildung korrekt verlaufender Überlappungsbereiche genießt. Durch das erfindungsgemäß vorgeschlagene Verfahren ist nunmehr der signifikante Nachteil bei aus dem Stand der Technik bekannten Verfahren ausgeschlossen, dass in Überlappungsbereichen oder in deren Nähe empfindliche erhabene Objekte einfach verschluckt werden und für den Fahrer trotz ihres Vorhandenseins nicht visualisierbar sind.According to the invention, it is proposed that the individual overlap areas resulting between the cameras, in which the stitching locations of the individual images are also located, be modified so that the stitching location is shifted within the overlapping area due to the presence of a raised object , such that the at least one detected raised object always remains visible. Following the method proposed according to the invention, it is ensured that when a raised object is detected within an overlapping area or when a raised object is detected in the vicinity of a stitching point, the visualization of the at least one raised object detected in this area has priority over the formation Overlap areas enjoys. The method proposed according to the invention now eliminates the significant disadvantage of methods known from the prior art that sensitive raised objects are simply swallowed in overlapping areas or in their vicinity and cannot be visualized by the driver despite their presence.
Die Detektion des mindestens einen erhabenen Objekts, sei es im Überlappungsbereich zweier Einzelbilder, sei es in der Nähe einer Zusammenfügungsstelle (Stitching Stelle) kann durch Sensoriken, wie z.B. Ultraschall, Laserscanner, Radar oder Lidar-Applikationen und dergleichen heutzutage zuverlässig entdeckt werden.The detection of the at least one raised object, be it in the overlap area of two individual images, be it in the vicinity of a joining point (stitching point) can nowadays be reliably detected by sensors such as ultrasound, laser scanners, radar or lidar applications and the like.
Für den Fall, dass sich mehrere erhabene Objekte innerhalb des Überlappungsbereiches zweier Einzelbilder bzw. in der Nähe einer Zusammenfügungsstelle (Stitching Stelle) von Einzelbildern befinden, wird die Zusammenfügungsstelle (Stitching Stelle) so verschoben, dass das relevanteste Objekt sich nicht innerhalb eines nicht darstellbaren Bereichs befindet, sondern sichergestellt ist, dass die Zusammenfügungsstelle (Stitching Stelle) bei Detektion mindestens eines erhabenen Objektes dieses mindestens eine erhabene Objekt einschließt, d.h. dieses im Visualisierungsbereich liegt. Im vorstehenden Zusammenhang ist unter dem Ausdruck „Relevantestes Objekt“ jenes mindestens eine erhabene Objekt zu verstehen, welches innerhalb des Überlappungsbereiches oder welches sich im Bereich einer Zusammenfügungsstelle (Stitching Stelle) am nächsten zum Fahrzeug befindet und/oder mindestens ein erhabenes Objekt, was sich mit der höchsten Geschwindigkeit bewegt.In the event that several raised objects are located within the overlap area of two individual images or in the vicinity of a joining point (stitching point) of individual images, the joining point (stitching point) is shifted so that the most relevant object is not within a non-displayable area is located, but it is ensured that the joining point (stitching point) when detecting at least one raised object includes this at least one raised object, ie this is in the visualization area. In the above context, the expression "most relevant object" is to be understood as that at least one raised object that is located within the overlap area or that is closest to the vehicle in the area of a stitching point and / or at least one raised object that is located with moves at the highest speed.
Vorteile der ErfindungAdvantages of the invention
Durch das erfindungsgemäß vorgeschlagene Verfahren wird sichergestellt, dass detektierte erhabene Objekte, die in den besagten Bereichen, d.h. entweder im Überlappungsbereich zweier Einzelbilder bzw. die sich in der Nähe einer Zusammenfügungsstelle (Stitching Stelle) befinden, nicht in einem blinden Bereich verschwinden. Dadurch kann einerseits eine Überwindung der Nachteile der aus dem Stand dem Technik bekannten Lösungen erreicht werden, des Weiteren wird dem Fahrer eines derart ausgerüsteten Fahrzeugs eine erheblich verbesserte Rundumsicht geboten, in der alle Objekte ständig sichtbar sind und bleiben. Dies führt nicht zuletzt zu einem erheblichen Zugewinn an Sicherheit.The method proposed according to the invention ensures that detected raised objects that are in the said areas, i.e. either in the overlapping area of two individual images or that are in the vicinity of a joining point (stitching point), do not disappear in a blind area. In this way, on the one hand, the disadvantages of the solutions known from the prior art can be overcome; furthermore, the driver of a vehicle equipped in this way is offered a considerably improved all-round view in which all objects are and remain constantly visible. Last but not least, this leads to a considerable gain in security.
Durch die erfindungsgemäß vorgeschlagene Lösung besteht des Weiteren die Möglichkeit, das detektierte Objekt bei der Darstellung auf einem Display innerhalb des Fahrzeugs einzufärben, um die Aufmerksamkeit des Fahrers zu erregen. Ferner ist sichergestellt, dass der Fahrer des Fahrzeugs das Objekt jederzeit sieht, da dieses nicht innerhalb eines Nahtstellenbereiches verschwindet, insbesondere nicht in einem Übergangsbereich zweier benachbarter Sichtbereiche der Kameras. Des Weiteren besteht durch die erfindungsgemäß vorgeschlagene Lösung die Möglichkeit, erhabene Objekte wesentlich natürlicher darzustellen, was einen deutlichen Vorteil hinsichtlich der Wahrnehmung durch den Fahrer ergibt.The solution proposed according to the invention also provides the option of coloring the detected object when it is shown on a display inside the vehicle in order to attract the driver's attention. Furthermore, it is ensured that the driver of the vehicle sees the object at all times, since it does not disappear within a seam area, in particular not in a transition area between two adjacent viewing areas of the cameras. Furthermore, the solution proposed according to the invention provides the possibility of displaying raised objects in a much more natural way, which results in a clear advantage in terms of perception by the driver.
FigurenlisteFigure list
Anhand der Zeichnung wird die Erfindung nachstehend eingehender beschrieben.The invention is described in more detail below with reference to the drawing.
Es zeigt:
-
1 Einzelbilder, die von im Fahrzeug montierten Kameras aufgenommen werden, -
2 ein aus Einzelbildern berechnetes Bild des Fahrzeugs aus der Vogelperspektive, -
3 die Sichtbereiche an verschiedenen Positionen im Fahrzeug angeordneter Kameras sowie die sich aus den Einzelsichtbereichen der Kameras ergebenden Überlappungsbereiche, -
4 fest definierte Zusammenfügungsstellen (Stitching Stellen) für ein Bild auf das Fahrzeug aus der Vogelperspektive, -
5 eine sich vor einem Fahrzeug (hier dargestellt als Sattelschlepper) befindliche Person, -
6 eine sich im Bereich einer Zusammenfügungsstelle (Stitching Stelle) befindliche Person, in diesem Fall mittig vor dem Fahrzeug und damit nicht mehr eindeutig sichtbar, -
7 einen sich ergebenden blinden Keil entlang der in6 angedeuteten Zusammenfügungsstelle (Stitching Stelle), -
8 ein detektiertes, sich einer Zusammenfügungsstelle (Stitching Stelle) näherndes erhabenes Objekt und -
9 eine Verschiebung der Zusammenfügungsstelle (Stitching Stelle) innerhalb des Überlappungsbereiches zur Sichtbarmachung des detektierten, mindestens einen erhabenen Objektes für den Fahrer des Fahrzeugs.
-
1 Single images that are recorded by cameras mounted in the vehicle, -
2 a bird's eye view of the vehicle calculated from individual images, -
3 the viewing areas of cameras arranged at different positions in the vehicle as well as the overlapping areas resulting from the individual viewing areas of the cameras, -
4th firmly defined assembly points (stitching points) for an image of the vehicle from a bird's eye view, -
5 a person in front of a vehicle (shown here as a semi-trailer), -
6th a person in the area of a stitching point, in this case in the middle in front of the vehicle and thus no longer clearly visible, -
7th a resulting blind wedge along the in6th indicated joining point (stitching point), -
8th a detected raised object approaching a stitching point and -
9 a shift of the joining point (stitching point) within the overlap area to make the detected, at least one raised object visible to the driver of the vehicle.
AusführungsvariantenDesign variants
Der Darstellung gemäß
Gemäß der Darstellung in
Der Darstellung gemäß
Der Darstellung gemäß
Die beiden Seitenkameras
Wie aus der Darstellung gemäß
Es ergibt sich ein erster Überlappungsbereich
Aufgrund dieser Überlappungsbereiche
Ein Vergleich zwischen den Darstellungen gemäß
Der Figurensequenz der
Wie aus
In der Darstellung gemäß
Der Darstellung gemäß
Aus der Draufsicht gemäß
Aus der Darstellung gemäß
Die in
Bei dem in den
Aus der in
Die Erfindung betrifft weiterhin ein Computerprogramm, gemäß dem eines der vorstehend beschriebenen Verfahren durchgeführt werden kann, wenn das Computerprogramm auf einer programmierbaren Computereinrichtung ausgeführt wird. Bei dem Computerprogramm kann es sich beispielsweise um ein Modul zur Implementierung eines Fahrassistenzsystems oder eines Subsystems hiervon in einem Fahrzeug handeln, oder um eine Applikation für Fahrassistenzfunktionen, welche auf einem Smartphone ausführbar ist. Das Computerprogramm kann auf einem maschinenlesbaren Speichermedium gespeichert werden, etwa auf einem permanenten oder wiederbeschreibbaren Speichermedium oder in Zuordnung zu einer Computereinrichtung oder auf einer entfernbaren CD-Rom, DVD oder einem USB-Stick. Zusätzlich oder alternativ kann das Computerprogramm auf einer Computereinrichtung, wie etwa auf einem Server zum Herunterladen bereitgestellt werden, zum Beispiel über ein Datennetzwerk, wie etwa das Internet oder einer Kommunikationsverbindung, wie etwa eine Telefonleitung oder eine drahtlose Verbindung.The invention further relates to a computer program according to which one of the methods described above can be carried out when the computer program is executed on a programmable computer device. The computer program can be, for example, a module for implementing a driver assistance system or a subsystem thereof in a vehicle, or an application for driver assistance functions that can be executed on a smartphone. The computer program can be stored on a machine-readable storage medium, for example on a permanent or rewritable storage medium or in association with a computer device or on a removable CD-ROM, DVD or USB stick. Additionally or alternatively, the computer program can be provided on a computer device such as a server for download, for example via a data network such as the Internet or a communication connection such as a telephone line or a wireless connection.
Durch die vorstehend insbesondere anhand der
Die Erfindung ist nicht auf die hier beschriebenen Ausführungsbeispiele und die darin hervorgehobenen Aspekte beschränkt. Vielmehr ist innerhalb des durch die anhängigen Ansprüche angegebenen Bereiches eine Vielzahl von Abwandlungen möglich, die im Rahmen fachmännischen Handelns liegen.The invention is not restricted to the exemplary embodiments described here and the aspects emphasized therein. Rather, a large number of modifications are possible within the range specified by the appended claims, which are within the scope of professional action.
Claims (4)
Priority Applications (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102011088332.0A DE102011088332B4 (en) | 2011-12-13 | 2011-12-13 | Method for improving object detection in multi-camera systems |
CN201280061379.6A CN103999122A (en) | 2011-12-13 | 2012-11-19 | Method for improving the object detection in multicamera systems |
IN3173DEN2014 IN2014DN03173A (en) | 2011-12-13 | 2012-11-19 | |
PCT/EP2012/072963 WO2013087362A1 (en) | 2011-12-13 | 2012-11-19 | Method for improving the object detection in multicamera systems |
EP12794902.2A EP2791895A1 (en) | 2011-12-13 | 2012-11-19 | Method for improving the object detection in multicamera systems |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102011088332.0A DE102011088332B4 (en) | 2011-12-13 | 2011-12-13 | Method for improving object detection in multi-camera systems |
Publications (2)
Publication Number | Publication Date |
---|---|
DE102011088332A1 DE102011088332A1 (en) | 2013-06-13 |
DE102011088332B4 true DE102011088332B4 (en) | 2021-09-02 |
Family
ID=47278778
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE102011088332.0A Active DE102011088332B4 (en) | 2011-12-13 | 2011-12-13 | Method for improving object detection in multi-camera systems |
Country Status (5)
Country | Link |
---|---|
EP (1) | EP2791895A1 (en) |
CN (1) | CN103999122A (en) |
DE (1) | DE102011088332B4 (en) |
IN (1) | IN2014DN03173A (en) |
WO (1) | WO2013087362A1 (en) |
Families Citing this family (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102013217081B4 (en) | 2013-08-27 | 2019-11-21 | Volkswagen Aktiengesellschaft | Device and method for position detection |
EP2851870B1 (en) | 2013-09-20 | 2019-01-23 | Application Solutions (Electronics and Vision) Limited | Method for estimating ego motion of an object |
DE102014108684B4 (en) | 2014-06-20 | 2024-02-22 | Knorr-Bremse Systeme für Nutzfahrzeuge GmbH | Vehicle with an environmental monitoring device and method for operating such a monitoring device |
EP3009983A1 (en) * | 2014-10-13 | 2016-04-20 | Conti Temic microelectronic GmbH | Obstacle detection apparatus and method |
DE102015204213B4 (en) * | 2015-03-10 | 2023-07-06 | Robert Bosch Gmbh | Method for combining two images of a vehicle environment of a vehicle and corresponding device |
DE102015010011B4 (en) | 2015-08-05 | 2020-03-19 | Wirtgen Gmbh | Self-propelled construction machine and method for displaying the environment of a self-propelled construction machine |
DE102015010009A1 (en) | 2015-08-05 | 2017-02-09 | Wirtgen Gmbh | Self-propelled construction machine and method for displaying the environment of a self-propelled construction machine |
JP6493143B2 (en) * | 2015-10-15 | 2019-04-03 | 株式会社デンソー | Display control apparatus and display control program |
US20170297488A1 (en) * | 2016-04-19 | 2017-10-19 | GM Global Technology Operations LLC | Surround view camera system for object detection and tracking |
JP6551336B2 (en) * | 2016-08-12 | 2019-07-31 | 株式会社デンソー | Peripheral audit equipment |
DE102016117518A1 (en) | 2016-09-16 | 2018-03-22 | Connaught Electronics Ltd. | Adapted merging of individual images into an overall image in a camera system for a motor vehicle |
CN107009968B (en) * | 2017-03-28 | 2020-08-28 | 驭势科技(北京)有限公司 | Vehicle-mounted laser radar control method and device and vehicle-mounted equipment |
DE112019007225B4 (en) | 2019-04-18 | 2023-12-07 | Mitsubishi Electric Corporation | Vehicle surroundings image generating device, vehicle surroundings display system and vehicle surroundings display method |
KR102281609B1 (en) | 2020-01-16 | 2021-07-29 | 현대모비스 주식회사 | Around view composing system and method |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007104373A (en) | 2005-10-05 | 2007-04-19 | Alpine Electronics Inc | On-vehicle image displaying device |
DE102006003538B3 (en) | 2006-01-24 | 2007-07-19 | Daimlerchrysler Ag | Image acquisitions merging method for bird`s eye perspective, involves selecting image sections such that shadowing effects produced by moved objects are projected during transition in overall image from image section to other section |
DE102008029181A1 (en) | 2008-06-19 | 2009-02-19 | Daimler Ag | Motor vehicle's surrounding area monitoring method, involves detecting surrounding area of vehicle by cameras whose displayed areas partially overlap each other, where partial areas of frames of cameras are arranged parallel to each other |
DE102009036200A1 (en) | 2009-08-05 | 2010-05-06 | Daimler Ag | Method for monitoring surrounding area of vehicle utilized for transport of e.g. goods, involves generating entire image, where course of boundary lines is given such that lines run away from objects depending on positions of objects |
KR20100113959A (en) | 2009-04-14 | 2010-10-22 | 현대자동차일본기술연구소 | Vehicle surrounding view display system |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101035269A (en) * | 2007-02-14 | 2007-09-12 | 周竟 | Multi-purpose monitoring and positioning device for the automobile |
CN100559420C (en) * | 2007-03-29 | 2009-11-11 | 汤一平 | Parking guidance system based on computer vision |
CN101304515A (en) * | 2007-05-11 | 2008-11-12 | 徐世刚 | Panorama type reverse guidance system |
CN101420599A (en) * | 2008-11-20 | 2009-04-29 | 符巨章 | Overall view monitoring system for automobile |
WO2011036892A1 (en) * | 2009-09-24 | 2011-03-31 | パナソニック株式会社 | Driving support display device |
-
2011
- 2011-12-13 DE DE102011088332.0A patent/DE102011088332B4/en active Active
-
2012
- 2012-11-19 IN IN3173DEN2014 patent/IN2014DN03173A/en unknown
- 2012-11-19 EP EP12794902.2A patent/EP2791895A1/en not_active Withdrawn
- 2012-11-19 WO PCT/EP2012/072963 patent/WO2013087362A1/en active Application Filing
- 2012-11-19 CN CN201280061379.6A patent/CN103999122A/en active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007104373A (en) | 2005-10-05 | 2007-04-19 | Alpine Electronics Inc | On-vehicle image displaying device |
DE102006003538B3 (en) | 2006-01-24 | 2007-07-19 | Daimlerchrysler Ag | Image acquisitions merging method for bird`s eye perspective, involves selecting image sections such that shadowing effects produced by moved objects are projected during transition in overall image from image section to other section |
DE102008029181A1 (en) | 2008-06-19 | 2009-02-19 | Daimler Ag | Motor vehicle's surrounding area monitoring method, involves detecting surrounding area of vehicle by cameras whose displayed areas partially overlap each other, where partial areas of frames of cameras are arranged parallel to each other |
KR20100113959A (en) | 2009-04-14 | 2010-10-22 | 현대자동차일본기술연구소 | Vehicle surrounding view display system |
DE102009036200A1 (en) | 2009-08-05 | 2010-05-06 | Daimler Ag | Method for monitoring surrounding area of vehicle utilized for transport of e.g. goods, involves generating entire image, where course of boundary lines is given such that lines run away from objects depending on positions of objects |
Also Published As
Publication number | Publication date |
---|---|
DE102011088332A1 (en) | 2013-06-13 |
EP2791895A1 (en) | 2014-10-22 |
WO2013087362A1 (en) | 2013-06-20 |
CN103999122A (en) | 2014-08-20 |
IN2014DN03173A (en) | 2015-05-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE102011088332B4 (en) | Method for improving object detection in multi-camera systems | |
EP3501897B1 (en) | Vision system for detecting the surroundings of a vehicle | |
EP3028898B1 (en) | Vision system | |
DE102012025322B4 (en) | Motor vehicle with camera monitor system | |
EP2603413B1 (en) | Method for supporting a parking procedure of a motor vehicle, driver assistance system, and motor vehicle | |
DE102011010624B4 (en) | Display device for fields of view of a commercial vehicle | |
DE102014108684B4 (en) | Vehicle with an environmental monitoring device and method for operating such a monitoring device | |
DE102017100004A1 (en) | Method for providing at least one information from a surrounding area of a motor vehicle, display system for a motor vehicle, driver assistance system for a motor vehicle and motor vehicle | |
EP3401167A1 (en) | Mirror replacement system as camera display system of a motor vehicle, in particular a commercial vehicle | |
DE102011079913A1 (en) | Visual assistance system for a driver and vehicle with such a system | |
DE102010051206A1 (en) | A method of generating an image of a vehicle environment and imaging device | |
DE102006029892A1 (en) | Camera system for a motor vehicle | |
DE102006052779A1 (en) | Method for generating an overall image of the surroundings of a motor vehicle | |
DE102008046214A1 (en) | Environment monitoring method for vehicle e.g. commercial motor vehicle, utilized for transporting goods, involves determining and displaying relevant surrounding regions based on distance between vehicle and obstacle | |
DE102016114689A1 (en) | A method for assisting the driver of a motor vehicle when maneuvering the motor vehicle with a trailer, driver assistance system and team | |
DE102011014368A1 (en) | Method and device for an imaging driver assistance system | |
DE102013209366B4 (en) | Display device and method for displaying information in a vehicle | |
DE102015208343B4 (en) | Method for generating an overall image of a vehicle environment of a vehicle and corresponding device | |
DE102016117476A1 (en) | Play back images of a team | |
EP3106349B1 (en) | Vision system for a commercial vehicle for the display of the statutory fields of view of a main mirror and a wide-angle mirror | |
EP3833576B1 (en) | Surveillance camera system | |
DE102020135019B4 (en) | Electronic vehicle mirror system | |
DE102013020949A1 (en) | Improved alpha blending of images of a camera system of a motor vehicle | |
WO2018188700A1 (en) | Surround view system for a vehicle | |
DE102018102051B4 (en) | Method for displaying an area around a motor vehicle with an image window in an image, computer program product and display system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
R012 | Request for examination validly filed | ||
R079 | Amendment of ipc main class |
Free format text: PREVIOUS MAIN CLASS: B60R0001100000 Ipc: B60R0001000000 |
|
R016 | Response to examination communication | ||
R018 | Grant decision by examination section/examining division | ||
R020 | Patent grant now final |