DE102009014437B4 - Object Recognition System and Method - Google Patents
Object Recognition System and Method Download PDFInfo
- Publication number
- DE102009014437B4 DE102009014437B4 DE102009014437.4A DE102009014437A DE102009014437B4 DE 102009014437 B4 DE102009014437 B4 DE 102009014437B4 DE 102009014437 A DE102009014437 A DE 102009014437A DE 102009014437 B4 DE102009014437 B4 DE 102009014437B4
- Authority
- DE
- Germany
- Prior art keywords
- image
- type
- spectral range
- sensor elements
- object recognition
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 16
- 230000003595 spectral effect Effects 0.000 claims abstract description 81
- 238000001514 detection method Methods 0.000 claims abstract description 20
- 238000012360 testing method Methods 0.000 claims abstract description 4
- 238000012545 processing Methods 0.000 claims description 15
- 238000011156 evaluation Methods 0.000 description 9
- 239000004065 semiconductor Substances 0.000 description 4
- 238000011161 development Methods 0.000 description 2
- 230000018109 developmental process Effects 0.000 description 2
- 239000007789 gas Substances 0.000 description 2
- 238000005286 illumination Methods 0.000 description 2
- 230000005855 radiation Effects 0.000 description 2
- 238000013459 approach Methods 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000002329 infrared spectrum Methods 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000012706 support-vector machine Methods 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/10—Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths
- H04N23/11—Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths for generating image signals from visible and infrared light wavelengths
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/30—Transforming light or analogous information into electric information
- H04N5/33—Transforming infrared radiation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/10—Image acquisition
- G06V10/12—Details of acquisition arrangements; Constructional details thereof
- G06V10/14—Optical characteristics of the device performing the acquisition or on the illumination arrangements
- G06V10/143—Sensing or illuminating at different wavelengths
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
- G06V20/582—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of traffic signs
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/20—Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from infrared radiation only
- H04N23/21—Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from infrared radiation only from near infrared [NIR] radiation
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Signal Processing (AREA)
- Health & Medical Sciences (AREA)
- Toxicology (AREA)
- Image Analysis (AREA)
- Traffic Control Systems (AREA)
- Image Processing (AREA)
Abstract
Objekterkennungssystem, umfassend wenigstens eine Bilderfassungseinrichtung (101a, 101b) mit einem einzelnen Bildsensor (201), der rasterförmig angeordnete Sensorelemente eines ersten Typs (202) und eines zweiten Typs (203) umfasst, wobei die Sensorelemente des zweiten Typs (203) innerhalb des Bildsensors zwischen den Sensorelementen des ersten Typs (202) angeordnet sind, wobei mittels der Sensorelemente des ersten Typs ein Bild in einem ersten Spektralbereich erfassbar ist und mittels der Sensorelemente des zweiten Typs ein weiteres Bild in einem zweiten Spektralbereich erfassbar ist, weiterhin umfassend eine Objekterkennungseinrichtung (110), die dazu ausgestaltet ist, anhand eines ersten, mit den Sensorelementen eines Typs erfassten Bildes ein Objekt einer vorgegebenen Objektklasse in einem Bildbereich zu erkennen, und umfassend eine Plausibilisierungseinrichtung (113), die dazu ausgestaltet ist, zu prüfen, ob das Objekt und/oder ein vorgegebenes Merkmal des Objekts im Wesentlichen in dem gleichen Bildbereich in dem zweiten, mit den Sensorelementen des anderen Typs erfassten Bild erkennbar ist, und in Abhängigkeit von dem Ergebnis der Prüfung eine Zuverlässigkeit der Objekterkennung zu ermitteln.Object recognition system, comprising at least one image capturing device (101a, 101b) with a single image sensor (201), which comprises sensor elements of a first type (202) and a second type (203) arranged in a grid, the sensor elements of the second type (203) being located within the image sensor are arranged between the sensor elements of the first type (202), wherein an image can be captured in a first spectral range by means of the sensor elements of the first type and a further image in a second spectral range can be captured by means of the sensor elements of the second type, further comprising an object recognition device (110 ), which is designed to recognize an object of a specified object class in an image area on the basis of a first image captured with the sensor elements of a type, and comprising a plausibility checking device (113) which is designed to check whether the object and/or or a predetermined feature of the object substantially is recognizable in the same image area in the second image captured with the sensor elements of the other type, and to determine a reliability of the object detection as a function of the result of the test.
Description
Technisches Gebiettechnical field
Die Erfindung bezieht sich auf die Erkennung von Objekten anhand von Bilddaten. Insbesondere betrifft die Erfindung ein Objekterkennungssystem und ein Objekterkennungsverfahren. Das Objekterkennungssystem und das Verfahren sind insbesondere für einen Einsatz in einem Kraftfahrzeug geeignet.The invention relates to the detection of objects using image data. In particular, the invention relates to an object recognition system and an object recognition method. The object recognition system and the method are particularly suitable for use in a motor vehicle.
Hintergrund der ErfindungBackground of the Invention
In modernen Kraftfahrzeugen werden in zunehmendem Maße Bilderfassungssysteme eingesetzt, um Objekte im Umfeld des Fahrzeugs zu erkennen. Hierbei kann es sich um Objekte, wie beispielsweise weitere Fahrzeuge oder Fußgänger, handeln, mit denen das Kraftfahrzeug potenziell kollidieren kann. Aufgrund der Erkennung eines derartigen Objekts können in dem Fahrzeug Sicherheitsmaßnahmen ausgeführt werden, die eine Kollision mit dem Objekt verhindern oder Kollisionsfolgen verringern. Des Weiteren können Bilderfassungssysteme eingesetzt werden, um beispielsweise Verkehrsschilder automatisch zu erkennen und den Fahrer auf Beschränkungen aufmerksam zu machen und/oder den Fahrzustand des Fahrzeugs geeignet zu beeinflussen. Ein Beispiel hierfür ist die Erkennung von Verkehrschildern, welche die erlaubte Fahrgeschwindigkeit beschränken.Image acquisition systems are used to an increasing extent in modern motor vehicles in order to recognize objects in the area surrounding the vehicle. These can be objects, such as other vehicles or pedestrians, with which the motor vehicle can potentially collide. Due to the detection of such an object, safety measures can be implemented in the vehicle that prevent a collision with the object or reduce the consequences of a collision. Furthermore, image acquisition systems can be used in order, for example, to automatically recognize traffic signs and to draw the driver's attention to restrictions and/or to suitably influence the driving state of the vehicle. An example of this is the recognition of traffic signs that limit the permitted driving speed.
Die Objekterkennung kann sowohl anhand von Bildern im für den Menschen sichtbaren Spektralbereich erfolgen, als auch anhand von Bildern im nicht sichtbaren Spektralbereich, insbesondere im Infrarotbereich. Infrarotbilder ermöglichen dabei die Erkennung von Objekten auch bei schlechten Sichtverhältnissen, vor allem bei Dunkelheit.The object can be recognized both on the basis of images in the spectral range that is visible to humans and on the basis of images in the spectral range that is not visible, in particular in the infrared range. Infrared images enable the detection of objects even in poor visibility, especially in the dark.
Aus der
Hierzu ist es allerdings erforderlich, dass ein Objekt, das einem Spektralbereich erfasst worden ist, einem Objekt zugeordnet wird, dass in dem anderen Spektralbereich erfasst worden ist. Wenn dies nicht eindeutig gelingt, können Fehler bei der Plausibilisierung auftreten.However, this requires that an object that has been detected in one spectral range is assigned to an object that has been detected in the other spectral range. If this is not clearly successful, errors can occur during the plausibility check.
Die
Darstellung der ErfindungPresentation of the invention
Es ist daher eine Aufgabe der vorliegenden Erfindung, eine zuverlässigere Plausibilisierung von Objekten zu ermöglichen, die mittels eines bildbasierten Objekterkennungssystems erkannt worden sind.It is therefore an object of the present invention to enable a more reliable plausibility check of objects that have been recognized by means of an image-based object recognition system.
Die Aufgabe wird gelöst durch ein Objekterkennungssystem mit den Merkmalen des Patentanspruchs 1 und durch ein Verfahren zur Objekterkennung mit dem Merkmalen des Anspruchs 11 Ausführungsformen des Objekterkennungssystems und des Verfahrens sind in den abhängigen Ansprüchen angegeben.The object is achieved by an object recognition system having the features of patent claim 1 and by a method for object recognition having the features of claim 11. Embodiments of the object recognition system and the method are specified in the dependent claims.
Gemäß einem ersten Aspekt der Erfindung wird ein Objekterkennungssystem vorgeschlagen, das wenigstens eine Bilderfassungseinrichtung mit einem Bildsensor aufweist, der rasterförmig angeordnete Sensorelemente eines ersten Typs und eines zweiten Typs umfasst. Mittels der Sensorelemente des ersten Typs ist ein Bild in einem ersten Spektralbereich erfassbar, und mittels der Sensorelemente des zweiten Typs ist ein weiteres Bild in einem zweiten Spektralbereich erfassbar. Weiterhin umfasst das System eine Objekterkennungseinrichtung, die dazu ausgestaltet ist, anhand eines ersten, mit den Sensorelementen eines Typs erfassten Bildes ein Objekt einer vorgegebenen Objektklasse in einem Bildbereich zu erkennen, sowie eine Plausibilisierungseinrichtung, die dazu ausgestaltet ist, zu prüfen, ob das Objekt und/oder ein vorgegebenes Merkmal des Objekts im Wesentlichen in dem gleichen Bildbereich in dem zweiten, mit den Sensorelementen des anderen Typs erfassten Bild erkennbar ist, und in Abhängigkeit von dem Ergebnis der Prüfung eine Zuverlässigkeit der Objekterkennung zu ermitteln.According to a first aspect of the invention, an object recognition system is proposed which has at least one image acquisition device with an image sensor which comprises sensor elements of a first type and a second type arranged in a grid. An image in a first spectral range can be detected by means of the sensor elements of the first type, and a further image in a second spectral range can be detected by means of the sensor elements of the second type. The system also includes an object recognition device, which is designed to recognize an object of a specified object class in an image area based on a first image captured with the sensor elements of one type, and a plausibility check device, which is designed to check whether the object and /or a predetermined feature of the object is essentially recognizable in the same image area in the second image captured with the sensor elements of the other type, and to determine a reliability of the object recognition depending on the result of the test.
Gemäß einem zweiten Aspekt der Erfindung wird ein Verfahren zum Erkennen von Objekten vorgeschlagen, bei dem mittels wenigstens eines Bildsensor, der rasterförmig angeordnete Sensorelemente eines ersten Typs und eines zweiten Typs umfasst, zwei Bilder erfasst werden, wobei mittels der Sensorelemente des ersten Typs ein Bild in einem ersten Spektralbereich erfasst wird und mittels der Sensorelemente des zweiten Typs ein weiteres Bild in einem zweiten Spektralbereich erfasst wird. Anhand eines ersten, mit den Sensorelementen eines Typs erfassten Bildes wird ein Objekt einer vorgegebenen Objektklasse in einem Bildbereich erkannt. Es wird geprüft, ob das Objekt und/oder ein vorgegebenes Merkmal des Objekts im Wesentlichen in dem gleichen Bildbereich des zweiten, zweiten, mit den Sensorelementen des anderen Typs erfassten Bilds erkennbar ist, und in Abhängigkeit von dem Ergebnis der Prüfung wird eine Zuverlässigkeit der Objekterkennung ermittelt.According to a second aspect of the invention, a method for detecting objects is proposed, in which two images are captured by means of at least one image sensor, which comprises sensor elements of a first type and a second type arranged in a grid, wherein by means of the sensor elements of the first type an image in is detected in a first spectral range and a further image is detected in a second spectral range by means of the sensor elements of the second type. An object of a specified object class is detected in an image area on the basis of a first image captured with the sensor elements of one type. It is checked whether the object and/or a predetermined feature of the object is essentially recognizable in the same image area of the second, second image captured with the sensor elements of the other type, and depending on the result of the check, a reliability of the object detection is determined determined.
Die Erfindung beinhaltet die Idee, Objekte redundant anhand von Bildern zu erfassen, die im Wesentlichen deckungsgleich sind. Hierdurch kann eine Plausibilisierung durchgeführt werden, die dadurch vereinfacht wird, dass für ein Objekt, das in einem Bildbereich eines Bildes erkannt worden ist, in dem im Wesentlichen gleichen Bildbereich des anderen Bildes geprüft wird, ob das Objekt dort ebenfalls erkannt werden kann oder ob vorgegebenen Merkmale des Objekts in diesem Bildbereich erkennbar sind. Hierdurch wird erreicht, dass in den Bilder abgebildete Objekte einander einfacher und zuverlässiger zugeordnet werden können bzw. in einem Bild enthaltene Merkmale eines Objekts einem in einem anderen Bild erkannten Objekt einfacher und zuverlässiger zugeordnet werden können. Damit wird die Plausibilisierung zuverlässiger.The invention includes the idea of detecting objects redundantly using images that are essentially congruent. In this way, a plausibility check can be carried out, which is simplified by the fact that for an object that has been recognized in an image area of an image, it is checked in essentially the same image area of the other image whether the object can also be recognized there or whether it is specified Features of the object are recognizable in this image area. The result of this is that objects depicted in the images can be associated with one another more easily and more reliably, or features of an object contained in one image can be associated more easily and reliably with an object recognized in another image. This makes the plausibility check more reliable.
Ein weiterer Vorteil der Erfindung besteht darin, dass eine Objekterkennung nicht in beiden Bildern durchgeführt zu werden braucht, sondern dass die Plausibilisierung eines in einem Bild erkannten Objekts anhand von in dem zweiten Bild enthaltenen Merkmalen des Objekts vorgenommen werden kann. Hierdurch wird die Plausibilisierung vereinfacht. Insbesondere kann sie ressourcenschonender durchgeführt werden, da eine Objekterkennung in der Regel sehr ressourcenintensiv ist.A further advantage of the invention is that object recognition does not have to be carried out in both images, but that the plausibility check of an object recognized in one image can be carried out using features of the object contained in the second image. This simplifies the plausibility check. In particular, it can be carried out in a resource-saving manner, since object recognition is generally very resource-intensive.
Um im Wesentlichen deckungsgleiche Bilder in beiden Spektralbereichen erfassen zu können, ist es erfindungsgemäß vorgesehen, dass die Sensorelemente des zweiten Typs innerhalb des Bildsensors zwischen den Sensorelementen des ersten Typs angeordnet sind. Insbesondere können die Sensorelemente innerhalb des Bildsensors derart angeordnet sein, dass sich Sensorelemente des ersten und zweiten Typs innerhalb des Rasters nach einem vorgegebenen Muster abwechseln.In order to be able to capture essentially congruent images in both spectral ranges, it is provided according to the invention that the sensor elements of the second type are arranged within the image sensor between the sensor elements of the first type. In particular, the sensor elements can be arranged within the image sensor in such a way that sensor elements of the first and second type alternate within the grid according to a predetermined pattern.
Die beiden Spektralbereiche sind vorzugsweise voneinander verschiedenen. In einer Ausgestaltung des Objekterkennungssystems und des Verfahrens ist vorgesehen, dass es sich bei dem ersten Spektralbereich um einen sichtbaren Spektralbereich und bei dem zweiten Spektralbereich um einen nicht sichtbaren Spektralbereich handelt. Gleichfalls können jedoch beide Spektralbereiche in einem nicht sichtbaren Unter einem sichtbaren Spektralbereich wird in Rahmen der Erfindung ein Spektralbereich verstanden, der vom Menschen bzw. mittels des menschlichen Auges wahrnehmbar ist. Entsprechend handelt es sich bei dem nicht sichtbaren Spektralbereich um einen Spektralbereich der vom Menschen nicht wahrnehmbar ist.The two spectral ranges are preferably different from one another. In one configuration of the object recognition system and the method, it is provided that the first spectral range is a visible spectral range and the second spectral range is a non-visible spectral range. Equally, however, both spectral ranges can be included in a non-visible range. Within the scope of the invention, a visible spectral range is understood to mean a spectral range that can be perceived by humans or by means of the human eye. Accordingly, the non-visible spectral range is a spectral range that cannot be perceived by humans.
In einer Ausführungsform des Objekterkennungssystems und des Verfahrens handelt es sich bei dem nicht sichtbaren Spektralbereich um einen Nah- und/oder Ferninfrarotbereich. In diesem Spektralbereichen ist vorteilhaft eine Bilderfassung auch bei Dunkelheit möglich. Sofern eine Bilderfassung im Nahinfrarotbereich vorgesehen ist, weist das Objekterkennungssystem zu diesem Zweck vorzugsweise eine Beleuchtungseinrichtung auf, die den Bilderfassungsbereich der Bilderfassungseinrichtung zumindest teilweise mit Licht im Nahinfrarotbereich ausleuchtet. Der Ferninfrarotbereich umfasst die von Objekten ausgesendete Wärmestrahlung. Damit können Merkmale von Objekte erfasst werden, die unabhängig vom sichtbaren Spektralbereich sind, wodurch die Zuverlässigkeit der Plausibilisierung eines Objekts weiter erhöht werden kann.In one embodiment of the object recognition system and the method, the non-visible spectral range is a near and/or far infrared range. In this spectral range, image acquisition is also advantageously possible in the dark. If image acquisition in the near-infrared range is provided, the object recognition system preferably has an illumination device for this purpose, which at least partially illuminates the image acquisition area of the image acquisition device with light in the near-infrared range. The far-infrared range includes the thermal radiation emitted by objects. In this way, features of objects can be detected that are independent of the visible spectral range, as a result of which the reliability of the plausibility check of an object can be further increased.
Eine Ausgestaltung des Objekterkennungssystems und des Verfahrens beinhaltet, dass es sich bei dem ersten Bild um das im sichtbaren Spektralbereich erfasste Bild handelt und bei dem zweiten Bild um das im nicht sichtbaren Spektralbereich erfasste Bild. Dies ist insbesondere dann zweckmäßig, wenn es sich bei dem nicht sichtbaren Spektralbereich um den Ferninfrarotbereich handelt, in dem oftmals nur einzelne Merkmale von Objekten erfasst werden können, die für eine zuverlässige Objekterkennung nicht ausreichend sind. Diese können jedoch vorteilhaft zur Plausibilisierung herangezogen werden.One embodiment of the object recognition system and the method includes that the first image is the image captured in the visible spectral range and the second image is the image captured in the non-visible spectral range. This is expedient in particular when the non-visible spectral range is the far-infrared range, in which it is often only possible to detect individual features of objects that are not sufficient for reliable object recognition. However, these can advantageously be used for plausibility checks.
Eine weitere Ausgestaltung des Objekterkennungssystem und des Verfahrens zeichnet sich dadurch aus, dass das erste Bild situationsabhängig auswählbar ist. Somit kann für eine Objekterkennung das Bild herangezogen werden, welches in einer Situation am besten geeignet ist. Bei ausreichender Umgebungshelligkeit kann es sich hierbei um das im sichtbaren Spektralbereich erfasste Bild handeln. Bei Dunkelheit kann es sich hingegen um das im nicht sichtbaren Spektralbereich erfasste Bild handeln.A further refinement of the object recognition system and of the method is characterized in that the first image can be selected as a function of the situation. The image that is best suited to a situation can thus be used for object recognition. If there is sufficient ambient light, this can be the image recorded in the visible spectral range. In the case of darkness, on the other hand, it can be the image recorded in the non-visible spectral range.
Eine Ausführungsform des Objekterkennungssystems und des Verfahrens ist dadurch gekennzeichnet, dass es sich bei dem vorgegebenen Merkmal um eine Kontur des Objekts handelt. Auch dann, wenn es sich bei dem nicht sichtbaren Spektralbereich um den Ferninfrarotbereich handelt, können Konturen bestimmter Objekte, wie beispielsweise die Umrisse von Personen, auch in den im nicht sichtbaren Spektralbereich erfassten Bildern erkannt werden und zur Plausibilisierung und/oder zur Objekterkennung herangezogen werden.An embodiment of the object recognition system and the method is characterized in that the predefined feature is a contour of the object. Even if the non-visible spectral range is the far infrared range, contours of certain objects, such as the outlines of people, can also be recognized in the images captured in the non-visible spectral range and used for plausibility checking and/or object recognition.
Eine weitere Ausführungsform des Objekterkennungssystems und des Verfahrens zeichnet sich dadurch aus, dass es sich bei dem vorgegebenen Merkmal um eine Wärmequelle des Objekts handelt, die im Bereich der Umrisse des Objekts angeordnet ist. Dies ist insbesondere dann vorteilhaft, wenn es sich bei dem nicht sichtbaren Spektralbereich um den Ferninfrarotbereich handelt, in dem oftmals nur einzelne Merkmale von Objekten erfasst werden können. Die Wärmequelle kann dabei innerhalb der Umrisse des Objekts angeordnet sein oder im Randbereich des Objekts außerhalb seiner Umrisse.A further embodiment of the object recognition system and the method is characterized in that the predefined feature is a heat source of the object, which is arranged in the area of the outline of the object. This is particularly advantageous when the non-visible spectral range is the far-infrared range, in which often only individual features of objects can be detected. The heat source can be arranged within the outline of the object or in the edge area of the object outside its outline.
Wie zuvor erwähnt kann eine Plausibilisierung eines Objekts anhand eines vorgegebenen Merkmals des Objekts in einem Bild vorgenommen werden, gleichfalls kann jedoch auch vorgesehen sein, dass auf der Grundlage beider erfassten Bilder eine Objekterkennung durchgeführt wird. Daher sieht eine Ausgestaltung Objekterkennungssystems und des Verfahrens vor, dass die Objekterkennungseinrichtung dazu ausgestaltet ist, eine Objekterkennung bezüglich des in dem ersten Spektralbereich erfassten Bildes und des in dem zweiten Spektralbereich erfassten Bildes durchzuführen, und dass die Plausibilisierungseinrichtung dazu ausgestaltet ist, zu prüfen, ob das Objekt in beiden Bildern im Wesentlichen an der gleichen Bildposition erkennbar ist.As previously mentioned, an object can be checked for plausibility using a predefined feature of the object in an image, but it can also be provided that object recognition is carried out on the basis of both captured images. Therefore, one embodiment of the object recognition system and of the method provides that the object recognition device is designed to carry out object recognition with regard to the image captured in the first spectral range and the image captured in the second spectral range, and that the plausibility check device is designed to check whether the Object is recognizable in both images essentially at the same image position.
Eine Weiterbildung des Objekterkennungssystems und des Verfahrens zeichnet sich dadurch aus, dass zwei beabstandet angeordnete Bilderfassungseinrichtungen mit in einem Überlappungsbereich überlappenden Bilderfassungsbereichen vorgesehen sind, und dass eine Verarbeitungseinrichtung vorgesehen ist, die dazu ausgestaltet ist, anhand der mittels der Bilderfassungseinrichtungen erfassten Bilder für den ersten und den zweiten Spektralbereich jeweils einen Abstand von in dem Überlappungsbereich enthaltenen Objektpunkten zu einem vorgegebenen Punkt zu bestimmen. Hierdurch können die Bilddaten durch Abstandsinformationen ergänzt werden.A further development of the object recognition system and the method is characterized in that two spaced-apart image capture devices are provided with image capture areas that overlap in an overlapping area, and that a processing device is provided which is designed to use the images captured by the image capture devices for the first and the second spectral range to determine in each case a distance from object points contained in the overlapping region to a specified point. In this way, the image data can be supplemented with distance information.
Eine Ausführungsform des Objekterkennungssystems und des Verfahrens beinhaltet, dass die Objekterkennungseinrichtung dazu ausgestaltet ist, anhand der in einem Spektralbereich erfassten Bilder einen Abstand des Objekts zu dem vorgegebenen Punkt zu ermitteln, und dass die Plausibilisierungseinrichtung dazu ausgestaltet ist, zu prüfen, ob das Objekt und/oder das vorgegeben Merkmal des Objekts anhand der in dem anderen Spektralbereich erfassten Bilder im wesentlichen im gleichen Abstand zu dem vorgegebenen Punkt erkennbar ist. Damit wird erreicht, dass in den Bildern abgebildete Objekte einander noch einfacher und zuverlässiger zugeordnet werden können bzw. in einem Bild enthaltene Merkmale eines Objekts einem in einem anderen Bild erkannten Objekt noch einfacher und zuverlässiger zugeordnet werden können.One embodiment of the object recognition system and the method includes that the object recognition device is designed to determine a distance of the object from the specified point on the basis of the images recorded in a spectral range, and that the plausibility checking device is designed to check whether the object and/or or the specified feature of the object can be recognized on the basis of the images recorded in the other spectral range essentially at the same distance from the specified point. This means that objects depicted in the images can be assigned to one another even more easily and reliably, or features of an object contained in one image can be assigned even more easily and reliably to an object recognized in another image.
Das Objekterkennungssystem der zuvor beschriebenen Art kann Teil eines Kraftfahrzeugs sein. Vorzugsweise dient das Objekterfassungssystem dabei dazu, Objekte im Umfeld des Fahrzeugs zu erkennen und zu plausibilisieren, mit denen das Fahrzeug potenziell kollidieren könnte. Hierbei handelt es sich insbesondere um Personen im Fahrzeugumfeld und um weitere Fahrzeuge.The object recognition system of the type described above can be part of a motor vehicle. The object detection system is preferably used to recognize and validate objects in the area surrounding the vehicle with which the vehicle could potentially collide. These are in particular people in the vehicle environment and other vehicles.
Die zuvor genannten und weitere Vorteile, Besonderheiten und zweckmäßige Weiterbildungen der Erfindung werden auch anhand der Ausführungsbeispiele deutlich, die nachfolgend unter Bezugnahme auf die Figuren beschrieben werden.The aforementioned and other advantages, special features and expedient developments of the invention are also clear from the exemplary embodiments, which are described below with reference to the figures.
Figurenlistecharacter list
Von den Figuren zeigt:
-
1 eine schematische Blockdarstellung eines erfindungsgemäß ausgestalteten Objekterkennungssystems und -
2 eine schematische Darstellung einer rasterförmigen Anordnung von Sensorelementen eines Bildsensors.
-
1 a schematic block diagram of an object recognition system designed according to the invention and -
2 a schematic representation of a grid-like arrangement of sensor elements of an image sensor.
Darstellung von AusführungsbeispielenPresentation of exemplary embodiments
Das in der
Die Bilderfassungseinrichtungen 101 a, 101b erfassen jeweils Bilder des zugehörigen Bilderfassungsbereichs 102a, 102b in einem für den Menschen sichtbaren Spektralbereich und in einem für den Menschen nicht sichtbaren Spektralbereich. Der nicht sichtbare Spektralbereich ist vorzugsweise ein Ferninfrarotbereich (FIR-Bereich) der von Objekten abgegebene Wärmestrahlung umfasst. Gleichfalls kann der nicht sichtbare Spektralbereich jedoch auch im nahen Infrarotspektrum (NIR-Bereich) liegen.The
Sofern eine Bilderfassung im NIR-Bereich vorgesehen ist, verfügt das Objekterkennungssystem vorzugsweise über eine Beleuchtungseinrichtung, die Licht im NIR-Bereich abstrahlt und die Bilderfassungsbereiche 102a, 102b der Bilderfassungseinrichtungen 101a, 101b zumindest teilweise ausleuchtet. Die Beleuchtungseinrichtung kann insbesondere bei schlechten Lichtverhältnissen, wie etwa bei Dunkelheit, aktiviert werden, um eine Bilderfassung zu ermöglichen. Bei einem Einsatz des Objekterkennungssystems in einer Kraftfahrzeug lässt sich dadurch vor allem bei Dunkelheit die Bilderfassung verbessern, da das Licht im NIR-Bereich von weiteren Verkehrsteilnehmer nicht wahrgenommen wird, und daher ein größerer Umfeldbereich ausgeleuchtet werden kann als mit dem sichtbaren Abblendlicht des Fahrzeugs.If image acquisition in the NIR range is provided, the object recognition system preferably has an illumination device which emits light in the NIR range and at least partially illuminates the
Zur Bilderfassung verfügen die Bilderfassungseinrichtungen 101a, 101b jeweils über einen Bildsensor 201. Die Bildsensoren 201 der Bilderfassungseinrichtungen 101a, 102b sind vorzugsweise in gleicher Weise ausgestaltet. Sie umfassen Sensorelemente 202, 203, die in einer Ebene in einem matrixartigen Raster angeordnet sind, wie es in
Grundsätzlich verfügen die Bildsensoren 201 über Sensorelemente 202 eines ersten Typs (in
Um Farbbilder erfassen zu können, sind unterschiedliche Sensorelemente 202 des ersten Typs vorgesehen, die durch Verwendung einer bestimmten Filterschicht einem vorgegebenen Farbbereich zugeordnet sind. Die verschiedenen vorgesehenen Farbbereiche entsprechend in einer Ausgestaltung jeweils einer der Primärfarben Rot, Grün und Blau, so dass ein Farbbild im RGB-Farbraum oder einem Teil des RGB-Farbraums erzeugt werden kann. Die in verschiedenen Farbbereichen ansprechenden Sensorelemente 202 des ersten Typs sind in einem vorgegebenen Muster in dem Bildsensor 201 verteilt. Vorzugsweise wird dabei eine möglichst gleichmäßige, insbesondere eine möglichst isotrope, Anordnung gewählt.In order to be able to capture color images,
Gleichfalls können jedoch auch Sensorelemente 202 des ersten Typs verwendet werden, die im Wesentlichen im gesamten sichtbaren Spektralbereich empfindlich sind. Mittels derartiger Sensorelemente lassen sich Grauwertbilder erfassen.Equally, however,
Des Weiteren umfassen die Bildsensoren 201 Sensorelemente 203 eines zweiten Typs (in
In der beispielhaften Ausgestaltung der Bildsensoren 201, die in der
Wenn die Erfassung von Farbbildern im sichtbaren Spektralbereich vorgesehen ist, wird die Anordnung von Sensorelementen 202 des ersten Typs, die in unterschiedlichen Farbbereichen empfindlich sind, entsprechend dem vorgesehenen Anwendungsbereich des Objekterkennungssystems gewählt. Bei dem zuvor beschriebenen Einsatz in Kraftfahrzeug ist es etwa vorteilhaft, dass wenigstens Sensorelemente 202 vorgesehen sind, die im roten Spektralbereich empfindlich sind, da Objekte im Straßenverkehr häufig Merkmale aufweisen, die rot gefärbt sind. Beispiele hierfür sind Rück- und/oder Bremsleuchten an Fahrzeugen und rote Bereiche von Verkehrschildern. Darüber hinaus sind vorzugsweise Sensorelemente 202 des ersten Typs vorgesehen, die wenigstens in einem zweiten sichtbaren Spektralbereich empfindlich sind. Hierbei kann es sich etwa um einen blauen Bereich handeln, da Strukturen im grünen bzw. gelben Bereich oftmals weniger gut aufgelöst werden können. Sensorelemente 202 des ersten Typs, die in einem dritten sichtbaren Spektralbereich ansprechen, können gleichfalls vorgesehen werden.If the detection of color images in the visible spectral range is intended, the arrangement of
In einer beispielhaften Ausgestaltung der in der
Den Bilderfassungseinrichtung 101a, 101 b ist jeweils eine Verarbeitungseinrichtung 104a, 104b zugeordnet, welche die Signale des zugeordneten Bildsensors 201 ausliest und Bilder erzeugt, die als Bildsignale ausgegeben werden. Dabei werden in jeder Verarbeitungseinrichtung 104a, 104b die Signale der Sensorelemente 202, 203 des ersten und des zweiten Typs getrennt voneinander ausgelesen und verarbeitet, so dass ein Bild im sichtbaren Spektralbereich und ein Infrarotbild erzeugt wird. Zu diesem Zweck verfügen die Verarbeitungseinrichtungen 104a, 104b jeweils über eine erste Verarbeitungseinheit 105a, 105b, die zur Erzeugung von Bildern im sichtbaren Spektralbereich vorgesehen ist, und eine zweite Verarbeitungseinheit 106a, 106b, die zur Erzeugung von Infrarotbildern vorgesehen ist.A
Die Verarbeitungseinheiten 105a, 105b erzeugen anhand der Signale der Sensorelemente 202 des ersten Typs vorzugsweise jeweils ein Bild, das im Folgenden auch als Farbbild bezeichnet wird. Hierunter sind jedoch nicht nur Farbbilder im eigentlichen Sinne zu verstehen, sondern gegebenenfalls auch Graustufenbilder im sichtbaren Spektralbereich. Wenn Sensorelemente 202 des ersten Typs vorgesehen sind, die in unterschiedlichen sichtbaren Spektralbereichen empfindlich sind, wird hierzu eine Farbinterpolation in einer dem Fachmann an sich bekannten Weise vorgenommen. Darüber hinaus können Bildpunkte, die innerhalb der Bildsensoren 201 von Sensorelementen 203 des zweiten Typs belegt sind, durch eine geeignete Interpolation aus den Signalen der umgebenden Sensorelemente 202 des ersten Typs berechnet werden. Auf diese Weise können Farbbilder erzeugt werden, deren Dimensionen denen der Bildsensoren 201 entsprechen.The
Die Verarbeitungseinheiten 106a, 106b erzeugen Infrarotbilder aus den Signalen der Sensorelemente 203 des zweiten Typs, die in einer Ausgestaltung als Grauwertbilder ausgestaltet sein können. Die Anzahl der Bildpunkte dieser Bilder bzw. deren Dimension entspricht in einer Ausführungsform der Anzahl der Sensorelemente 203 des zweiten Typs. Gleichfalls können die Anzahl der Bildpunkte jedoch durch eine Interpolation erhöht werden, die in einer dem Fachmann an sich bekannten Weise vorgenommen werden kann. Vorzugsweise werden die Dimensionen des Infrarotbilds dabei durch Interpolation in Übereinstimmung mit den Dimensionen des Farbbilds gebracht. Hierdurch ergeben sich einander überdeckende Bilder desselben Bildausschnitts, welche die gleiche Größe aufweisen.The
Die in den Verarbeitungseinrichtungen 104a, 104b erzeugten Bildsignale werden einer Auswerteeinrichtung 107 zugeführt. Die Auswertung der von beiden ersten Verarbeitungseinheiten 105a, 105b erhalten Farbbildsignale erfolgt dabei in eine Farbauswerteeinheit 108 der Auswerteeinrichtung 107, die anhand der erhalten Farbbildsignale Farbstereobilddaten erzeugt. Getrennt hiervon bestimmt eine Infrarotauswerteeinheit 109 aus den erhaltenen Infrarotbildsignalen Infrarotstereobilddaten. Die Stereobilddaten enthalten neben den Farbinformationen bzw. Grauwertinformationen der Bildpunkte Abstandsdaten, die den Abstand zwischen einem abgebildeten Gegenstand und einem definierten Punkt angeben, bei dem es sich beispielsweise um einen Punkt zwischen den beiden Bilderfassungseinrichtungen 101a, 101 b handeln kann. In einer Ausgestaltung enthalten die Bilddaten dabei für jeden Bildpunkt einen zugeordneten Abstandswert.The image signals generated in the
Die Ermittlung der Stereobilddaten beruht auf einer stereoskopischen Bildauswertung, die für die Farbbildsignale und die Infrarotbildsignale grundsätzlich in der gleichen Weise vorgenommen werden kann. Insbesondere werden dabei anhand von Bildpaaren, die ein mittels der ersten Bilderfassungseinrichtung 101a erfasstes Bild sowie ein zur gleichen Zeit mittels der zweiten Bilderfassungseinrichtung 102 erfasstes Bild umfassen, Abstände zu Gegenständen ermittelt, die in den Bildern abgebildet sind. Hierzu werden die Positionen von einander entsprechenden zu einem Gegenstand gehörenden Bildpunkten innerhalb der beiden Bilder einer Bildpaares miteinander verglichen, um den Abstand des Gegenstand zu den definierten Punkt zu ermitteln.The determination of the stereo image data is based on a stereoscopic image evaluation, which can basically be carried out in the same way for the color image signals and the infrared image signals. In particular, distances to objects that are depicted in the images are determined on the basis of image pairs, which include an image captured by the first
Alternativ zu der in der
Die ermittelten Bilddaten werden einer Objekterkennungseinrichtung 110 zugeführt. In der Objekterkennungseinrichtung 110 erfolgt die Verarbeitung der Farbbilddaten vorzugsweise zunächst in einem ersten Objekterkennungsmodul 111 getrennt von der Verarbeitung der Infrarotbilddaten, die in einem zweiten Objekterkennungsmodul 112 vorgenommen werden kann. In den Objekterkennungsmodulen 111, 112 werden Objekte vorgegebener Objektklassen anhand von charakteristischen Merkmalen der Objekte erkannt. Dies kann in einer dem Fachmann grundsätzlich bekannten Weise mittels eines oder mehrerer Klassifizierer erfolgen. Beispiele geeigneter Klassifizierer sind Neuronale Netze oder Support Vector Machines. Für die Erkennung von Objekten einer bestimmen Klasse können in den Farbbilddaten und in den Infrarotbilddaten unterschiedliche Merkmale herangezogen werden, die anhand der jeweiligen Bilddaten erkennbar sind.The determined image data are supplied to an
Alternativ kann es auch vorgesehen sein, das entweder die Farbbilddaten oder die Infrarotbilddaten einem Objekterkennungsmodul 111, 112 zugeführt werden, um anhand der Bilddaten eine Objekterkennung vorzunehmen. Dabei werden der Objekterkennung die Bilddaten zugrunde gelegt, die eine zuverlässigere Erkennung von Objekte der vorgegebenen Objektklassen ermöglichen. Es kann dabei fest vorgegebenen sein, welche Bilddaten als Grundlage für eine Objekterkennung dienen. Gleichfalls kann jedoch auch eine situationsspezifische Auswahl der für die Objekterkennung heranzuziehenden Bilddaten vorgesehen sein. Dies ist insbesondere dann zweckmäßig, wenn das Objekterkennungssystem in unterschiedlichen Situationen eingesetzt wird, in denen die verschiedenen Bilddaten unterschiedlich gut für eine Objekterkennung geeignet sind. Wird das Objekterkennungssystem beispielsweise auch bei Dunkelheit eingesetzt, wie es bei einem Einsatz in einem Kraftfahrzeug in der Regel der Fall ist, kann etwa bei Dunkelheit eine Objekterkennung unter Verwendung der Infrarotbilddaten vorgenommen werden, und bei ausreichender Helligkeit können die Farbbilddaten für die Objekterkennung herangezogen werden.Alternatively, provision can also be made for either the color image data or the infrared image data to be supplied to an
Die vorgegebenen Objektklassen beziehen sich auf Objekte, die im Hinblick auf den vorgesehenen Einsatzzweck des Objekterkennungssystems relevant sind. Bei einem Einsatz in einem Kraftfahrzeug können beispielsweise Objektklassen vorgesehen sein, die Objekte umfassen, mit denen das Fahrzeug kollidieren könnte. Hierbei handelt es sich um Fußgänger und weitere Fahrzeuge. In Bezug auf weitere Fahrzeuge sind dabei vorzugsweise mehrere Objektklassen vorgesehen entsprechend den unterschiedlichen Typen von Fahrzeugen. Insbesondere können unterschiedliche Objektklassen für Personenkraftwagen, Lastkraftwagen und Zweiräder vorgesehen sein. Letztere können beispielsweise noch in motorisierte und unmotorisierte Zweiräder unterteilt werden.The specified object classes relate to objects that are relevant with regard to the intended use of the object recognition system. When used in a motor vehicle, for example, object classes can be provided that include objects with which the vehicle could collide. These are pedestrians and other vehicles. With regard to further vehicles, a number of object classes are preferably provided in accordance with the different types of vehicles. In particular, different object classes can be provided for passenger cars, trucks and two-wheelers. The latter can, for example, be divided into motorized and non-motorized two-wheelers.
Nach Durchführung der Objekterkennung in dem Objekterkennungsmodul 111 und/oder in dem Objekterkennungsmodul 112 werden die Erkennungsergebnisse sowie die Bilddaten an eine Plausibilisierungseinrichtung 113 übergeben. Die Erkennungsergebnisse umfassen dabei Angaben zum Objekttyp eines erkannten Objekts, zu dem Bildbereich, in dem ein Objekt erkannt worden ist, sowie gegebenenfalls der Größe des erkannten Objekts Sofern Stereobilddaten bestimmt werden, wird zudem der Abstand des Objekts zu dem definierten Punkt angegeben. Zusätzlich enthalten die Erkennungsergebnisse vorzugsweise Angaben zur Zuverlässigkeit der Erkennung, d.h. zu der Wahrscheinlichkeit, mit der ein erkanntes Objekt tatsächlich vorliegt. Diese Angaben werden in einer dem Fachmann an sich bekannten Weise beispielsweise mittels der verwendeten Klassifizierer bestimmt.After the object recognition has been carried out in the
Die Plausibilisierungseinrichtung 113 gleicht die Erkennungsergebnisse, die anhand von Bilddaten eines Typs ermittelt worden sind, mit den Bilddaten des anderen Typs oder mit gegebenenfalls für diese Bilddaten vorliegenden Erkennungsergebnissen ab, um eine Zuverlässigkeit der Objekterkennung zu ermitteln.The
Sofern sowohl auf der Grundlage der Farbbilddaten als auch auf der Grundlage der Infrarotbilddaten eine Objekterkennung bezüglich der Objektklasse vorgenommen worden ist, zu der das erkannte Objekt gehört, prüft die Plausibilisierungseinrichtung 113, ob ein Objekt der Objektklasse anhand beider Bilddaten an einem übereinstimmenden Positionen erkannt worden ist. Hierbei werden die Positionen innerhalb des Farbbildes und des Infrarotbildes zugrunde gelegt, die bei tatsächlich vorhandenen Objekten im Wesentlichen übereinstimmen, da die Bilder im Wesentlichen deckungsgleich sind. Geringe Abweichungen der Position eines Objekts, die aufgrund von Ungenauigkeit bei der Objekterkennung entstehen können, werden toleriert. Wenn Stereobilddaten vorliegen, prüft die Plausibilisierungseinrichtung zudem, ob das Objekt anhand der Farbbilddaten und der Infrarotbilddaten mit gleichem Abstand zu dem definierten Punkt erkannt worden ist. Geringe Abweichungen des Abstands werden auch hier zugelassen.If object recognition has been carried out with regard to the object class to which the recognized object belongs both on the basis of the color image data and on the basis of the infrared image data,
Wenn die Plausibilisierungseinrichtung 113 feststellt, dass ein Objekt lediglich anhand der Bilddaten eines Typs erkannt worden ist, anhand der Bilddaten des anderen Typs jedoch nicht, oder wenn die Positionen des Objekts innerhalb der Bilder der verschiedenen Typen über ein vorgegebenes Maß hinaus voneinander abweichen, dann wird das Objekt verworfen oder die Erkennung des Objekts wird als unsicher eingestuft. Gleiches gilt, wenn gegebenenfalls die anhand der Bilddaten der verschiedenen Typen ermittelten Abstände zu dem Objekt um ein vorgegebenes Maß hinaus voneinander abweichen. Die zulässige Abweichung der Position und Abstände kann dabei in einer Ausgestaltung auch in Abhängigkeit von den Wahrscheinlichkeiten bestimmt werden, mit denen das Objekt in den Bilddaten der beiden Typen erkannt worden ist. Wenn die Positionen und gegebenenfalls die Abstände in den vorgegebenen Grenzen übereinstimmen, dann werden die Erkennungsergebnisse bezüglich des Objekts von der Plausibilisierungseinrichtung 114 als zuverlässig qualifiziert.If the
Wenn eine Objekterkennung lediglich auf der Grundlage von Bilddaten eines Typs durchgeführt wird, d.h. entweder auf der Grundlage der Farbbilddaten oder der Infrarotbilddaten, dann führt die Plausibilisierungseinrichtung 113 eine Plausibilisierung des Objekts anhand der Bilddaten durch, die nicht zur Objekterkennung herangezogen worden sind. Hierzu werden vorgegebene Merkmale von Objekten der verschiedenen Objektklassen herangezogen, die anhand dieser Bilddaten ermittelbar sind. Dabei wird für ein erkanntes Objekt einer Objektklasse geprüft, ob das vorgegebene Merkmal des Objekts an der Bildposition vorliegen, die für das Objekt aufgrund der Objekterkennung ermittelt worden ist. Dabei wird wiederum ausgenutzt, dass die Bilder der verschiedenen Typen im Wesentlichen deckungsgleich sind. Wenn Stereobilddaten vorliegen, wird zudem geprüft, ob die Merkmale in einem Abstand zu definierten Punkt erkannt werden können, der dem Abstand des Objekts zu dem Punkt entspricht.If object recognition is only carried out on the basis of image data of one type, i.e. either on the basis of the color image data or the infrared image data, then the
Bei dem Merkmal eines Objekts kann es sich um seine Kontur handeln, sofern diese in den Bilddaten erkennbar ist, die nicht für die Objekterkennung herangezogen worden sind. Wenn neben den Farbbilddaten Infrarotbilddaten im NIR-Bereich erfasst werden, dann kann die Kontur eines Objekts in der Regel in den Bilddaten beider Typen erkannt und daher zur Plausibilisierung herangezogen werden. Gleiches gilt in der Regel in Bezug auf die Erkennung von Personen, wenn Infrarotbilddaten im FIR-Bereich erfasst werden. In diesem lassen sie Umrisse der Person bei ausreichend geringer Umgebungstemperatur ebenfalls erkennen.The feature of an object can be its contour if this can be recognized in the image data that was not used for object recognition. If infrared image data is recorded in the NIR range in addition to the color image data, the contour of an object can usually be recognized in the image data of both types and can therefore be used for plausibility checks. The same is usually true with regard to the detection of people when infrared image data is captured in the FIR range. In this, they also reveal the outlines of the person when the ambient temperature is sufficiently low.
Wird also beispielsweise eine Person, wie etwa ein Fußgänger oder ein Zweiradfahrer, aufgrund einer in dem Objekterkennungsmodul 111 durchgeführten Objekterkennung erkannt, dann prüft die Plausibilisierungseinrichtung 113, ob an der im Wesentlichen gleichen Bildposition innerhalb der im FIR-Bereich erfassten Infrarotbilddaten die Kontur einer Person erkannt werden kann. Ist dies der Fall, werden die Erkennungsergebnisse bezüglich der Person von der Plausibilisierungseinrichtung 113 als zuverlässig eingestuft. Geringe Abweichungen in der Bildposition werden dabei, wie zuvor bereits beschrieben, zugelassen. Wird in den Infrarotbilddaten hingegen keine Kontur einer Person an der gegebenen Bildposition ermittelt, dann wird die erkannte Person verworfen, oder die Erkennung wird als unsicher qualifiziert.If, for example, a person, such as a pedestrian or a cyclist, is detected based on an object detection carried out in the
Sofern Stereobilddaten vorliegen, wird zusätzlich geprüft, ob die Kontur einer Person in einem Abstand zu dem definierten Punkt innerhalb der Infrarotbilddaten erkannt wird, der dem für die Person ermittelten Abstand im Wesentlichen entspricht. Nur wenn dies der Fall ist, werden die Erkennungsergebnisse bezüglich der Person von der Plausibilisierungseinrichtung 113 als zuverlässig eingestuft. Geringe Abweichungen der Abstände werden dabei, wie zuvor bereits beschrieben, zugelassen. Überschreitet die Abweichung ein vorgegebenes Maß werden die Erkennungsergebnisse verworfen oder als unsicher eingestuft.If stereo image data is available, it is additionally checked whether the contour of a person is recognized at a distance from the defined point within the infrared image data that essentially corresponds to the distance determined for the person. Only if this is the case are the recognition results relating to the person classified as reliable by the
Gleichfalls können jedoch auch andere vorgegebene Merkmale des Objekts herangezogen werden. Dies ist insbesondere dann zweckmäßig, wenn die Kontur eines Objekts nicht in den Bilddaten beider Typen ermittelt werden kann. Dies ist oftmals der Fall, wenn neben den Farbbilddaten Infrarotbilddaten im FIR-Bereich erfasst werden. In diesem Fall können jedoch oftmals andere Merkmale vorgegeben werden, die eine Plausibilisierung des Objekts ermöglichen. Diese Merkmale können sich insbesondere auf Wärmequellen beziehen, die für ein Objekt charakteristisch sind.At the same time, however, other predefined features of the object can also be used. This is particularly useful when the contour of an object cannot be determined in the image data of both types. This is often the case when infrared image data is captured in the FIR range in addition to the color image data. In this case, however, other features can often be specified, which allow the object to be checked for plausibility. In particular, these characteristics can relate to heat sources that are characteristic of an object.
Ein Beispiel hierfür ist der Auspuff eines Kraftfahrzeugs bzw. die von dem Auspuff ausgestoßenen Abgase, die in der Regel eine höhere Temperatur als die Umgebung aufweisen. Wird also etwa ein Kraftfahrzeug aufgrund einer in dem Objekterkennungsmodul 111 durchgeführten Objekterkennung anhand der Farbbilddaten erkannt, dann prüft die Plausibilisierungseinrichtung 113, ob an der im Wesentlichen gleichen Bildposition innerhalb der im FIR-Bereich erfassten Infrarotbilddaten Wärmequellen erkennbar sind, die einem Auspuff oder den Auspuffabgasen entsprechen. Ist dies der Fall, werden die Erkennungsergebnisse bezüglich des Kraftfahrzeugs von der Plausibilisierungseinrichtung 113 als zuverlässig eingestuft. Werden in den Infrarotbilddaten hingegen derartige Wärmequellen an der gegebenen Bildposition nicht ermittelt, dann wird das erkannte Kraftfahrzeug verworfen oder die Erkennung als unsicher qualifiziert.An example of this is the exhaust pipe of a motor vehicle or the exhaust gases emitted by the exhaust pipe, which are usually at a higher temperature than the surroundings. If, for example, a motor vehicle is recognized on the basis of object recognition carried out in
Liegen Stereobilddaten vor, wird zusätzlich geprüft, ob die Wärmequelle in einem Abstand zu dem definierten Punkt innerhalb der Infrarotbilddaten erkannt wird, der dem für das Kraftfahrzeug ermittelten Abstand im Wesentlichen entspricht. Nur wenn dies der Fall ist, werden die Erkennungsergebnisse von der Plausibilisierungseinrichtung 113 als zuverlässig eingestuft. Geringe Abweichungen der Abstände werden dabei zugelassen. Überschreitet die Abweichung ein vorgegebenes Maß werden die Erkennungsergebnisse verworfen oder als unsicher eingestuft.If stereo image data is available, it is also checked whether the heat source is detected at a distance from the defined point within the infrared image data that essentially corresponds to the distance determined for the motor vehicle. The recognition results are classified as reliable by the
Im Hinblick auf eine Erkennung von Fußgängern stellen Hände und Kopf oftmals Wärmequellen dar, deren Temperatur die Umgebungstemperatur übersteigt. Dementsprechend kann anhand dieser Merkmale mittels der Infrarotbilddaten im FIR-Bereich eine Plausibilisierung eines Fußgängers vorgenommen werden, der auf der Grundlage von Farbbilddaten erkannt worden ist. Diese Plausibilisierung kann zusätzlich zu der zuvor beschriebenen Plausibilisierung anhand der Kontur der Person durchgeführt werden, wodurch die Zuverlässigkeit weiter gesteigert werden kann.With regard to pedestrian detection, hands and heads are often heat sources whose temperature exceeds the ambient temperature. Accordingly, based on these features, a plausibility check of a pedestrian who has been recognized on the basis of color image data can be carried out using the infrared image data in the FIR range. This plausibility check can be carried out in addition to the previously described plausibility check based on the contour of the person, as a result of which the reliability can be further increased.
Wenn die Erkennungsergebnisse nicht verworfen werden, dann werden sie von der Plausibilisierungseinrichtung 113 ausgegeben und können von weiteren Systemen verwendet werden. Zusätzlich wird die Zuverlässigkeit der Erkennungsergebnisse an das weitere System gemeldet. Bei einem Einsatz des Objekterkennungssystems in einem Kraftfahrzeug kann es sich hierbei beispielsweise um Sicherheitssysteme handeln, die für ein erkanntes Objekt die Wahrscheinlichkeit bestimmen, mit der das Fahrzeug mit dem Objekt kollidieren könnte. Übersteigt diese ein vorgegebenes Maß können Sicherheitsmaßnahmen eingeleitet werden, welche die Kollision verhindern oder Kollisionsfolgen mindern.If the recognition results are not discarded, then they are output by the
In der Regel sind dabei gestufte Maßnahmen vorgesehen, die sich in ihrer Eingriffsstärke unterscheiden. Die Stufe einer auszuführenden Sicherheitsmaßnahme ergibt sich dabei aus der Wahrscheinlichkeit einer Kollision und der Zuverlässigkeit, mit der das Objekt erkannt worden ist. Insbesondere kann bei einer geringeren Zuverlässigkeit eine Maßnahme einer geringeren Stufe durchgeführt werden. So kann es vorgesehen sein, dass die Maßnahme auf eine Warnung des Fahrers des Kraftfahrzeugs beschränkt wird, wenn die Erkennung des Objekts von der Plausibilisierungseinrichtung 113 als unsicher eingestuft worden ist. Bei einer zuverlässigen Erkennung könne beispielsweise auch Eingriffe in das Fahrverhalten des Fahrzeugs vorgenommen werden.As a rule, graduated measures are provided, which differ in their degree of intervention. The level of a security measure to be carried out results from the probability of a collision and the reliability with which the object has been detected. In particular, if the reliability is lower, a measure of a lower level can be carried out. Provision can thus be made for the measure to be limited to a warning to the driver of the motor vehicle if the recognition of the object by
Obwohl die Erfindung in den Zeichnungen und der vorausgegangenen Darstellung im Detail beschrieben wurde, sind die Darstellungen illustrativ bzw. beispielhaft und nicht einschränkend zu verstehen; insbesondere ist die Erfindung nicht auf die erläuterten Ausführungsbeispiele beschränkt.Although the invention has been described in detail in the drawings and the previous illustration, the illustrations are to be understood as illustrative or exemplary and not restrictive; in particular, the invention is not limited to the exemplary embodiments explained.
Beispielsweise kann zusätzlich zu einer Bilderfassung im FIR-Bereich anstelle einer Bilderfassung in einem sichtbaren Spektralbereich eine Bilderfassung in einem nicht sichtbaren Spektralbereich vorgenommen werden. Hierbei kann es sich um einen NIR Bereich handeln. Der Fachmann erkennt, dass die Objekterkennung und - plausibilisierung in diesem analog zu der vorangegangenen Beschreibung durchgeführt werden kann.For example, in addition to image capture in the FIR range, instead of image capture in a visible spectral range, image capture can be performed in a non-visible spectral range. This can be a NIR area. The person skilled in the art recognizes that the object recognition and plausibility check can be carried out in this analogous to the preceding description.
Claims (11)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102009014437.4A DE102009014437B4 (en) | 2008-03-26 | 2009-03-26 | Object Recognition System and Method |
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102008015862 | 2008-03-26 | ||
DE102008015862.3 | 2008-03-26 | ||
DE102009014437.4A DE102009014437B4 (en) | 2008-03-26 | 2009-03-26 | Object Recognition System and Method |
Publications (2)
Publication Number | Publication Date |
---|---|
DE102009014437A1 DE102009014437A1 (en) | 2009-11-12 |
DE102009014437B4 true DE102009014437B4 (en) | 2023-01-19 |
Family
ID=41152854
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE102009014437.4A Active DE102009014437B4 (en) | 2008-03-26 | 2009-03-26 | Object Recognition System and Method |
Country Status (1)
Country | Link |
---|---|
DE (1) | DE102009014437B4 (en) |
Families Citing this family (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
ES2374009B1 (en) * | 2010-02-16 | 2012-08-31 | Universidad De Alcalá | ARTIFICIAL VISION SYSTEM FOR THE SEMAPHORIC CONTROL OF PARKINGS AND GARAGES ACCESS THROUGH THE MONITORING OF PEDESTRIES. |
DE102010003375B4 (en) * | 2010-03-29 | 2021-07-22 | Bayerische Motoren Werke Aktiengesellschaft | Environment evaluation system in a vehicle with sensor means for detecting objects in the vicinity of the vehicle |
DE102013220005A1 (en) * | 2013-10-02 | 2015-04-02 | Continental Automotive Gmbh | Method and device for displaying the environment of a vehicle and driver assistance system |
GB201411028D0 (en) * | 2014-06-20 | 2014-08-06 | Inst Of Technology Blanchardstown | Mobile road sign reflectometer |
JP6805992B2 (en) | 2017-07-18 | 2020-12-23 | トヨタ自動車株式会社 | Peripheral monitoring device |
DE102018214921A1 (en) * | 2018-09-03 | 2020-03-05 | Deutsches Zentrum für Luft- und Raumfahrt e.V. | Arrangement and method for controlling a device |
CN109711316B (en) * | 2018-12-21 | 2022-10-21 | 广东工业大学 | Pedestrian re-identification method, device, equipment and storage medium |
CN113034915B (en) * | 2021-03-29 | 2023-06-20 | 北京卓视智通科技有限责任公司 | Dual-spectrum traffic event detection method and device |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20030108223A1 (en) | 1998-10-22 | 2003-06-12 | Prokoski Francine J. | Method and apparatus for aligning and comparing images of the face and body from different imagers |
DE102006010295A1 (en) | 2006-03-07 | 2007-09-13 | Conti Temic Microelectronic Gmbh | Camera system for e.g. motor vehicle, has two different image sensors, whose data are read and merged based on image characteristics to form three-dimensional image, where sensors are sensitive in different spectral regions |
DE102007013664A1 (en) | 2006-03-22 | 2007-09-27 | Daimlerchrysler Ag | Tool e.g. blade, measuring and/or adjusting device, has rolling nut designed as roller ring transmission comprising set of roller-supported roller rings with variable upward gradient |
DE102008027588A1 (en) | 2007-06-12 | 2009-01-08 | Fuji Jukogyo K.K. | Device for detecting pedestrians |
-
2009
- 2009-03-26 DE DE102009014437.4A patent/DE102009014437B4/en active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20030108223A1 (en) | 1998-10-22 | 2003-06-12 | Prokoski Francine J. | Method and apparatus for aligning and comparing images of the face and body from different imagers |
DE102006010295A1 (en) | 2006-03-07 | 2007-09-13 | Conti Temic Microelectronic Gmbh | Camera system for e.g. motor vehicle, has two different image sensors, whose data are read and merged based on image characteristics to form three-dimensional image, where sensors are sensitive in different spectral regions |
DE102007013664A1 (en) | 2006-03-22 | 2007-09-27 | Daimlerchrysler Ag | Tool e.g. blade, measuring and/or adjusting device, has rolling nut designed as roller ring transmission comprising set of roller-supported roller rings with variable upward gradient |
DE102008027588A1 (en) | 2007-06-12 | 2009-01-08 | Fuji Jukogyo K.K. | Device for detecting pedestrians |
Also Published As
Publication number | Publication date |
---|---|
DE102009014437A1 (en) | 2009-11-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE102009014437B4 (en) | Object Recognition System and Method | |
EP2426543B1 (en) | Driver assistance system for a vehicle and method for visualising the environment of a vehicle | |
DE102006010295B4 (en) | Camera system with at least two image recorders | |
DE102009023326B4 (en) | Apparatus and method for detecting a critical area and pedestrian detection apparatus using the same | |
EP1673751B1 (en) | Method and device for visualising the surroundings of a vehicle | |
DE10336681B4 (en) | motor vehicle | |
EP2710573B1 (en) | Method and apparatus for identifying a possible collision object | |
WO2002043982A1 (en) | System and method for monitoring the surrounding area of a vehicle | |
EP1567888B1 (en) | Method for detecting the environment ahead of a road vehicle by means of an environment detection system | |
EP3044727B1 (en) | Method and device for detecting objects from depth-resolved image data | |
DE102016210632A1 (en) | Method for checking a media loss of a motor vehicle and motor vehicle and system for carrying out such a method | |
WO2001021438A1 (en) | Sensor device for a motor vehicle used for detecting environmental parameters | |
DE102017122432A1 (en) | Method for detecting a road condition of a roadway for a motor vehicle, driver assistance system and motor vehicle | |
DE102005042912A1 (en) | Driver assistance device for use in vehicle, has sensors sensing environment of vehicle, and including different resolutions, where one of sensors senses in area of visible light, and another sensor senses in area of infrared area | |
EP1491978B1 (en) | System for identification of collision objects | |
DE102006037600B4 (en) | Method for the resolution-dependent representation of the environment of a motor vehicle | |
DE102019105778A1 (en) | Method for classifying objects within a motor vehicle | |
DE102020210055A1 (en) | Method and device for monitoring the interior of a vehicle | |
EP1437615A1 (en) | Night vision system for vehicles | |
DE102019211033A1 (en) | Observation device | |
DE10259882A1 (en) | Display area of an automotive indulgence system | |
DE102019209061B3 (en) | Image processing device for improving night vision, method and computer program | |
DE102023003826A1 (en) | Method for displaying hidden road users and vehicles | |
DE102015208651A1 (en) | A vehicle having a device for indicating a blind spot of the vehicle, method and system for indicating a blind spot of a vehicle | |
DE102023002801A1 (en) | Method and device for supporting the identification of vulnerable road users |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
OP8 | Request for examination as to paragraph 44 patent law | ||
R016 | Response to examination communication | ||
R084 | Declaration of willingness to licence | ||
R079 | Amendment of ipc main class |
Free format text: PREVIOUS MAIN CLASS: G06K0009620000 Ipc: G06V0030190000 |
|
R079 | Amendment of ipc main class |
Free format text: PREVIOUS MAIN CLASS: G06V0030190000 Ipc: G06V0010143000 |
|
R081 | Change of applicant/patentee |
Owner name: CONTINENTAL AUTONOMOUS MOBILITY GERMANY GMBH, DE Free format text: FORMER OWNER: CONTINENTAL TEVES AG & CO. OHG, 60488 FRANKFURT, DE |
|
R016 | Response to examination communication | ||
R018 | Grant decision by examination section/examining division | ||
R020 | Patent grant now final |