DE102018208604A1 - Determining a recording behavior of a recording unit - Google Patents

Determining a recording behavior of a recording unit Download PDF

Info

Publication number
DE102018208604A1
DE102018208604A1 DE102018208604.4A DE102018208604A DE102018208604A1 DE 102018208604 A1 DE102018208604 A1 DE 102018208604A1 DE 102018208604 A DE102018208604 A DE 102018208604A DE 102018208604 A1 DE102018208604 A1 DE 102018208604A1
Authority
DE
Germany
Prior art keywords
recording
unit
real image
behavior
model
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
DE102018208604.4A
Other languages
German (de)
Inventor
Christof Hoppe
Stefan Kluckner
Irina Vidal Migallon
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Siemens AG
Original Assignee
Siemens AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Siemens AG filed Critical Siemens AG
Priority to DE102018208604.4A priority Critical patent/DE102018208604A1/en
Publication of DE102018208604A1 publication Critical patent/DE102018208604A1/en
Ceased legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • G06V20/653Three-dimensional objects by matching three-dimensional models, e.g. conformal mapping of Riemann surfaces
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2413Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
    • G06F18/24133Distances to prototypes
    • G06F18/24143Distances to neighbourhood prototypes, e.g. restricted Coulomb energy networks [RCEN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • G06V10/443Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
    • G06V10/449Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
    • G06V10/451Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
    • G06V10/454Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]

Abstract

Die Erfindung betrifft ein Verfahren zum Ermitteln eines Aufnahmeverhaltens (14) einer Aufnahmeeinheit (18).
Um ein vereinfachtes Verfahren zum Ermitteln eines Aufnahmeverhaltens (14) einer Aufnahmeeinheit (18) anzugeben, wird vorgeschlagen, dass unter Verwendung der Aufnahmeeinheit (18) von einem Objekt zumindest ein reales Bild (4) aufgenommen wird. Weiter wird für das reale Bild (4) zumindest ein Aufnahmeparameter (6) ermittelt. Ferner wird für das reale Bild (4) anhand eines für das Objekt vorliegenden Modells (8) unter Verwendung des zumindest einen Aufnahmeparameters (6) ein Referenzbild (10) erzeugt. Außerdem wird das aufgenommene reale Bild (4) mit dem Referenzbild (10) verglichen (12), wobei anhand des Vergleichs (12) das Aufnahmeverhalten (14) der Aufnahmeeinheit (18) ermittelt wird.

Figure DE102018208604A1_0000
The invention relates to a method for determining a picking behavior (14) of a receiving unit (18).
In order to specify a simplified method for determining a picking behavior (14) of a pickup unit (18), it is proposed that at least one real image (4) be picked up by an object using the pickup unit (18). Furthermore, at least one acquisition parameter (6) is determined for the real image (4). Furthermore, a reference image (10) is generated for the real image (4) on the basis of a model (8) for the object using the at least one acquisition parameter (6). In addition, the recorded real image (4) with the reference image (10) is compared (12), wherein based on the comparison (12), the recording behavior (14) of the recording unit (18) is determined.
Figure DE102018208604A1_0000

Description

Die Erfindung betrifft ein Verfahren zum Ermitteln eines Aufnahmeverhaltens einer Aufnahmeeinheit.The invention relates to a method for determining a recording behavior of a recording unit.

Es ist bekannt, mittels eines Erkennungssystems ein Bauteil zu erkennen. Dazu wird üblicher Weise mittels einer Aufnahmeeinheit ein Bild aufgenommen, welches mit in einer Datenbank hinterlegten Bildern verglichen wird.It is known to detect a component by means of a recognition system. For this purpose, an image is usually taken by means of a recording unit, which is compared with stored in a database images.

Um die Erkennung eines Bauteils zu verbessern, kann ein Aufnahmeverhalten der Aufnahmeeinheit bei der Bauteilerkennung berücksichtigt werden.In order to improve the recognition of a component, a recording behavior of the recording unit can be taken into account in the component recognition.

Bisher wird das Aufnahmeverhalten der Aufnahmeeinheit ermittelt, indem der Aufnahmevorgang der Aufnahmeeinheit in einer Simulation nachgebildet wird. D. h. bisher ist das Aufnahmeverhalten ein simuliertes Aufnahmeverhalten. Das simulierte Aufnahmeverhalten berücksichtigt einerseits das zugrunde liegende physikalische Messprinzip der Aufnahmeeinheit und andererseits die speziellen physikalischen Parameterwerte der Aufnahmeeinheit. Deshalb muss die Abbildungsfunktion für jede Aufnahmeeinheit spezifisch ermittelt werden. Dies bedeutet einen großen Aufwand.So far, the recording behavior of the recording unit is determined by the recording process of the recording unit is simulated in a simulation. Ie. So far, the recording behavior is a simulated recording behavior. The simulated recording behavior takes into account on the one hand the underlying physical measuring principle of the recording unit and on the other hand the special physical parameter values of the recording unit. Therefore, the mapping function must be specifically determined for each capture unit. This means a lot of effort.

Je komplexer die Aufnahmeeinheit aufgebaut ist, desto aufwändiger wird die Simulation. Ein weiteres Problem ist, dass oftmals einige physikalische Parameterwerte der Aufnahmeeinheit unbekannt sind. Unter diesen Umständen ist eine hinreichende Simulation nicht möglich. Weiter kann das Aufnahmeverhalten sehr komplex sein, da unterschiedliche Einflüsse voneinander abhängen und/oder sich gegenseitig beeinflussen können. Unter solchen Umständen wird eine Simulation extrem aufwändig.The more complex the recording unit is, the more complex the simulation becomes. Another problem is that often some physical parameter values of the acquisition unit are unknown. Under these circumstances, a sufficient simulation is not possible. Furthermore, the recording behavior can be very complex, since different influences depend on each other and / or can influence each other. Under such circumstances, simulation becomes extremely expensive.

Eine Aufgabe der Erfindung ist es, ein vereinfachtes Verfahren zum Ermitteln eines Aufnahmeverhaltens einer Aufnahmeeinheit anzugeben.An object of the invention is to provide a simplified method for determining a recording behavior of a recording unit.

Die Aufgabe wird gelöst durch ein Verfahren zum Ermitteln eines Aufnahmeverhaltens einer Aufnahmeeinheit, bei dem erfindungsgemäß unter Verwendung der Aufnahmeeinheit von einem Objekt zumindest ein reales Bild aufgenommen wird und für das reale Bild zumindest ein Aufnahmeparameter ermittelt wird. Weiter wird für das reale Bild anhand eines für das Objekt vorliegenden Modells unter Verwendung des zumindest einen Aufnahmeparameters ein Referenzbild erzeugt. Das aufgenommene reale Bild wird mit dem Referenzbild verglichen, wobei anhand des Vergleichs das Aufnahmeverhalten der Aufnahmeeinheit ermittelt wird.The object is achieved by a method for determining a recording behavior of a recording unit in which, according to the invention, at least one real image is recorded by an object using the recording unit and at least one recording parameter is determined for the real image. Furthermore, a reference image is generated for the real image on the basis of a model for the object using the at least one acquisition parameter. The recorded real image is compared with the reference image, wherein the recording behavior of the recording unit is determined based on the comparison.

Auf diese Weise kann das Abbildungsverhalten der Abbildungseinheit ermittelt werden, ohne dass das zugrunde liegende physikalische Messprinzip der Aufnahmeeinheit und/oder die speziellen physikalischen Parameter der Aufnahmeeinheit bekannt sein muss/müssen.In this way, the imaging behavior of the imaging unit can be determined without the underlying physical measuring principle of the recording unit and / or the specific physical parameters of the recording unit having to be known.

Das reale Bild kann ortsaufgelöste Helligkeitsinformationen und/oder ortsaufgelöste Farbinformationen umfassen. Auch das Referenzbild kann ortsaufgelöste Helligkeitsinformationen und/oder ortsaufgelöste Farbinformationen umfassen. Insbesondere kann/können das reale Bild und ggf. das Referenzbild jeweils mindestens ein 2D-Bild sein.The real image may include spatially resolved brightness information and / or spatially resolved color information. The reference image may also include spatially resolved brightness information and / or spatially resolved color information. In particular, the real image and possibly the reference image can each be at least one 2D image.

Beispielsweise kann das reale Bild eine reale Ansicht des Objekts zeigen. Weiter kann das Referenzbild eine ideale Ansicht des Objekts zeigen. Eine ideale Ansicht kann beispielsweise eine anhand des Modells errechnete Ansicht sein. Zweckmäßigerweise bleibt in dem Referenzbild, d. h. bei der idealen Ansicht, das Abbildungsverhalten der Aufnahmeeinheit unberücksichtigt.For example, the real image may show a real view of the object. Further, the reference image may show an ideal view of the object. An ideal view may be, for example, a view calculated from the model. Conveniently, in the reference image, i. H. in the ideal view, the imaging behavior of the recording unit is disregarded.

Es ist vorteilhaft, wenn das reale Bild ortsaufgelöste Tiefeninformationen aufweist. Weiter ist es bevorzugt, wenn auch das Referenzbild ortsaufgelöste Tiefeninformationen aufweist. Insbesondere kann/können das reale Bild und ggf. das Referenzbild jeweils ein 2,5D-Bild sein. Ferner ist es möglich, dass das reale Bild und ggf. das Referenzbild jeweils ein Hologramm ist.It is advantageous if the real image has spatially resolved depth information. Furthermore, it is preferred if the reference image also has spatially resolved depth information. In particular, the real image and possibly the reference image can each be a 2.5D image. Furthermore, it is possible that the real image and possibly the reference image is each a hologram.

Vorzugsweise umfasst die Aufnahmeeinheit eine Tiefensensor-Kamera. Verschiedene Tiefensensor-Kameras sind bekannt. Beispielsweise kann die Tiefensensor-Kamera als eine Time-of-Flight-Kamera (ToF-Kamera) ausgebildet sein. Bei einer Timeof-Flight-Kamera werden vorzugsweise die Tiefeninformationen ermittelt, indem eine Laufzeit eines Signals ortsabhängig gemessen wird. Weiter kann die Tiefensensor-Kamera beispielsweise als eine Musterprojektions-Kamera ausgebildet sein. Eine Musterprojektions-Kamera arbeitet vorzugsweise mit strukturiertem Licht („Muster“), welches auf das Objekt projiziert wird. Unter Verwendung eines Triangulationsverfahrens können aus dem aufgenommenen Bild von dem Objekt, auf welches das strukturierte Licht projiziert ist, ortsaufgelöste Tiefeninformationen ermittelt werden.Preferably, the receiving unit comprises a depth sensor camera. Various depth sensor cameras are known. For example, the depth sensor camera can be designed as a time-of-flight camera (ToF camera). In a time-of-flight camera, the depth information is preferably determined by measuring a transit time of a signal in a location-dependent manner. Further, the depth sensor camera may be formed, for example, as a pattern projection camera. A pattern projection camera preferably operates on structured light ("pattern") which is projected onto the object. Using a triangulation method, spatially resolved depth information can be obtained from the captured image of the object onto which the structured light is projected.

Das für das Objekt vorliegende Modell, im Folgenden auch das Modell des Objekts, kann beispielsweise eine (eindimensionale oder mehrdimensionale) geometrische Form des Objekts beschreiben. Weiter kann das Modell des Objekts eine Farbgestaltung des Objekts beschreiben. Ferner kann das Modell weitere Eigenschaften des Objekts beschreiben.The model present for the object, hereinafter also the model of the object, can describe, for example, a (one-dimensional or multidimensional) geometric shape of the object. Furthermore, the model of the object can describe a color design of the object. Furthermore, the model can describe further properties of the object.

In einer bevorzugten Ausgestaltung der Erfindung ist das Modell ein 3D-Modell. Vorzugsweise beschreibt ein 3D-Modell eines Objekts eine dreidimensionale geometrische Form des Objekts.In a preferred embodiment of the invention, the model is a 3D model. Preferably describes a 3D model of an object a three-dimensional geometric shape of the object.

Zweckmäßigerweise charakterisiert der zumindest eine Aufnahmeparameter die Aufnahme des realen Bildes unter Verwendung der Aufnahmeeinheit näher.Expediently, the at least one recording parameter more closely characterizes the recording of the real image using the recording unit.

Es ist bevorzugt, wenn der zumindest eine Aufnahmeparameter eine Aufnahme-Position der Aufnahmeeinheit umfasst. D. h., dass vorzugsweise für das aufgenommene reale Bild eine Aufnahme-Position der Aufnahmeeinheit ermittelt wird. Insbesondere falls das Modell ein 3D-Modell ist, ist es bevorzugt, wenn der zumindest eine Aufnahmeparameter die Aufnahme-Position der Aufnahmeeinheit umfasst.It is preferred if the at least one recording parameter comprises a recording position of the recording unit. In other words, preferably a recording position of the recording unit is determined for the recorded real image. In particular, if the model is a 3D model, it is preferred if the at least one recording parameter comprises the recording position of the recording unit.

Die Aufnahme-Position der Aufnahmeeinheit kann eine Aufnahme-Position relativ zu dem aufgenommenen Objekt sein. Weiter kann die Aufnahme-Position eine absolute Aufnahme-Position in einem Koordinatensystem sein.The pickup position of the pickup unit may be a pickup position relative to the picked up object. Further, the recording position may be an absolute recording position in a coordinate system.

Insbesondere kann die Aufnahme-Position der Aufnahmeeinheit relativ zu dem aufgenommenen Objekt ermittelt werden und dann in ein Koordinatensystem des Modells transformiert werden.In particular, the recording position of the recording unit relative to the recorded object can be determined and then transformed into a coordinate system of the model.

Ein Koordinatensystem kann beispielsweise ein kartesisches Koordinatensystem, ein Polarkoordinatensystem o. A. sein.A coordinate system may be, for example, a Cartesian coordinate system, a polar coordinate system or the like.

Weiter kann der zumindest eine Aufnahmeparameter eine Brennweite der Aufnahmeeinheit umfassen. Ferner kann der zumindest eine Aufnahmeparameter eine Blendenzahl der Aufnahmeeinheit umfassen. Außerdem kann der zumindest eine Aufnahmeparameter eine Apertur der Aufnahmeeinheit umfassen. Der zumindest eine Aufnahmeparameter kann außerdem einen Winkel in dem realen Bild und/oder eine Abmessung in dem realen Bild umfassen.Furthermore, the at least one recording parameter may comprise a focal length of the recording unit. Furthermore, the at least one recording parameter may comprise a f-number of the recording unit. In addition, the at least one acquisition parameter may include an aperture of the acquisition unit. The at least one acquisition parameter may also include an angle in the real image and / or a dimension in the real image.

Zweckmäßigerweise wird/werden das zuvor genannte Verfahren und/oder eine seiner Weiterbildungen mit ein und demselben Objekt und/oder mit weiteren Objekten vielfach wiederholt, wobei anhand der Vielzahl der Einzelvergleiche das Aufnahmeverhalten der Aufnahmeeinheit erlernt wird.Expediently, the aforementioned method and / or one of its developments with the same object and / or with further objects is / are repeated many times, the recording behavior of the recording unit being learned on the basis of the plurality of individual comparisons.

Mit anderen Worten:In other words:

Zweckmäßigerweise werden unter Verwendung der Aufnahmeeinheit von zumindest dem einen Objekt, insbesondere von dem einen Objekt und ggf. weiteren Objekten, eine Vielzahl realer Bilder aufgenommen. Vorzugsweise wird für jedes der realen Bilder jeweils zumindest ein Aufnahmeparameter der Aufnahmeeinheit ermittelt. Für jedes der realen Bilder wird vorzugsweise jeweils anhand eines für das jeweilige Objekt vorliegenden Modells unter Verwendung des jeweiligen zumindest einen Aufnahmeparameters ein Referenzbild erzeugt. Weiter ist es zweckmäßig, wenn das jeweilige reale Bild mit dem jeweiligen Referenzbild verglichen wird, wobei vorteilhafterweise anhand der Vielzahl der Einzelvergleiche das Aufnahmeverhalten der Aufnahmeeinheit erlernt wird.Appropriately, a plurality of real images are recorded using the recording unit of at least one object, in particular of the one object and possibly other objects. Preferably, at least one acquisition parameter of the acquisition unit is determined for each of the real images. For each of the real images, a reference image is preferably generated in each case on the basis of a model for the respective object using the respective at least one acquisition parameter. Furthermore, it is expedient for the respective real image to be compared with the respective reference image, the recording behavior of the recording unit advantageously being learned on the basis of the plurality of individual comparisons.

Es ist bevorzugt, wenn das Aufnahmeverhalten der Aufnahmeeinheit mittels eines selbstlernenden Systems erlernt wird.It is preferred if the recording behavior of the recording unit is learned by means of a self-learning system.

Das selbstlernende System kann auf einem neuronalen Netzwerk basieren. Insbesondere kann das selbstlernende System auf einem sogenannten Deep Convolutional Neural Network basieren. Weiter kann das selbstlernende System auf einem anderen neuronalen Netzwerk basieren.The self-learning system can be based on a neural network. In particular, the self-learning system can be based on a so-called Deep Convolutional Neural Network. Furthermore, the self-learning system can be based on a different neural network.

Beispielsweise kann das Aufnahmeverhalten der Aufnahmeeinheit eine Abbildungsfunktion der Aufnahmeeinheit umfassen, welche vorzugsweise erlernt wird. Die Abbildungsfunktion kann eine nicht extrahierbare Abbildungsfunktion sein, insbesondere eine aus dem selbstlernenden System nicht extrahierbare Abbildungsfunktion.For example, the recording behavior of the recording unit may include a mapping function of the recording unit, which is preferably learned. The mapping function may be a non-extractable mapping function, in particular a mapping function not extractable from the self-learning system.

In einer bevorzugten Ausgestaltung der Erfindung werden mehrere reale Bilder von Abschnitten einer technischen Einheit aufgenommen, wobei für die technische Einheit ein gemeinsames Modell vorliegt. Vorteilhafterweise umfasst jeder Abschnitt der technischen Einheit ein oder mehrere Objekt(e) oder Objektgruppen.In a preferred embodiment of the invention, a plurality of real images are taken of sections of a technical unit, wherein there is a common model for the technical unit. Advantageously, each section of the technical unit comprises one or more object (s) or groups of objects.

Die technische Einheit kann eine stationäre Einheit, insbesondere eine technische Anlage sein. Weiter kann die technische Einheit eine mobile Einheit, insbesondere ein Fahrzeug, sein.The technical unit may be a stationary unit, in particular a technical system. Furthermore, the technical unit may be a mobile unit, in particular a vehicle.

Vorzugsweise wird unter Verwendung der mehreren realen Bilder eine Rekonstruktion der technischen Einheit erstellt. Beispielsweise kann die Rekonstruktion eine 3D-Rekonstruktion sein, insbesondere falls das Modell ein 3D-Modell ist. Weiter ist es vorteilhaft, wenn die Rekonstruktion zu dem Modell der technischen Einheit ausgerichtet wird.Preferably, a reconstruction of the technical unit is made using the plurality of real images. For example, the reconstruction may be a 3D reconstruction, especially if the model is a 3D model. Furthermore, it is advantageous if the reconstruction is aligned with the model of the technical unit.

Falls der zumindest eine Aufnahmeparameter eine Aufnahme-Position der Aufnahmeeinheit umfasst, kann die Aufnahme-Position eine Aufnahme-Position relativ zu der technischen Einheit sein. Weiter kann die Aufnahme-Position eine Aufnahme-Position im Koordinatensystem der technischen Einheit sein. Ferner kann die Aufnahme-Position eine Aufnahme-Position im Koordinatensystem des Modells sein.If the at least one recording parameter comprises a recording position of the recording unit, the recording position may be a recording position relative to the technical unit. Further, the recording position may be a recording position in the coordinate system of the technical unit. Further, the pickup position may be a pickup position in the coordinate system of the model.

Die Aufnahme-Position der Aufnahmeeinheit relativ zur technischen Einheit und/oder im Koordinatensystem der technischen Einheit kann in eine Aufnahme-Position im Koordinatensystem des Modells transformiert werden. The recording position of the recording unit relative to the technical unit and / or in the coordinate system of the technical unit can be transformed into a recording position in the coordinate system of the model.

Ferner können für die mehreren Objekte mehrere Modelle vorliegen.Furthermore, there may be multiple models for the multiple objects.

Weiter ist die Erfindung gerichtet eine Verwendung des Aufnahmeverhaltens der Aufnahmeeinheit zur Objekterkennung, wobei das Aufnahmeverhalten unter Verwendung des vorher genannten Verfahrens und/oder eine seiner Weiterbildungen ermittelt wird.Furthermore, the invention is directed to a use of the recording behavior of the recording unit for object recognition, wherein the recording behavior is determined using the aforementioned method and / or one of its developments.

D. h. unter Verwendung des vorher genannten Verfahrens und/oder eine seiner Weiterbildungen wird zweckmäßigerweise das zuvor genannte Aufnahmeverhalten der Aufnahmeeinheit ermittelt, welches wiederum zur Objekterkennung verwendet wird. Insbesondere kann sich an das zuvor genannte Verfahren und/oder eine seiner Weiterbildungen die Objekterkennung anschließen.Ie. using the aforementioned method and / or one of its developments, the above-mentioned recording behavior of the recording unit is expediently determined, which in turn is used for object recognition. In particular, the object recognition can follow the aforementioned method and / or one of its developments.

Zweckmäßigerweise werden, insbesondere bei der Objekterkennung, für zumindest ein Modell mehrerer Objekte für verschiedene mögliche Aufnahme-Positionen ideale Bilder ermittelt. Die idealen Bilder können auch als gerenderte Bilder bezeichnet werden. Vorzugsweise zeigen die idealen Bilder jeweils die jeweiligen Objekte jeweils von einer möglichen Aufnahme-Position. Vorzugsweise liegt das zumindest eine Modell der mehreren Objekte vor. Für die mehreren Objekte kann ein gemeinsames Modell oder können mehrere Modelle vorliegen.Expediently, in particular for object recognition, ideal images are determined for at least one model of several objects for different possible recording positions. The ideal images can also be referred to as rendered images. Preferably, the ideal images respectively show the respective objects each from a possible recording position. Preferably, the at least one model of the plurality of objects is present. For the multiple objects, a common model or multiple models may be present.

Zweckmäßigerweise werden anhand der idealen Bilder unter Verwendung des ermittelten Aufnahmeverhaltens virtuelle Vergleichsbilder erzeugt. Mittels der Aufnahmeeinheit wird vorzugsweise ein reales Bild eines zu erkennenden Objekts aufgenommen. Weiter wird vorzugsweise das aufgenommene reale Bild des zu erkennenden Objekts mit den Vergleichsbildern verglichen und anhand des Vergleichs wird das zu erkennende Objekt erkannt.Expediently, virtual comparison images are generated on the basis of the ideal images using the ascertained recording behavior. By means of the recording unit, a real image of an object to be recognized is preferably recorded. Furthermore, the recorded real image of the object to be detected is preferably compared with the comparison images, and the object to be recognized is identified on the basis of the comparison.

Das zu erkennende Objekt kann das bzw. eines der zuvor im Zusammenhang mit dem Verfahren zur Ermittlung des Aufnahmeverhaltens genannte(n) Objekt(e) sein. Weiter kann das zu erkennende Objekt ein anderes Objekt sein.The object to be recognized may be one of the object (s) previously mentioned in connection with the method for determining the pick-up behavior. Further, the object to be recognized may be another object.

Ferner ist die Erfindung gerichtet auf ein Ermittlungssystem, welche zur Durchführung des zuvor genannten Verfahrens und/oder eine seiner Weiterbildungen eingerichtet ist.Furthermore, the invention is directed to a detection system which is set up for carrying out the aforementioned method and / or one of its developments.

Zweckmäßigerweise wird das zuvor genannte Verfahren oder eine seiner Weiterbildungen mit dem Ermittlungssystem durchgeführt.Conveniently, the aforementioned method or one of its developments with the detection system is performed.

Zweckmäßigerweise umfasst das Ermittlungssystem eine Aufnahmeeinheit. Ferner ist es bevorzugt, wenn das Ermittlungssystem eine Verarbeitungseinheit aufweist.The detection system expediently comprises a recording unit. Furthermore, it is preferred if the determination system has a processing unit.

Zweckmäßigerweise ist die Aufnahmeeinheit dazu eingerichtet, von einem Objekt zumindest ein reales Bild aufzunehmen.The recording unit is expediently designed to record at least one real image of an object.

Vorzugsweise ist die Verarbeitungseinheit dazu eingerichtet, für das reale Bild zumindest einen Aufnahmeparameter zu ermitteln. Weiter ist die Verarbeitungseinheit vorzugsweise dazu eingerichtet, für das reale Bild anhand eines für das Objekt vorliegenden Modells unter Verwendung des zumindest einen Aufnahmeparameters ein Referenzbild zu erzeugen. Ferner ist es vorteilhaft, wenn die Verarbeitungseinheit dazu eingerichtet ist, das reale Bild mit dem Referenzbild zu vergleichen, wobei anhand des Vergleichs das Aufnahmeverhalten der Aufnahmeeinheit ermittelt wird.Preferably, the processing unit is configured to determine at least one acquisition parameter for the real image. Furthermore, the processing unit is preferably configured to generate a reference image for the real image on the basis of a model for the object using the at least one acquisition parameter. Furthermore, it is advantageous if the processing unit is set up to compare the real image with the reference image, wherein the recording behavior of the recording unit is determined on the basis of the comparison.

Zweckmäßigerweise ist das Modell auf einem computerlesbaren Speicher hinterlegt. Es ist vorteilhaft, wenn die Verarbeitungseinheit auf den computerlesbaren Speicher zugreifen kann. Weiter kann das Ermittlungssystem den computerlesbaren Speicher aufweisen, auf welchem das Modell des Objekts hinterlegt ist.Conveniently, the model is stored on a computer-readable memory. It is advantageous if the processing unit can access the computer-readable memory. Furthermore, the determination system can have the computer-readable memory on which the model of the object is stored.

Die bisher gegebene Beschreibung vorteilhafter Ausgestaltungen der Erfindung enthält zahlreiche Merkmale, die in den einzelnen Unteransprüchen teilweise zu mehreren zusammengefasst wiedergegeben sind. Diese Merkmale können jedoch zweckmäßigerweise auch einzeln betrachtet und zu sinnvollen weiteren Kombinationen zusammengefasst werden. Insbesondere sind diese Merkmale jeweils einzeln und in beliebiger geeigneter Kombination mit dem erfindungsgemäßen Verfahren und dem erfindungsgemäßen Ermittlungssystem kombinierbar. So sind Verfahrensmerkmale auch als Eigenschaft der entsprechenden Vorrichtungseinheit gegenständlich formuliert zu sehen und umgekehrt.The previously given description of advantageous embodiments of the invention contains numerous features, which are given in the individual subclaims partially summarized in several. However, these features may conveniently be considered individually and combined into meaningful further combinations. In particular, these features can be combined individually and in any suitable combination with the method according to the invention and the determination system according to the invention. Thus, process features can also be formulated objectively as a property of the corresponding device unit, and vice versa.

Auch wenn in der Beschreibung bzw. in den Patentansprüchen einige Begriffe jeweils im Singular oder in Verbindung mit einem Zahlwort verwendet werden, soll der Umfang der Erfindung für diese Begriffe nicht auf den Singular oder das jeweilige Zahlwort eingeschränkt sein.Although some terms are used in the specification or claims in the singular or in conjunction with a number word, the scope of the invention for these terms should not be limited to the singular or the respective number word.

Die oben beschriebenen Eigenschaften, Merkmale und Vorteile dieser Erfindung sowie die Art und Weise, wie diese erreicht werden, werden klarer und deutlicher verständlich im Zusammenhang mit der folgenden Beschreibung der Ausführungsbeispiele, die im Zusammenhang mit den Zeichnungen näher erläutert werden. Die Ausführungsbeispiele dienen der Erläuterung der Erfindung und beschränken die Erfindung nicht auf die darin angegebene Kombination von Merkmalen, auch nicht in Bezug auf funktionale Merkmale. Außerdem können dazu geeignete Merkmale eines jeden Ausführungsbeispiels auch explizit isoliert betrachtet, aus einem Ausführungsbeispiel entfernt, in ein anderes Ausführungsbeispiel zu dessen Ergänzung eingebracht und mit einem beliebigen der Ansprüche kombiniert werden.The above-described characteristics, features, and advantages of this invention, as well as the manner in which they are achieved, become clearer and more clearly understandable with the following description of the embodiments, which are explained in more detail in connection with the drawings. The embodiments serve to illustrate the invention and do not limit the invention to the combination of features specified therein, not even with respect to functional features. In addition, suitable features of each embodiment may also be explicitly considered isolated, removed from one embodiment, incorporated into another embodiment to supplement it, and combined with any of the claims.

Es zeigen:

  • 1 ein Flussdiagramm, welches ein Verfahren zum Ermitteln eines Aufnahmeverhaltens einer Aufnahmeeinheit veranschaulicht,
  • 2 ein Flussdiagramm, welches mehrere Einzelvergleiche zeigt,
  • 3 ein Ermittlungssystem sowie eine technische Einheit und
  • 4 ein Flussdiagramm, welches ein Verfahren zur Objekterkennung unter Verwendung des nach 1 oder 2 ermittelten Aufnahmeverhaltens veranschaulicht.
Show it:
  • 1 a flowchart illustrating a method for determining a recording behavior of a recording unit,
  • 2 a flowchart showing several individual comparisons,
  • 3 a detection system and a technical unit and
  • 4 a flowchart illustrating a method for object recognition using the after 1 or 2 demonstrated recording behavior illustrated.

1 zeigt ein Flussdiagramm 2, welches ein Verfahren zum Ermitteln eines Aufnahmeverhaltens 14 veranschaulicht. 1 shows a flowchart 2 , which is a method for determining picking behavior 14 illustrated.

Unter Verwendung einer Aufnahmeeinheit 18 (vgl. 3) wird von einem Objekt zumindest ein reales Bild 4 aufgenommen.Using a recording unit 18 (see. 3 ) becomes an object at least a real picture 4 added.

Für das reale Bild 4 wird zumindest ein Aufnahmeparameter 6 ermittelt.For the real picture 4 becomes at least a recording parameter 6 determined.

Weiter wird für das reale Bild 4 anhand eines für das Objekt vorliegenden Modells 8 unter Verwendung des zumindest einen Aufnahmeparameters 6 ein Referenzbild 10 erzeugt. Die Referenzbilder können beispielsweise anhand des Modells 8 unter Verwendung des zumindest einen Aufnahmeparameters 6 berechnet werden. In die Referenzbildern 10 bleibt das Aufnahmeverhalten 14 der Aufnahmeeinheit 18 unberücksichtigt.Next is for the real picture 4 based on a model available for the object 8th using the at least one acquisition parameter 6 a reference picture 10 generated. The reference images can be based on the model, for example 8th using the at least one acquisition parameter 6 be calculated. In the reference pictures 10 remains the recording behavior 14 the recording unit 18 unconsidered.

Das aufgenommene reale Bild 4 wird mit dem Referenzbild 10 verglichen (Vergleich 12), wobei anhand des Vergleichs 12 das Aufnahmeverhalten 14 der Aufnahmeeinheit 18 ermittelt wird.The taken real picture 4 becomes with the reference picture 10 compared (comparison 12 ), using the comparison 12 the recording behavior 14 the recording unit 18 is determined.

Das Verfahren kann mit ein und demselben Objekt und/oder mit weiteren Objekten vielfach wiederholt werden. Auf diese Weise können eine Vielzahl realer Bilder 4a, b, c aufgenommen werden und für jedes reale Bild kann jeweils ein Referenzbild 10a, b, c erzeugt werden, welche wiederum miteinander verglichen werden können (vgl. 2).The method can be repeated many times with one and the same object and / or with other objects. In this way you can have a lot of real pictures 4a , b, c are recorded and for each real image can each have a reference image 10a . b . c are generated, which in turn can be compared with each other (see. 2 ).

2 zeigt die jeweiligen Einzelvergleiche 12a, b, c. In jedem der Einzelvergleiche 12a, b, c wird das jeweilige aufgenommene reale Bild 4a, b, c mit dem jeweiligen Referenzbild 10a, b, c verglichen. Anhand der Vielzahl der Einzelvergleiche 12a, b, c wird das Aufnahmeverhalten 14 der Aufnahmeeinheit 18 erlernt. 2 shows the respective individual comparisons 12a . b . c , In each of the individual comparisons 12a . b . c becomes the respective recorded real image 4a . b . c with the respective reference picture 10a . b . c compared. Based on the large number of individual comparisons 12a . b . c becomes the recording behavior 14 the recording unit 18 he learns.

Beispielsweise werden einem selbstlernenden System die realen Bilder 4a, b ,c als Eingangsdaten und die jeweiligen Referenzbilder 10a, b, c als jeweilige Ausgangsdaten vorgegeben. Das selbstlernende System lernt als Aufnahmeverhalten 14 der Aufnahmeeinheit 18 den Zusammenhang zwischen den realen Bildern 4a, b, c und den Referenzbildern 10a, b, c. Insbesondere kann das selbstlernende System als Aufnahmeverhalten 14 eine Abbildungsfunktion erlernen, welche nicht extrahierbar sein kann. D. h. die Abbildungsfunktion kann in dem trainierten selbstlernenden System implizit enthalten sein.For example, a self-learning system becomes the real images 4a . b . c as input data and the respective reference pictures 10a . b . c specified as respective output data. The self-learning system learns as recording behavior 14 the recording unit 18 the connection between the real pictures 4a . b . c and the reference pictures 10a . b . c , In particular, the self-learning system as recording behavior 14 learn a mapping function that can not be extractable. Ie. the mapping function may be included implicitly in the trained self-learning system.

Beispielsweise können mehrere reale Bilder 4a, b, c von Abschnitten 24 einer technischen Einheit 22 aufgenommen werden (vgl. 4), wobei für die technische Einheit 22 ein gemeinsames Modell 8 vorliegt. In diesem Ausführungsbeispiel liegt das Modell als 3D-Modell vor. Die technische Einheit 22 kann beispielsweise ein Schienenfahrzeug sein (vgl. 4).For example, you can have several real pictures 4a . b . c of sections 24 a technical unit 22 be included (see. 4 ), being for the technical unit 22 a common model 8th is present. In this embodiment, the model is available as a 3D model. The technical unit 22 For example, it may be a rail vehicle (cf. 4 ).

Die jeweiligen Aufnahmeparameter 6 umfassen beispielsweise eine jeweilige Aufnahme-Position der Aufnahmeeinheit 18. Beispielsweise wird die jeweilige Aufnahme-Position der Aufnahmeeinheit 18 anhand des jeweiligen realen Bilds 4a, b, c relativ zu der technischen Einheit 22 ermittelt.The respective recording parameters 6 For example, include a respective receiving position of the receiving unit 18 , For example, the respective recording position of the recording unit 18 based on the respective real picture 4a . b . c relative to the technical unit 22 determined.

Unter Verwendung der mehreren realen Bilder 4a, b, c kann eine Rekonstruktion der technischen Einheit 22 erstellt werden. In diesem Ausführungsbeispiel ist die Rekonstruktion eine 3D-Rekonstruktion. Die Rekonstruktion kann zu dem Modell 8 der technischen Einheit 22 ausgerichtet werden. Auf diese Weise kann die jeweilige Aufnahme-Position der Aufnahmeeinheit 18 relativ zu der technischen Einheit 22 in eine Aufnahme-Position im Koordinatensystem des Modells 8 transformiert werden.Using the several real pictures 4a . b . c may be a reconstruction of the technical unit 22 to be created. In this embodiment, the reconstruction is a 3D reconstruction. The reconstruction can be done to the model 8th the technical unit 22 be aligned. In this way, the respective recording position of the recording unit 18 relative to the technical unit 22 in a recording position in the coordinate system of the model 8th be transformed.

Für jede Aufnahme-Position kann anhand des vorliegenden Modells 8 jeweils ein Referenzbild 10a, b, c erzeugt, insbesondere gerendert, werden.For each recording position can be determined by the present model 8th one reference picture each 10a . b . c be generated, in particular rendered.

3 zeigt ein Ermittlungssystem 16 zur Durchführung des in 1 und 2 beschriebenen Verfahrens. Das Ermittlungssystem 16 umfasst die Aufnahmeeinheit 18 und eine Verarbeitungseinheit 20. 3 shows a detection system 16 to carry out the in 1 and 2 described method. The investigation system 16 includes the receiving unit 18 and a processing unit 20 ,

Die Aufnahmeeinheit 18 kann beispielsweise als eine Tiefensensor-Kamera ausgebildet sein. Insbesondere kann das jeweilige Bild 4a, 4b, 4c, 10a, 10b, 10c jeweils Tiefeninformationen aufweisen.The recording unit 18 For example, it can be designed as a depth sensor camera. In particular, the respective image 4a . 4b . 4c . 10a . 10b . 10c each have depth information.

Die Verarbeitungseinheit 20 ist dazu eingerichtet, für das reale Bild 4 zumindest einen Aufnahmeparameter 6 zu ermitteln, für das reale Bild 4 anhand des für das Objekt vorliegenden Modells 8 unter Verwendung des zumindest einen Aufnahmeparameters 6 das Referenzbild 10 zu erzeugen und das reale Bild 4 mit dem Referenzbild 10 zu vergleichen, wobei anhand des Vergleichs 12 das Aufnahmeverhalten 14 der Aufnahmeeinheit 18 ermittelt wird (vgl. 1).The processing unit 20 is set up for the real picture 4 at least one recording parameter 6 to determine, for the real picture 4 based on the model available for the object 8th using the at least one acquisition parameter 6 the reference picture 10 to generate and the real picture 4 with the reference picture 10 compare, using the comparison 12 the recording behavior 14 the recording unit 18 is determined (see. 1 ).

Weiter zeigt 4 eine technische Einheit 22, für welche ein Modell 8 vorliegt (vgl. 2). Die Aufnahmeeinheit 18 nimmt mehrere reale Bilder 4a, b, c von Abschnitten 24 der technischen Einheit 22 auf. In 4 sind beispielhaft einige aufgenommene Abschnitte 24 der technischen Einheit 22 markiert. Jedes reale Bild 4a, b, c zeigt eine reale Ansicht des jeweiligen Abschnitts 24. In jedem der Abschnitte 24 ist ein Objekt oder sind mehrere Objekte der technischen Einheit 22 angeordnet. Das heißt, dass jedes reale Bild 4a, b, c jeweils zumindest ein Objekt der technischen Einheit 22 abbildet.Next shows 4 a technical unit 22 for which a model 8th is present (cf. 2 ). The recording unit 18 takes several real pictures 4a , b, c of sections 24 the technical unit 22 on. In 4 are some examples of recorded sections 24 the technical unit 22 marked. Every real picture 4a . b . c shows a real view of each section 24 , In each of the sections 24 is an object or several objects of the technical unit 22 arranged. That means that every real picture 4a . b . c in each case at least one object of the technical unit 22 maps.

4 zeigt ein Flussdiagramm 26, welches eine Objekterkennung zeigt. 4 shows a flowchart 26 which shows an object recognition.

Das erlernte Aufnahmeverhalten 14, welches unter Verwendung des in 1 und/oder 2 beschriebenen Verfahrens ermittelt wird, wird zur Objekterkennung verwendet.The learned recording behavior 14 obtained using the in 1 and or 2 is determined, is used for object detection.

Zweckmäßigerweise liegt für mehrere Objekte zumindest ein Modell vor. Für die mehreren Objekte können auch mehrere Modelle vorliegen.Conveniently, there is at least one model for several objects. Several models may also be available for the several objects.

Bei der Objekterkennung werden für das zumindest eine Modell 8 der mehreren Objekte für verschiedene mögliche Aufnahme-Positionen ideale Bilder 28 ermittelt („Rendern“). Die idealen Bilder 28 werden in analoger Weise erzeugt wie die in 1 und 2 genannten Referenzbilder 10. In die idealen Bilder 28 bleibt das Aufnahmeverhalten 14 der Aufnahmeeinheit 18 unberücksichtigt.In the object recognition are for the at least one model 8th of the multiple objects for various possible shooting positions ideal images 28 determined ("Rendering"). The ideal pictures 28 are generated in an analogous manner as those in 1 and 2 referenced images 10 , In the ideal pictures 28 remains the recording behavior 14 the recording unit 18 unconsidered.

Anhand der idealen Bilder 28 werden unter Verwendung des ermittelten Aufnahmeverhaltens 14 virtuelle Vergleichsbilder 30 erzeugt. Das heißt, dass in den Vergleichsbildern 30 das Aufnahmeverhalten 14 der Aufnahmeeinheit 18 berücksichtigt ist.Based on the ideal pictures 28 are determined using the detected uptake behavior 14 virtual comparison images 30 generated. That means that in the comparison images 30 the recording behavior 14 the recording unit 18 is taken into account.

Mittels der Aufnahmeeinheit 18 wird ein reales Bild 32 eines zu erkennenden Objekts aufgenommen. Das aufgenommene reale Bild 32 des zu erkennenden Objekts wird mit den Vergleichsbildern 30 verglichen (Vergleich 34) und anhand des Vergleichs 34 wird das zu erkennende Objekt erkannt.By means of the recording unit 18 becomes a real picture 32 of an object to be recognized. The taken real picture 32 of the object to be recognized is used with the comparison images 30 compared (comparison 34 ) and by comparison 34 the object to be recognized is recognized.

Die Objekterkennung kann unter Verwendung des Ermittlungssystems 16 aus 3 durchgeführt werden.The object recognition can be done using the discovery system 16 out 3 be performed.

Obwohl die Erfindung im Detail durch die bevorzugten Ausführungsbeispiele näher illustriert und beschrieben wurde, so ist die Erfindung nicht durch die offenbarten Beispiele eingeschränkt und andere Variationen können vom Fachmann hieraus abgeleitet werden, ohne den Schutzumfang der Erfindung zu verlassen.While the invention has been further illustrated and described in detail by the preferred embodiments, the invention is not limited by the disclosed examples, and other variations can be derived therefrom by those skilled in the art without departing from the scope of the invention.

Claims (14)

Verfahren zum Ermitteln eines Aufnahmeverhaltens (14) einer Aufnahmeeinheit (18), bei dem - unter Verwendung der Aufnahmeeinheit (18) von einem Objekt zumindest ein reales Bild (4) aufgenommen wird, - für das reale Bild (4) zumindest ein Aufnahmeparameter (6) ermittelt wird, - für das reale Bild (4) anhand eines für das Objekt vorliegenden Modells (8) unter Verwendung des zumindest einen Aufnahmeparameters (6) ein Referenzbild (10) erzeugt wird und - das aufgenommene reale Bild (4) mit dem Referenzbild (10) verglichen wird (12), wobei anhand des Vergleichs (12) das Aufnahmeverhalten (14) der Aufnahmeeinheit (18) ermittelt wird.Method for determining a recording behavior (14) of a recording unit (18), in which at least one real image (4) is taken by an object using the recording unit (18), for the real image (4) at least one acquisition parameter (6) is determined, for the real image (4) a reference image (10) is generated on the basis of a model (8) for the object using the at least one acquisition parameter (6), and - The recorded real image (4) with the reference image (10) is compared (12), wherein based on the comparison (12), the recording behavior (14) of the recording unit (18) is determined. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass das reale Bild (4) und ggf. auch das Referenzbild (10) ortsaufgelöste Tiefeninformationen aufweist/aufweisen.Method according to Claim 1 , characterized in that the real image (4) and possibly also the reference image (10) has / have spatially resolved depth information. Verfahren nach Anspruch 1 oder 2, dadurch gekennzeichnet, dass das Modell ein 3D-Modell ist.Method according to Claim 1 or 2 , characterized in that the model is a 3D model. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass der zumindest eine Aufnahmeparameter (6) eine Aufnahme-Position der Aufnahmeeinheit (18) umfasst.Method according to one of the preceding claims, characterized in that the at least one receiving parameter (6) comprises a receiving position of the receiving unit (18). Verfahren nach Anspruch 4, dadurch gekennzeichnet, dass die Aufnahme-Position der Aufnahmeeinheit (18) relativ zu dem aufgenommenen Objekt ermittelt wird und dann in ein Koordinatensystem des Modells (8) transformiert wird.Method according to Claim 4 , characterized in that the recording position of the recording unit (18) relative to the recorded object is determined and then transformed into a coordinate system of the model (8). Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass der zumindest eine Aufnahmeparameter (6) eine Brennweite der Aufnahmeeinheit (18), eine Blendenzahl der Aufnahmeeinheit (18), eine Apertur der Aufnahmeeinheit (18), einen Winkel in dem realen Bild (4) und/oder eine Abmessung in dem realen Bild (4) umfasst.Method according to one of the preceding claims, characterized in that the at least one recording parameter (6) has a focal length of the recording unit (18), a f-number of the Recording unit (18), an aperture of the recording unit (18), an angle in the real image (4) and / or a dimension in the real image (4). Verfahren nach einem der vorhergehenden Ansprüche, welches mit ein und demselben Objekt und/oder mit weiteren Objekten vielfach wiederholt wird, wobei anhand der Vielzahl der Einzelvergleiche (12) das Aufnahmeverhalten (14) der Aufnahmeeinheit (18) erlernt wird.Method according to one of the preceding claims, which is repeated many times with one and the same object and / or with other objects, wherein on the basis of the plurality of individual comparisons (12) the recording behavior (14) of the recording unit (18) is learned. Verfahren nach Anspruch 7, dadurch gekennzeichnet, dass das Aufnahmeverhalten (14) der Aufnahmeeinheit (18) mittels eines selbstlernenden Systems erlernt wird.Method according to Claim 7 , characterized in that the recording behavior (14) of the recording unit (18) is learned by means of a self-learning system. Verfahren nach Anspruch 8, dadurch gekennzeichnet, dass das selbstlernende System auf einem neuronalen Netzwerk, insbesondere auf einem Deep Convolutional Neural Network, basiert.Method according to Claim 8 , characterized in that the self-learning system is based on a neural network, in particular on a deep convolutional neural network. Verfahren nach einem der Ansprüche 7 bis 9, dadurch gekennzeichnet, dass mehrere reale Bilder (4) von Abschnitten (24) einer technischen Einheit (22) aufgenommen werden, wobei für die technische Einheit (22) ein gemeinsames Modell (8) vorliegt.Method according to one of Claims 7 to 9 , characterized in that a plurality of real images (4) of sections (24) of a technical unit (22) are received, wherein for the technical unit (22) is a common model (8). Verfahren nach Anspruch 10, dadurch gekennzeichnet, dass unter Verwendung der mehreren realen Bilder (4) eine Rekonstruktion der technischen Einheit (22) erstellt wird und die Rekonstruktion zu dem Modell (8) der technischen Einheit (22) ausgerichtet wird.Method according to Claim 10 , characterized in that using the plurality of real images (4) a reconstruction of the technical unit (22) is made and the reconstruction is aligned with the model (8) of the technical unit (22). Verfahren nach einem der Ansprüche 7 bis 9, dadurch gekennzeichnet, dass für die mehreren Objekte mehrere Modelle (8) vorliegen.Method according to one of Claims 7 to 9 , characterized in that there are a plurality of models (8) for the plurality of objects. Verwendung eines Aufnahmeverhaltens (14) einer Aufnahmeeinheit (18) zur Objekterkennung, wobei das Aufnahmeverhalten (14) unter Verwendung des Verfahrens nach einem der Ansprüche 1 bis 12 ermittelt wird, wobei - für zumindest ein Modell (8) mehrerer Objekte für verschiedene mögliche Aufnahme-Positionen ideale Bilder (28) ermittelt werden, - anhand der idealen Bilder (28) unter Verwendung des ermittelten Aufnahmeverhaltens (14) virtuelle Vergleichsbilder (30) erzeugt werden, - mittels der Aufnahmeeinheit (18) ein reales Bild (32) eines zu erkennenden Objekts aufgenommen wird, - das aufgenommene reale Bild (32) des zu erkennenden Objekts mit den Vergleichsbildern (30) verglichen wird (34) und anhand des Vergleichs (34) das zu erkennende Objekt erkannt wird.Using a recording behavior (14) of a recording unit (18) for object recognition, wherein the recording behavior (14) using the method according to one of Claims 1 to 12 is determined, wherein - for at least one model (8) of several objects for different possible recording positions ideal images (28) are determined, - based on the ideal images (28) using the determined recording behavior (14) generates virtual comparison images (30) - a real image (32) of an object to be detected is taken by the recording unit (18), - the recorded real image (32) of the object to be detected is compared with the comparison images (30) (34) and by comparison ( 34) the object to be recognized is detected. Ermittlungssystem (16) umfassend eine Aufnahmeeinheit (18) und eine Verarbeitungseinheit (20), wobei die Aufnahmeeinheit (18) dazu eingerichtet ist, von einem Objekt zumindest ein reales Bild (4) aufzunehmen, und wobei die Verarbeitungseinheit (20) dazu eingerichtet ist, für das reale Bild (4) zumindest einen Aufnahmeparameter (6) zu ermitteln, für das reale Bild (4) anhand eines für das Objekt vorliegenden Modells (8) unter Verwendung des zumindest einen Aufnahmeparameters (6) ein Referenzbild (10) zu erzeugen und das reale Bild (4) mit dem Referenzbild (10) zu vergleichen (12), wobei anhand des Vergleichs (12) das Aufnahmeverhalten (14) der Aufnahmeeinheit (18) ermittelt wird.A detection system (16) comprising a receiving unit (18) and a processing unit (20), wherein the receiving unit (18) is adapted to receive at least one real image (4) from an object, and wherein the processing unit (20) is adapted to for the real image (4) to determine at least one acquisition parameter (6), to generate a reference image (10) for the real image (4) using a model (8) for the object using the at least one acquisition parameter (6); the real image (4) with the reference image (10) to compare (12), based on the comparison (12), the recording behavior (14) of the recording unit (18) is determined.
DE102018208604.4A 2018-05-30 2018-05-30 Determining a recording behavior of a recording unit Ceased DE102018208604A1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102018208604.4A DE102018208604A1 (en) 2018-05-30 2018-05-30 Determining a recording behavior of a recording unit

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102018208604.4A DE102018208604A1 (en) 2018-05-30 2018-05-30 Determining a recording behavior of a recording unit

Publications (1)

Publication Number Publication Date
DE102018208604A1 true DE102018208604A1 (en) 2019-12-05

Family

ID=68576232

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102018208604.4A Ceased DE102018208604A1 (en) 2018-05-30 2018-05-30 Determining a recording behavior of a recording unit

Country Status (1)

Country Link
DE (1) DE102018208604A1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022222957A1 (en) * 2021-04-20 2022-10-27 北京嘀嘀无限科技发展有限公司 Method and system for identifying target

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2006052204A1 (en) * 2004-11-11 2006-05-18 Totalförsvarets Forskningsinstitut Method for surveillance of a geographical area and a system utilising the method
US20090153673A1 (en) * 2007-12-17 2009-06-18 Electronics And Telecommunications Research Institute Method and apparatus for accuracy measuring of 3D graphical model using images
US9916345B1 (en) * 2014-02-12 2018-03-13 Google Llc Searching three-dimensional (3D) object data models

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2006052204A1 (en) * 2004-11-11 2006-05-18 Totalförsvarets Forskningsinstitut Method for surveillance of a geographical area and a system utilising the method
US20090153673A1 (en) * 2007-12-17 2009-06-18 Electronics And Telecommunications Research Institute Method and apparatus for accuracy measuring of 3D graphical model using images
US9916345B1 (en) * 2014-02-12 2018-03-13 Google Llc Searching three-dimensional (3D) object data models

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
AHMED, Moumen T.; HEMAYED, ElSayed E.; FARAG, Aly A. Neurocalibration: a neural network that can tell camera calibration parameters. In: Proceedings of the Seventh IEEE International Conference on Computer Vision. IEEE, 1999. S. 463-468 *
Choy CB, Xu D, Gwak J, Chen K, Savarese S. 3d-r2n2: A unified approach for single and multi-view 3d object reconstruction. arXiv preprint arXiv:1604.00449v1, 2016. URL: https://arxiv.org/abs/1604.00449 *
Wikipedia, „ZCam". Bearbeitungsstand: 10. Mai 2018. URL: https://en.wikipedia.org/w/index.php?title=ZCam&oldid=840575577 [abgerufen am 02.05.2019] *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022222957A1 (en) * 2021-04-20 2022-10-27 北京嘀嘀无限科技发展有限公司 Method and system for identifying target

Similar Documents

Publication Publication Date Title
DE102018208920A1 (en) An information processing apparatus and estimation method for estimating a gaze direction of a person, and a learning apparatus and a learning method
DE102015005267A1 (en) Information processing apparatus, method therefor and measuring apparatus
DE102008031942A1 (en) Method and device for 3D digitizing an object
DE102014201271A1 (en) A method and controller for detecting a change in a relative yaw angle within a stereo video system for a vehicle
DE102015211874A1 (en) Object detection device
DE102017219282A1 (en) Method and device for automatically generating an artificial neural network
DE602004009875T2 (en) Method for image processing for profile determination by means of structured light
DE102015003666A1 (en) Method for processing acquired measured data of a sensor
DE102015211871A1 (en) Object detection device
WO2020078615A1 (en) Method and device for determining an area map
DE102017205727A1 (en) Method for calibrating a sensor system
DE102012211961A1 (en) Method and apparatus for calculating a change in a magnification of an object
DE102018208604A1 (en) Determining a recording behavior of a recording unit
DE102020103575A1 (en) Feature point detection apparatus and method for detecting feature points in image data
DE10145608B4 (en) Model-based object classification and target recognition
DE102019100011A1 (en) Method for 3D reconstruction of an object
DE10340023B3 (en) Self-calibration of camera system involves inserting matrices describing transformations into equation giving equation system linear in calibration parameters until it can be fully solved by computer
DE102010021221A1 (en) Camera direction determining method for use in vehicle, involves reconstructing vehicle coordination system from points, and determining camera direction from rotation of camera-coordination system relative to vehicle coordination system
DE102018209898A1 (en) Method for determining corresponding pixels, SoC for carrying out the method, camera system with the SoC, control unit and vehicle
DE102010042821B4 (en) Method and apparatus for determining a basic width of a stereo detection system
DE102015118941B4 (en) Probabilistic tracing method for particles in a fluid
DE102016109153A1 (en) METHOD FOR ADJUSTING A VIEWPOINT IN A VIRTUAL ENVIRONMENT
DE102020109789A1 (en) Method for performing self-localization of a vehicle on the basis of a reduced digital map of the surroundings, computer program product and a self-localization system
DE112020005735T5 (en) Position estimation device, vehicle, position estimation method and position estimation program
DE102019220616A1 (en) METHOD OF SIMULTANEOUS LOCALIZATION AND IMAGING

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R002 Refusal decision in examination/registration proceedings
R003 Refusal decision now final