WO2023285128A1 - Method for controlling a target system and in particular for capturing at least one usage object, in particular a capture controller - Google Patents
Method for controlling a target system and in particular for capturing at least one usage object, in particular a capture controller Download PDFInfo
- Publication number
- WO2023285128A1 WO2023285128A1 PCT/EP2022/067629 EP2022067629W WO2023285128A1 WO 2023285128 A1 WO2023285128 A1 WO 2023285128A1 EP 2022067629 W EP2022067629 W EP 2022067629W WO 2023285128 A1 WO2023285128 A1 WO 2023285128A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- processing unit
- database
- usage
- data
- image
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 33
- 238000012545 processing Methods 0.000 claims abstract description 69
- 238000001514 detection method Methods 0.000 claims description 42
- 230000003287 optical effect Effects 0.000 claims description 10
- 238000012549 training Methods 0.000 claims description 8
- 238000013528 artificial neural network Methods 0.000 claims description 6
- 230000001537 neural effect Effects 0.000 claims description 6
- 230000002123 temporal effect Effects 0.000 claims description 4
- 238000013473 artificial intelligence Methods 0.000 description 19
- 230000011218 segmentation Effects 0.000 description 5
- 230000003190 augmentative effect Effects 0.000 description 3
- 230000006399 behavior Effects 0.000 description 3
- 238000012937 correction Methods 0.000 description 3
- 238000012805 post-processing Methods 0.000 description 3
- 238000001454 recorded image Methods 0.000 description 3
- 230000000007 visual effect Effects 0.000 description 3
- 241000282412 Homo Species 0.000 description 2
- 238000013459 approach Methods 0.000 description 2
- 238000013145 classification model Methods 0.000 description 2
- 230000001149 cognitive effect Effects 0.000 description 2
- 230000006835 compression Effects 0.000 description 2
- 238000007906 compression Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000004519 manufacturing process Methods 0.000 description 2
- 238000009877 rendering Methods 0.000 description 2
- 239000008186 active pharmaceutical agent Substances 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 230000005670 electromagnetic radiation Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 239000003550 marker Substances 0.000 description 1
- 238000003908 quality control method Methods 0.000 description 1
- 238000012827 research and development Methods 0.000 description 1
- 238000004088 simulation Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/20—Scenes; Scene-specific elements in augmented reality scenes
Definitions
- Method for controlling a target system and in particular for detecting at least one object of use in particular a detection controller
- the present application relates to a device for physically, in particular optically, detecting at least one object of use and a corresponding device.
- the present application relates to a method for controlling a target system and in particular for detecting at least one object of use, in particular a detection controller.
- the device presented here for the physical, in particular for the optical detection of at least one object of use at least one provision of an object of use comprises at least one processing unit, by means of which an object of use and/or an identification means assigned uniquely, preferably uniquely, to the object of use is physically identified can be detected, from which at least one characteristic value of the object of use can be obtained, and further wherein the processing unit and/or a CPU is set up and provided for carrying out a classification of the object of use insofar as a characteristic value of the object of use is stored with at least one in a database of the processing unit and/or is comparable to a database of an external CPU, and the processing unit and/or the CPU and/or the user himself/herself selects a database object corresponding to the characteristic value and displays the processing in a screen processing unit, so that a camera image of the usage object together with the database object can be at least partially optically superimposed on the screen and/or displayed side by side,
- the processing unit and/or the CPU can be used to carry out at least one physical capture process, in particular at least one photograph, of the object of use based on the database object displayed on the screen, so that the user captures the object of use in such a way that a captured image of the usage object is displayed identically or identically to scale to the database object displayed on the screen at the same time, with the usage object being assignable by the processing unit and/or the CPU and/or the user to at least one usage object class, for example a vehicle type, as a result of the detection process.
- the object of use can generally be an object that is or is to be used or that contains a use, in particular a three-dimensional object act.
- the term "use" in the sense of the application means any handling with regard to a purpose.
- the processing unit can be a computing and/or memory unit.
- the processing unit is also set up and provided for taking photographs.
- the processing unit can have at least one camera or at least part of a camera.
- the object of use is designed to be portable, which means that the object of use cannot be connected to a floor or to a handling device connected to the floor element.
- “portable” can mean, in particular, that the processing element has such dimensions and such a weight that it is set up and intended to be held manually, in particular with one hand.
- the processing unit can also be detachably or permanently connected to a floor on which the object of use is placed. Such a connection can be established via the handling device described above.
- the processing unit can be guided along guide paths, for example along at least one rail or rail system relative to the object of use.
- the characteristic value can be a real number greater than 0, but it is also conceivable for the characteristic value to be composed of different partial characteristic values.
- a usage object can therefore have a partial parameter with regard to an exterior color, for example, a further parameter with regard to maximum dimensions in height and width and/or depth, and a further partial parameter with regard to weight.
- a parameter can therefore be formed by combining these three partial parameters.
- a combination can be in the form of a sum or a fraction.
- the characteristic value is preferably determined in the form of a sum of the aforementioned partial characteristic values.
- the individual partial characteristic values can also be included in the summation with different weighting. For this purpose it is conceivable that each partial characteristic value has a first weight factor as a weight factor, the second partial characteristic value with a second weight factor and a third partial characteristic value with a third weight factor according to the formula:
- K G1 * K1 + G2 * K2 + G3 * K3, where the values K1 to K3 represent the respective partial values and the factors G1 to G3 (which represent real positive numbers or can also be zero, depending on the selection) designate respective weighting factors of the partial characteristic values.
- the usage object classification presented here can be a purely visual comparison between the usage object recorded with the above-mentioned camera and a usage object template stored in a database in an optical manner.
- the usage object is divided into individual object classes or can be categorized in terms of data technology.
- an (analogue) and visual comparison between the object of use recorded and the object of use stored in the database a technical, for example analogue, comparison is then made.
- the object of use is therefore broken down into individual data, for example data classes, by a conversion unit, which is then compared individually or together with data or data classes correspondingly stored in the database.
- the data object can accordingly be a template image of the corresponding usage object stored in the database.
- the processing unit is set up and provided for a detection process to be carried out, for example by a user and/or an implementation device of the object of use, so that the object of use is detected in such a way that an image of the object of use captured by the detection process is identical or identical scaled identically to the database object displayed on the screen at the same time.
- identity means the closest approximation to a correspondingly stored object in the database based on the characteristic value and/or the optical dimensions of the object of use. This can mean that the object of use, which can be recorded by the processing unit, does not correspond in all dimensions and wear and tear to the object of use identified in the database according to the characteristic value, but the closest match is produced on the basis of predefined minimum dimensions.
- the object of use is a vehicle, for example a BMW 3 Series.
- the object of use itself can, for example, have a spoiler and/or be lowered. If a corresponding object of use is not also stored in the database with an additional spoiler and a lowered version, but the database only generally shows a basic model of a BMW 3 series, the processing unit and/or the database and/or the external CPU can still do this Select the basic 3-model as the closest match to the object of use, for example because the characteristic values of the object of use are identical, for example based on a vehicle sticker.
- the vehicle type can be, for example, a 3-class BMW or any other vehicle permitted on German roads or the international road system.
- the physical detection process includes at least one temporal detection sequence, where at least two different recordings of the object of use are carried out during the recording sequence, with each recording being assigned to at least one database object.
- the detection sequence records instructions to an implementation device and/or to a user to photograph the object of use from different angles, different distances with different color contrasts or the like in order to simplify identification with a object of use stored in the database.
- the processing unit is set up and provided for traveling along this lateral detection sequence.
- the solution sequence can therefore have precise instructions to the user and/or an implementation device with regard to location, recording brightness or similar, so that the processing unit, which preferably includes an optical camera, optically fends off the object of use along predetermined points.
- orientation points can be marking elements which the camera of the processing unit can record particularly easily.
- marking elements are barcodes or barcodes and/or NFC chips.
- marking elements can therefore also be passive components. However, it is also conceivable that such marking elements can be detachably applied to the object of use, for example glued on. Such usage objects can have their own energy supply, for example a battery supply. Such battery-equipped marking elements can emit electromagnetic radiation in the optically visible or in the invisible, for example infrared or microwave range, which can be detected by a locating element of the processing unit and as a result of which the processing unit is able to determine the position in which it is located relative to the object of use.
- the marking elements are virtual marking elements, which are loaded from the database and which, like the object of use itself, are from the database as an image, for example as a third image together with a photograph of the object of use and accordingly virtually from the Appearance of the usage object loaded in the database can be displayed on the screen of the usage object, can therefore just like the database objects (which can depict the usage objects in virtual terms and which are stored in the database), as well as other database objects in the database of the processing unit and/or or the external CPU.
- both the usage object and the further database object (at least one marking element) can be loaded together into the processing unit and/or displayed on the screen of the processing unit with one and the same characteristic value.
- the chronologically sequential version instructions specify a detection distance and/or a detection angle relative to the object of use for the user.
- the recording instructions therefore provide a precise schedule, preferably in a fully automated manner, with regard to the recording of the individual images, in particular photographs of the objects of use.
- AI Artificial intelligence
- AI also artificial intelligence
- AI or A.I. English artificial intelligence
- AI is a sub-area of computer science that deals with the automation of intelligent behavior and machine learning.
- the term is difficult to define because there is already a lack of a precise definition of "intelligence”. Nevertheless, it is used in research and development.
- Artificial intelligence usually describes the attempt to emulate certain human decision-making structures, e.g. B. a computer is built and programmed in such a way that it can work on problems relatively independently. Often, however, it also refers to imitated intelligence, whereby “intelligent behavior” is supposed to be simulated using mostly simple algorithms, for example in the case of computer opponents in computer games.
- Strong AI would be computer systems that can take on the work of completing difficult tasks on an equal footing with humans.
- weak Kl is about mastering specific application problems. Human thinking and technical applications are to be supported here in individual areas. The ability to learn is a key requirement for AI systems and must be an integral part, not an afterthought.
- a second main criterion is the ability of an AI system to deal with uncertainty and probabilistic information. Of particular interest are those applications for which it is generally understood that a form of “intelligence” is necessary.
- the weak class is concerned with the simulation of intelligent behavior using mathematics and computer science, it is not concerned with creating awareness or a deeper understanding of intelligence.
- Visual intelligence makes it possible to recognize and analyze images or shapes. Handwriting recognition, identification of people through face recognition, comparison of fingerprints or the iris, industrial quality control and production automation (the latter in combination with findings from robotics) are mentioned here as application examples.
- At least one embodiment is such a device for the physical, in particular for the optical, detection of at least one object of use, in which the detection of the object of use and in particular also the tracing of the object of use, i. H. the virtual representation of the object of use itself is created on a screen by means of an artificial intelligence of the device.
- AI artificial intelligence
- a tablet or mobile phone camera to scan a car with the camera (similar or the same is done, for example, when recognizing a QR code) and in particular with the images stored in the database such an image and such an information pool is formed for the user that most closely corresponds to the vehicle actually recorded with the camera.
- the Polo is from the year of manufacture 1985, with additional information with pointers, Arrows or other is shown. This makes it easier for the user to identify the object and the handling of further information, which is then simply displayed on a screen of the tablet, smartphone or on the basis of an app for a computer on a computer screen.
- API interface can be used to generate and skillfully display corresponding augmented reality screen information together with an object then perceived via a camera independently of a tablet or smartphone on a fixed computer.
- a class based on or arising from the class includes the following alternative, additional or new exemplary steps:
- Method for controlling a target system and in particular for detecting at least one usage object, in particular a detection controller, on the basis of operating data of at least one source system, in particular several source systems, in particular of the processing unit comprising: a) Receiving operating data of the source system, wherein distinguish the operating data, in particular the image data, by means of source system-specific identifiers, b) training, using a neural network, a neural model on the basis of the received operating data of the source system, taking into account the source system-specific identifier(s), for example the characteristic value, wherein c) the database object (4) is generated by means of the processing unit and/or the CPU and is stored in the CPU, with each database object having at least source data of the characteristic value or the characteristic value itself, so that the object of use (1) is recorded in such a way that a the capture process recorded image of the object of use (1) corresponds to operating data of the source system or is generated from them, d) receiving operating data from the target system, in particular the recording controller, with this operating data having data
- the operating data can be individual values, for example partial characteristic values, from the recording of the vehicle.
- the target data correspond to such values, for example partial characteristic values, which the system sets as a target with regard to the resolution of the recorded image, the amount of data in the image, the position of the vehicle in the image, a compression rate, color levels of the vehicle in the image, edge markings of the vehicle in the image, and/or a noise ratio, in particular at least one of the above compared to a vehicle background.
- partial characteristic values which the system sets as a target with regard to the resolution of the recorded image, the amount of data in the image, the position of the vehicle in the image, a compression rate, color levels of the vehicle in the image, edge markings of the vehicle in the image, and/or a noise ratio, in particular at least one of the above compared to a vehicle background.
- the acquisition control within the training loop (partial parameters), data sets of the image, the position of the vehicle on the image
- the outline of the vehicle is then generated, with the outline being stored as a separate image file by the CPU or another storage medium.
- the characteristic value is taken from an identification means, for example a usage badge of the usage object and/or can be taken, in particular scanned.
- the characteristic value is therefore also preferably recorded fully automatically by the processing unit, which has an optical camera, for example. It is preferably no longer necessary for the user and/or the implementation device to have to manually enter the characteristic value into the processing unit.
- the processing unit includes or is a smartphone or a camera. If the processing unit is a smartphone or a camera, it can be handled manually, as already mentioned above.
- the processing unit is fastened to a receiving element, which moves according to the requirements of the detection sequence moved relative to the object of use.
- the processing unit can therefore move together with the receiving element in accordance with the detection sequence relative to the object of use.
- the processing unit can be or include a smartphone or a camera, and the processing unit can also be a manageable processing unit. However, this is attached to a larger unit, namely the receiving element.
- the receiving element preferably includes all the necessary components in order to be able to move along the object of use fully automatically or by manual force on the part of the user.
- the recording element is a drone, which is steered relative to the object of use according to the recording sequence in order to be able to carry out the individual recordings preferably along or on the above-mentioned marking elements.
- a “drone” can be an unmanned vehicle, preferably an unmanned aircraft with one or more Flelicopter rotors.
- the drone can then be controlled and thus steered wirelessly or with a cable via a control device by the user and/or by the implementation device manually or fully automatically.
- the drone makes it possible to take a very space-saving approach when recording the object of use around the object of use.
- a safety distance between the object of use and other objects of use for example other cars in a car showroom, can be dispensed with, so that the drone travels the individual positions to be photographed according to the determination sequence, preferably hovering, without other objects of use not involved having to be driven very far away.
- the drone would then simply approach the object of use from above and, for example, also drive into the interior of the car in order to be able to take interior shots as well.
- FIG. 3A -3E another embodiment of the device described here.
- FIG. 1 A device 100 according to the invention is shown in FIG. 1
- FIG. 4A shows the artificial side
- data from an input image 71 is subjected to image brightness correction 80, with data from this image brightness correction 80 being transmitted on both sides in parallel to a classification model 81 and a segmentation model 82, in which the IF that ID 91 of this data is then created.
- the data is then assigned an ID, with an ID of 0.283 referring to a "segment exterior details map post processing", with an ID of 3.084 the data relate to a "segment interior map post processing" and with an ID of that ID of 1,085 there is a "segment exterior map post processing".
- the data is combined into an IF template type 92.
- the so-called image is then processed in a further step according to the requirements of the unsharp template and image size adjustments cropped 87 to the desired size, which the output image 72 then renders.
- the data can take the type "Complete” 88 in order to be able to combine the segmentation map of the alpha mask without background. This is then carried out on the shadow generation model 89, which then also represents the output image 72.
- the Normal type 90 where the segmentation map is combined with the alpha mask to leave only the background of the surface. As with the previous types, this image is then displayed as Output image 72.
- the output image 72 can then be formed into an input image 71 again by an AI server 73 .
- Figure 4A thus shows the method for controlling a target system and in particular for detecting at least one object of use, in particular a detection controller, on the basis of operating data from at least one source system, in particular several source systems, in particular the processing unit, which is responsible for receiving Be includes operating data of the source system, with the operating data, in particular the image data, differing by source system-specific identifiers.
- It also includes training, using a neural network, a neural model on the basis of the received operating data of the source system, taking into account the source system-specific identifier(s), for example the characteristic value, with the processing unit and/or the CPU using the database object (4th ) is generated and stored in the CPU, where each database object has at least source data of the characteristic value or the characteristic value itself, so that the object of use (1) is recorded in such a way that an image of the object of use (1) recorded by the recording process contains operating data of the source system corresponds to or is generated from them.
- a neural model on the basis of the received operating data of the source system, taking into account the source system-specific identifier(s), for example the characteristic value, with the processing unit and/or the CPU using the database object (4th ) is generated and stored in the CPU, where each database object has at least source data of the characteristic value or the characteristic value itself, so that the object of use (1) is recorded in such a way that an image of the object of use (1) recorded by the recording process contains operating data of the source system
- the method includes receiving operating data from the target system, in particular from the acquisition controller, with this operating data having data that corresponds or is to predetermined target data of a target object to be imaged, and further training of the trained neural model on the basis of the operating data of the target system and finally the control of the source and/or the target system by means of the further trained neural network, and in particular until the operating data of the source system corresponds to the operating data of the target system and/or is and/or is within a tolerance range, in particular the identifier .
- the operating data can be individual values, for example partial characteristic values, from the recording of the vehicle.
- the target data correspond to such values, for example partial characteristic values, which the system specifies as a target with regard to the resolution of the recorded image, the amount of data in the image, the position of the vehicle in the image, a compression rate, color levels of the vehicle in the image , edge markings of the vehicle on the image, and/or a noise ratio, in particular at least one of the above compared to a vehicle background.
- partial characteristic values which the system specifies as a target with regard to the resolution of the recorded image, the amount of data in the image, the position of the vehicle in the image, a compression rate, color levels of the vehicle in the image , edge markings of the vehicle on the image, and/or a noise ratio, in particular at least one of the above compared to a vehicle background.
- the acquisition control within the training loop (partial parameters), data sets of the image, the position of the vehicle on the image
- the outline of the vehicle is then generated, with the outline being stored as a separate image file by the CPU or another storage medium.
- FIG. 4B shows the computer vision augmented reality side.
- an image stream 74 is carried out in parallel through the sensor data 110, camera stream 111, device position 112 and the device orientation 113. This data is then aggregated and sent to the ARKit/ARCore 114. There the image stream 74 is revised with the world tracking 115, image recognition 116 and the content tracking 117 by the 3D rendering 118 and the image processing 119 and then reaches the ni image matches guide 93. If the data for the image match, is a photo and/or video and/or screenshot 120 is taken, which then forms the guideline corresponding image 75. In the event that the revised data does not match the image guide, it is sent back to the image stream 74 and the process begins again.
- FIG. 4 is self-explanatory here.
- the device 100 includes a processing unit 2, by means of which a usage object 1 and/or a usage object 1 is uniquely and preferably uniquely assigned, the identification means 11 can be physically detected, where out at least one characteristic value of the object of use can be obtained and furthermore, the processing unit 2 and/or a CPU being set up and provided for carrying out a classification of the object of use insofar as a characteristic value of the object of use is at least one in a database of the processing unit 2 and/or or is comparable to a database of an external CPU and the processing unit 2 and/or the CPU and/or the user himself/herself selects a database object 4 that corresponds to the characteristic value 3 and displays it on a screen of the processing unit 2, so that a camera image of the usage object 1 is combined can be at least partially optically superimposed on the screen 21 with the database object 4 and/or displayed next to one another.
- a processing unit 2 by means of which a usage object 1 and/or a usage object 1 is uniquely and preferably uniquely assigned, the identification means 11 can be physically
- the processing unit 2 and/or the CPU it is possible to carry out at least one physical detection process 5 based on the database object 4 displayed on the screen 21, so that the user detects the usage object 1 in such a way that an image of the usage object detected by the detection process is identical or identical to scale, at least essentially identical, with the database object 4 displayed on the screen 21 is displayed at the same time, whereby the detection process causes the usage object 1 to be recognized by the processing unit 2 and/or the CPU and/or the user at least one usage object class, for example a Vehicle types can be assigned.
- the detection process causes the usage object 1 to be recognized by the processing unit 2 and/or the CPU and/or the user at least one usage object class, for example a Vehicle types can be assigned.
- FIG. 2A An example of a first step is shown in FIG. 2A, with a usage object class (e.g. images 30), in particular in the form of an example vehicle type, visually appearing on screen 21 on usage object 1 shown there, which is shown in the form of a smartphone is shown.
- a usage object class e.g. images 30
- the example vehicle type is not only shown in reduced form in area B1 on the screen, but also in an enlarged form, for example a 1:1 form, with a gray shaded background on screen 21 (see area B2).
- This optically represented usage object class serves as a guide to the object to be photographed.
- a controller 40 is also shown, by setting a contrast and/or a brightness of the orientation image, ie in particular of the images 30, which each correspond to an optical representation of a use object class. In this way, problems that arise when the light is very bright can be eliminated.
- FIG. 2B shows a characteristic value detection based on a usage sticker 50 of the utility vehicle. In this case, the usage badge 50 is optically scanned by the processing unit 2 .
- the angle at which the processing unit 2, shown here as a smartphone as an example, must be held changes, as a result of which an optimal quality for the comparison and classification process can be achieved.
- FIG. 2C shows that the processing unit 2 must be held in different angular positions relative to the object of use 1.
- the processing unit 2 is attached to a receiving element 23, in this case a drone.
- FIG. 3A therefore not only shows a drone 23, but also the processing unit 2 and the object of use 1, with a drone 23 initially being entered at a distance into the processing unit 2 beforehand when the drone is launched, or being specified by the detection sequence.
- the drone Before the drone can orient itself automatically and without a drone pilot, it needs information about the object of use 1.
- the drone can then be placed at a defined distance in front of the vehicle 11 (see Figure 3B) to use the vehicle dimensions in relation to the starting point fly all positions according to the acquisition sequence.
- Corresponding marking elements 60 are shown in FIG. 3C, which are either attached to the object of use 1 or are virtually optically “laid over” it.
- the marking can be what is known as ARUCo marking. These can be high-contrast symbols that were specially developed for camera use. These can contain not only orientation aids, but also information. With such a marker, the drone 23 can therefore recognize the starting point of the drone flight itself. Another course of the drone flight is shown in FIG. 3D, which can also be seen in FIG. 3E. However, FIG. 3E also shows how a focal length of a lens of the processing unit 2 transported by the drone 23 affects the recording quality. On the usage object 1 shown on the far left, this was recorded with a wide-angle camera, while the usage object 1 shown in the middle was recorded with a normal-angle camera and the usage object 1 on the far right was recorded with a telecamera. The wide-angle camera can allow a distance of 0 to 45 mm to the utility vehicle 2, the normal-angle camera a distance of about 50 mm and a telephoto lens can allow a distance of 55 mm or more.
- Focal lengths of less than 50 mm and greater than 50 mm can produce different distortion and distortion effects. Due to the various use of focal lengths of, for example, 6 mm, visible distortions occur in the images taken. In order to have a comparison of all images afterwards, the photographs taken should not be post-processed, so that the various lenses mentioned above are used must.
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Image Analysis (AREA)
Abstract
The invention relates to a device for physically, in particular optically, capturing at least one usage object, comprising the step of performing at least one physical capture process, for example by way of a user and/or a performance device, in particular at least one photograph, for the usage object, with the result that the usage object is captured in such a way that an image of the usage object captured by way of the capture process is shown identically or on an identical scale to and at the same time as the database object shown on a screen, the capture process assigning the usage object from the processing unit and/or the CPU and/or the user to at least one usage object class, for example a vehicle type.
Description
Verfahren zur Steuerung eines Zielsystems und insbesondere zum Erfassen zumindest eines Nutzungsobjektes, insbesondere einer Erfassungssteuerung Method for controlling a target system and in particular for detecting at least one object of use, in particular a detection controller
Beschreibung description
Die vorliegende Anmeldung betrifft eine Vorrichtung zum physikalischen, insbesondere zum optischen Erfassen zumindest eines Nutzungsobjekts sowie eine entsprechende Vorrich tung. Außerdem betrifft die vorliegende Anmeldung ein Verfahren zur Steuerung eines Ziel systems und insbesondere zum Erfassen zumindest eines Nutzungsobjektes, insbesondere einer Erfassungssteuerung. The present application relates to a device for physically, in particular optically, detecting at least one object of use and a corresponding device. In addition, the present application relates to a method for controlling a target system and in particular for detecting at least one object of use, in particular a detection controller.
Bisherige Vorrichtungen zur Zuordnung eines Nutzungsobjekts zu einer Nutzungsobjektklas se sind zwar kostengünstig, jedoch recht ungenau. In der Regel wird hierzu eine Fotografie eines Nutzungsobjekts gemacht, um dies anhand deren strukturellen und/oder haptischen Merkmale identifizieren zu können. Hierzu wurde zwar oftmals eine Datenbank benutzt, um das auf der Fotografie abgebildete Nutzungsobjekt mit in einer Datenbank hinterlegten Nutzungsobjekten zu vergleichen, jedoch war dieser Vergleich oftmals fehlerhaft und ungenau, da es also im Vergleich oftmals auf optische und/oder datentechnische Kleinigkeiten ankommt. Ein Ziel der vorliegenden Anmeldung ist es nun, derartige Ungenauigkeiten und/oder auftretende Fehler in dem Abgleichprozess zwi schen dem aufgenommenen Nutzungsobjekt und einem in der Datenbank hinterlegten Nut zungsobjekt zu vermeiden. Eine Lösung des vorstehenden Problems bildet daher der hierbei beanspruchte und vorge stellte Patentanspruch 1.
Es ist daher eine Aufgabe der vorliegenden Erfindung, eine Vorrichtung zur physikalischen, insbesondere zur optischen Erfassung zumindest eines Nutzungsobjekts anzubieten, wel ches nicht nur kostengünstig und zeitsparend ist, sondern zudem eine ganz besonders hohe Genauigkeit im Abgleich zwischen einem Nutzungsobjekt und einem in einer Datenbank hin terlegten Nutzungsobjekt bildet, um ein Nutzungsobjekt eindeutig, vorzugsweise eineindeutig identifizieren zu können. Previous devices for assigning a usage object to a usage object class are inexpensive, but very imprecise. As a rule, a photograph of a usage object is taken for this purpose in order to be able to identify it based on its structural and/or haptic features. A database was often used for this purpose in order to compare the object of use depicted in the photograph with objects of use stored in a database, but this comparison was often incorrect and imprecise, since the comparison often depends on small optical and/or technical details. One aim of the present application is to avoid such inaccuracies and/or errors that occur in the comparison process between the recorded object of use and a object of use stored in the database. A solution to the above problem is therefore the claimed and presented patent claim 1. It is therefore an object of the present invention to offer a device for the physical, in particular for the optical detection of at least one object of use, which is not only cost-effective and time-saving, but also has a particularly high level of accuracy in the comparison between an object of use and one in a database subordinate object of use forms in order to be able to identify a use object clearly, preferably uniquely.
Gemäß zumindest einer Ausführungsform umfasst die hier vorgestellte Vorrichtung zur phy sikalischen, insbesondere zur optischen Erfassung zumindest eines Nutzungsobjektes, zu mindest ein Bereitstellen eines Nutzungsobjektes zumindest eine Verarbeitungseinheit, mit tels welcher ein Nutzungsobjekt und/oder ein dem Nutzungsobjekt eindeutig, vorzugsweise eineindeutig, zugeordnetes Identifikationsmittel physikalisch erfassbar ist, woraus zumindest ein Kennwert des Nutzungsobjektes gewinnbar ist, und weiter wobei die Verarbeitungsein heit und/oder eine CPU dazu eingerichtet und dafür vorgesehen ist eine Nutzungsobjektklas sifikation insofern durchzuführen, als dass ein Kennwert des Nutzungsobjektes mit zumin dest einem in einer Datenbank der Verarbeitungseinheit und/oder mit einer Datenbank einer externen CPU vergleichbar ist, und die Verarbeitungseinheit und/oder die CPU und/oder der Nutzer selbst, ein dem Kennwert entsprechendes Datenbankobjekt auswählt und in einem Bildschirm der Verarbeitungseinheit darstellt, sodass ein Kamerabild des Nutzungsobjektes zusammen mit dem Datenbankobjekt zumindest teilweise optisch auf dem Bildschirm über lagerbar und/oder nebeneinander darstellbar ist, According to at least one embodiment, the device presented here for the physical, in particular for the optical detection of at least one object of use, at least one provision of an object of use comprises at least one processing unit, by means of which an object of use and/or an identification means assigned uniquely, preferably uniquely, to the object of use is physically identified can be detected, from which at least one characteristic value of the object of use can be obtained, and further wherein the processing unit and/or a CPU is set up and provided for carrying out a classification of the object of use insofar as a characteristic value of the object of use is stored with at least one in a database of the processing unit and/or is comparable to a database of an external CPU, and the processing unit and/or the CPU and/or the user himself/herself selects a database object corresponding to the characteristic value and displays the processing in a screen processing unit, so that a camera image of the usage object together with the database object can be at least partially optically superimposed on the screen and/or displayed side by side,
Erfindungsgemäß ist mittels der Verarbeitungseinheit und/oder der CPU zumindest ein phy sikalischer Erfassungsvorgang, insbesondere zumindest eine Fotographie, des Nutzungsob jektes, auf Basis des auf dem Bildschirm abgebildeten Datenbankobjektes durchführbar ist, sodass der Nutzer das Nutzungsobjekt derart erfasst, dass eine durch den Erfassungsvor gang erfasste Abbildung des Nutzungsobjektes identisch oder maßstabsskaliert identisch mit dem auf dem Bildschirm dargestellten Datenbankobjekt zeitgleich dargestellt wird, wobei durch den Erfassungsvorgang das Nutzungsobjekt von der Verarbeitungseinheit und/oder der CPU und/oder dem Nutzer zumindest einer Nutzungsobjektklasse, zum Beispiel einem Fahrzeugtypen, zuordenbar wird. According to the invention, the processing unit and/or the CPU can be used to carry out at least one physical capture process, in particular at least one photograph, of the object of use based on the database object displayed on the screen, so that the user captures the object of use in such a way that a captured image of the usage object is displayed identically or identically to scale to the database object displayed on the screen at the same time, with the usage object being assignable by the processing unit and/or the CPU and/or the user to at least one usage object class, for example a vehicle type, as a result of the detection process.
Bei dem Nutzungsobjekt kann es sich generell um ein, einer Nutzung zugeführtes oder zuzu führendes oder einer Nutzung enthaltenes Objekt, insbesondere dreidimensionales Objekt
handeln. Dabei bedeutet der Begriff „nutzen“ im Sinne der Anmeldung jedwede Handhabung hinsichtlich eines Zweckes. The object of use can generally be an object that is or is to be used or that contains a use, in particular a three-dimensional object act. The term "use" in the sense of the application means any handling with regard to a purpose.
Bei der Verarbeitungseinheit kann es sich um eine Rechner- und/oder Speichereinheit han deln. Vorzugsweise ist die Verarbeitungseinheit auch dazu eingerichtet und dafür vorgese hen, Fotografien anzufertigen. Hierzu kann die Verarbeitungseinheit zumindest eine Kamera oder zumindest einen Teil einer Kamera aufweisen. Zum Beispiel ist das Nutzungsobjekt tragbar ausgebildet, was heißt, dass das Nutzungsobjekt nicht an einem Boden oder an ei nem mit dem Bodenelement verbundenen Handhabungsvorrichtung verbindbar ist. „Tragbar“ kann insbesondere im Sinne der Erfindung heißen, dass das Verarbeitungselement derartige Abmessungen und ein derartiges Gewicht aufweist, als dass dieses dazu eingerichtet und dafür vorgesehen ist, händisch insbesondere mit einer Hand gehalten zu werden. Alternativ hierzu kann die Verarbeitungseinheit auch mit einem Boden, auf welchem das Nutzungsob jekt aufgestellt ist, lösbar oder unlösbar verbunden sein. Eine derartige Verbindung kann über die obig beschriebene Handhabungsvorrichtung hergestellt sein. In dieser Ausführungs form kann die Verarbeitungseinheit entlang von Führungswegen, beispielsweise entlang zu mindest einer Schiene oder eines Schienensystems relativ zu dem Nutzungsobjekt geführt werden. The processing unit can be a computing and/or memory unit. Preferably, the processing unit is also set up and provided for taking photographs. For this purpose, the processing unit can have at least one camera or at least part of a camera. For example, the object of use is designed to be portable, which means that the object of use cannot be connected to a floor or to a handling device connected to the floor element. In the context of the invention, “portable” can mean, in particular, that the processing element has such dimensions and such a weight that it is set up and intended to be held manually, in particular with one hand. As an alternative to this, the processing unit can also be detachably or permanently connected to a floor on which the object of use is placed. Such a connection can be established via the handling device described above. In this embodiment, the processing unit can be guided along guide paths, for example along at least one rail or rail system relative to the object of use.
Bei dem Kennwert kann es sich um eine reelle Zahl größer 0 handeln, vorstellbar ist jedoch auch, dass sich der Kennwert aus verschiedenen Teilkennwerten zusammensetzt. Ein Nut zungsobjekt kann daher zum Beispiel im Hinblick auf eine Außenfarbe einen Teilkennwert aufweisen im Hinblick auf Maximalabmessungen in Höhe und Breite und/oder Tiefe einen weiteren Kennwert, sowie in Hinblick auf Gewicht einen weiteren Teilkennwert. Zum Beispiel kann daher ein solcher Kennwert durch die Kombination dieser drei Teilkennwerte gebildet sein. Eine Kombination kann in Form einer Summe oder eines Bruches stattfinden. Vor zugsweise ist der Kennwert jedoch in Form einer Summe aus den vorgenannten Teilkenn werten bestimmt. Die einzelnen Teilkennwerte können jedoch auch mit unterschiedlicher Gewichtung in die Aufsummation einbezogen werden. Hierzu ist es vorstellbar, dass jeder Teilkennwert als Gewichtsfaktor einen ersten Gewichtsfaktor, der zweite Teilkennwert mit einem zweiten Gewichtsfaktor und ein dritter Teilkennwert mit einem dritten Gewichtsfaktor aufweist gemäß der Formel: The characteristic value can be a real number greater than 0, but it is also conceivable for the characteristic value to be composed of different partial characteristic values. A usage object can therefore have a partial parameter with regard to an exterior color, for example, a further parameter with regard to maximum dimensions in height and width and/or depth, and a further partial parameter with regard to weight. For example, such a parameter can therefore be formed by combining these three partial parameters. A combination can be in the form of a sum or a fraction. However, the characteristic value is preferably determined in the form of a sum of the aforementioned partial characteristic values. However, the individual partial characteristic values can also be included in the summation with different weighting. For this purpose it is conceivable that each partial characteristic value has a first weight factor as a weight factor, the second partial characteristic value with a second weight factor and a third partial characteristic value with a third weight factor according to the formula:
K = G1 * K1 + G2 * K2 + G3 * K3,
wobei die Werte K1 bis K3 die jeweiligen Teilwerte darstellen und die Faktoren G1 bis G3 (welche reelle positive Zahlen darstellen, oder auch Null sein können, je nach Auswahl) je weilig Gewichtsfaktoren der Teilkennwerte bezeichnen. Bei der hier vorgestellten Nutzungs objektklassifikation kann es sich um einen rein optischen Vergleich zwischen dem mit einer obig genannten Kamera aufgenommenen Nutzungsobjekt und einer in optischer Weise ent sprechend hinterlegten Nutzungsobjektvorlage in einer Datenbank handeln. K = G1 * K1 + G2 * K2 + G3 * K3, where the values K1 to K3 represent the respective partial values and the factors G1 to G3 (which represent real positive numbers or can also be zero, depending on the selection) designate respective weighting factors of the partial characteristic values. The usage object classification presented here can be a purely visual comparison between the usage object recorded with the above-mentioned camera and a usage object template stored in a database in an optical manner.
Möglich ist jedoch auch, dass das Nutzungsobjekt datentechnisch in einzelne Objektklassen unterteilt ist oder kategorisiert werden kann. Insofern wird dann statt eines (analogen) und optischen Vergleichs zwischen aufgenommenen Nutzungsobjekt und in der Datenbank hin terlegten Nutzungsobjekt ein datentechnischer, beispielsweise analoger Vergleich vorge nommen. Das Nutzungsobjekt wird daher durch eine Umwandlungseinheit in einzelne Daten, zum Beispiel Datenklassen, zerlegt, wobei diese dann einzeln oder gemeinsam mit entspre chend in der Datenbank hinterlegten Daten oder Datenklassen verglichen wird. However, it is also possible that the usage object is divided into individual object classes or can be categorized in terms of data technology. In this respect, instead of an (analogue) and visual comparison between the object of use recorded and the object of use stored in the database, a technical, for example analogue, comparison is then made. The object of use is therefore broken down into individual data, for example data classes, by a conversion unit, which is then compared individually or together with data or data classes correspondingly stored in the database.
Bei dem Datenobjekt kann es sich entsprechend um ein in der Datenbank hinterlegtes Vor lagebild des entsprechenden Nutzungsobjekts handeln. Ist einmal der Kennwert des Nut zungsobjekts ermittelt, kann vorstellbar sein, dass anhand des Kennwertes das entspre chende Datenbankobjekt, welches das Nutzungsobjekt optisch abbilden kann, ausgewählt wird, um auf dem Bildschirm neben dem tatsächlich aufgenommenen Nutzungsobjekt darge stellt zu werden. The data object can accordingly be a template image of the corresponding usage object stored in the database. Once the characteristic value of the object of use has been determined, it is conceivable that the corresponding database object, which can optically depict the object of use, is selected on the basis of the characteristic value in order to be displayed on the screen next to the object of use actually recorded.
Gemäß zumindest einer Ausführungsform ist die Verarbeitungseinheit dazu eingerichtet und dafür vorgesehen, dass ein Erfassungsvorgang zum Beispiel durch einen Nutzer und/oder eine Durchführungsvorrichtung des Nutzungsobjektes durchgeführt wird, sodass das Nut zungsobjekt derart erfasst wird, dass eine durch den Erfassungsvorgang erfasste Abbildung des Nutzungsobjektes identisch oder maßstabsskaliert identisch mit dem auf dem Bildschirm dargestellten Datenbankobjekt zeitgleich dargestellt wird. „Identisch“ heißt in diesem Zu sammenhang, ein anhand des Kennwertes und/oder der optischen Maße des Nutzungsob jektes größte Näherung an einen entsprechend in der Datenbank hinterlegtes Nutzungsob jekt. Dies kann heißen, dass das Nutzungsobjekt, welches durch die Verarbeitungseinheit erfasst werden kann, nicht in allen Maßen und Abnutzungen dem in der Datenbank entspre chend des Kennwertes identifizierten Nutzungsobjekt entspricht, jedoch anhand von vorfest- gelegten Mindestmaßen die größte Übereinstimmung hergestellt wird.
Denkbar ist, dass es sich bei dem Nutzungsobjekt um ein Fahrzeug, beispielsweise einen 3er BMW handelt. Das Nutzungsobjekt selber kann zum Beispiel einen Spoiler aufweisen und/ oder auch tiefer gelegt sein. Ist nun ein entsprechendes Nutzungsobjekt nicht auch mit einem zusätzlichen Spoiler und einer tiefer gelegten Version in der Datenbank hinterlegt, sondern weist die Datenbank lediglich generell ein Basismodell eines 3er BMWs auf, kann die Verarbeitungseinheit und/oder die Datenbank und/oder die externe CPU trotzdem dieses Basis-3er-Modell als nächstliegende Übereinstimmung mit dem Nutzungsobjekt auswählen, zum Beispiel auch deshalb weil die Kennwerte des Nutzungsobjektes beispielsweise anhand einer Fahrzeugplakette identisch sind. According to at least one embodiment, the processing unit is set up and provided for a detection process to be carried out, for example by a user and/or an implementation device of the object of use, so that the object of use is detected in such a way that an image of the object of use captured by the detection process is identical or identical scaled identically to the database object displayed on the screen at the same time. In this context, “identical” means the closest approximation to a correspondingly stored object in the database based on the characteristic value and/or the optical dimensions of the object of use. This can mean that the object of use, which can be recorded by the processing unit, does not correspond in all dimensions and wear and tear to the object of use identified in the database according to the characteristic value, but the closest match is produced on the basis of predefined minimum dimensions. It is conceivable that the object of use is a vehicle, for example a BMW 3 Series. The object of use itself can, for example, have a spoiler and/or be lowered. If a corresponding object of use is not also stored in the database with an additional spoiler and a lowered version, but the database only generally shows a basic model of a BMW 3 series, the processing unit and/or the database and/or the external CPU can still do this Select the basic 3-model as the closest match to the object of use, for example because the characteristic values of the object of use are identical, for example based on a vehicle sticker.
Mit der oben genannten Nutzungsobjektklassifikation in Verbindung mit der entsprechenden Durchführung auf Basis des physikalischen Erfassungsvorgangs kann daher erreicht sein, dass durch den Erfassungsvorgang das Nutzungsobjekt von der Verarbeitungseinheit und/oder der CPU und/oder dem Nutzer zumindest einer Nutzungsobjektklasse, zum Bei spiel einem Fahrzeugtypen, zugeordnet wird. With the above-mentioned usage object classification in conjunction with the corresponding implementation on the basis of the physical detection process, it can therefore be achieved that the usage object from the processing unit and/or the CPU and/or the user of at least one usage object class, for example a vehicle type, is assigned.
Bei dem Fahrzeugtypen kann es sich wie obig bereits beschrieben zum Beispiel um einen BMW der 3er-Klasser oder um jeden anderen auf den deutschen Straßen oder dem interna tionalen Straßensystem zugelassenes Fahrzeug handeln. As already described above, the vehicle type can be, for example, a 3-class BMW or any other vehicle permitted on German roads or the international road system.
Gemäß zumindest einer Ausführungsform umfasst der physikalische Erfassungsvorgang zumindest eine zeitliche Erfassungssequenz, wo während der Erfassungssequenz zumin dest zwei verschiedene Aufnahmen des Nutzungsobjektes durchgeführt werden, wobei jede Aufnahme zumindest einem Datenbankobjekt zugeordnet ist. According to at least one embodiment, the physical detection process includes at least one temporal detection sequence, where at least two different recordings of the object of use are carried out during the recording sequence, with each recording being assigned to at least one database object.
Zum Beispiel erfasst die Erfassungssequenz eine Anleitung an eine Durchführungsvorrich tung und/oder an einen Nutzer, das Nutzungsobjekt unter verschiedenen Winkeln, verschie denen Abständen mit verschiedenen Farbkontrasten oder ähnlichem zu fotografieren, um eine Identifikation mit einem in der Datenbank hinterlegten Nutzungsobjekt zu vereinfachen. For example, the detection sequence records instructions to an implementation device and/or to a user to photograph the object of use from different angles, different distances with different color contrasts or the like in order to simplify identification with a object of use stored in the database.
Gemäß mindestens einer Ausführungsform erfolgt nach der kennwertmäßigen Erfassung und zur Nutzungsobjekt-Klassenidentifikation auf dem Bildschirm zumindest eine zeitlich sequentielle Erfassungsanleitung der zeitlichen Erfassungssequenz zur Erfassung zumindest zweier Aufnahmen. Insbesondere die Verarbeitungseinheit dazu eingerichtet und dafür vor gesehen, dass entlang dieser seitlichen Erfassungssequenz abgefahren wird. Die Erfas-
sungssequenz kann daher im Hinblick auf den Ort, auf eine Aufnahmehelligkeit oder ähnli ches genaue Anleitungen an den Nutzer und/oder eine Durchführungsvorrichtung aufweisen, sodass entlang vorgegebener Punkte die Verarbeitungseinheit, welche vorzugsweise eine optische Kamera umfasst, das Nutzungsobjekt optisch abwehrt. According to at least one embodiment, after the characteristic-value-based acquisition and for the object-of-use class identification on the screen, there is at least one temporally sequential acquisition instruction of the temporal acquisition sequence for acquiring at least two recordings. In particular, the processing unit is set up and provided for traveling along this lateral detection sequence. The recording The solution sequence can therefore have precise instructions to the user and/or an implementation device with regard to location, recording brightness or similar, so that the processing unit, which preferably includes an optical camera, optically fends off the object of use along predetermined points.
Zur genaueren Orientierung an speziellen Orientierungspunkten des Nutzungsobjekts kann an dem Nutzungsobjekt zumindest ein, vorzugsweise jedoch mehrere Orientierungspunkte vorzugsweise auch lösbar angebracht sein. Solche Orientierungspunkte können Markie rungselemente sein, welche die Kamera der Verarbeitungseinheit besonders einfach auf nehmen kann. Beispielsweise handelt es sich bei den Markierungselementen um Bar- oder Strichcodes und/oder um NFC-Chips. For more precise orientation at specific points of orientation of the object of use, at least one, but preferably several points of orientation can be attached to the object of use, preferably also detachably. Such orientation points can be marking elements which the camera of the processing unit can record particularly easily. For example, the marking elements are barcodes or barcodes and/or NFC chips.
Derartige Markierungselemente können daher auch passive Bauelemente sein. Denkbar ist jedoch auch, dass solche Markierungselemente lösbar auf das Nutzungsobjekt aufgebracht, zum Beispiel aufgeklebt werden können. Solche Nutzungsobjekte können eine eigene Ener gieversorgung, beispielsweise eine Batterieversorgung, aufweisen. Solche mit einer Batterie versehenden Markierungselemente können im optisch sichtbaren oder im unsichtbaren, zum Beispiel Infrarot- oder Mikrowellenbereich elektromagnetische Strahlen aussenden, welche von einem Ortungselement der Verarbeitungseinheit detektiert werden können und wodurch die Verarbeitungseinheit dazu in der Lage ist, festzustellen, in welcher Position es sich relativ zu dem Nutzungsobjekt befindet. Such marking elements can therefore also be passive components. However, it is also conceivable that such marking elements can be detachably applied to the object of use, for example glued on. Such usage objects can have their own energy supply, for example a battery supply. Such battery-equipped marking elements can emit electromagnetic radiation in the optically visible or in the invisible, for example infrared or microwave range, which can be detected by a locating element of the processing unit and as a result of which the processing unit is able to determine the position in which it is located relative to the object of use.
Alternativ oder zusätzlich ist jedoch auch vorstellbar, dass die Markierungselemente virtuelle Markierungselemente sind, welche aus der Datenbank geladen werden und welche ebenso wie das Nutzungsobjekt selbst aus der Datenbank als Bild, beispielsweise als ein drittes Bild zusammen mit einer Fotografie des Nutzungsobjekts und dementsprechend virtuell aus der Datenbank geladenen Erscheinung des Nutzungsobjekts auf dem Bildschirm des Nutzungs objektes dargestellt werden, können daher ebenso wie die Datenbankobjekte (welche die Nutzungsobjekte in virtueller Hinsicht abbilden können und welche in der Datenbank gespei chert sind), ebenso als weitere Datenbankobjekte in der Datenbank der Verarbeitungseinheit und/oder der externen CPU hinterlegt sein. Zum Beispiel kann mit ein und demselben Kenn wert sowohl das Nutzungsobjekt) also auch das weitere Datenbankobjekt (zumindest ein Markierungselement) gemeinsam in die Verarbeitungseinheit geladen und/oder auf dem Bildschirm der Verarbeitungseinheit dargestellt werden.
Gemäß zumindest einer Ausführungsform gibt die zeitlich sequentielle Fassungsanleitung dem Nutzer einen Erfassungsabstand und/oder einen Erfassungswinkel relativ zum Nut zungsobjekt vor. Alternatively or additionally, however, it is also conceivable that the marking elements are virtual marking elements, which are loaded from the database and which, like the object of use itself, are from the database as an image, for example as a third image together with a photograph of the object of use and accordingly virtually from the Appearance of the usage object loaded in the database can be displayed on the screen of the usage object, can therefore just like the database objects (which can depict the usage objects in virtual terms and which are stored in the database), as well as other database objects in the database of the processing unit and/or or the external CPU. For example, both the usage object and the further database object (at least one marking element) can be loaded together into the processing unit and/or displayed on the screen of the processing unit with one and the same characteristic value. According to at least one embodiment, the chronologically sequential version instructions specify a detection distance and/or a detection angle relative to the object of use for the user.
Wie obig bereits erwähnt, leistet daher die Erfassungsanleitung einen genauen Ablaufplan, vorzugsweise in vollautomatischer Hinsicht in Bezug auf die Aufnahme der einzelnen Abbil dungen, insbesondere Fotografien der Nutzungsobjekte. As already mentioned above, the recording instructions therefore provide a precise schedule, preferably in a fully automated manner, with regard to the recording of the individual images, in particular photographs of the objects of use.
Künstliche Intelligenz (Kl), auch artifizielle Intelligenz (AI bzw. A.I.), englisch artificial Intelli gence (AI bzw. A. I.) ist ein Teilgebiet der Informatik, das sich mit der Automatisierung intelli genten Verhaltens und dem maschinellen Lernen befasst. Der Begriff ist schwer definierbar, da es bereits an einer genauen Definition von „Intelligenz“ mangelt. Dennoch wird er in For schung und Entwicklung verwendet. Artificial intelligence (AI), also artificial intelligence (AI or A.I.), English artificial intelligence (AI or A.I.) is a sub-area of computer science that deals with the automation of intelligent behavior and machine learning. The term is difficult to define because there is already a lack of a precise definition of "intelligence". Nevertheless, it is used in research and development.
Meist bezeichnet künstliche Intelligenz den Versuch, bestimmte Entscheidungsstrukturen des Menschen nachzubilden, indem z. B. ein Computer so gebaut und programmiert wird, dass er relativ eigenständig Probleme bearbeiten kann. Oftmals wird damit aber auch eine nachgeahmte Intelligenz bezeichnet, wobei durch meist einfache Algorithmen ein „intelligen tes Verhalten“ simuliert werden soll, etwa bei Computergegnern in Computerspielen. Artificial intelligence usually describes the attempt to emulate certain human decision-making structures, e.g. B. a computer is built and programmed in such a way that it can work on problems relatively independently. Often, however, it also refers to imitated intelligence, whereby “intelligent behavior” is supposed to be simulated using mostly simple algorithms, for example in the case of computer opponents in computer games.
Starke Kl wären Computersysteme, die auf Augenhöhe mit Menschen die Arbeit zur Erledi gung schwieriger Aufgaben übernehmen können. Demgegenüber geht es bei schwacher Kl darum, konkrete Anwendungsprobleme zu meistern. Das menschliche Denken und techni sche Anwendungen sollen hier in Einzelbereichen unterstützt werden. Die Fähigkeit zu ler nen ist eine Hauptanforderung an Kl-Systeme und muss ein integraler Bestandteil sein, der nicht erst nachträglich hinzugefügt werden darf. Ein zweites Hauptkriterium ist die Fähigkeit eines Kl-Systems, mit Unsicherheit und probabilistischen Informationen umzugehen. Insbe sondere sind solche Anwendungen von Interesse, zu deren Lösung nach allgemeinem Ver ständnis eine Form von „Intelligenz“ notwendig zu sein scheint. Letztlich geht es der schwa chen Kl somit um die Simulation intelligenten Verhaltens mit Mitteln der Mathematik und der Informatik, es geht ihr nicht um Schaffung von Bewusstsein oder um ein tieferes Verständnis von Intelligenz. Während die Schaffung starker Kl an ihrer philosophischen Fragestellung bis heute scheiterte, sind auf der Seite der schwachen Kl in den letzten Jahren bedeutende Fortschritte erzielt worden.
Ein starkes Kl-System muss nicht viele Gemeinsamkeiten mit dem Menschen haben. Es wird wahrscheinlich eine andersartige kognitive Architektur aufweisen und in seinen Entwick lungsstadien ebenfalls nicht mit den evolutionären kognitiven Stadien des menschlichen Denkens vergleichbar sein (Evolution des Denkens). Vor allem ist nicht anzunehmen, dass eine künstliche Intelligenz Gefühle wie Liebe, Hass, Angst oder Freude besitzt. Strong AI would be computer systems that can take on the work of completing difficult tasks on an equal footing with humans. In contrast, weak Kl is about mastering specific application problems. Human thinking and technical applications are to be supported here in individual areas. The ability to learn is a key requirement for AI systems and must be an integral part, not an afterthought. A second main criterion is the ability of an AI system to deal with uncertainty and probabilistic information. Of particular interest are those applications for which it is generally understood that a form of “intelligence” is necessary. Ultimately, the weak class is concerned with the simulation of intelligent behavior using mathematics and computer science, it is not concerned with creating awareness or a deeper understanding of intelligence. While the creation of strong AI has failed to this day due to its philosophical questioning, significant progress has been made on the side of the weak AI in recent years. A strong AI system does not have to have much in common with humans. It will probably have a different cognitive architecture and its stages of development will also not be comparable to the evolutionary cognitive stages of human thinking (evolution of thinking). Above all, it cannot be assumed that an artificial intelligence has feelings such as love, hate, fear or joy.
Visuelle Intelligenz ermöglicht es, Bilder beziehungsweise Formen zu erkennen und zu ana lysieren. Als Anwendungsbeispiele seien hier Handschrifterkennung, Identifikation von Per sonen durch Gesichtserkennung, Abgleich der Fingerabdrücke oder der Iris, industrielle Qua litätskontrolle und Fertigungsautomation (letzteres in Kombination mit Erkenntnissen der Ro botik) genannt. Visual intelligence makes it possible to recognize and analyze images or shapes. Handwriting recognition, identification of people through face recognition, comparison of fingerprints or the iris, industrial quality control and production automation (the latter in combination with findings from robotics) are mentioned here as application examples.
Im vorliegenden Fall handelt es sich daher in zumindest einer Ausführungsform um eine sol che Vorrichtung zum physikalischen, insbesondere zum optischen Erfassen zumindest eines Nutzungsobjekts, bei dem die Erfassung des Nutzungsobjekts und insbesondere auch die Nachzeichnung des Nutzungsobjekts, d. h. die virtuelle Darstellung des Nutzungsobjekts an sich, auf einem Bildschirm mittels einer künstlichen Intelligenz der Vorrichtung entsteht. In the present case, at least one embodiment is such a device for the physical, in particular for the optical, detection of at least one object of use, in which the detection of the object of use and in particular also the tracing of the object of use, i. H. the virtual representation of the object of use itself is created on a screen by means of an artificial intelligence of the device.
Hierzu ist denkbar, dass gewisse Punkte eines abzubildenden oder zu scannenden Objekts abgetestet werden und anhand dieser dann wahrgenommenen Punkte die Kl das entspre chende Nutzungsobjekt auf einen Bildschirm künstlich nachempfindet. Dies hat den Vorteil, dass hierbei ein besonders lebenstreues Nachbauobjekt auf dem Bildschirm entsteht, wel ches ein ganz besonders großes Kundenempfinden erzeugt. For this purpose, it is conceivable that certain points of an object to be imaged or scanned are tested and, based on these then perceived points, the AI artificially recreates the corresponding object of use on a screen. This has the advantage that a particularly true-to-life replica object is created on the screen, which creates a particularly great feeling for the customer.
Die in der Anmeldung hiermit beschriebene virtuelle Nacharbeitung des Nutzungsobjekts entspricht daher der im Patentanspruch 1 beanspruchten Abbildung. The virtual reworking of the object of use described here in the application therefore corresponds to the mapping claimed in patent claim 1.
Auch ist es möglich, insbesondere der Nutzung der oben beschriebenen Kl (künstliche Intel ligenz) zum Beispiel durch Nutzung einer Tablet- oder Handykamera ein Auto mit der Kame ra zu scannen (ähnliches oder gleiches wird zum Beispiel bei der Erkennung eines QR- Codes getan) und insbesondere auch mit die in der Datenbank hinterlegten Abbildungen eine solche Abbildung und einen solchen Informationspool für den Nutzer gebildet wird, der dem tatsächlich mit der Kamera aufgenommenen Fahrzeug am ehesten entspricht. Mit ande ren Worten kann daher auf Basis einer augmented reality sich um zum Beispiel ein Auto der Marke VW, Polo handelt aus dem Baujahr 1985, wobei zusätzlich Information mit Zeigern,
Pfeilen oder sonstigem dargestellt wird. Diese erleichtert für den Nutzer die Identifikation des Objekts und der Handhabwerdung von weiteren Informationen, die dann einfach auf einen Bildschirm des Tablets, des Smartphones oder auf Basis einer App für einen Computer auf einem Computerbildschirm dargestellt werden. It is also possible, in particular using the AI (artificial intelligence) described above, for example by using a tablet or mobile phone camera to scan a car with the camera (similar or the same is done, for example, when recognizing a QR code) and in particular with the images stored in the database such an image and such an information pool is formed for the user that most closely corresponds to the vehicle actually recorded with the camera. In other words, on the basis of augmented reality, for example, it can be a car from the VW brand, the Polo is from the year of manufacture 1985, with additional information with pointers, Arrows or other is shown. This makes it easier for the user to identify the object and the handling of further information, which is then simply displayed on a screen of the tablet, smartphone or on the basis of an app for a computer on a computer screen.
Möglich ist selbstverständlich auch, dass die Verwendung einer so genannten API Schnitt stelle entsprechende augmented reality Bildschirminformationen zusammen mit einem dann über eine Kamera wahrgenommenen Objekt auch unabhängig von einem Tablet oder Smartphone an einem Festcomputer erzeugt und geschickt dargestellt werden kann. Of course, it is also possible that the use of a so-called API interface can be used to generate and skillfully display corresponding augmented reality screen information together with an object then perceived via a camera independently of a tablet or smartphone on a fixed computer.
In zumindest einer Ausführungsform umfasst eine Kl gestützte oder durch die Kl entstehen de die folgenden alternative, zusätzlichen oder neuen beispielhaften Schritte: In at least one embodiment, a class based on or arising from the class includes the following alternative, additional or new exemplary steps:
Verfahren zur Steuerung eines Zielsystems und insbesondere zum Erfassen zumindest ei nes Nutzungsobjektes, insbesondere einer Erfassungssteuerung, auf der Basis von Be triebsdaten zumindest eines Quellsystems, insbesondere mehrerer, Quellsysteme, insbe sondere der Verarbeitungseinheit, umfassend: a) Empfangen von Betriebsdaten des Quellsystems, wobei sich die Betriebsdaten, insbesondere der Bilddaten, durch quellsystemspezifische Kennungen unter scheiden, b) Trainieren, mittels eines neuronalen Netzes, eines neuronalen Modells auf der Basis der empfangenen Betriebsdaten des Quellsystems unter Berücksichtigung der quellsystemspezifischen Kennung(en), zum Beispiel des Kennwerts, wobei c) mittels der Verarbeitungseinheit und/oder der CPU das Datenbankobjekt (4) er zeugt wird und in der CPU abgelegt wird, wobei jedes Datenbankobjekt zumindest Quelldaten des Kennwerts oder den Kennwert selbst aufweist, sodass das Nut zungsobjekt (1) derart erfasst wird, dass eine durch den Erfassungsvorgang er fasste Abbildung des Nutzungsobjektes (1) Betriebsdaten des Quellsystems ent spricht oder aus diesen erzeugt wird, d) Empfangen von Betriebsdaten des Zielsystems, insbesondere der Erfassungs steuerung, wobei diese Betriebsdaten solche Daten aufweist, welche vorgegebe ne Soll-Daten eines abzubildenden Zielobjektes entspricht oder sind, e) weiteres Trainieren des trainierten neuronalen Modells auf der Basis der Be triebsdaten des Zielsystems
f) Steuern des Quell- und/oder des Zielsystems mittels des weiter trainierten neuro nalen Netzes, und insbesondere solange bis die Betriebsdaten des Quellsystems den Betriebsdaten des Zielsystems entspricht und/oder ist und/oder innerhalb ei nes Toleranzrahmens, insbesondere des Kennung ist. Method for controlling a target system and in particular for detecting at least one usage object, in particular a detection controller, on the basis of operating data of at least one source system, in particular several source systems, in particular of the processing unit, comprising: a) Receiving operating data of the source system, wherein distinguish the operating data, in particular the image data, by means of source system-specific identifiers, b) training, using a neural network, a neural model on the basis of the received operating data of the source system, taking into account the source system-specific identifier(s), for example the characteristic value, wherein c) the database object (4) is generated by means of the processing unit and/or the CPU and is stored in the CPU, with each database object having at least source data of the characteristic value or the characteristic value itself, so that the object of use (1) is recorded in such a way that a the capture process recorded image of the object of use (1) corresponds to operating data of the source system or is generated from them, d) receiving operating data from the target system, in particular the recording controller, with this operating data having data which corresponds to specified target data of a target object to be mapped or are, e) further training of the trained neural model on the basis of the operating data of the target system f) Controlling the source and/or the target system by means of the further trained neural network, and in particular until the operating data of the source system corresponds to the operating data of the target system and/or is and/or is within a tolerance range, in particular the identifier.
Dabei können die Betriebsdaten einzelne Werte, zum Beispiel Teilkennwerte, aus der Aufnahme des Fahrzeugs, sein. The operating data can be individual values, for example partial characteristic values, from the recording of the vehicle.
Die Soll-Daten entsprechen solchen Werten, zum Beispiel Teilkennwerten, welche als Zielvorgabe dem System mit Blick auf die Auflösung des aufgenommenen Bildes, die Datenmenge des Bildes, die Position des Fahrzeugs auf dem Bild, eine Komprimie rungsrate, Farbstufen des Fahrzeugs auf dem Bild, Randkennzeichnungen des Fahr zeugs auf dem Bild, und/oder ein Rauschverhältnis, insbesonderes zumindest ein Vorgenanntes im Vergleich zu einem Fahrzeughintergrund, entsprechen. The target data correspond to such values, for example partial characteristic values, which the system sets as a target with regard to the resolution of the recorded image, the amount of data in the image, the position of the vehicle in the image, a compression rate, color levels of the vehicle in the image, edge markings of the vehicle in the image, and/or a noise ratio, in particular at least one of the above compared to a vehicle background.
Dabei kann die Erfassungssteuerung innerhalb der Trainingsschleife die (Teilkenn werte), Datenmengen des Bildes, die Position des Fahrzeugs auf dem Bild The acquisition control within the training loop (partial parameters), data sets of the image, the position of the vehicle on the image
Gemäß zumindest einer Ausfürhungsform wird alsdann der Umriss des Fahrzeugs erzeugt, wobei der Umriss als eine eigene Bilddatei durch die CPU oder ein anderes Speichermedium abgespeichert wird. According to at least one embodiment, the outline of the vehicle is then generated, with the outline being stored as a separate image file by the CPU or another storage medium.
Gemäß zumindest einer Ausführungsform ist der Kennwert von einem Identifikationsmittel, zum Beispiel einer Nutzungsplakette des Nutzungsobjektes entnommen und/oder entnehm bar, insbesondere gescannt. Der Kennwert wird daher ebenso auch vorzugsweise vollauto matisch von der Verarbeitungseinheit, welche zum Beispiel eine optische Kamera aufweist, aufgenommen. Vorzugsweise ist es für den Benutzer und/oder die Durchführungsvorrichtung nicht mehr nötig, den Kennwert manuell in die Verarbeitungseinheit eingeben zu müssen. According to at least one embodiment, the characteristic value is taken from an identification means, for example a usage badge of the usage object and/or can be taken, in particular scanned. The characteristic value is therefore also preferably recorded fully automatically by the processing unit, which has an optical camera, for example. It is preferably no longer necessary for the user and/or the implementation device to have to manually enter the characteristic value into the processing unit.
Gemäß zumindest einer Ausführungsform umfasst oder ist die Verarbeitungseinheit ein Smartphone oder eine Kamera. Ist die Verarbeitungseinheit ein Smartphone oder eine Ka mera, kann diese wie obig bereits erwähnt, händisch handhabbar sein. According to at least one embodiment, the processing unit includes or is a smartphone or a camera. If the processing unit is a smartphone or a camera, it can be handled manually, as already mentioned above.
Gemäß zumindest einer Ausführungsform ist die Verarbeitungseinheit an einem Aufnahme element befestigt, welches sich entsprechend den Vorgaben durch die Erfassungssequenz
relativ zu dem Nutzungsobjekt bewegt. Die Verarbeitungseinheit kann sich daher mit dem Aufnahmeelement zusammen entsprechend der Erfassungssequenz relativ zu dem Nut zungsobjekt bewegen. Zwar kann in einem derartigen Fall die Verarbeitungseinheit ein Smartphone oder eine Kamera sein oder umfassen und die Verarbeitungseinheit kann trotz dem auch eine handhabbare Verarbeitungseinheit sein. Dies ist jedoch an einer größeren Einheit, nämlich dem Aufnahmeelement befestigt. Vorzugsweise umfasst das Aufnahmeele ment alle nötigen Komponenten, um sich vollautomatisch oder durch manuelle Kraft des Nutzers entlang des Nutzungsobjekts bewegen zu lassen. According to at least one embodiment, the processing unit is fastened to a receiving element, which moves according to the requirements of the detection sequence moved relative to the object of use. The processing unit can therefore move together with the receiving element in accordance with the detection sequence relative to the object of use. In such a case, the processing unit can be or include a smartphone or a camera, and the processing unit can also be a manageable processing unit. However, this is attached to a larger unit, namely the receiving element. The receiving element preferably includes all the necessary components in order to be able to move along the object of use fully automatically or by manual force on the part of the user.
Gemäß zumindest einer Ausführungsform handelt es sich bei dem Aufnahmeelement um eine Drohne, welche entsprechend der Erfassungssequenz relativ zu dem Nutzungsobjekt gelenkt wird, um die einzelnen Aufnahmen vorzugsweise entlang oder an den oben genann ten Markierungselementen durchführen zu können. According to at least one embodiment, the recording element is a drone, which is steered relative to the object of use according to the recording sequence in order to be able to carry out the individual recordings preferably along or on the above-mentioned marking elements.
Im Sinne der Erfindung kann es sich bei einer „Drohne“ um ein unbemanntes Fahrzeug, vor zugsweise um ein unbemanntes Fluggerät mit einem oder mehreren Flelikopterrotoren han deln. Die Drohne kann dann kabellos oder kabelgebunden über eine Steuereinrichtung von dem Nutzer und/oder von der Durchführungsvorrichtung manuell oder auch voll automatisch gesteuert und damit gelenkt werden. According to the invention, a “drone” can be an unmanned vehicle, preferably an unmanned aircraft with one or more Flelicopter rotors. The drone can then be controlled and thus steered wirelessly or with a cable via a control device by the user and/or by the implementation device manually or fully automatically.
Mittels der Drohne ist es insofern möglich, dass bei einer Aufnahme des Nutzungsobjekts um das Nutzungsobjekt herum sehr platzsparend vorgegangen werden kann. Insbesondere kann auf einen Sicherheitsabstand des Nutzungsobjekts zu anderen Nutzungsobjekten, bei spielsweise anderen Autos eines Autosalons verzichtet sein, sodass die Drohne vorzugswei se schwebend die einzelnen zu fotografierenden Positionen entsprechend der Ermittlungs sequenz abfährt, ohne dass andere nicht beteiligte Nutzungsobjekte sehr weit weggefahren werden müssten. Die Drohne würde dann einfach von oben sich dem Nutzungsobjekt nähern und beispielsweise auch in das Interieur des Autos hineinfahren, um auch Innenaufnahmen aufnehmen zu können. The drone makes it possible to take a very space-saving approach when recording the object of use around the object of use. In particular, a safety distance between the object of use and other objects of use, for example other cars in a car showroom, can be dispensed with, so that the drone travels the individual positions to be photographed according to the determination sequence, preferably hovering, without other objects of use not involved having to be driven very far away. The drone would then simply approach the object of use from above and, for example, also drive into the interior of the car in order to be able to take interior shots as well.
Gemäß zumindest einer Ausführungsform umfasst die Erfassungssequenz ebenso auch Steuerungsdaten zur Flughöhe der Drohne, sodass die Drohne in seitlicher Hinsicht, vor zugsweise vollautomatisch die Erfassungssequenz abfliegt. Ist einmal beispielsweise anhand der obig genannten Markierungselemente eine bestimmte Erfassungssequenz, die von dem Nutzer und/oder Durchführungsvorrichtung vorgegeben sein kann, durch die Verarbeitungs-
einheit aufgerufen, kann ein vollautomatischer Prozess ablaufen, an dessen Ende die ein deutige bzw. vorzugsweise die eineindeutige Identifikation des Nutzungsobjekts mit einem in der Datenbank hinterlegten Nutzungsobjekt stehen kann. According to at least one embodiment, the detection sequence also includes control data on the flight altitude of the drone, so that the drone flies the detection sequence from the side, preferably fully automatically. If, for example, on the basis of the above-mentioned marking elements, a certain detection sequence, which can be specified by the user and/or implementation device, by the processing unit called, a fully automatic process can run, at the end of which there can be a clear or preferably a clear identification of the usage object with a usage object stored in the database.
Es generell darauf hingewiesen, dass in der Anmeldung verfahrensseitig abgefasst Merkma le auch vorrichtungsseitig als offenbart anzusehen sind und umgekehrt. It is generally pointed out that features formulated in the application in terms of the method are also to be regarded as disclosed in terms of the device and vice versa.
Weitere Vorteile und Ausführungsformen ergeben sich aus den beigefügten Zeichnungen. Further advantages and embodiments result from the accompanying drawings.
Darin zeigen: Show in it:
Fig.1 -2C Vorrichtung gemäß der hier beschriebenen Erfindung; Fig.1 -2C device according to the invention described herein;
Fig. 3A -3E eine weitere Ausführungsform der hier beschriebenen Vorrichtung. Fig. 3A -3E another embodiment of the device described here.
In den Figuren sind gleiche oder gleich wirkende Bestandteile jeweils mit den gleichen Be zugszeichen versehen. In der Figur 1 ist eine erfindungsgemäße Vorrichtung 100 gezeigt, wobei die Vorrichtung 100 dazu eingerichtet und vorgesehen ist, ein Nutzungsobjekt in phy sikalischer Hinsicht insbesondere optisch zu erfassen. In the figures, components that are the same or have the same effect are each provided with the same reference symbols. A device 100 according to the invention is shown in FIG.
Die Figur 4A zeigt die Artificial side. FIG. 4A shows the artificial side.
Hierbei werden Daten eines Input Images 71 die Image brightness correction 80 durchge- führt, wobei Daten dieser Image brightness correction 80 beidseits parallel an ein Klassifika tionsmodell 81 und ein Segmentationsmodell 82 übermittelt werden, in denen dann die IF dass ID 91 dieser Daten erstellt werden. Die Daten werden dann einer dass ID zugeordnet, wobei bei einer dass ID von 0,283von einem „segment exterior details map post Processing“ gesprochen wird, bei einer dass ID von 3,084 die Daten ein „ segment interior map post Processing“ betreffen und bei einer dass ID von 1 ,085 ein „segment exterior map post Pro cessing“ besteht. In this case, data from an input image 71 is subjected to image brightness correction 80, with data from this image brightness correction 80 being transmitted on both sides in parallel to a classification model 81 and a segmentation model 82, in which the IF that ID 91 of this data is then created. The data is then assigned an ID, with an ID of 0.283 referring to a "segment exterior details map post processing", with an ID of 3.084 the data relate to a "segment interior map post processing" and with an ID of that ID of 1,085 there is a "segment exterior map post processing".
Nach der Identifikation der dass ID, werden die Daten zu einem IF template type 92 zusam mengelegt. Hierbei gibt es wieder drei Möglichkeiten, die jedoch alle zum Output Image 72 führen. Zum einen gibt es den Typ „Blur“ 86 m die Segmentierungskarte mit der Alphamaske zu kombinieren und den Hintergrund zu verwischen. Nach diesem Schritt wird das so ge nannte Image dann in einem weiteren Schritt nach den Anforderungen der Unschärfevorlage
und Anpassungen der Imagegröße an die gewünschte Größe zugeschnitten 87, welche dann das Output Image 72 darstellt. Des Weiteren können die Daten den Typ „Complete“ 88 an nehmen, um die Segmentierungskarte der Alphamaske ohne Hintergrund kombinieren zu können. Dies wird dann an das Shadow generation model 89 durchgeführt, welche dann ebenso das Output image 72 darstellt. Bei dem Typ „Normal“ 90, bei dem die Segmentie rungskarte mit der Alphamaske kombiniert wird, um nur den Hintergrund der Oberfläche zu belassen. Dieses Image wird, wie bei den vorherigen Typen auch, dann als Output image 72 dargestellt. After the ID has been identified, the data is combined into an IF template type 92. There are three options here, but they all lead to the output image 72. On the one hand there is the type "Blur" 86 m to combine the segmentation map with the alpha mask and to blur the background. After this step, the so-called image is then processed in a further step according to the requirements of the unsharp template and image size adjustments cropped 87 to the desired size, which the output image 72 then renders. Furthermore, the data can take the type "Complete" 88 in order to be able to combine the segmentation map of the alpha mask without background. This is then carried out on the shadow generation model 89, which then also represents the output image 72. In the Normal type 90, where the segmentation map is combined with the alpha mask to leave only the background of the surface. As with the previous types, this image is then displayed as Output image 72.
Das Output image 72 kann sich jedoch dann durch einen AI Server 73 wieder zu einem Input image 71 bilden. However, the output image 72 can then be formed into an input image 71 again by an AI server 73 .
Die Figur 4A zeigt damit also das Verfahren zur Steuerung eines Zielsystems und insbeson dere zum Erfassen zumindest eines Nutzungsobjektes, insbesondere einer Erfassungssteu erung, auf der Basis von Betriebsdaten zumindest eines Quellsystems, insbesondere mehre rer, Quellsysteme, insbesondere der Verarbeitungseinheit, welche das Empfangen von Be triebsdaten des Quellsystems umfasst, wobei sich die Betriebsdaten, insbesondere der Bild daten, durch quellsystemspezifische Kennungen unterscheiden. Weiterhin umfasst sie das Trainieren, mittels eines neuronalen Netzes, eines neuronalen Modells auf der Basis der empfangenen Betriebsdaten des Quellsystems unter Berücksichtigung der quellsystemspezi fischen Kennung(en), zum Beispiel des Kennwerts, wobei mittels der Verarbeitungseinheit und/oder der CPU das Datenbankobjekt (4) erzeugt wird und in der CPU abgelegt wird, wo bei jedes Datenbankobjekt zumindest Quelldaten des Kennwerts oder den Kennwert selbst aufweist, sodass das Nutzungsobjekt (1) derart erfasst wird, dass eine durch den Erfas sungsvorgang erfasste Abbildung des Nutzungsobjektes (1) Betriebsdaten des Quellsystems entspricht oder aus diesen erzeugt wird. Zudem umfasst das Verfahren das Empfangen von Betriebsdaten des Zielsystems, insbesondere der Erfassungssteuerung, wobei diese Be triebsdaten solche Daten aufweist, welche vorgegebene Soll-Daten eines abzubildenden Zielobjektes entspricht oder sind und das weitere Trainieren des trainierten neuronalen Mo dells auf der Basis der Betriebsdaten des Zielsystems und schließlich das Steuern des Quell- und/oder des Zielsystems mittels des weiter trainierten neuronalen Netzes, und insbesonde re so lange bis die Betriebsdaten des Quellsystems den Betriebsdaten des Zielsystems ent spricht und/oder ist und/oder innerhalb eines Toleranzrahmens, insbesondere des Kennung ist.
Dabei können die Betriebsdaten einzelne Werte, zum Beispiel Teilkennwerte, aus der Auf nahme des Fahrzeugs, sein. Figure 4A thus shows the method for controlling a target system and in particular for detecting at least one object of use, in particular a detection controller, on the basis of operating data from at least one source system, in particular several source systems, in particular the processing unit, which is responsible for receiving Be includes operating data of the source system, with the operating data, in particular the image data, differing by source system-specific identifiers. It also includes training, using a neural network, a neural model on the basis of the received operating data of the source system, taking into account the source system-specific identifier(s), for example the characteristic value, with the processing unit and/or the CPU using the database object (4th ) is generated and stored in the CPU, where each database object has at least source data of the characteristic value or the characteristic value itself, so that the object of use (1) is recorded in such a way that an image of the object of use (1) recorded by the recording process contains operating data of the source system corresponds to or is generated from them. In addition, the method includes receiving operating data from the target system, in particular from the acquisition controller, with this operating data having data that corresponds or is to predetermined target data of a target object to be imaged, and further training of the trained neural model on the basis of the operating data of the target system and finally the control of the source and/or the target system by means of the further trained neural network, and in particular until the operating data of the source system corresponds to the operating data of the target system and/or is and/or is within a tolerance range, in particular the identifier . The operating data can be individual values, for example partial characteristic values, from the recording of the vehicle.
Die Soll-Daten entsprechen solchen Werten, zum Beispiel Teilkennwerten, welche als Ziel vorgabe dem System mit Blick auf die Auflösung des aufgenommenen Bildes, die Daten menge des Bildes, die Position des Fahrzeugs auf dem Bild, eine Komprimierungsrate, Farbstufen des Fahrzeugs auf dem Bild, Randkennzeichnungen des Fahrzeugs auf dem Bild, und/oder ein Rauschverhältnis, insbesondere zumindest ein Vorgenanntes im Vergleich zu einem Fahrzeughintergrund, entsprechen. The target data correspond to such values, for example partial characteristic values, which the system specifies as a target with regard to the resolution of the recorded image, the amount of data in the image, the position of the vehicle in the image, a compression rate, color levels of the vehicle in the image , edge markings of the vehicle on the image, and/or a noise ratio, in particular at least one of the above compared to a vehicle background.
Dabei kann die Erfassungssteuerung innerhalb der Trainingsschleife die (Teilkennwerte), Datenmengen des Bildes, die Position des Fahrzeugs auf dem Bild The acquisition control within the training loop (partial parameters), data sets of the image, the position of the vehicle on the image
Gemäß zumindest einer Ausführungsform wird alsdann der Umriss des Fahrzeugs erzeugt, wobei der Umriss als eine eigene Bilddatei durch die CPU oder ein anderes Speichermedium abgespeichert wird. According to at least one embodiment, the outline of the vehicle is then generated, with the outline being stored as a separate image file by the CPU or another storage medium.
Die Figur 4B zeigt die Computer Vision augmented reality side. FIG. 4B shows the computer vision augmented reality side.
Hier wird ein Image stream 74 parallel durch die sensor data 110, camera stream 111, de- vice position 112 sowie der device Orientation 113 durchgeführt. Diese Daten werden dann zusammengelegt und an die ARKit/ARCore 114 gesendet. Dort wird das Image stream 74 mit dem world tracking 115, image recognition 116 und dem content tracking 117 durch das 3D rendering 118 und dem Image Processing 119 überarbeitet und gelangt dann an ni Image matches Guide 93. Wenn die Daten für das Image übereinstimmen, wird ein Foto und/oder Video und/oder Screenshot 120 gemacht, welches dann die Guideline coresponded image 75bildet. Bei dem Fall, dass die überarbeiteten Daten dem Leitfaden des Images nicht über einstimmen, werden diese wieder an das Image stream 74 zurückgesendet und der Ablauf beginnt neu. Here an image stream 74 is carried out in parallel through the sensor data 110, camera stream 111, device position 112 and the device orientation 113. This data is then aggregated and sent to the ARKit/ARCore 114. There the image stream 74 is revised with the world tracking 115, image recognition 116 and the content tracking 117 by the 3D rendering 118 and the image processing 119 and then reaches the ni image matches guide 93. If the data for the image match, is a photo and/or video and/or screenshot 120 is taken, which then forms the guideline corresponding image 75. In the event that the revised data does not match the image guide, it is sent back to the image stream 74 and the process begins again.
In der Figur 4C ist die Customer side, die Backend side sowie die User side dargestellt. Die Figur 4 ist hierbei selbsterklärend. The customer side, the backend side and the user side are shown in FIG. 4C. FIG. 4 is self-explanatory here.
Wie aus der Figur 1 hervorgeht, umfasst die Vorrichtung 100 eine Verarbeitungseinheit 2, mittels welcher ein Nutzungsobjekt 1 und/oder ein Nutzungsobjekt 1 eindeutig und vorzugs weise eineindeutig zugeordnet ist, das Identifikationsmittel 11 physikalisch erfassbar ist, wo-
raus zumindest ein Kennwert des Nutzungsobjektes gewinnbar ist und weiter wobei die Ver arbeitungseinheit 2 und/oder eine CPU dazu eingerichtet und dafür vorgesehen ist, eine Nut zungsobjektklassifikation insofern durchzuführen, als dass ein Kennwert des Nutzungsobjek tes zumindest einem in einer Datenbank der Verarbeitungseinheit 2 und/ oder mit einer Da tenbank einer externen CPU vergleichbar ist und die Verarbeitungseinheit 2 und/ oder die CPU und/oder der Nutzer selbst ein dem Kennwert 3 entsprechendes Datenbankobjekt 4 auswählt und in einem Bildschirm der Verarbeitungseinheit 2 darstellt, sodass ein Kamera bild des Nutzungsobjektes 1 zusammen mit dem Datenbankobjekt 4 zumindest teilweise optisch auf dem Bildschirm 21 überlagerbar und/ oder nebeneinander darstellbar ist. As can be seen from FIG. 1, the device 100 includes a processing unit 2, by means of which a usage object 1 and/or a usage object 1 is uniquely and preferably uniquely assigned, the identification means 11 can be physically detected, where out at least one characteristic value of the object of use can be obtained and furthermore, the processing unit 2 and/or a CPU being set up and provided for carrying out a classification of the object of use insofar as a characteristic value of the object of use is at least one in a database of the processing unit 2 and/or or is comparable to a database of an external CPU and the processing unit 2 and/or the CPU and/or the user himself/herself selects a database object 4 that corresponds to the characteristic value 3 and displays it on a screen of the processing unit 2, so that a camera image of the usage object 1 is combined can be at least partially optically superimposed on the screen 21 with the database object 4 and/or displayed next to one another.
Mittels der Verarbeitungseinheit 2 und/oder der CPU ist es möglicher, zumindest einen phy sikalischen Erfassungsvorgang 5 auf Basis des in dem Bildschirm 21 abgebildeten Daten bankobjektes 4 durchzuführen, sodass der Nutzer das Nutzungsobjekt 1 erfasst, dass eine durch den Erfassungsvorgang erfasste Abbildung des Nutzungsobjektes identisch oder maßstabsskaliert identisch, zumindest doch im Wesentlichen identisch, mit dem auf dem Bildschirm 21 dargestellten Datenbankobjekt 4 zeitgleich dargestellt wird, wobei durch den Erfassungsvorgang das Nutzungsobjekt 1 von der Verarbeitungseinheit 2 und/ oder der CPU und/oder Nutzer zumindest eine Nutzungsobjektklasse, zum Beispiel einen Fahrzeugtypen zuordenbar ist. Using the processing unit 2 and/or the CPU, it is possible to carry out at least one physical detection process 5 based on the database object 4 displayed on the screen 21, so that the user detects the usage object 1 in such a way that an image of the usage object detected by the detection process is identical or identical to scale, at least essentially identical, with the database object 4 displayed on the screen 21 is displayed at the same time, whereby the detection process causes the usage object 1 to be recognized by the processing unit 2 and/or the CPU and/or the user at least one usage object class, for example a Vehicle types can be assigned.
In der Figur 2A ist ein beispielhafter erster Schritt dargestellt, wobei auf dem dort dargestell ten Nutzungsobjekt 1, welches in Form eine Smartphones dargestellt ist, auf dem Bildschirm 21 eine Nutzungsobjektklasse (zum Beispiel die Bilder 30), insbesondere in Form eines Bei spielfahrzeugtypen, optisch dargestellt ist. Der Beispielfahrzeugtyp ist nicht nur in verkleiner ter Form im Bereich B1 auf dem Bildschirm dargestellt, sondern auch in einer vergrößerten, beispielsweise einer 1 :1 Form grau schattiert hinterlegt auf dem Bildschirm 21 (siehe Bereich B2) dargestellt. An example of a first step is shown in FIG. 2A, with a usage object class (e.g. images 30), in particular in the form of an example vehicle type, visually appearing on screen 21 on usage object 1 shown there, which is shown in the form of a smartphone is shown. The example vehicle type is not only shown in reduced form in area B1 on the screen, but also in an enlarged form, for example a 1:1 form, with a gray shaded background on screen 21 (see area B2).
Diese optisch dargestellte Nutzungsobjektklasse, also dieser dargestellte Fahrzeugtyp dient als Orientierung an dem zu fotografierenden Objekt. Dargestellt ist ebenso auch ein Regler 40, durch dessen Einstellen ein Kontrast und/ oder eine Helligkeit des Orientierungsbildes, also insbesondere der Bilder 30, welche jeweils einer optischen Darstellung einer Nutzungs objektklasse entsprechen, dargestellt. So können Probleme, die bei großer Helligkeit entste hen, eliminiert werden.
Die Figur 2B zeigt ein kennwertmäßiges Erfassen anhand einer Nutzungsplakette 50 des Nutzungsfahrzeuges. Hierbei wird die Nutzungsplakette 50 optisch durch die Verarbeitungs einheit 2 gescannt. Je nach zu fotografierendem Nutzungsobjekt 1 verändert sich der Winkel, in dem die Verarbeitungseinheit 2, vorliegend beispielhaft als ein Smartphone dargestellt, gehalten werden muss, wodurch eine optimale Qualität für den Vergleichs- und Einord nungsvorgang erzielt werden können. This optically represented usage object class, ie this represented vehicle type, serves as a guide to the object to be photographed. A controller 40 is also shown, by setting a contrast and/or a brightness of the orientation image, ie in particular of the images 30, which each correspond to an optical representation of a use object class. In this way, problems that arise when the light is very bright can be eliminated. FIG. 2B shows a characteristic value detection based on a usage sticker 50 of the utility vehicle. In this case, the usage badge 50 is optically scanned by the processing unit 2 . Depending on the object of use 1 to be photographed, the angle at which the processing unit 2, shown here as a smartphone as an example, must be held changes, as a result of which an optimal quality for the comparison and classification process can be achieved.
In der Figur 2C ist in einer weiteren Darstellung dargestellt, dass die Verarbeitungseinheit 2 in verschiedenen Winkelstellungen relativ zum Nutzungsobjekt 1 gehalten werden muss. A further illustration in FIG. 2C shows that the processing unit 2 must be held in different angular positions relative to the object of use 1.
Das obige stellt daher nicht nur den physikalischen Erfassungsvorgang 5 dar, sondern auch die eingangs beschriebene kennwertmäßige Erfassung zur Nutzungsobjektklassifikation. The above therefore not only represents the physical detection process 5, but also the initially described detection of characteristic values for the object of use classification.
In den Figuren 3 ist in einer weiteren Ausführungsform dargestellt, dass die Verarbeitungs einheit 2 an einem Aufnahmeelement 23, vorliegend einer Drohne, befestigt ist. In a further embodiment, it is shown in FIGS. 3 that the processing unit 2 is attached to a receiving element 23, in this case a drone.
Die Figur 3A stellt daher nicht nur eine Drohne 23, sondern ebenso wiederum die Verarbei tungseinheit 2 und das Nutzungsobjekt 1 dar, wobei eine Drohne 23 bei einem Drohnenstart zunächst einen Abstand in die Verarbeitungseinheit 2 vorher eingegeben wird oder von der Erfassungssequenz vorgegeben wird. FIG. 3A therefore not only shows a drone 23, but also the processing unit 2 and the object of use 1, with a drone 23 initially being entered at a distance into the processing unit 2 beforehand when the drone is launched, or being specified by the detection sequence.
Bevor sich daher die Drohne automatisiert und ohne Drohnenpilot orientieren kann, benötigt diese daher nämlich Informationen zum Nutzungsobjekt 1. Anschließend kann die Drohne mit definiertem Abstand vor das Fahrzeug 11 gelegt werden (siehe Figur 3B), um mit Hilfe der Fahrzeugabmessungen jeweils bezogen auf den Startpunkt alle Positionen entsprechend der Erfassungssequenz abfliegen. In der Figur 3C sind entsprechende Markierungselemente 60 dargestellt, welche entweder auf dem Nutzungsobjekt 1 angebracht sind oder virtuell op tisch „darübergelegt“ werden. Before the drone can orient itself automatically and without a drone pilot, it needs information about the object of use 1. The drone can then be placed at a defined distance in front of the vehicle 11 (see Figure 3B) to use the vehicle dimensions in relation to the starting point fly all positions according to the acquisition sequence. Corresponding marking elements 60 are shown in FIG. 3C, which are either attached to the object of use 1 or are virtually optically “laid over” it.
Bei dem Markieren kann es sich um sogenannte ARUCo-Markierung handeln. Dabei kann es sich um kontrastreiche Symbole handeln, welche speziell für Kameraanwendung entwickelt wurde. Diese können nicht nur Orientierungshelfer, sondern auch Informationen beinhalten. Mit einem solchen Marker kann daher die Drohne 23 den Startpunkt des Drohnenflugs selbst erkennen.
In der Figur 3D ist ein weiterer Ablauf des Drohnenflugs gezeigt, was ebenso auch aus der Figur 3E hervorgeht. In der Figur 3E ist jedoch zusätzlich optisch dargestellt, wie sich eine Brennweite einer Linse, der von der Drohne 23 transportierten Verarbeitungseinheit 2, auf die Aufnahmequalität auswirkt. Auf dem ganz links dargestellten Nutzungsobjekt 1 wurde dieses mit einer Weitwinkelkamera aufgenommen, während das in der Mitte dargestellte Nutzungsobjekt 1 mit einer Normalwinkelkamera und das Nutzungsobjekt 1 ganz rechts mit einer Telekamera aufgenommen wurde. Die Weitwinkelkamera kann einen Abstand von 0 bis 45 mm zum Nutzungsfahrzeug 2 erlauben, die Normalwinkelkamera einen Abstand von etwa 50 mm und ein Teleobjektiv kann einen Abstand ab 55 mm erlauben. The marking can be what is known as ARUCo marking. These can be high-contrast symbols that were specially developed for camera use. These can contain not only orientation aids, but also information. With such a marker, the drone 23 can therefore recognize the starting point of the drone flight itself. Another course of the drone flight is shown in FIG. 3D, which can also be seen in FIG. 3E. However, FIG. 3E also shows how a focal length of a lens of the processing unit 2 transported by the drone 23 affects the recording quality. On the usage object 1 shown on the far left, this was recorded with a wide-angle camera, while the usage object 1 shown in the middle was recorded with a normal-angle camera and the usage object 1 on the far right was recorded with a telecamera. The wide-angle camera can allow a distance of 0 to 45 mm to the utility vehicle 2, the normal-angle camera a distance of about 50 mm and a telephoto lens can allow a distance of 55 mm or more.
Brennweiten von kleiner 50 mm und größer 50 mm können nämlich unterschiedliche Verzer- rungs- und Verzeichnungseffekte erzeugen. Durch die verschiedentliche Verwendung von Brennweiten von beispielsweise 6 mm treten bei den aufgenommenen Bildern somit sichtba re Verzerrungen auf, um einen Vergleich aller Bilder im Anschluss zu haben, sollte eine Nachbearbeitung der aufgenommenen Fotografien nicht erfolgen, sodass die oben genann ten verschiedenen Objektive zur Anwendung kommen müssen. Focal lengths of less than 50 mm and greater than 50 mm can produce different distortion and distortion effects. Due to the various use of focal lengths of, for example, 6 mm, visible distortions occur in the images taken. In order to have a comparison of all images afterwards, the photographs taken should not be post-processed, so that the various lenses mentioned above are used must.
Die Erfindung ist nicht anhand der Beschreibung und der Ausführungsbeispiele beschränkt, vielmehr erfasst die Erfindung jedes neue Merkmal sowie jede Kombination von Merkmalen, was auch insbesondere jede Kombination der Patentansprüche beinhaltet, auch wenn die ses Merkmal oder diese Kombination selbst nicht explizit in den Patentansprüchen oder den Ausführungsbeispielen wiedergegeben ist.
The invention is not limited by the description and the exemplary embodiments, but rather the invention covers every new feature and every combination of features, which also includes in particular every combination of the patent claims, even if this feature or this combination itself is not explicitly stated in the patent claims or the Embodiments is reproduced.
Bezugszeichenliste Reference List
1 Nutzungsobjekt 1 usage object
2 Verarbeitungseinheit 2 processing unit
3 Kennwort 3 password
4 Datenbankobjekt 4 database object
5 physikalischer Erfassungsvorgang 11 Identifikationsmittel 21 Bildschirm 23 Aufnahmeelement (Drohne) 30 Bilder 40 Regler 50 Nutzungsplakette 60 Markierungselemente 5 physical detection process 11 means of identification 21 screen 23 recording element (drone) 30 images 40 controller 50 usage sticker 60 marking elements
71 Input Image 71 input image
72 Output Image 72 output image
73 AI Server Image stream 73 AI Server Image stream
74 Image stream 74 Imagestream
75 Guideline coresponded image 80 Image brightness correction 81 Klassifikationsmodell 82 Segmentationsmodell 75 Guideline corresponding image 80 Image brightness correction 81 Classification model 82 Segmentation model
83 dass ID = 0,2 83 that ID = 0.2
84 dass ID = 3,0 84 that ID = 3.0
85 dass ID = 1,0 85 that ID = 1.0
86 Blur IF template type 86 Blur IF template type
87 Image zuschneiden 87 crop image
88 Comlete IF template type 88 Complete IF template type
89 Shadow generative model 89 Shadow generative model
90 Normal IF template type 90 Normal IF template type
91 IF CIass ID 91 IF Class ID
92 IF template type 92 IF template type
93 Image matches Guide 110 Sensor data
111 Camera stream 93 Image matches Guide 110 Sensor data 111 Camera stream
112 Device position 112 device position
113 Device Orientation113 Device Orientation
114 ARKit/ARCore 115 World tracking 114 ARKit/ARCore 115 World tracking
116 Image recognition116 Image recognition
117 content tracking 117 content tracking
118 3D rendering 119 Image processing 120 Foto/Video/Screenshot 118 3D rendering 119 Image processing 120 Photo/Video/Screenshot
B1 Bereich B1 area
B2 Bereich B2 area
100 Vorrichtung 1000 Verfahren
100 devices 1000 procedures
Claims
1. Vorrichtung (100) zum physikalischen, insbesondere zum optischen, Erfassen zumindest eines Nutzungsobjektes (1), wobei die Vorrichtung (100) aufweist: Zumindest eine Verarbeitungseinheit (2), mittels welcher ein Nutzungsobjekt (1) und/oder ein dem Nutzungsobjekt (1) eindeutig, vorzugsweise eineindeutig, zugeordnetes Identifikationsmittel (11) physikalisch erfassbar ist, woraus zu mindest ein Kennwert (3) des Nutzungsobjektes (1) gewinnbar ist, und weiter wobei 1. Device (100) for the physical, in particular optical, detection of at least one object of use (1), the device (100) having: at least one processing unit (2) by means of which a object of use (1) and/or a object of use ( 1) unambiguously, preferably unambiguously, assigned identification means (11) can be physically detected, from which at least one characteristic value (3) of the object of use (1) can be obtained, and further wherein
- die Verarbeitungseinheit (2) und/oder eine CPU dazu eingerichtet und dafür vorgesehen ist eine Nutzungsobjektklassifikation insofern durchzuführen, als dass ein Kennwert (3) des Nutzungsobjektes (1) mit zumindest einem in einer Datenbank der Verarbeitungseinheit (2) und/oder mit einer Datenbank einer externen CPU vergleichbar ist, und die Verarbeitungseinheit (2) und/oder die CPU und/oder der Nutzer selbst, ein dem Kennwert (3) entsprechendes Da tenbankobjekt (4) auswählt und in einem Bildschirm (21) der Verarbeitungsein heit (2) darstellt, sodass ein Kamerabild des Nutzungsobjektes (1) zusammen mit dem Datenbankobjekt (4) zumindest teilweise optisch auf dem Bildschirm (21) überlagerbar und/oder nebeneinander darstellbar ist, dadurch gekennzeichnet, dass mittels der Verarbeitungseinheit (2) und/oder der CPU zumindest ein physikali scher Erfassungsvorgang (5), insbesondere zumindest eine Fotographie, des Nutzungsobjektes (1), auf Basis des auf dem Bildschirm (21) abgebildeten Da tenbankobjektes (4) durchführbar ist, sodass der Nutzer das Nutzungsobjekt (1) derart erfasst, dass eine durch den Erfassungsvorgang erfasste Abbildung des Nutzungsobjektes (1) identisch oder maßstabsskaliert identisch mit dem auf dem Bildschirm (21) dargestellten Datenbankobjekt (4) zeitgleich darge stellt wird, wobei durch den Erfassungsvorgang das Nutzungsobjekt (1) von der Verarbeitungs einheit (2) und/oder der CPU und/oder dem Nutzer zumindest einer Nutzungs-
Objektklasse, zum Beispiel einem Fahrzeugtypen, zuordenbar wird. - the processing unit (2) and/or a CPU is set up and intended to carry out a usage object classification insofar as a characteristic value (3) of the usage object (1) is compared with at least one in a database of the processing unit (2) and/or with a Database of an external CPU is comparable, and the processing unit (2) and/or the CPU and/or the user himself selects a database object (4) corresponding to the characteristic value (3) and displays it on a screen (21) of the processing unit (2 ) so that a camera image of the usage object (1) together with the database object (4) can be at least partially optically superimposed on the screen (21) and/or displayed side by side, characterized in that by means of the processing unit (2) and/or the CPU at least one physical detection process (5), in particular at least one photograph, of the object of use (1) based on the data displayed on the screen (21). ncobject (4) can be carried out, so that the user records the object of use (1) in such a way that an image of the object of use (1) recorded by the recording process is identical or scaled identically to the database object (4) displayed on the screen (21) at the same time is, whereby the usage object (1) is recognized by the processing unit (2) and/or the CPU and/or the user at least one usage Object class, for example a vehicle type, can be assigned.
2. Vorrichtung (100) nach Anspruch 1, dadurch gekennzeichnet, dass der physikalische Erfassungsvorgang (5) zumindest eine zeitliche Erfassungsse quenz umfasst, wobei während der Erfassungssequenz zumindest zwei verschie dene Aufnahmen des Nutzungsobjektes (1) durchgeführt werden, wobei jeder Aufnahme zumindest ein Datenbankobjekt (4) zugeordnet ist. 2. Device (100) according to claim 1, characterized in that the physical detection process (5) comprises at least one temporal detection sequence, with at least two different recordings of the object of use (1) being taken during the recording sequence, with each recording at least one database object (4) is assigned.
3. Vorrichtung (100) nach Anspruch 2, dadurch gekennzeichnet, dass nach der kennwertmäßigen Erfassung und zur Nutzungsobjektklassifikation auf dem Bildschirm (21) zumindest eine zeitlich sequentielle Erfassungsanleitung der zeitlichen Erfassungssequenz zur Erfassung der zumindest zwei Aufnahmen ab fahrbar ist wird. 3. Device (100) according to claim 2, characterized in that after the characteristic values are recorded and for the object of use classification on the screen (21), at least one temporally sequential recording instruction of the temporal recording sequence for recording the at least two recordings is mobile.
4. Vorrichtung (100) nach Anspruch 3, dadurch gekennzeichnet, dass die zeitlich sequentielle Erfassungsanleitung dem Nutzer eine Erfassungsabstand und/oder einen Erfassungswinkel relativ zu dem Nutzungsobjekt (1) vorgibt. 4. The device (100) according to claim 3, characterized in that the temporally sequential detection instructions specify a detection distance and/or a detection angle relative to the object of use (1) for the user.
5. Vorrichtung (100) nach zumindest einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass der Kennwert (3) von einem Identifikationsmittel (11), zum Beispiel aus einer Nut zungsplakette, des Nutzungsobjektes (1) entnommen, insbesondere gescannt, wird. 5. Device (100) according to at least one of the preceding claims, characterized in that the characteristic value (3) is taken from an identification means (11), for example from a usage badge, of the usage object (1), in particular scanned.
6. Vorrichtung (100) nach zumindest einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass dass die Verarbeitungseinheit (2) ein Smartphone, eine Kamera umfasst oder ist. 6. Device (100) according to at least one of the preceding claims, characterized in that the processing unit (2) comprises or is a smartphone, a camera.
7. Vorrichtung (100) nach Anspruch 3, dadurch gekennzeichnet, dass dass die Verarbeitungseinheit (2) an einem Aufnahmeelement (23) befestigt ist, welches sich entsprechend der Vorgaben durch die Erfassungssequenz relativ zu
dem Nutzungsobjekt (1) bewegt. 7. The device (100) according to claim 3, characterized in that the processing unit (2) is attached to a receiving element (23) which moves relative to the detection sequence in accordance with the specifications the object of use (1) moves.
8. Vorrichtung (100) nach Anspruch 7, dadurch gekennzeichnet, dass das Aufnahmeelement (23) eine Drohne ist, welche entsprechend der Erfas sungssequenz relative zu dem Nutzungsobjekt (1) gelenkt wird, um die einzelnen Aufnahmen durchzuführen. 8. Device (100) according to claim 7, characterized in that the recording element (23) is a drone, which is steered relative to the object of use (1) according to the detection sequence in order to carry out the individual recordings.
9. Vorrichtung (100) nach Anspruch 8, dadurch gekennzeichnet, dass die Erfassungssequenz ebenso Steuerungsdaten zur Flughöhe der Drohne (23) umfasst, sodass die Drohne (23) in zeitlicher Hinsicht, vorzugsweise vollautoma tisch, die Erfassungssequenz abfliegt. 9. Device (100) according to claim 8, characterized in that the detection sequence also includes control data on the flight altitude of the drone (23), so that the drone (23) flies over the detection sequence in terms of time, preferably fully automatically.
10. Verfahren (1000) zur Steuerung eines Zielsystems und insbesondere zum Erfas sen zumindest eines Nutzungsobjektes (1), insbesondere einer Erfassungssteue rung, auf der Basis von Betriebsdaten zumindest eines Quellsystems, insbeson dere mehrerer, Quellsysteme, insbesondere der Verarbeitungseinheit, umfas send: a) Empfangen von Betriebsdaten des Quellsystems, wobei sich die Betriebsdaten, insbesondere der Bilddaten, durch quellsystemspezifische Kennungen unter scheiden, b) Trainieren, mittels eines neuronalen Netzes, eines neuronalen Modells auf der Basis der empfangenen Betriebsdaten des Quellsystems unter Berücksichtigung der quellsystemspezifischen Kennung(en), zum Beispiel des Kennwerts, wobei c) mittels der Verarbeitungseinheit und/oder der CPU das Datenbankobjekt (4) er zeugt wird und in der CPU abgelegt wird, wobei jedes Datenbankobjekt (4) zu mindest Quelldaten des Kennwerts oder den Kennwert selbst aufweist, sodass das Nutzungsobjekt (1) derart erfasst wird, dass eine durch den Erfassungsvor gang erfasste Abbildung des Nutzungsobjektes (1) Betriebsdaten des Quellsys tems entspricht oder aus diesen erzeugt wird, d) Empfangen von Betriebsdaten des Zielsystems, insbesondere der Erfassungs steuerung, wobei diese Betriebsdaten solche Daten aufweist, welche vorgegebe ne Soll-Daten eines abzubildenden Zielobjektes entspricht oder sind,
e) weiteres Trainieren des trainierten neuronalen Modells auf der Basis der Be triebsdaten des Zielsystems f) Steuern des Quell- und/oder des Zielsystems mittels des weiter trainierten neuro nalen Netzes, und insbesondere so lange bis die Betriebsdaten des Quellsystems den Betriebsdaten des Zielsystems entspricht und/oder ist und/oder innerhalb ei nes Toleranzrahmens, insbesondere die Kennung ist.
10. Method (1000) for controlling a target system and in particular for acquiring at least one object of use (1), in particular an acquisition controller, on the basis of operating data from at least one source system, in particular several source systems, in particular the processing unit, comprising: a ) receiving operating data from the source system, with the operating data, in particular the image data, being distinguished by source-system-specific identifiers, b) training, using a neural network, a neural model on the basis of the received operating data from the source system, taking into account the source-system-specific identifier(s) , for example the characteristic value, wherein c) the database object (4) is generated by means of the processing unit and/or the CPU and is stored in the CPU, each database object (4) having at least source data of the characteristic value or the characteristic value itself, so that the object of use (1) is recorded in such a way that a d The image of the object of use (1) captured during the capture process corresponds to or is generated from operating data of the source system, d) receiving operating data from the target system, in particular the capture controller, with this operating data having data that is specified target data of a target object to be mapped corresponds to or are e) further training of the trained neural model on the basis of the operating data of the target system f) controlling the source and/or the target system using the further trained neural network, and in particular until the operating data of the source system corresponds to the operating data of the target system and /or is and/or is within a tolerance range, in particular the identifier.
Applications Claiming Priority (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102021118155 | 2021-07-14 | ||
DE102021118155.0 | 2021-07-14 | ||
DE102022002203.6 | 2022-06-17 | ||
DE102022002203.6A DE102022002203A1 (en) | 2022-06-17 | 2022-06-17 | Method for controlling a target system and in particular for detecting at least one usage object, in particular a detection control |
Publications (1)
Publication Number | Publication Date |
---|---|
WO2023285128A1 true WO2023285128A1 (en) | 2023-01-19 |
Family
ID=82546996
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
PCT/EP2022/067629 WO2023285128A1 (en) | 2021-07-14 | 2022-06-27 | Method for controlling a target system and in particular for capturing at least one usage object, in particular a capture controller |
Country Status (1)
Country | Link |
---|---|
WO (1) | WO2023285128A1 (en) |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20190197789A1 (en) * | 2017-12-23 | 2019-06-27 | Lifeprint Llc | Systems & Methods for Variant Payloads in Augmented Reality Displays |
-
2022
- 2022-06-27 WO PCT/EP2022/067629 patent/WO2023285128A1/en active Application Filing
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20190197789A1 (en) * | 2017-12-23 | 2019-06-27 | Lifeprint Llc | Systems & Methods for Variant Payloads in Augmented Reality Displays |
Non-Patent Citations (1)
Title |
---|
LE HUY ET AL: "Machine Learning with Synthetic Data - a New Way to Learn and Classify the Pictorial Augmented Reality Markers in Real-Time", 2020 35TH INTERNATIONAL CONFERENCE ON IMAGE AND VISION COMPUTING NEW ZEALAND (IVCNZ), 25 November 2020 (2020-11-25), pages 1 - 6, XP055970271, ISBN: 978-1-7281-8579-8, DOI: 10.1109/IVCNZ51579.2020.9290606 * |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE60127644T2 (en) | Teaching device for a robot | |
DE69817498T2 (en) | Hand pointing device | |
EP2166510B1 (en) | Method for calculating the position and orientation of a camera in a vehicle | |
DE10355283A1 (en) | Hand / eye calibration procedure and associated point extraction procedure | |
EP2071510A2 (en) | Method and system for aligning an object of a virtual model to a real object | |
DE102016119605A1 (en) | Calibration system and calibration method for calibrating the mechanical parameters of the wrist part of a robot | |
EP1590714B1 (en) | Projection of synthetic information | |
EP2381207B1 (en) | 3D targeting and target designation from IR data | |
DE10215885A1 (en) | Automatic process control | |
WO2018215332A1 (en) | External depiction of photographs of a vehicle interior in vr goggles | |
EP3726425B1 (en) | Method for physical, in particular optical, detection of at least one application object | |
DE102022130652A1 (en) | TRAINING A ROBOT BY DEMONSTRATING USING VISUALSERVOING | |
DE102020115670A1 (en) | ROBOT LEARNING DEVICE AND ROBOT SYSTEM | |
DE10151983A1 (en) | Method for automatic documentation of a traffic accident and recording of the layout of vehicles and objects involved in it, by use of a laser measurement device with an associated differential global positioning system | |
DE102017007737A1 (en) | Method and device for detecting an image of a plant with a sensor device | |
EP3575912A1 (en) | Robotic mower | |
DE102015012344A1 (en) | Method for calibrating a camera | |
WO2023285128A1 (en) | Method for controlling a target system and in particular for capturing at least one usage object, in particular a capture controller | |
DE102019110344A1 (en) | Device for the physical, in particular for the optical, detection of at least one usage object | |
DE60305345T2 (en) | IMAGE PROCESSING DEVICE WITH DETECTION AND SELECTION OF LIGHT SOURCES | |
DE102019110345A1 (en) | Method for physical, in particular optical, detection of at least one usage object | |
DE102020127797B4 (en) | Sensor method for optically detecting objects of use to detect a safety distance between objects | |
DE102019217225A1 (en) | Method for training a machine learning system for an object recognition device | |
DE102019102423A1 (en) | Method for live annotation of sensor data | |
DE102012209664B4 (en) | DEVICE AND METHOD FOR CALIBRATING TRACKING SYSTEMS |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 22741460 Country of ref document: EP Kind code of ref document: A1 |
|
122 | Ep: pct application non-entry in european phase |
Ref document number: 22741460 Country of ref document: EP Kind code of ref document: A1 |