DE102013015189A1 - Mobile camera system with a self-propelled platform and method for optical detection of at least one object - Google Patents
Mobile camera system with a self-propelled platform and method for optical detection of at least one object Download PDFInfo
- Publication number
- DE102013015189A1 DE102013015189A1 DE102013015189.9A DE102013015189A DE102013015189A1 DE 102013015189 A1 DE102013015189 A1 DE 102013015189A1 DE 102013015189 A DE102013015189 A DE 102013015189A DE 102013015189 A1 DE102013015189 A1 DE 102013015189A1
- Authority
- DE
- Germany
- Prior art keywords
- platform
- camera
- sensor
- self
- camera system
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C15/00—Surveying instruments or accessories not provided for in groups G01C1/00 - G01C13/00
- G01C15/002—Active optical surveying means
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
- G05D1/0094—Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot involving pointing a payload, e.g. camera, weapon, sensor, towards a fixed or moving target
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01B—MEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
- G01B2210/00—Aspects not specifically covered by any group under G01B, e.g. of wheel alignment, caliper-like sensors
- G01B2210/58—Wireless transmission of information between a sensor or probe and a control or evaluation unit
Abstract
Beschrieben wird ein mobiles Kamerasystem mit einer eigenfortbewegungsfähigen Plattform, auf der mittel- oder unmittelbar wenigstens eine Kamera, die über einen Auslösemechanismus zur Einzelbildaufnahme verfügt, eine Steuereinheit, die mit wenigstens einem Antriebsmittel der Plattform zu deren Navigation verbunden ist, sowie eine Sensoreinheit zumindest zur Abstandserfassung der Plattform zu wenigstens einem Umgebungsobjekt und zur Raumlageerfassung der Plattform angeordnet sind. Die Erfindung zeichnet sich dadurch aus, dass der Auslösemechanismus mit der Steuereinheit verbunden ist, und dass die Steuereinheit telemetrisch mit einer zur eigenfortbewegungsfähigen Plattform separat vorgesehenen Steuer- und Auswerteinheit in einem Datenaustausch steht. Ferner wird ein Verfahren zur optischen Erfassung wenigstens eines Objektes mit Hilfe einer relativ zu dem wenigstens einen Objekt beweglichen, auf einer eigenfortbewegungsfähigen Plattform angebrachten Kamera beschrieben, die über einen Auslösemechanismus zur Einzelbildaufnahme verfügt und zu deren Lage- und Abstandserfassung relativ zu dem wenigstens einem Objekt Sensordaten gewonnen werden, die mittels einer Fuzzy-Logik zum Erhalt einer Bewertung ausgewertet werden, die der Aktivierung des Auslösemechanismus zugrunde gelegt werden.What is described is a mobile camera system with a self-propelled platform, on the middle or immediate at least one camera that has a trigger mechanism for single image recording, a control unit that is connected to at least one drive means of the platform for their navigation, and a sensor unit at least for distance detection the platform are arranged to at least one environment object and for spatial position detection of the platform. The invention is characterized in that the triggering mechanism is connected to the control unit, and that the control unit is telemetrically in communication with a separately provided for self-propelled platform control and evaluation unit in a data exchange. Furthermore, a method is described for the optical detection of at least one object by means of a relative to the at least one object movable mounted on a self-propelled platform camera having a trigger mechanism for single image recording and their position and distance detection relative to the at least one object sensor data are obtained, which are evaluated by means of fuzzy logic to obtain a rating, which are based on the activation of the triggering mechanism.
Description
Technisches GebietTechnical area
Die Erfindung bezieht sich auf ein mobiles Kamerasystem mit einer eigenfortbewegungsfähigen Plattform, auf der mittel- oder unmittelbar wenigstens eine Kamera, die über einen Auslösemechanismus zur Einzelbildaufnahme verfügt, eine Steuereinheit, die mit wenigstens einem Antriebsmittel der Plattform zu deren Navigation verbunden ist, sowie eine Sensoreinheit zumindest zur Abstandserfassung der Plattform zu wenigstens einem Umgebungsobjekt und zur Raumlageerfassung der Plattform angeordnet sind. Ferner wird ein Verfahren zur optischen Erfassung wenigstens eines Objektes mit Hilfe einer relativ zu dem wenigstens einen Objekt beweglichen, auf einer eigenfortbewegungsfähigen Plattform angebrachten Kamera beschrieben.The invention relates to a mobile camera system with a self-propelled platform, on the middle or immediate at least one camera, which has a trigger mechanism for single image recording, a control unit which is connected to at least one drive means of the platform for their navigation, and a sensor unit are arranged at least for distance detection of the platform to at least one environment object and for spatial position detection of the platform. Furthermore, a method for optically detecting at least one object by means of a camera which is movable relative to the at least one object and is mounted on a self-propelled platform is described.
Stand der TechnikState of the art
Zur Untersuchung bzw. Inspektion von Arealen, Objekten, wie beispielsweise Gebäuden, Anlagen jeglicher Art, wird in den meisten Fällen auf optische Inspektionstechniken zurückgegriffen, bei denen die Objekterfassung mit Hilfe einer digitalen Kamera erfolgt, die auf einer beweglichen Plattform, vorzugsweise auf einer unbemannten eigenfortbewegungsfähigen Plattform angebracht ist, um einen schnellen und sicheren Überblick über das Areal oder ein bestimmtes Objekt zu erhalten. Insbesondere für die Untersuchung schwer zugänglicher und für den Menschen gefährlicher Objekte und Areale bieten sich autonom navigierbare flugfähige, schwimmfähige oder bodengestützte, eigenfortbewegungsfähige Plattformen an, die mit Sensoren zur Positions- und Lageerfassung relativ zur Objektumgebung bestückt sind und wenigstens eine Kamera mitführen.For inspection or inspection of areas, objects, such as buildings, facilities of any kind, optical inspection techniques are used in most cases, in which the object detection takes place with the aid of a digital camera, which is mounted on a mobile platform, preferably on an unmanned self-propelled Platform is attached to get a quick and safe overview of the area or a specific object. In particular, for the investigation of difficult to access and dangerous to humans objects and areas offer autonomously navigable airworthy, floating or ground-based, eigenfortbewegungsfähige platforms that are equipped with sensors for position and position detection relative to the object environment and at least carry a camera.
Aus der Druckschrift
Aus der Druckschrift
Gilt es ein optisch hoch aufgelöstes Szenebild von einem zu inspizierenden Objekt zu erstellen, so wird in der Regel eine Vielzahl von Einzelbildern von dem Objekt, von jeweils unterschiedlichen Aufnahmepositionen aufgenommen. Jedes der Einzelbilder enthält lediglich einen Teilausschnitt des zu inspizierenden Objektes. Mit Hilfe der so genannten Stitching-Technik, mit der ein nahtloses Zusammenfügen jeweils zweier Bilder zu einem Gesamtbild möglich ist, kann aus der Vielzahl an Einzelbildern ein hoch auflösendes Gesamtbild des zu inspizierenden Objektes erstellt werden. Die an sich bekannte Stitching-Technik wird für Objektaufnahmen genutzt, die wegen ihrer Größe nicht mit einer einzigen Bildaufnahme erfasst werden können. Ein bekanntes Anwendungsbeispiel der Stitching-Technik betrifft die Herstellung von Panorama-Bildern, beispielsweise von Landschaften oder Architekturaufnahmen. Dabei vermögen die Einzelbildaufnahmen der Kamera nur Teilausschnitte des Panoramas zu erfassen. Durch nachträgliches Zusammenfügen der Einzelbilder entsteht ein Gesamtbild, das das vollständige Panoramabild darstellt.If it is necessary to create an optically high-resolution scene image of an object to be inspected, a multiplicity of individual images of the object, in each case of different recording positions, is generally recorded. Each of the individual images contains only a partial section of the object to be inspected. With the help of the so-called stitching technique, with which a seamless combination of two images to form an overall image is possible, a high-resolution overall image of the object to be inspected can be created from the large number of individual images. The known stitching technique is used for object images that can not be captured with a single image because of their size. One known application of the stitching technique involves the production of panoramic images such as landscapes or architectural photographs. The single-frame shots of the camera can capture only partial sections of the panorama. Subsequent merging of the individual images creates an overall image that represents the complete panorama image.
Die bekannten mobilen Kamerasysteme, die mittels einer eigenfortbewegungsfähigen Plattform relativ zum Objekt bewegbar und entsprechend positionierbar sind, werden typischerweise mit einer konstant vorgegebenen Einzelbildaufnahme-Frequenz, beispielsweise von 3 Hz betrieben, unabhängig davon, welche Position und Lage die Kamera relativ zu dem zu inspizierenden Objekt besitzt. Es steht außer Frage, dass die Anzahl der von Teilabschnitten des Objektes aufgenommenen Einzelbilder während der optischen Erfassung des gesamten Objektes mit der Zeitdauer ansteigt. Insbesondere bei großflächigen bzw. großräumigen zu inspizierenden Objekten nimmt die Anzahl der aufgenommenen Einzelbilder nahezu unübersichtliche Dimensionen an, die es gilt alle zu sichten und zu selektieren, um durch Auswahl einiger weniger mittels Stitching-Technik ein Gesamtbild zu erzeugen.The known mobile camera systems, which are movable relative to the object and correspondingly positionable by means of a self-propelled platform, are typically operated at a constant predetermined frame rate, for example 3 Hz, regardless of which position and position the camera relative to the object to be inspected has. It is beyond dispute that the number of individual images taken by sub-sections of the object increases during the optical detection of the entire object with the time duration. Particularly in the case of large-scale or large-scale objects to be inspected, the number of recorded individual images assumes almost confusing dimensions, which must be sifted and selected in order to produce an overall image by selecting a few using stitching technology.
Darstellung der ErfindungPresentation of the invention
Der Erfindung liegt die Aufgabe zugrunde, ein mobiles Kamerasystem mit einer eigenfortbewegungsfähigen Plattform, auf der mittel- oder unmittelbar wenigstens eine Kamera angebracht ist, gemäß den Merkmalen des Oberbegriffes des Anspruches 1 sowie ein diesbezügliches Verfahren zur optischen Erfassung wenigstens eines Objektes mit Hilfe einer relativ zu einem Objekt beweglich auf einer eigenfortbewegungsfähigen Plattform angebrachten Kamera derart weiterzubilden, dass der datentechnische und damit verbunden der zeit- und kostenmäßige Aufwand zur Erstellung eines hoch auflösenden, das gesamte Objekt darstellenden Bildes durch Zusammenfügen einer Vielzahl n ≥ 2 Einzelbilder signifikant reduziert werden soll.The invention is based on the object, a mobile camera system with a self-propelled platform on the middle or directly at least one camera is mounted, according to the features of the preamble of
Die Lösung der der Erfindung zugrunde liegenden Aufgabe ist im Anspruch 1 angegeben. Ein lösungsgemäßes Verfahren ist Gegenstand des Anspruches 8. Anspruch 12 betrifft eine bevorzugte Verwendung des lösungsgemäß ausgebildeten mobilen Kamerasystems. Die den Erfindungsgedanken in vorteilhafter Weise weiterbildende Merkmale sind Gegenstand der Unteransprüche sowie der weiteren Beschreibung, insbesondere unter Bezugnahme auf die Ausführungsbeispiele zu entnehmen. The solution of the problem underlying the invention is specified in
Die der Erfindung zugrunde liegende Idee geht von der Fragestellung aus, wie groß die minimale Anzahl von Einzelbildern ist, die mit einer mobilen Kamera an jeweils unterschiedlichen Orten von einem Objekt aufzunehmen sind, wobei die Einzelbilder aufgrund der Kamera eigenen Bildgröße, des Abstandes zwischen der Kamera und dem Objekt sowie der tatsächlichen Objektgröße, lediglich jeweils einen Teilbereich des Objektes darzustellen, um letztlich ein das vollständige Objekt darstellendes Gesamtbild durch bildverarbeitungstechnisches Zusammenfügen der Einzelbilder erzeugen zu können.The idea underlying the invention is based on the question of how large is the minimum number of individual images to be taken with a mobile camera at each different locations of an object, the individual images due to the camera own image size, the distance between the camera and the object as well as the actual object size, only to represent a subarea of the object in order ultimately to be able to produce a complete image representing the complete object by image-processing-technical combination of the individual images.
Hierzu gilt es zum einen in Abhängigkeit von der Objektgröße einen geeigneten Abstand D zwischen verschiedenen Kamerapositionen und dem Objekt zu wählen und in Kenntnis der Objektivbrennweite f der Kamera einen Skalierungsfaktor S zu ermitteln, der sich aus dem Verhältnis zwischen Kameraabstand zum Objekt und Brennweite des Kameraobjektivs ergibt, d. h. S = D/f. Mit Hilfe des Skalierungsfaktors S ist die in Abhängigkeit vom Abstand D zwischen Kamera und Objekt von der Kamera erfassbare Einzelbildgröße AC in der folgenden Weise berechenbar. So bemisst sich die von der Kamera erfassbare tatsächliche Bildhöhe aus dem Produkt von Skalierungsfaktor und Bildsensorhöhe, die sich aus der Pixelanzahl längs der Bildsensorhöhe ergibt. Entsprechend berechnet sich die aktuelle Kamerabildbreite aus dem Produkt aus Skalierungsfaktor und Bildsensorbreite, die sich ebenso entsprechend aus der Pixelanzahl in Bildsensorbreite ergibt. Aus der aktuellen Kamerabildbreite und -höhe ergibt sich somit durch Multiplikation die von der Kamera erfassbare Einzelbildgröße AC. Mit den vorstehenden Überlegungen lässt sich die minimale Anzahl von Einzelbildaufnahmen berechnen, die erforderlich sind, ein Objekt bzw. Objektumgebung aus einem bestimmten Abstand mit der Kamera gesamtheitlich aufzunehmen. Um perspektivische Verzerrungen zu vermeiden, gilt es, die Kamera für jede Einzelbildaufnahme in geeigneter Weise dem Objekt gegenüber zu positionieren, so dass die Kamerablickrichtung die das Objekt bzw. die Objektumgebung enthaltende Szenebildebene möglichst orthogonal schneidet. Der Begriff Szenebildebene wird als jene Ebene verstanden, gegenüber der die Kamera jeweils einen konstanten Abstand D für die Aufnahme der Einzelbilder einnimmt und die mit der Kamera scharf abgebildet wird.For this purpose, on the one hand, depending on the object size, it is necessary to select a suitable distance D between different camera positions and the object and to determine a scaling factor S, which results from the relationship between the camera distance to the object and the focal length of the camera lens, knowing the objective focal length f of the camera ie S = D / f. With the aid of the scaling factor S, the individual image size A C which can be detected by the camera as a function of the distance D between camera and object can be calculated in the following manner. Thus, the actual image height that can be detected by the camera is calculated from the product of the scaling factor and the image sensor height, which results from the number of pixels along the image sensor height. Accordingly, the current camera image width is calculated from the product of the scaling factor and the image sensor width, which likewise results correspondingly from the number of pixels in the image sensor width. From the current camera image width and height is thus obtained by multiplication the detectable by the camera frame A C. The above considerations can be used to calculate the minimum number of frames required to capture an object or object environment from a certain distance with the camera in its entirety. In order to avoid perspective distortions, it is necessary to position the camera in a suitable manner opposite the object for each individual frame exposure, so that the camera viewing direction intersects the scene image plane containing the object or the object environment as orthogonally as possible. The term scene image plane is understood as the plane opposite which the camera always assumes a constant distance D for taking the individual images and which is sharply imaged by the camera.
In Abhängigkeit von Größe und Form des aufzunehmenden Szenebildes sowie der ermittelten Mindestanzahl an Einzelbildern, durch deren geeignetes Zusammenfügen ein das Objekt hoch auflösendes Gesamtbild erzeugt werden kann, werden einzelne Wegpunkte, von denen aus die jeweiligen Einzelbildaufnahmen vom Objekt mit Hilfe der Kamera aufgenommen werden, ermittelt, die im Weiteren der Berechnung einer Trajektorie zugrunde gelegt werden, längs der die Kamera zu bewegen ist, um sämtliche Einzelbilder mit einem möglichst geringen Verfahraufwand aufnehmen zu können. In vorteilhafter Weise werden dabei die einzelnen Wegpunkte, an denen die Kamera jeweils für Einzelbildaufnahme zu positionieren ist, mit einer einheitlichen Linienführung verbunden, vergleichbar mit Perlen, die an einer Kette aufgereiht sind, längs der die Kamera zu bewegen ist, vorzugsweise mit einer konstanter Geschwindigkeit.Depending on the size and shape of the scene to be taken and the determined minimum number of individual images, through the appropriate assembly of the object high-resolution overall image can be generated, individual waypoints, from which the respective single image recordings are taken by the object using the camera, determined , which are subsequently used as the basis for calculating a trajectory along which the camera is to be moved in order to be able to record all the individual images with the least possible procedural effort. In an advantageous manner, the individual waypoints at which the camera is to be positioned in each case for single image recording are connected to a uniform line, comparable to beads strung along a chain along which the camera is to be moved, preferably at a constant speed ,
Im Idealfall nimmt die Kamera an jedem einzelnen Wegpunkt eine einheitliche Kamerablickrichtung sowie einen konstant vorgegebenen Abstand zur Szenebildebene ein, um perspektivische Verzerrungen und Größenunterschiede zwischen den an unterschiedlichen Wegpunkten aufgenommenen Einzelbildern zu vermeiden. In der Realität sind jedoch Abweichungen zu dem vorstehenden Idealfall unumgänglich, insbesondere im Falle der Montage der Kamera auf einer eigenfortbeweglichen Plattform, die es gilt, relativ zum Objekt zu verfahren. Neben land- und wassergestützten, eigenfortbewegungsfähigen Plattformen eignen sich insbesondere für Aufnahmen von groß dimensionierten Objekten flugfähige Plattformen, beispielsweise Quadro- oder Octacopter-Anordnungen, die eine dreidimensionale Bewegung ermöglichen, mit denen eine gesamtheitliche optische Erfassung von Objekten von nahezu beliebiger Form und Größe mit Hilfe einer auf einer derartigen Plattform montierten Kamera möglich ist. Systembedingt unterliegt die Kamera jedoch während der Einzelbildaufnahmen kontinuierlichen Lageschwankungen, die sich vorwiegend in Form von Gierbewegungen um die Vertikalachse sowie durch Nickbewegungen um eine horizontale Querachse durch die Flugplattform auszeichnen. Derartige Störeinflüsse beeinträchtigen das Zusammenfügen der Einzelbildaufnahmen zu einem Gesamtbild.Ideally, at each individual waypoint, the camera assumes a uniform camera viewing direction as well as a constant predetermined distance from the scene image plane in order to avoid perspective distortions and size differences between the individual images taken at different waypoints. In reality, however, deviations from the above ideal case are unavoidable, in particular in the case of mounting the camera on a self-moving platform, which is to move relative to the object. In addition to land- and water-based, eigenfortbewegungsfähigen platforms are particularly suitable for taking pictures of large-sized objects flyable platforms, such as Quadro or Octacopter arrangements that allow a three-dimensional motion, with which a holistic optical detection of objects of almost any shape and size with the help a camera mounted on such a platform is possible. Due to the nature of the system, however, the camera is subject to continuous fluctuations in position during the single-frame exposures, which are predominantly in the form of yawing movements about the vertical axis and pitching movements about a horizontal transverse axis through the flight platform. Such disturbing influences affect the joining of the single image recordings to an overall picture.
Um diesen systemimmanenten Störeinflüssen entgegenzutreten, wird lösungsgemäß vorgeschlagen, den Auslösemechanismus der wenigstens einen auf der eigenfortbewegungsfähigen Plattform angebrachten Kamera in Abhängigkeit von deren Raumlage und Abstand relativ zu dem wenigstens einem Objekt zu betätigen. Hierzu werden die Raumlage sowie der Abstand zwischen der wenigstens einen Kamera und dem wenigstens einen Objekt sensoriell in Form von Sensordaten erfasst, auf deren Grundlage die Aktivierung des Auslösemechanismus der Kamera vorgenommen wird.In order to counteract these systemic disturbing influences, it is proposed according to the solution to actuate the triggering mechanism of the at least one camera mounted on the self-propelled platform as a function of its spatial position and distance relative to the at least one object. For this purpose, the spatial position and the distance between the at least one camera and the at least one object are sensory detected in the form of sensor data on the Based on the activation of the trigger mechanism of the camera is made.
In einer bevorzugten Ausführungsform werden die erfassten Sensordaten, bezüglich Raumlage und Abstand, mit einer Fuzzy-Logik zum Erhalt einer Bewertung ausgewertet, die der Aktivierung des Auslösemechanismus zugrunde gelegt werden. Als bevorzugte, so genannte Input-Parameter, mit der die Fuzzy-Logik parametrisiert wird, dienen der sensoriell erfassbare Gier- sowie Neigewinkel, um die die Kamera jeweils um die Hoch- und Querachse geneigt bzw. gekippt wird. Die Fuzzy-Logik dient der Modellierung von Unsicherheiten und stellt eine Verallgemeinerung der zweiwertigen Boolsch'en Logik dar und wird häufig als Expertensystem bezeichnet, mit dem es möglich ist, Prozessabläufe nicht mathematisch, sondern auf sprachlich semantischem Wege zu kontrollieren, wobei es darüber hinaus möglich ist, Expertenerfahrungen in den Prozessablauf der Fuzzy-Logik einfließen zu lassen.In a preferred embodiment, the detected sensor data, in terms of spatial position and distance, are evaluated with a fuzzy logic to obtain a rating that is based on the activation of the triggering mechanism. The preferred so-called input parameters used to parameterize the fuzzy logic are the sensor-detectable yaw and tilt angles, around which the camera is tilted or tilted about the vertical and transverse axes. The fuzzy logic is used to model uncertainties and is a generalization of boolean boolean logic and is often referred to as an expert system, with which it is possible not to control processes mathematically, but in a linguistic semantic way, where it also possible is to incorporate expert experiences in the process flow of fuzzy logic.
Nähert sich beispielsweise die Plattform-gestützte Kamera längs der vorstehend erläuterten Trajektorie einem Wegpunkt, an dem im Idealfall eine Einzelbildaufnahme von dem Objekt aufzunehmen ist, und wird zugleich festgestellt, dass bereits während des Annäherns und/oder unmittelbar am Ort des erreichten Wegepunktes die Gier- und/oder Nickbewegungen um die Hoch- bzw. Querachse über ein tolerables Maß hinaus ausgeprägt sind, so wird der Auslösemechanismus der wenigstens einen an der eigenfortbewegungsfähigen Plattform angebrachten Kamera mehrfach ausgelöst. Die Auslösung erfolgt über die an der Plattform angebrachten Steuereinheit, im Folgenden On-Board-Steuereinheit bezeichnet, die zugleich auch Steuersignale zu Zwecken der Navigation der Plattform generiert und den Antrieb der eigenfortbewegungsfähigen Plattform entsprechend steuert.For example, does the platform-based camera approach a waypoint along the above-described trajectory, which ideally captures a single image of the object, and at the same time ascertains that the yawing and / or directly at the location of the reached waypoint already and / or pitching movements about the vertical axis or transverse axis beyond a tolerable level, the triggering mechanism of the at least one camera mounted on the self-propelled platform is triggered several times. The triggering takes place via the control unit attached to the platform, referred to below as the on-board control unit, which at the same time also generates control signals for purposes of navigating the platform and controls the drive of the self-propelled platform accordingly.
Die bei dem Verfahren angewandte Fuzzy-Logik bewertet das Ausmaß der die räumliche Lage beeinflussenden Störungen in Form der sensoriell erfassten Neige- und Gierwinkel, so dass im Falle von stark auftretenden Lageschwankungen, d. h. bei zunehmenden Störungen, der Auslösemechanismus der Kamera öfter aktiviert wird als im Falle geringer Störungen bzw. keiner Störung, bei dem die Kamera am Ort eines vorab ermittelten Wegepunktes lediglich ein einziges Mal zur Einzelbildaufnahme ausgelöst wird.The fuzzy logic used in the method evaluates the extent of disturbances influencing the spatial position in the form of the sensor-detected tilt and yaw angles, so that in the case of strongly occurring position fluctuations, i. H. in the event of increasing interference, the shutter mechanism of the camera is activated more often than in the case of low interference or no interference, in which the camera is triggered at the location of a previously determined waypoint only once for single image recording.
Zur Realisierung eines mobilen Kamerasystems mit einer eigenfortbewegungsfähigen Plattform, auf der mittel- oder unmittelbar die wenigstens eine Kamera, die über einen Auslösemechanismus zur Einzelbildaufnahme verfügt, eine Steuereinheit, die mit wenigstens einem Antriebsmittel der Plattform zu deren Navigation verbunden ist, sowie eine Sensoreinheit zumindest zur Abstandserfassung der Plattform zu wenigstens einem Umgebungsobjekt sowie zur Raumlageerfassung der Plattform angeordnet sind, ist der Auslösemechanismus lösungsgemäß direkt mit der Steuereinheit verbunden, wobei die Steuereinheit telemetrisch mit einer zur eigenfortbewegungsfähigen Plattform separat vorgesehenen Steuer- und Auswerteeinheit in einem Datenaustausch steht.For the realization of a mobile camera system with a self-propelled platform on the medium or directly the at least one camera, which has a trigger mechanism for single image recording, a control unit which is connected to at least one drive means of the platform for their navigation, and a sensor unit at least for Distance detection of the platform to at least one environment object and for spatial position detection of the platform are arranged, the trigger mechanism is in accordance with the solution directly connected to the control unit, the control unit is telemetrically with a self-propelled platform separately provided control and evaluation unit in a data exchange.
Die mit Hilfe der an der Plattform angebrachten Sensoreinheit erfassten Raumlage- und Abstandsinformationen, die in Form von Sensorsignalen zu der an der eigenfortbewegungsfähigen Plattform angebrachten On-Board-Steuereinheit drahtlos bzw. drahtgebunden übermittelt werden, werden mit Hilfe telemetrischer Übertragungstechnik, d. h. drahtloser Übertragungstechnik, zur weiteren Signalauswertung und Signalbewertung an die separat zur Plattform vorgesehene Steuer- und Auswerteeinheit übertragen. In der als Computer- bzw. Recheneinheit ausgebildeten Steuer- und Auswerteeinheit ist vorzugsweise eine Fuzzy-Logik implementiert, mit der zumindest die Daten von der Sensoreinheit ausgewertet werden.The spatial position and distance information acquired with the aid of the sensor unit mounted on the platform, which are transmitted wireless or wired in the form of sensor signals to the on-board control unit mounted on the self-propelled platform, are transmitted by means of telemetric transmission technology, i. H. wireless transmission technology, for further signal evaluation and signal evaluation to the separately provided to the platform control and evaluation transferred. In the control and evaluation unit embodied as a computer or arithmetic unit, fuzzy logic is preferably implemented with which at least the data is evaluated by the sensor unit.
Sowohl die Datenerfassung mit Hilfe der Sensoreinheit, als auch die telemetrische Datenübertragung zwischen der „On-Board”-Steuereinheit zu der separat vorgesehenen Steuer- und Auswerteeinheit sowie auch die Bewertung zumindest der Daten von der Sensoreinheit auf der Grundlage einer Fuzzy-Logik erfolgen in situ. Durch die unabhängig von der eigenfortbewegungsfähigen Plattform durchgeführte Datenauswertung im Rahmen der vorzugsweise in Form einer bodengestützten Rechnereinheit ausgebildeten Steuer- und Auswerteeinheit, können die On-Board-Systeme, d. h. die an der eigenfortbewegungsfähigen Plattform angebrachte Steuereinheit leicht, energiesparend und kostengünstig ausgebildet sein. Demgegenüber ist die separate Steuer- und Auswerteeinheit unkritisch in Bezug auf Energieversorgung und Gewicht, so dass eine ausreichend große Rechenleistung, die für den Algorithmus einer Fuzzy-Logik erforderlich ist, problemlos zur Verfügung gestellt werden kann.Both the data acquisition by means of the sensor unit and the telemetric data transmission between the "on-board" control unit to the separately provided control and evaluation unit as well as the evaluation of at least the data from the sensor unit on the basis of a fuzzy logic take place in situ , As a result of the data evaluation carried out independently of the self-propelled platform in the context of the control and evaluation unit, which is preferably in the form of a ground-based computer unit, the on-board systems, i. H. the mounted on the self-propelled platform control unit be lightweight, energy-saving and cost-effective. In contrast, the separate control and evaluation unit is uncritical in terms of power supply and weight, so that a sufficiently large computing power, which is required for the algorithm of a fuzzy logic, can be provided without any problems.
Die mit Hilfe der Fuzzy-Logik in der separaten Steuer- und Auswerteeinheit gewonnene Bewertung der Daten von der Sensoreinheit wird telemetrisch zur On-Board-Steuereinheit rückübermittelt, die unter Maßgabe der empfangenen Informationen den Auslösemechanismus der wenigstens einen Kamera betätigt. Hierzu ist die On-Board-Steuereinheit direkt mit dem Auslösemechanismus der vorzugsweise als Digitalkamera ausgebildeten Kamera verbunden.The evaluation of the data from the sensor unit obtained with the aid of the fuzzy logic in the separate control and evaluation unit is telemetered back to the on-board control unit, which actuates the triggering mechanism of the at least one camera in accordance with the received information. For this purpose, the on-board control unit is connected directly to the triggering mechanism of the camera, which is preferably designed as a digital camera.
Zur Erfassung der mit der Fuzzy-Logik zu bewertenden Sensorsignale sieht die Sensoreinheit zur Erfassung der Distanz zwischen Kamera und der Szenebildebene, einen Abstandssensor in Form eines Licht- oder Ultraschallsensors vor. Ferner ist ein Sensor zur Raumlageerfassung der Plattform vorgesehen, der vorzugsweise in Form eines Gyroskops ausgebildet ist.To detect the sensor signals to be evaluated with the fuzzy logic, the sensor unit sees to detect the distance between the camera and the camera Scene image, a distance sensor in the form of a light or ultrasonic sensor. Furthermore, a sensor for spatial position detection of the platform is provided, which is preferably designed in the form of a gyroscope.
Neben der Erfassung der für die Aktivierung des Auslösemechanismus der Kamera notwendigen Informationen über das Gier- und Nickverhalten der eigenfortbewegungsfähigen Plattform weist die Plattform in einer besonders vorteilhaften Ausführungsform zusätzliche Positionssensoren auf, mit denen eine autonome Navigation der Plattform relativ zu einem photographisch aufzunehmenden Objekt längs einer festgelegten Trajektorie zuverlässig möglich ist. Diese für die Navigation erforderlichen Sensorsignale werden mit der On-Board-Steuereinheit ausgewertet. Alternativ oder in Kombination können diese für die Navigation erforderlichen Sendesignale auch mittels Telemetrie in die separat vorgesehene Steuer- und Auswerteeinheit übertragen werden, um entsprechende Navigationssignale zu generieren, die an die On-Board-Steuereinheit der Plattform rückübertragen werden, um auf diese Weise weitere Rechenleistung an den On-Board-Systemen einzusparen, um diese möglichst leicht und Ressourcen schonend ausbilden zu können.In addition to detecting the necessary for the activation of the trigger mechanism of the camera information about the yawing and pitching behavior of the eigenfortbewegungsfähigen platform, the platform in a particularly advantageous embodiment, additional position sensors with which an autonomous navigation of the platform relative to a photographic object to be photographed along a fixed Trajectory reliable is possible. These sensor signals required for navigation are evaluated with the on-board control unit. Alternatively or in combination, these transmission signals required for navigation can also be transmitted by means of telemetry to the separately provided control and evaluation unit in order to generate corresponding navigation signals which are transmitted back to the on-board control unit of the platform in order to provide further computing power to save on the on-board systems in order to be able to train them as easily and resource-conserving.
Das lösungsgemäß ausgebildete mobile Kamerasystem vermag im Unterschied zu bekannten, gattungsgemäßen Kamerasystemen, situationsbedingt den Auslösemechanismus der wenigstens einen Kamera zu aktivieren, so dass die Anzahl von Einzelbildaufnahmen, die erforderlich ist, um ein Gesamtbild des Objektes mit Hilfe der so genannten Stitching-Technik zu erzeugen, signifikant reduziert werden kann. Auch ermöglicht die Auswertung der Daten der Sensoreinheit im Rahmen der separaten Steuer- und Auswerteeinheit die Ausbildung der eigenfortbewegungsfähigen Plattform mit der darauf angebrachten Kamera in einer besonders gewichtreduzierten und Ressourcen-schonenden Weise. Darüber hinaus erfolgt die Einzelbildaufnahme grundsätzlich nur an jenen vorab ermittelten Wegepunkten relativ zum Objekt oder zumindest lediglich nur in einer räumlichen Umgebung um die entsprechenden Wegpunkte, aus denen jeweils ein optimaler Blickwinkel für die jeweilige Einzelbildaufnahme gegeben ist. Unterliegt die eigenfortbewegungsfähige Plattform am Wegpunkt bzw. im räumlichen Bereich um den Wegpunkt Lageschwankungen um die Hoch- und/oder Querachse, so werden mehrere Einzelbilder aufgenommen. Die Fuzzy-Logik, mit der die Daten von der Sensoreinheit ausgewertet werden, legt letztlich die Anzahl der vor Ort zu erstellenden Einzelbilder von dem jeweiligen Teilbereich des Objektes fest.In contrast to known, generic camera systems, the mobile camera system designed in accordance with the invention is capable of activating the release mechanism of the at least one camera depending on the situation, such that the number of individual image recordings required to produce an overall image of the object with the aid of the stitching technique , can be significantly reduced. The evaluation of the data of the sensor unit in the context of the separate control and evaluation unit also enables the training of the self-propelled platform with the camera mounted thereon in a particularly weight-reduced and resource-conserving manner. In addition, the single image acquisition basically takes place only at those previously determined waypoints relative to the object or at least only in a spatial environment around the corresponding waypoints, from each of which an optimal viewing angle for each frame is given. If the self-propelled platform at the waypoint or in the spatial area around the waypoint is subject to positional fluctuations about the vertical and / or transverse axis, several individual images are taken. The fuzzy logic, with which the data is evaluated by the sensor unit, ultimately determines the number of individual images to be created on site from the respective subarea of the object.
Kurze Beschreibung der ErfindungBrief description of the invention
Die Erfindung wird nachstehend ohne Beschränkung des allgemeinen Erfindungsgedankens anhand von Ausführungsbeispielen unter Bezugnahme auf die Zeichnungen exemplarisch beschrieben. Es zeigen:The invention will now be described by way of example without limitation of the general inventive idea by means of embodiments with reference to the drawings. Show it:
Wege zur Ausführung der Erfindung, gewerbliche VerwendbarkeitWays to carry out the invention, industrial usability
Zur Betätigung des Auslösemechanismus
Separat zur eigenfortbewegungsfähigen Plattform
Zur Erfassung möglicher Gier-Bewegungen g um die Hochachse
Die von Seiten der Sensoreinheit
Zur Auswertung der Sensordaten ist in der Steuer- und Auswerteeinheit
Nach Festlegen eines definierten Abstandes, von dem aus das Bücherregal
Es sei angenommen, dass die minimale Anzahl 22 Einzelbildaufnahmen beträgt, die jeweils von diskreten 22 Raumpunkten, den so genannten Wegpunkten
Die eigenfortbewegungsfähige Plattform
Es liegt auf der Hand, dass mit Hilfe der lösungsgemäß ausgebildeten mobilen Kameraeinheit nur so viel Einzelbildaufnahmen von einem optisch zu erfassenden Objekt aufgenommen werden, so dass gewährleistet ist, dass ein hoch auflösendes Gesamtbild des Objektes durch nachträgliches Zusammenfügen geeignet ausgewählter Einzelbilder möglich wird.It is obvious that with the aid of the mobile camera unit designed in accordance with the solution, only so much individual image recordings are taken of an object to be optically detected, so that it is ensured that a high-resolution overall image of the object is possible by subsequently combining suitably selected individual images.
BezugszeichenlisteLIST OF REFERENCE NUMBERS
- 11
- Eigenfortbewegungsfähige PlattformSelf-propelled platform
- 22
- Antriebdrive
- 33
- Kameracamera
- 44
- Auslösemechanismustrigger mechanism
- 55
- Steuereinheitcontrol unit
- 66
- Sensoreinheitsensor unit
- 6.16.1
- Abstandssensordistance sensor
- 6.26.2
- RaumlagesensorSpatial position sensor
- 77
- Positionssensorposition sensor
- 88th
- Verbindungconnection
- 99
- Steuer- und AuswerteeinheitControl and evaluation unit
- 10 10
- Bidirektionale telemetrische VerbindungBidirectional telemetric connection
- 1111
- Hochachsevertical axis
- 1212
- Querachsetransverse axis
- 1313
- Fuzzy-LogikFuzzy logic
- 1414
- Befehlssignalcommand signal
- 1515
- Regalshelf
- 1616
- Wegpunktwaypoint
- 1717
- Trajektorietrajectory
- 1818
- RegaleckpunkteRegal vertices
- S/ES / E
- Sende-/EmpfangseinheitTransmit / receive unit
ZITATE ENTHALTEN IN DER BESCHREIBUNG QUOTES INCLUDE IN THE DESCRIPTION
Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.This list of the documents listed by the applicant has been generated automatically and is included solely for the better information of the reader. The list is not part of the German patent or utility model application. The DPMA assumes no liability for any errors or omissions.
Zitierte PatentliteraturCited patent literature
- US 2010/0215212 A1 [0003] US 2010/0215212 A1 [0003]
- WO 2010/064565 A2 [0004] WO 2010/064565 A2 [0004]
Claims (15)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102013015189.9A DE102013015189A1 (en) | 2013-09-11 | 2013-09-11 | Mobile camera system with a self-propelled platform and method for optical detection of at least one object |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102013015189.9A DE102013015189A1 (en) | 2013-09-11 | 2013-09-11 | Mobile camera system with a self-propelled platform and method for optical detection of at least one object |
Publications (1)
Publication Number | Publication Date |
---|---|
DE102013015189A1 true DE102013015189A1 (en) | 2015-03-12 |
Family
ID=52478289
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE102013015189.9A Withdrawn DE102013015189A1 (en) | 2013-09-11 | 2013-09-11 | Mobile camera system with a self-propelled platform and method for optical detection of at least one object |
Country Status (1)
Country | Link |
---|---|
DE (1) | DE102013015189A1 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109064395A (en) * | 2018-06-19 | 2018-12-21 | 广东数相智能科技有限公司 | A kind of bookshelf image split-joint method, electronic equipment and storage medium made an inventory based on books |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5101351A (en) * | 1989-04-12 | 1992-03-31 | Nissan Motor Company, Limited | Autonomous vehicle using fuzzy control |
WO2010064565A1 (en) | 2008-12-05 | 2010-06-10 | 三菱重工業株式会社 | Inverter-integrated electric compressor and inverter device thereof |
US20100215212A1 (en) | 2009-02-26 | 2010-08-26 | Honeywell International Inc. | System and Method for the Inspection of Structures |
US20120197439A1 (en) * | 2011-01-28 | 2012-08-02 | Intouch Health | Interfacing with a mobile telepresence robot |
DE102011017564A1 (en) * | 2011-04-26 | 2012-10-31 | Aerospy Sense & Avoid Technology Gmbh | Method and system for inspecting a surface for material defects |
US20130176423A1 (en) * | 2012-01-05 | 2013-07-11 | Parrot | Method for piloting a rotary wing drone for taking an exposure through an onboard camera with minimization of the disturbing movements |
-
2013
- 2013-09-11 DE DE102013015189.9A patent/DE102013015189A1/en not_active Withdrawn
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5101351A (en) * | 1989-04-12 | 1992-03-31 | Nissan Motor Company, Limited | Autonomous vehicle using fuzzy control |
WO2010064565A1 (en) | 2008-12-05 | 2010-06-10 | 三菱重工業株式会社 | Inverter-integrated electric compressor and inverter device thereof |
US20100215212A1 (en) | 2009-02-26 | 2010-08-26 | Honeywell International Inc. | System and Method for the Inspection of Structures |
US20120197439A1 (en) * | 2011-01-28 | 2012-08-02 | Intouch Health | Interfacing with a mobile telepresence robot |
DE102011017564A1 (en) * | 2011-04-26 | 2012-10-31 | Aerospy Sense & Avoid Technology Gmbh | Method and system for inspecting a surface for material defects |
US20130176423A1 (en) * | 2012-01-05 | 2013-07-11 | Parrot | Method for piloting a rotary wing drone for taking an exposure through an onboard camera with minimization of the disturbing movements |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109064395A (en) * | 2018-06-19 | 2018-12-21 | 广东数相智能科技有限公司 | A kind of bookshelf image split-joint method, electronic equipment and storage medium made an inventory based on books |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP1761759B1 (en) | Method for controlling a pipe inspection system and for evaluating the inspection data | |
KR101783545B1 (en) | Camera Gimbal Syatem of Unmanned Flight Vehicle for VR 360 degree Omnidirectional Photographing | |
EP3376213A1 (en) | Method and assembly for monitoring the state of a system with operating elements | |
DE102012200731A1 (en) | Method and device for visualizing the environment of a vehicle | |
EP3876065A1 (en) | Method for determining a path along an object, system and method for automatic inspecting an object | |
DE102011082478A1 (en) | Method, system and device for locating a vehicle relative to a predefined reference system | |
DE102012107727B4 (en) | Navigation method, distance control method and method for inspecting a flooded tunnel therewith as well as navigation device, distance control device and underwater vehicle therewith | |
EP2191340A2 (en) | Arrangement for detecting an environment | |
EP4116790B1 (en) | Autonomously moving system and control and navigation device for an autonomously moving system | |
DE102013211005A1 (en) | A method for determining a condition of a vehicle after use of the vehicle and corresponding system | |
WO2017220092A1 (en) | Method and vehicle control system for producing images of a surroundings model, and corresponding vehicle | |
DE102018214874B3 (en) | Method and arrangement for generating an environment map of a vehicle textured with image information and vehicle comprising such an arrangement | |
EP3726425B1 (en) | Method for physical, in particular optical, detection of at least one application object | |
WO2019043112A1 (en) | Method for measuring an area by means of a measuring vehicle | |
DE102013015189A1 (en) | Mobile camera system with a self-propelled platform and method for optical detection of at least one object | |
DE102017123226A1 (en) | A method of determining a critical altitude of a forward link for a vehicle comprising a towing vehicle and a trailer | |
EP3921804A1 (en) | Calibration unit for a monitoring device, monitoring device for man-overboard monitoring and method for calibration | |
EP3547059B1 (en) | Method for controlling unmanned vehicles | |
DE102011009952A1 (en) | Method for determining position and location of astronaut in spacecraft, involves transmitting three-dimensional co-ordinates of detected three-dimensional position of each point from spacecraft to control station | |
DE102017201354B4 (en) | Modular driving simulator | |
DE102019105225B4 (en) | System and method for recording at least one image of an observation area | |
DE102014107317B4 (en) | Electronic periscope for a motor vehicle | |
DE102015113251A1 (en) | SYSTEM AND METHOD FOR ENTERING AN INSPECTED BACKWARD ROUTE | |
DE102013223995A1 (en) | Method of creating a depth map for a camera | |
EP3376152A1 (en) | Information processing system and information processing method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
R012 | Request for examination validly filed | ||
R016 | Response to examination communication | ||
R119 | Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee |