DE102012111345A1 - Mobile handheld device e.g. smart phone for aligning arrangement of optoelectronic sensor, has interface unit to receive range of view image and information about position of light spots in range of view image - Google Patents
Mobile handheld device e.g. smart phone for aligning arrangement of optoelectronic sensor, has interface unit to receive range of view image and information about position of light spots in range of view image Download PDFInfo
- Publication number
- DE102012111345A1 DE102012111345A1 DE201210111345 DE102012111345A DE102012111345A1 DE 102012111345 A1 DE102012111345 A1 DE 102012111345A1 DE 201210111345 DE201210111345 DE 201210111345 DE 102012111345 A DE102012111345 A DE 102012111345A DE 102012111345 A1 DE102012111345 A1 DE 102012111345A1
- Authority
- DE
- Germany
- Prior art keywords
- sensor
- image
- handset
- view image
- light spot
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01B—MEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
- G01B11/00—Measuring arrangements characterised by the use of optical techniques
- G01B11/24—Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01B—MEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
- G01B11/00—Measuring arrangements characterised by the use of optical techniques
- G01B11/24—Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
- G01B11/25—Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/02—Systems using the reflection of electromagnetic waves other than radio waves
- G01S17/04—Systems determining the presence of a target
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/003—Transmission of data between radar, sonar or lidar systems and remote stations
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/48—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
- G01S7/497—Means for monitoring or calibrating
- G01S7/4972—Alignment of sensor
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/48—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
- G01S7/51—Display arrangements
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01V—GEOPHYSICS; GRAVITATIONAL MEASUREMENTS; DETECTING MASSES OR OBJECTS; TAGS
- G01V8/00—Prospecting or detecting by optical means
- G01V8/10—Detecting, e.g. by using light barriers
- G01V8/12—Detecting, e.g. by using light barriers using one transmitter and one receiver
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/02—Systems using the reflection of electromagnetic waves other than radio waves
- G01S17/06—Systems determining position data of a target
- G01S17/42—Simultaneous measurement of distance and other co-ordinates
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Networks & Wireless Communication (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Electromagnetism (AREA)
- Life Sciences & Earth Sciences (AREA)
- Geophysics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Life Sciences & Earth Sciences (AREA)
- Telephone Function (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Studio Devices (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
Description
Die Erfindung betrifft ein mobiles Handgerät zur Ausrichtung eines Sensors, einen optoelektronischen Sensor zur Erfassung von Objekten in einem Überwachungsbereich sowie ein Verfahren zur Ausrichtung eines Sensors zur Erfassung mit Hilfe eines Handgeräts nach den Oberbegriffen von Anspruch 1, Anspruch 7 und Anspruch 13. The invention relates to a mobile handheld device for aligning a sensor, an optoelectronic sensor for detecting objects in a surveillance area and a method for aligning a sensor for detection by means of a handheld device according to the preambles of claim 1, claim 7 and claim 13.
Viele optoelektronische Sensoren senden einen Lichtstrahl aus und werten das von einem Objekt in ihrem Überwachungsbereich zurückgeworfene eigene Sendelicht aus. Solche Sensoren bedürfen häufig einer recht genauen Ausrichtung, bei welcher der Lichtfleck, den das Sendelicht auf dem Objekt erzeugt, in eine für die Aufgabe des Sensors geeignete Position gebracht wird. Beispielsweise wird auf diese Weise eine Reflexionslichtschranke auf ihren Reflektor oder eine Datenlichtschranke auf ihr Gegenstück, bei einem Lichtgitter der Sendestab mit dem Empfängerstab ausgerichtet, bei einem Entfernungstaster das zu vermessende Objekt angetastet oder die Überwachungsebene eines Laserscanners eingestellt. Many opto-electronic sensors emit a light beam and evaluate the own transmitted light reflected from an object in its surveillance area. Such sensors often require a fairly accurate orientation, in which the light spot which the transmitted light generates on the object is brought into a position suitable for the task of the sensor. For example, in this way a reflection light barrier is aligned with its reflector or a data light barrier on its counterpart, with a light grid of the transmission rod with the receiver rod, with a distance sensor the object to be measured touched or set the monitoring level of a laser scanner.
Solange das Sendelicht einen gut sichtbaren Lichtfleck hinterlässt, ist die Ausrichtung relativ einfach mit dem Auge zu bewerkstelligen. Das ist aber aus zwei Gründen oft nicht gegeben: Die Intensität des Lichtflecks genügt nicht unbedingt, um ihn auch aus größerer Entfernung noch gut zu erkennen, und vor allem nutzen viele Sensoren nicht sichtbares Licht beispielsweise im Infrarot- oder Ultraviolettbereich. As long as the transmitted light leaves a visible light spot, the alignment is relatively easy to do with the eye. However, this is often not the case for two reasons: the intensity of the light spot is not necessarily sufficient to recognize it well from a distance, and above all, many sensors use invisible light, for example in the infrared or ultraviolet range.
Deshalb sind im Stand der Technik zahlreiche Ausrichthilfen bekannt. Bei einer herkömmlichen Lösung zeigt der Sensor den Empfangspegel an und gibt nach Möglichkeit mit einem positionssensitiven Lichtempfänger einen Hinweis, in welche Richtung der Sensor für eine bessere Ausrichtung gedreht werden sollte. Bei aktiver Gegenstelle, wie in einem Lichtgitter oder einer Datenlichtschranke, kann diese eine Rückmeldung über die empfangene Intensität geben. Andere Lösungen suchen die Sichtbarkeit des Lichtflecks zu stärken, etwa indem ein zusätzlicher Pilotsender mit sichtbarem Licht in paralleler Abstrahlrichtung zu dem eigenen Lichtsender oder ein optisches Fadenkreuz vorgesehen wird. Denkbar ist weiterhin, von einer festen Abstrahlrichtung auszugehen und den Sensor unabhängig vom tatsächlichen Lichtfleck auszurichten. Dazu kann eine Zielhilfe an dem Sensor über Kimme und Korn oder die Verwendung einer Wasserwaage dienen. Therefore, numerous alignment aids are known in the art. In a conventional solution, the sensor will indicate the receive level and, if possible, use a position-sensitive light receiver to indicate in which direction the sensor should be rotated for better alignment. With active remote station, such as in a light grid or a data light barrier, this can give a feedback about the received intensity. Other solutions seek to increase the visibility of the light spot, such as by providing an additional pilot transmitter with visible light in a parallel direction of radiation to the own light emitter or an optical reticle. It is also conceivable to start from a fixed radiation direction and to align the sensor independently of the actual light spot. This can be a target help on the sensor over the sight and grain or the use of a spirit level.
Viele dieser Lösungen müssen speziell für den jeweiligen Sensortyp zugeschnitten werden. Das erfordert Aufwand für die Entwicklung und Herstellung der Sensoren. Dennoch bleibt die Nutzerfreundlichkeit begrenzt. Many of these solutions have to be tailored to the specific type of sensor. This requires effort for the development and production of the sensors. Nevertheless, the user-friendliness remains limited.
Von Mobilfunkgeräten ist bekannt, mit der eigenen Kamera Bilder in der sogenannten augmented reality darzustellen. Dabei werden dem Livebild zusätzliche Informationen überblendet. Derartige Anwendungen markieren beispielsweise die Sonnenbahn an beliebig wählbaren Tagen im Jahr für die Wohnungsbesichtigung oder die Planung einer Photovoltaikanlage. Für die Ausrichtung von Sensoren sind solche Anwendungen nicht gedacht und ungeeignet. From mobile devices is known to represent images in the so-called augmented reality with their own camera. In the process, additional information is superimposed on the live image. Such applications mark, for example, the sun track on arbitrary days in the year for the apartment inspection or planning a photovoltaic system. For the alignment of sensors such applications are not intended and unsuitable.
Bekannte Kameras zeigen überdies während der Bildersuche wählbare Fokusbereiche an, die dazu zum Teil durch einen Entfernungssensor ausgemessen werden. Das dient aber allenfalls der Ausrichtung der Kamera selbst und hilft in keiner Weise dabei, einen externen optoelektronischen Sensor auszurichten. In addition, known cameras display selectable focus areas during the image search, some of which are measured by a distance sensor. However, this serves at best the orientation of the camera itself and in no way helps to align an external optoelectronic sensor.
Es ist daher Aufgabe der Erfindung, die Ausrichtung eines optoelektronischen Sensors zu verbessern. It is therefore an object of the invention to improve the alignment of an optoelectronic sensor.
Diese Aufgabe wird durch ein mobiles Handgerät zur Ausrichtung eines Sensors, einen optoelektronischen Sensor zur Erfassung von Objekten in einem Überwachungsbereich sowie ein Verfahren zur Ausrichtung eines Sensors zur Erfassung mit Hilfe eines Handgeräts nach Anspruch 1, Anspruch 7 und Anspruch 13 gelöst. Dabei geht die Erfindung von dem Grundgedanken aus, für die Ausrichtung benötigte Auswertungen und Anzeigen von dem Sensor an ein mobiles Handgerät auszulagern. Dazu umfasst die Erfindung einerseits ein mobiles Handgerät, welches in der Lage ist, ein Sichtbereichsbild des Sensors und eine Position des Lichtflecks in dem Sichtbereichsbild von einem Sensor zu empfangen und auf dieser Basis die Ausrichtung in einem Überlagerungsbild des Sichtbereichs und einer Zielanzeige der Position eines von dem Sensor erzeugten Lichtflecks zu visualisieren. Andererseits wird ein zugehöriger Sensor angegeben, welcher sein Sichtbereichsbild und die Position des Lichtflecks innerhalb des Sichtbereichsbildes für ein mobiles Handgerät bereitstellt. Unter einem mobilen Handgerät soll hier ein tragbarer Computer im weitesten Sinne, wie ein Notebook oder ein Tablet und insbesondere ein Mobilfunkgerät beziehungsweise Smartphone verstanden werden. This object is achieved by a mobile hand-held device for aligning a sensor, an opto-electronic sensor for detecting objects in a surveillance area and a method for aligning a sensor for detection using a hand-held device according to claim 1, claim 7 and claim 13. The invention is based on the basic idea of outsourcing evaluations and displays required for alignment from the sensor to a mobile handheld device. To this end, the invention comprises, on the one hand, a mobile handset capable of receiving a field of view image of the sensor and a position of the light spot in the field of view image from a sensor and, based thereon, the alignment in a sub-picture of the field of view and a target display of the position of one of To visualize the light spot generated by the sensor. On the other hand, an associated sensor is provided which provides its field of view image and the position of the light spot within the field of view image for a mobile handset. Under a mobile handset here is a portable computer in the broadest sense, such as a notebook or a tablet and in particular a mobile device or smartphone are understood.
Die Erfindung hat den Vorteil, dass die Ausrichtung eines Sensors erheblich erleichtert und durch eine besonders intuitive, nutzerfreundliche universelle Ausrichthilfe unterstützt wird, welche keine besonderen Kenntnisse eines speziellen Sensors voraussetzt. Ein hoher Bedienkomfort, eine große Rechenleistung und eine hochauflösende Anzeige werden nicht durch den Sensor, sondern durch das Handgerät bereitgestellt. Zugriff auf ein solches Handgerät in jeweils aktueller Hardware ist fast immer unabhängig von dem Sensor gegeben. Während die Sensoren hinsichtlich ihrer Rechenleistung und Visualisierung äußerst einfach und kostengünstig und in dieser Form auch unverändert über viele Jahre im Einsatz bleiben können, veraltet die Ausrichtung dennoch nicht, so dass der Benutzer einfach, schnell und angenehm arbeiten kann, ohne die Geräte jemals als veraltet zu empfinden. Der Benutzer kann die Ausrichtung sogar mit dem vertrauten eigenen Gerät vornehmen, etwa seinem Smartphone, und muss sich gar nicht auf fremde Technik einlassen. Es entsteht eine ideale Synergie mit den Fortschritten in der mobilen Consumerelektronik, der von der Entwicklung des Sensors entkoppelt genutzt werden kann. The invention has the advantage that the orientation of a sensor is greatly facilitated and supported by a particularly intuitive, user-friendly universal alignment, which requires no special knowledge of a particular sensor. High ease of use, high computing power and a high resolution display are not provided by the sensor, but by the handheld device. Access to such a handheld device in current hardware is almost always given independent of the sensor. While the sensors can be extremely simple and cost-effective in their performance and visualization, and remain unchanged for many years, the alignment still does not become obsolete, allowing the user to work easily, quickly, and comfortably without the devices being outdated to feel. The user can even make the alignment with their own familiar device, such as their smartphone, and does not have to get involved with third-party technology. It creates an ideal synergy with the advances in mobile consumer electronics, which can be used decoupled from the development of the sensor.
Das Handgerät weist bevorzugt einen eigenen Bildsensor zur Aufnahme eines zusätzlichen Sichtbereichsbildes des Überwachungsbereichs auf, wobei die Fusionseinheit dafür ausgebildet ist, das Überlagerungsbild auch basierend auf dem zusätzlichen Sichtbereichsbild zu erzeugen. Das Handgerät nutzt also seine eigene Kamera zur Aufnahme des eigenen Sichtbereichs. Diese Kamera ist meist ohnehin vorhanden, leistungsstark und hochauflösend, so dass der Sensor kein für den Benutzer gutes Sichtbereichsbild zu liefern braucht und somit schon mit einem vergleichsweise leistungsschwachen und daher kostengünstigen Bildsensor auskommt. Denn das Sichtbereichsbild des Sensors wird lediglich genutzt, um die Position des Lichtflecks in dem zusätzlichen Sichtbereichsbild der eigenen Kamera des Handgeräts abzugleichen, und gegebenenfalls noch um die Bildqualität des zusätzlichen Sichtbereichsbilds etwa durch Füllen von Lücken oder eine Plausibilisierung von Bildbereichen zu erhöhen. The handset preferably has its own image sensor for receiving an additional field view image of the monitored area, wherein the fusion unit is adapted to generate the overlay image also based on the additional field view image. The handset uses its own camera to record its own field of view. This camera is usually available anyway, powerful and high-resolution, so that the sensor needs to provide no good for the user viewing area image and thus already gets by with a comparatively low-power and therefore inexpensive image sensor. Because the field of vision image of the sensor is only used to adjust the position of the light spot in the additional field view image of the camera of the handset, and possibly even to increase the image quality of the additional field view image such as filling gaps or a plausibility of image areas.
Auch eine möglicherweise mit gezeigte Bildinformation des Lichtflecks selbst entstammt dem Sichtbereichsbild des Sensors, sofern der Bildsensor des Handgeräts für die Wellenlänge des Lichtflecks nicht empfindlich ist. Das Handgerät sollte für die Aufnahme des zusätzlichen Sichtbereichs eine in etwa gleiche Perspektive einnehmen wie der Sensor. Dabei verbleibende perspektivische Unterschiede rechnet die Fusionseinheit aber vorzugsweise heraus, so dass hier keine übertriebenen Genauigkeitsanforderungen an den Benutzer gestellt sind. Also, image information of the light spot itself, which may be shown with, comes from the visual field image of the sensor, as long as the image sensor of the handheld device is not sensitive to the wavelength of the light spot. The handset should have approximately the same perspective as the sensor for taking in the extra field of view. Remaining perspective differences, however, the fusion unit preferably expects, so that no exaggerated accuracy requirements are placed on the user here.
Die Fusionseinheit ist bevorzugt dafür ausgebildet, das Sichtbereichsbild des Sensors und das zusätzliche Sichtbereichsbild des eigenen Bildsensors miteinander in Übereinstimmung zu bringen, um die Position des Lichtflecks in dem zusätzlichen Sichtbereichsbild zu bestimmen. Im einfachsten Fall wird dazu angenommen, dass die Bildbereiche des Sichtbereichsbildes des Sensors und des zusätzlichen Sichtbereichsbildes des eigenen Bildsensors des Handgeräts einander entsprechen, so dass die Zielanzeige einfach an der gleichen Position dem zusätzlichen Sichtbereichsbild überlagert wird, welche der Sensor auch für sein eigenes Sichtbereichsbild bestimmt hat. The fusing unit is preferably configured to match the viewing area image of the sensor and the additional viewing area image of the own image sensor to determine the position of the light spot in the additional field of view image. In the simplest case, it is assumed that the image areas of the field of view image of the sensor and the additional field view image of the handset's own image sensor correspond to each other so that the target display is simply superimposed at the same position on the additional field of view image which the sensor also determines for its own field of view image Has.
Deutlich robuster ist eine Registrierung der beiden Sichtbereichsbilder, indem also durch Operationen wie Verschieben, Verdrehen und Reskalieren das Sichtbereichsbild des Sensors in das zusätzliche Sichtbereichsbild des Bildsensors des Handgeräts eingepasst wird. Dies gelingt beispielsweise durch Korrelation der beiden Sichtbereichsbilder, die sich statt auf die gesamten Bilder auch auf ausgewählte Bildmerkmale oder interessierende Bereiche (ROI, region of interest) beschränken kann. Danach ist die Operation bekannt, welche die Perspektive des Sensors auf diejenige des Handgeräts transformiert, und diese Transformationsregel wird genutzt, um die Zielanzeige an der richtigen Position in das zusätzliche Sichtbereichsbild einzublenden. Significantly more robust is a registration of the two viewing area images, ie by operations such as shifting, twisting and rescaling the visual field image of the sensor is fitted in the additional field view image of the image sensor of the handset. This is achieved, for example, by correlating the two field of view images, which can be limited to selected image features or regions of interest (ROI) instead of the entire images. Thereafter, the operation is known which transforms the perspective of the sensor to that of the hand-held device, and this transformation rule is used to display the target display in the correct position in the additional field of view image.
Sofern der Bildsensor des Handgeräts für die Wellenlänge des Lichtflecks empfindlich ist, kann versucht werden, den Lichtfleck direkt durch Bildverarbeitung zu lokalisieren. Die dabei bestimmte Position des Lichtflecks kann auch als Ausgangspunkt beziehungsweise zur Plausibilisierung bei der Registrierung der beiden Sichtbereichsbilder genutzt werden. If the image sensor of the handset is sensitive to the wavelength of the light spot, an attempt can be made to locate the light spot directly by image processing. The determined position of the light spot can also be used as a starting point or for plausibility checking during the registration of the two viewing area images.
Das Handgerät weist bevorzugt einen Lage- und/oder Beschleunigungssensor auf, wobei die Fusionseinheit dafür ausgebildet ist, eine Orientierungs- und/oder Positionsänderung des Handgeräts zu bestimmen und bei der Fusionierung der Zielanzeige in das Überlagerungsbild zu berücksichtigen. Derartige Sensoren gehören für viele höherwertige Mobilfunkgeräte zur Ausstattung. Es ist damit möglich, auf Basis eines anfänglichen Positions- und Orientierungsabgleichs zwischen Sensor und Handgerät die Bewegungen des Handgeräts zu aufzuintegrieren und damit Wissen über die aktuelle Perspektive des Handgeräts gegenüber dem Sensor zu gewinnen. Dadurch kann die Position des Lichtflecks auf die aktuelle Position und Orientierung des Handgeräts umgerechnet werden. The handset preferably has a position and / or acceleration sensor, wherein the fusion unit is designed to determine a change in orientation and / or position of the handset and to take into account in the merger of the target display in the overlay image. Such sensors are available for many high-quality mobile devices. It is thus possible, based on an initial position and orientation balance between sensor and handset aufintegrieren the movements of the handset and thus gain knowledge of the current perspective of the handset relative to the sensor. This allows the position of the light spot to be converted to the current position and orientation of the handset.
Das Handgerät weist bevorzugt einen Positionssensor auf, wobei die Fusionseinheit dafür ausgebildet ist, eine von dem Positionssensor bestimmte Position des Handgeräts bei der Fusionierung der Zielanzeige in das Überlagerungsbild zu berücksichtigen. Die Erfassung der Position erfolgt beispielsweise durch GPS, Galilei oder ein vergleichbares, möglicherweise auch proprietäres System für außen oder innen. Soweit der Positionssensor keine Orientierung erfasst, kann ein Lagesensor hinzugenommen werden. Bei bekannter Position und Orientierung des Sensors, die auch durch ein Einlernen während eines physischen Kontakts zwischen Sensor und Handgerät durch den Positionssensor bestimmt werden kann, ist die erfasste aktuelle Position eine weitere Alternative, um die Zielanzeige in dem Überlagerungsbild an die richtige Position zu bringen. The handset preferably has a position sensor, wherein the fusion unit is designed to take into account a position of the handset determined by the position sensor when fusing the target display into the overlay image. The detection of the position, for example, by GPS, Galileo or a comparable, possibly also proprietary system for outside or inside. As far as the position sensor detects no orientation, a position sensor can be added. If the position and orientation of the sensor is known, which can also be determined by the position sensor sensing during physical contact between the sensor and the handset, the detected current position is one Another alternative to bring the target display in the overlay image in the correct position.
Eine Bildfusion durch Korrelation, die Bestimmung des Weges zwischen Sensor und Handgerät durch einen Lage- und/oder Beschleunigungssensor sowie die Bestimmung der aktuellen Position des Handgeräts durch einen Positionssensor sind drei unterschiedliche Möglichkeiten, die Perspektiven des Sensors und des Handgeräts für eine korrekte Zielanzeige in dem Überlagerungsbild ineinander zu überführen. Diese Möglichkeiten können auch miteinander kombiniert werden, um genauere Ergebnisse zu erhalten oder Fehler aufzudecken Image fusion by correlation, determination of the path between the sensor and handset by a position and / or acceleration sensor, and the determination of the current position of the handset by a position sensor are three different possibilities, the perspectives of the sensor and the handset for a correct target display in the To convert overlay image into each other. These possibilities can also be combined with each other for more accurate results or to detect errors
Die Fusionseinheit ist bevorzugt dafür ausgebildet, das Überlagerungsbild auf die Perspektive des Sensors zurückzurechnen. Hierbei wird das qualitativ hochwertigere zusätzliche Sichtbereichsbild von einem Bildsensor des Handgeräts angezeigt, aber so, als wäre es aus der Perspektive des Sensors aufgenommen. Die perspektivischen Unterschiede sind beispielsweise mit einer der im letzten Absatz zusammengefassten Vorgehensweisen bestimmt. Die Perspektiven von Sensor und Handgerät dürfen hierfür aber nicht zu unterschiedlich sein, weil sonst nicht genug geeignete Bildinformation zur Verfügung steht. Es ist aber zumindest möglich, ein auf die Position des Lichtflecks zentriertes Überlagerungsbild mit dem Sichtbereichsbild des Sensors anzuzeigen, das je nach Perspektive des Handgeräts mit Bildinformationen des Bildsensors des Handgeräts aufgebessert wird. The fusion unit is preferably designed to calculate the overlay image back to the perspective of the sensor. In this case, the higher-quality additional field of view image is displayed by an image sensor of the hand-held device, but as if it were taken from the perspective of the sensor. The perspective differences are determined, for example, with one of the procedures summarized in the last paragraph. However, the perspectives of sensor and handheld device should not be too different for this, because otherwise not enough suitable image information will be available. However, it is at least possible to display a superimposed on the position of the light spot overlay image with the field view image of the sensor, which is improved depending on the perspective of the handset with image information of the image sensor of the handset.
Der erfindungsgemäße Sensor zur Erfassung von Objekten in einem Überwachungsbereich erzeugt mit seinem Lichtsender bei Auftreffen auf ein Objekt vorzugsweise einen Lichtfleck mit Sendelicht außerhalb des sichtbaren Spektrums oder mit so geringer Ausdehnung beziehungsweise Intensität, dass der Lichtfleck mit dem menschlichen Auge nicht oder kaum erkennbar ist. Ansonsten könnte man direkt den Lichtfleck selbst für die Ausrichtung nutzen. Der Sensor nimmt ein Sichtbereichsbild auf, bestimmt oder kennt die Position des Lichtflecks bezüglich des eigenen Sichtbereichsbildes und gibt Sichtbereichsbild und Position zur Verwendung in einem erfindungsgemäßen Handgerät aus. Bei dem Sensor handelt es sich beispielsweise um ein einstrahliges System, wie einen Entfernungstaster oder eine Lichtschranke, insbesondere Datenlichtschranke. Denkbar sind aber auch andere Sensoren, etwa Laserscanner oder Lichtgitter. Der Sensor benötigt für die Ausrichtung nur eine geringe Hardwareausstattung ohne eigene Anzeigetreiber, hochwertige Anzeige oder hochauflösenden Bildsensor und so gut wie keine Rechenkapazitäten, da alle komplexeren Auswertungen in dem Handgerät erfolgen können. Selbstverständlich soll dadurch das Vorhandensein solcher Hardwareausstattung auch des Sensors nicht ausgeschlossen werden. The inventive sensor for detecting objects in a surveillance area preferably generates a light spot with transmitted light outside the visible spectrum or with so little expansion or intensity with its light emitter when striking an object that the light spot is not or hardly recognizable with the human eye. Otherwise you could directly use the light spot for alignment. The sensor captures a field of view image, determines or knows the position of the light spot with respect to its own field of view image, and outputs field of view image and position for use in a handset of the invention. The sensor is, for example, a single-beam system, such as a distance sensor or a light barrier, in particular a data light barrier. However, other sensors, such as laser scanners or light grids, are also conceivable. The sensor requires only a small amount of hardware for the alignment without its own display driver, high-quality display or high-resolution image sensor and virtually no computing capacity, since all more complex evaluations can be made in the handset. Of course, the presence of such hardware equipment of the sensor should not be excluded.
Die Lichtfleck-Positionsbestimmungseinheit weist bevorzugt einen Speicher auf, um darin die Position des Lichtflecks vorab abzulegen. Der Sensor kennt damit die Ausrichtung des Lichtsenders zu sich selbst und damit auch gegenüber dem eigenen Bildsensor zur Aufnahme des Sichtbereichsbildes. Diese eigene Ausrichtung kann einfach durch ein Toleranzmodell festgelegt werden, worin letztlich unterstellt wird, dass der Bautyp des Sensors die eigene Ausrichtung festlegt. Möchte man die dabei auftretenden Toleranzen genauer in den Griff bekommen, so ist auch ein anfängliches Einlernen während der Justage der Sensorkomponenten im Verlauf der Herstellung oder bei der Endprüfung möglich. Hier sind definierte Umgebungsbedingungen und standardisierte Verfahren durch Fachpersonal gegeben, so dass es auf einfache und intuitive Vorgehensweisen weniger ankommt. Die durch die Erfindung adressierte Ausrichtung dagegen betrifft vorzugsweise nicht den Sensor in sich, sondern gegenüber seiner Umgebung in der Anwendung. The light spot position determination unit preferably has a memory in order to advance the position of the light spot in advance. The sensor thus knows the orientation of the light transmitter to itself and thus also with respect to its own image sensor for recording the field view image. This own orientation can be easily determined by a tolerance model, which ultimately assumes that the type of construction of the sensor determines its own orientation. If you want to get a closer grip on the resulting tolerances, an initial teach-in during the adjustment of the sensor components in the course of production or in the final test is possible. Here, defined environmental conditions and standardized procedures are given by qualified personnel, so that simple and intuitive procedures are less important. The orientation addressed by the invention, on the other hand, preferably does not relate to the sensor in itself but to its environment in use.
Die Lichtfleck-Positionsbestimmungseinheit ist bevorzugt dafür ausgebildet, die Position des Lichtflecks mittels Bildverarbeitung zu bestimmen. Der Sensor ist, um seine Objekterfassungsaufgabe erfüllen zu können, zwangsläufig auch bei Sendelicht außerhalb des sichtbaren Spektrums in der Lage, den Lichtfleck zu erfassen. Allerdings muss dafür nicht notwendig der Bildsensor zur Aufnahme des Sichtbereichsbildes verwendet werden. Ist aber dieser Bildsensor für den Lichtfleck sensitiv, so kann aus dem Sichtbereichsbild durch Bildverarbeitung auch die als Ausgabegröße an das Handgerät erforderliche Position des Lichtflecks für die sensoreigene Perspektive, also gegenüber dem Sichtbereichsbild des Sensors bestimmt werden. The light spot position determination unit is preferably designed to determine the position of the light spot by means of image processing. In order to fulfill its object detection task, the sensor is inevitably able to detect the light spot even with transmitted light outside the visible spectrum. However, the image sensor does not necessarily have to be used to record the field of view image. If, however, this image sensor is sensitive to the light spot, then the position of the light spot required as the output variable to the handheld device for the sensor's own perspective, that is, with respect to the field of view image of the sensor, can be determined from the field of view image by image processing.
Sofern der Sensor distanzmessend ausgelegt ist, können die gespeicherten, eingelernten oder bestimmten Positionen des Lichtflecks auch noch eine Abhängigkeit vom jeweiligen Objektabstand aufweisen. Es wird also keine einzelne Position, sondern eine abstandsabhängige Funktion bereitgestellt. If the sensor is designed to be distance-measuring, the stored, taught or determined positions of the light spot can also have a dependence on the respective object distance. So no single position, but a distance-dependent function is provided.
Der Sensor weist bevorzugt eine Vorverarbeitungseinheit auf, um das Sichtbereichsbild für die Ausgabe an der Schnittstelle aufzubereiten. Dies erfordert dann einige interne Rechenkapazität, hilft aber dafür, die benötigte Bandbreite zu reduzieren. Beispiele für eine derartige Vorverarbeitung sind Komprimierung, Binarisierung, Beschränkung auf interessierende Bereiche, insbesondere mit dem Lichtfleck oder markanten Objekten oder vermutlich von dem Fusionsalgorithmus des Handgeräts wiedererkennbare Bildmerkmale beziehungsweise Objektkanten. The sensor preferably has a preprocessing unit to prepare the field of view image for output at the interface. This then requires some internal computational capacity, but helps to reduce the bandwidth needed. Examples of such pre-processing are compression, binarization, restriction to areas of interest, in particular with the light spot or prominent objects, or image features or object edges presumably recognizable by the fusion algorithm of the hand-held device.
In vorteilhafter Weiterbildung ist eine Anordnung zur Ausrichtung eines erfindungsgemäßen optoelektronischen Sensors mit einem erfindungsgemäßen mobilen Handgerät vorgesehen. Dabei sind die Schnittstellen des Sensors und des Handgeräts vorzugsweise drahtlos. Dazu kommen praktisch alle bekannten und zukünftig eingesetzten Standards in Frage, wie Bluetooth, 3G, LTE, WLAN, IR und andere. Mobile Handgeräte sind meist ohnehin mit einer Vielzahl derartiger Schnittstellen ausgerüstet, so dass für den Sensor eine geeignete Auswahl getroffen werden kann. In an advantageous embodiment, an arrangement for aligning an optoelectronic sensor according to the invention with a mobile handheld device according to the invention is provided. The interfaces of the sensor and the handset are preferably wireless. In addition, practically all known and future standards are in question, such as Bluetooth, 3G, LTE, WLAN, IR and others. Mobile handsets are usually equipped anyway with a variety of such interfaces, so that for the sensor a suitable selection can be made.
Das erfindungsgemäße Verfahren kann auf ähnliche Weise durch weitere Merkmale ausgestaltet werden und zeigt dabei ähnliche Vorteile. Derartige weitere Merkmale sind beispielhaft, aber nicht abschließend, in den sich an die unabhängigen Ansprüche anschließenden Unteransprüchen beschrieben. The inventive method can be configured in a similar manner by further features and shows similar advantages. Such further features are exemplary, but not exhaustive, in which subclaims following the independent claims are described.
Die Erfindung wird nachstehend auch hinsichtlich weiterer Vorteile und Merkmale unter Bezugnahme auf die beigefügte Zeichnung anhand von Ausführungsbeispielen erläutert. Die Figuren der Zeichnung zeigen in: The invention will be explained below with regard to further advantages and features with reference to the accompanying drawings with reference to embodiments. The figures of the drawing show in:
Der Sensor
Der Sensor umfasst weiterhin eine Steuerungs- und Auswertungseinheit
Die beschriebene Sensorfunktion basiert darauf, dass der Sensor
Um die Ausrichtung zu unterstützen, gibt der Sensor
Als weitere Information gibt die Auswertungseinheit
Das Handgerät
Eine Fusionseinheit
Je nach Ausstattung des Handgeräts
Auf Grundlage der Transformationsvorschrift blendet die Fusionseinheit
Um die Korrelation vorzubereiten und um den Bandbreitenbedarf der Übertragung an den Schnittstellen
Die Korrelation der beiden Bilder stellt eine Möglichkeit dar, den unterschiedlichen Blickwinkel von Sensor
Dazu werden für eine anfängliche Referenzierung Handgerät
Für den Benutzer angenehm ist, wenn das Überlagerungsbild ständig aktualisiert wird, also eine Art Livefilm möglichst ohne Latenz angezeigt wird. Denkbar ist aber auch ein Snapshotbetrieb ohne rechenintensive Echtzeitverarbeitung. Auch das hat Vorteile, denn es reduziert den Bedarf an Rechenleistung, verhindert Ruckeln und Verwackeln, gibt dem Benutzer die Möglichkeit, das Handgerät vor sich abzulegen und beide Hände für eine Neuausrichtung des Sensors frei zu haben und verhindert Bandbreitenengpässe an den Schnittstellen
Durch die Entkopplung von Anzeige
Claims (15)
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102012111345.9A DE102012111345B4 (en) | 2012-11-23 | 2012-11-23 | Mobile handset for aligning a sensor |
JP2013238752A JP5749319B2 (en) | 2012-11-23 | 2013-11-19 | Portable terminal for sensor alignment |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102012111345.9A DE102012111345B4 (en) | 2012-11-23 | 2012-11-23 | Mobile handset for aligning a sensor |
Publications (2)
Publication Number | Publication Date |
---|---|
DE102012111345A1 true DE102012111345A1 (en) | 2014-05-28 |
DE102012111345B4 DE102012111345B4 (en) | 2019-03-28 |
Family
ID=50678862
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE102012111345.9A Active DE102012111345B4 (en) | 2012-11-23 | 2012-11-23 | Mobile handset for aligning a sensor |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP5749319B2 (en) |
DE (1) | DE102012111345B4 (en) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP2985636A1 (en) * | 2014-08-11 | 2016-02-17 | Leuze electronic GmbH + Co KG | Method for aligning a sensor device |
DE102019110674A1 (en) * | 2019-04-25 | 2020-10-29 | Carl Zeiss Optotechnik GmbH | Method of providing visual feedback |
CN112097637A (en) * | 2019-06-18 | 2020-12-18 | 株式会社三丰 | Measuring device |
DE102019122736A1 (en) * | 2019-08-23 | 2021-02-25 | Sick Ag | System and alignment process with one system |
DE202020106491U1 (en) | 2020-11-12 | 2022-02-16 | Sick Ag | Visualization of a protective field |
DE102020129823A1 (en) | 2020-11-12 | 2022-05-12 | Sick Ag | Visualization of a protective field |
DE202021105534U1 (en) | 2021-10-13 | 2022-08-24 | Leuze Electronic Gmbh + Co. Kg | sensor arrangement |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2021021869A1 (en) * | 2019-07-30 | 2021-02-04 | Brain Corporation | Systems and methods for calibrating nonvisible light emitting sensors using alignment targets |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2004036145A1 (en) * | 2002-10-12 | 2004-04-29 | Leica Geosystems Ag | Electronic display and control device for a measuring device |
EP1947377A1 (en) * | 2007-01-10 | 2008-07-23 | Sick Ag | Opto-electronic scanner |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0356094U (en) * | 1989-09-19 | 1991-05-29 |
-
2012
- 2012-11-23 DE DE102012111345.9A patent/DE102012111345B4/en active Active
-
2013
- 2013-11-19 JP JP2013238752A patent/JP5749319B2/en active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2004036145A1 (en) * | 2002-10-12 | 2004-04-29 | Leica Geosystems Ag | Electronic display and control device for a measuring device |
EP1947377A1 (en) * | 2007-01-10 | 2008-07-23 | Sick Ag | Opto-electronic scanner |
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP2985636A1 (en) * | 2014-08-11 | 2016-02-17 | Leuze electronic GmbH + Co KG | Method for aligning a sensor device |
CN105372719A (en) * | 2014-08-11 | 2016-03-02 | 洛伊策电子两合公司 | Method for Aligning a Sensor Device |
US9503184B2 (en) | 2014-08-11 | 2016-11-22 | Leuze Electronic Gmbh + Co. Kg | Method for aligning a sensor device |
DE102019110674A1 (en) * | 2019-04-25 | 2020-10-29 | Carl Zeiss Optotechnik GmbH | Method of providing visual feedback |
CN112097637A (en) * | 2019-06-18 | 2020-12-18 | 株式会社三丰 | Measuring device |
DE102019122736A1 (en) * | 2019-08-23 | 2021-02-25 | Sick Ag | System and alignment process with one system |
DE202020106491U1 (en) | 2020-11-12 | 2022-02-16 | Sick Ag | Visualization of a protective field |
DE102020129823A1 (en) | 2020-11-12 | 2022-05-12 | Sick Ag | Visualization of a protective field |
EP4000815A1 (en) | 2020-11-12 | 2022-05-25 | Sick Ag | Visualization of a protected area |
DE102020129823B4 (en) | 2020-11-12 | 2022-07-07 | Sick Ag | Visualization of a protective field |
DE202021105534U1 (en) | 2021-10-13 | 2022-08-24 | Leuze Electronic Gmbh + Co. Kg | sensor arrangement |
Also Published As
Publication number | Publication date |
---|---|
JP5749319B2 (en) | 2015-07-15 |
JP2014107867A (en) | 2014-06-09 |
DE102012111345B4 (en) | 2019-03-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE102012111345B4 (en) | Mobile handset for aligning a sensor | |
EP2669707B1 (en) | Method and hand-held distance measuring device for indirect distance measurement by means of image-based angle determination function | |
EP1606581B1 (en) | Method and device for image processing in a geodesical measuring appliance | |
EP1549909B1 (en) | Electronic display and control device for a measuring device | |
EP2918972B1 (en) | Method and handheld distance measuring device for generating a spatial model | |
DE112014003227B4 (en) | Three-dimensional measuring device with three-dimensional overview camera | |
DE102013110581B4 (en) | Method for optically scanning and measuring an environment and device therefor | |
EP2044573B1 (en) | Monitoring camera, method for calibrating the monitoring camera, and use of the monitoring camera | |
EP3479141B1 (en) | Method for operating a laser distance measuring device | |
DE19528465C2 (en) | Method and device for quickly detecting the position of a target | |
EP3410064B1 (en) | Inspection camera unit, method for inspecting interior spaces and sensor unit | |
DE112014007227T5 (en) | Use of two-dimensional camera images to speed up the registration of three-dimensional scans | |
DE112015004396T5 (en) | AUGMENTED REALITY CAMERA FOR USE WITH 3D METROLOGY EQUIPMENT FOR PRODUCING 3D IMAGES FROM 2D CAMERA IMAGES | |
DE112012007096B4 (en) | Tracker unit and method in a tracker unit | |
DE10308525A1 (en) | surveying system | |
EP2433837A1 (en) | Optical instrument and method for optical monitoring the surroundings of slowly moving vehicles | |
DE102016200877A1 (en) | System for measuring a three-dimensional position | |
EP3679402B1 (en) | Method for operation of a laser range finder | |
DE102006006001B3 (en) | Method and arrangement for inserting location-related information into a visual representation or view of a scene | |
DE112018005351T5 (en) | METHOD AND DEVICE FOR DIMENSIONING AN OBJECT USING NEAR-RANGE DEVICES | |
DE102017200303A1 (en) | DIGITAL MAPPING OF ROAD MARKINGS | |
WO2014118386A1 (en) | Measuring assembly and method for measuring | |
EP1314960A1 (en) | Electronic display and control device for a measuring instrument | |
DE102007032471A1 (en) | Position determining method for e.g. on-board camera system, involves establishing representation function specifying representation of object points, and determining unknown parameters of function using numerical resolution technique | |
DE102019201134B4 (en) | Method, computer program with instructions and system for measuring augmented reality glasses and augmented reality glasses for use in a motor vehicle |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
R012 | Request for examination validly filed | ||
R016 | Response to examination communication | ||
R018 | Grant decision by examination section/examining division | ||
R020 | Patent grant now final |