WO1999046612A1 - Optical sensor system for detecting the position of an object - Google Patents

Optical sensor system for detecting the position of an object Download PDF

Info

Publication number
WO1999046612A1
WO1999046612A1 PCT/DE1999/000620 DE9900620W WO9946612A1 WO 1999046612 A1 WO1999046612 A1 WO 1999046612A1 DE 9900620 W DE9900620 W DE 9900620W WO 9946612 A1 WO9946612 A1 WO 9946612A1
Authority
WO
WIPO (PCT)
Prior art keywords
light
sensor system
optical sensor
photoelectric converter
imaging element
Prior art date
Application number
PCT/DE1999/000620
Other languages
German (de)
French (fr)
Inventor
Wendelin Feiten
Laszlo Domjan
Janos Giber
Laszlo Kocsanyi
Peter Richter
Gabor Szarvas
Sandor Varkonyi
Original Assignee
Siemens Aktiengesellschaft
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Siemens Aktiengesellschaft filed Critical Siemens Aktiengesellschaft
Priority to KR1020007009913A priority Critical patent/KR20010041694A/en
Priority to EP99919045A priority patent/EP1062524A1/en
Priority to JP2000535942A priority patent/JP2002506976A/en
Priority to CA002322419A priority patent/CA2322419A1/en
Publication of WO1999046612A1 publication Critical patent/WO1999046612A1/en

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/481Constructional features, e.g. arrangements of optical elements
    • G01S7/4814Constructional features, e.g. arrangements of optical elements of transmitters alone
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/42Simultaneous measurement of distance and other co-ordinates
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/931Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/481Constructional features, e.g. arrangements of optical elements
    • G01S7/4817Constructional features, e.g. arrangements of optical elements relating to scanning

Definitions

  • Optical sensor system for determining the position of an object.
  • the invention relates to an optical sensor system for exploring objects and for determining their positions.
  • This sensor system can preferably be arranged on autonomous mobile systems in order to enable them to find their way in an unknown environment.
  • Optical sensor systems which perform the detection of objects by triangulation are known from the prior art.
  • a special measurement method is, for example, to carry out an active optical triangulation with strip lighting.
  • the main elements of such a measuring system consist, for example, of a light source that illuminates a strip in space, an optical imaging system, a two-dimensional image receiver and electronics for processing and evaluating the images 2 signals received by the receiver.
  • a light source that only illuminates a strip of space.
  • An important feature of this light source is the surface density of its emitted light output. The requirements for such light sources are that the power density must be large enough to be able to recognize even dark objects.
  • Another feature of such light sources is the thickness of the illuminated strip, which influences both the size of the detectable spatial area and the resolution when measuring the position of detected objects.
  • a cylindrical lens in front of a collimator lens which collimates the light from a laser source or an incandescent, halogen or arc lamp; the parallelization of light from an incandescent or halogen lamp with the aid of a collimator lens and its fanning out by a cone mirror.
  • the imaging system used must above all meet two main requirements. On the one hand, it has to map the spatial area to be measured onto the surface of the two-dimensional image detector; on the other hand, it must ensure the desired position resolution with regard to the objects to be measured. In this context, the position resolution capability is understood to be the smallest distance between objects, which can still be resolved after being imaged on the optoelectric converter.
  • the distance in the image plane between the images of the backscattered light from two neighboring objects that are close to the imaging system is shown larger than with two neighboring objects that are further away from the imaging system. This leads to the position resolution becoming increasingly poorer with increasing distance from the lens or imaging system.
  • normal or aspherical refractive surfaces such as are common with normal lenses, objects that are far away cannot be imaged sufficiently from one another by the imaging system.
  • the imaging of such objects would require the use of an optical imaging element optimized for this special purpose, which is not known from the literature, however.
  • PAL optics-based instruments for space research and robot technology in lasers and optoelectronics 28 (5) / 1996, pages 43-49 a PAL lens for the use of navigation tasks at au is known - use tonomobile mobile robots.
  • Greguss is a wide-angled imaging element that contains two reflective and one refractive aspherical surface and that is capable of imaging an entire half-space.
  • the application of PAL optics as an imaging element of an active triangulating obstacle detection system for robots is also described there.
  • the invention has for its object to provide an optical sensor system that on mobile vehicles such.
  • B. autonomous mobile robots can be used, which is technically simple and which enables detection of obstacles in all directions around the vehicle, whereby 5 whose imaging system has both the position of objects in the vicinity of the system at distances of less than 50 cm, and in the far area of the system at distances of more than 2 m, a sufficient position resolution of approximately 5-10 cm and an angular resolution of ⁇ 1 °.
  • the sensor system described advantageously consists of light sources which illuminate the surroundings of the autonomous mobile unit in the form of strips around the unit, since this enables simultaneous detection of obstacles or objects around the unit.
  • a plurality of light sources arranged one above the other can advantageously also be provided, which are switched on at different intervals, so that different height dimensions of the room can be detected or measured.
  • the light, which is backscattered by objects that are illuminated is advantageously carried out by using a special wide-angle imaging element that has only a single curved, spherical or aspherical, reflective surface for guiding the light in connection with an objective and a filter, as well as a photoelectric converter , the environment being projected onto the transducer by the imaging system.
  • the best spatial coverage and the best position resolution is advantageously achieved by describing the shape of the aspherical reflecting surface of the wide-angle imaging element with the aid of spline functions.
  • the spline function describes the shape of the imaging element in the following way: the spline function expands areas that are further away depending on the type of lens used.
  • the 6 distance ranges and the partial areas of the aspherical imaging element that are valid for the respective distance areas are described in such a way that the neighboring polynomial functions in the respective transition points of the detection areas have the same value and the same derivatives, whereby the function used becomes continuous and unbreakable.
  • Figure 1 shows an embodiment of a sensor system.
  • Figure 2 shows a possible arrangement of a light source used in side view.
  • Figure 3 shows a possible arrangement for generating a light streak around the sensor system.
  • Figure 4 shows a further embodiment for producing a light strip around the sensor system.
  • Figure 5 shows a further embodiment for producing a light strip around the imaging device.
  • Figure 6 shows a possible installation of the sensor system on a vehicle or robot in a side view.
  • Figure 7 shows a top view of the sensor system and a vehicle.
  • Figure 8 shows a sensor system for use with a one-dimensional photoelectric converter.
  • Figure 9 shows an embodiment with a two-dimensional optical position detector.
  • FIG. 1 shows, there is a possible embodiment of a sensor system described, which illuminates a room strip all around from 4 light sources 1.
  • these light sources When arranging these light sources for illuminating a light strip, it should be noted in particular that these light strips lie in a plane which is essentially plane-parallel to the The surface on which the autonomous mobile unit to which the sensor is attached moves. If this plane-parallel arrangement is not possible, the triangulation is made more difficult by taking into account when evaluating the reflected light beams that they have hit the reflecting objects at different angular positions, so that the triangulation is used to determine the distance of the objects result in different triangulation angles.
  • the light sources 1 generate light strips 2 that illuminate the room.
  • the imaging element 4 used projects the light backscattered from the objects 3 through the lens 6 onto the photoelectric converter 7, which in this arrangement is designed as a two-dimensional CCD image detector of a camera 5.
  • the photoelectric converter 7 is connected to an evaluation electronics 8, for example in a computer, which is part of the sensor system for determining object positions.
  • the evaluation electronics 8 determine the position of objects 3 based on the image projected on the photoelectric converter 7 using the principle of active optical 8 triangulation, the imaging properties of the objective 6 and the imaging element 4 in particular being used in conjunction with the height of the plane at which the light strip is emitted.
  • the sensor system is advantageous on mobile vehicles 12, such as. B. used a mobile robot.
  • the current information about the control of the vehicle 12 or the robot can be determined by the evaluation electronics 8 and, based on this information, the further travel path of the unit can be planned.
  • This information gives z. B. the positions of objects 3, under which the vehicle 12 moves through, or between which the vehicle 12 must move.
  • the optical axis of the imaging element 4 is advantageously aligned perpendicular to the light strip 2, which are emitted by the light sources 1.
  • the imaging element 4 is designed as such an optical element which has a spherical or aspherical reflecting surface 9, the outside of the reflecting surface 9 being used for imaging the reflected light beams in the imaging system.
  • the light strips emitted by the light sources and light beams reflected by the objects 3 are projected via the imaging element 4 through the lens 3 onto the light detector 7, as is shown schematically by the numbered beam paths.
  • the distance of the light rays incident on the photodetector 7 is dependent on the imaging properties of the objective and the imaging element 4 and is characteristic of the distance of the objects 3 from the sensor system.
  • any two-dimensional image detector 7 can be used.
  • a photodiode matrix can be used as a photoelectric converter 7 instead of a two-dimensional CCD sensor.
  • 9 Figure two shows a possible basic embodiment of the applied light source 1 in a side view.
  • the light source 1 shown in Figure 2 consists of a cylindrical mirror 11, which suitably has an aspherical cross section and consists of light emitters 10, which can be light-emitting diodes, for example. These light emitters are located in the focus line of the cylinder mirror 11.
  • the light emitters 10 are arranged one after the other in the focus line of the aspherical cylinder mirror 11, so that the light-emitting surfaces of the light emitters 10 point in the direction of the aspherical cylinder mirror 11.
  • the light emitted by the light emitters 10 first reaches the aspherical cylindrical mirror 11 and then emerges as a strip of light 2 projected through the mirror.
  • the light source 1 illuminates a parallelized light strip.
  • LED light-emitting diodes
  • FIG. 3 shows, there is a possible basic arrangement for generating a light strip 2 from part of a cylinder mirror.
  • the cylinder mirror 11 is in a so-called off-axis arrangement with the light emitters 10, which is why only part of the cylinder mirror 11 previously described in FIG. 2 is used.
  • the light emitters 10 are advantageously designed as LEDs and are arranged in succession on the focal line of the aspherical cylinder mirror in such a way that their light-emitting surfaces are directed in the direction of the aspherical cylinder mirror 11.
  • the parallelized light beam valid for the sensor system can also be generated. This is indicated by the beam path provided with the arrows. 1 0
  • FIG. 4 Another possible solution for producing a light strip 2 which shines all around the imaging device is that a parallelized light beam is set in rotation.
  • the rotating light beam 2 is generated in such a way that both the light emitter 10 and the collimator optics 14 are set in rotation about an axis t.
  • a further embodiment of this type can consist, for example, in that both the light emitter 10 and the collimator optics 14 are fixed and the light steel 2 is moved all around with the aid of a rotating mirror.
  • Figure 5 shows a further possible embodiment for producing a light strip 2 emitted all around.
  • the light strip 2 is generated by a conical mirror 15.
  • the light emitted by the light emitter 10 is first parallelized by collimator optics 14 and then fanned out into the desired light strip 2 by a conical mirror 15.
  • an incandescent lamp, halogen lamp, arc lamp or laser can be used as the light emitter 10.
  • Figure 6 shows the possible structure of a sensor system on an autonomous mobile unit 12, which can be, for example, a service robot.
  • Figure 6 shows a side view.
  • a plurality of light strips arranged one above the other, which are emitted by a plurality of light sources 1 lying one above the other, can advantageously be generated on mobile systems.
  • the light strips 2 are preferably generated at different times and illuminated in a pulsed manner.
  • two imaging elements 4 are preferably used with the cameras 5 associated with them 11 provided at two opposite corners of the mobile vehicle 12.
  • the evaluation electronics ensure that when triangulating obstacles, the corresponding altitude of the currently switched on light source is used to evaluate the triangulation results.
  • Figure 7 shows the top view of a mobile vehicle 12 provided with the sensor system, e.g. B. A robot with the reception area of the detection system 13.
  • the individual imaging elements 4 are attached to 2 opposite corners of the mobile system 12. If two imaging elements 4 are arranged in the manner shown in Figure 7, the detection area 13 of the optical sensor system can be extended to the entire environment of the mobile system 12 or to the entire space surrounding the mobile system.
  • Figure 8 shows a possible embodiment of the photoelectric converter 7 in the form of a one-dimensional photoelectric converter 7.
  • the light from the imaging element 4 is projected through the lens 6 onto the one-dimensional light detector, which moves in the image plane or is advantageously rotated.
  • This photoelectric converter 7 can be used, for example, as a one-dimensional position-sensitive detector, e.g. B. as a CCD or PSD. Because the one-dimensional light detector is moved in the image plane or is advantageously rotated, it detects the light intensity distribution in the entire image plane, whereupon the imaging element 4 and the lens 6 image the area around the mobile vehicle 12. The measurement results obtained in this way can preferably be temporarily stored or the evaluation is carried out synchronously with the speed of the photoelectric sensor.
  • Figure 9 shows another possible embodiment of a photoelectric converter 7, which here is a two-dimensional positive 12 position-sensitive detector is shown.
  • the photoelectric converter 7 is designed as a two-dimensional position-sensitive detector, which is located behind the lens 6 in its image plane.
  • an impermeable disk 16 in this embodiment, which is provided with a gap 17.
  • the gap 17 on the opaque pane 16 only allows the light from a well-defined spatial area to pass through, for example with the opening angle of 1 °. In this way, a directional resolution capability with an arbitrarily small angle can be achieved.
  • the slit width to be selected depends on how much light is reflected back, or with what sensitivity the detector works and with what intensity the light strip is illuminated by the light source.
  • the use of the disk 16 is not necessary because the directional resolution is already ensured by the rotating light source.
  • the advantage of the sensor system described is that its reception range is larger than in known embodiments and that the image is more uniform than in other known triangulating sensor systems. The wide-angle image enables the positions of objects that are far from the sensor system to be measured.
  • the special shape of the imaging element 4 ensures the uniform resolution of the distance measurement in the entire detection range of the sensor system by virtually correcting the lack of resolution of the lens 6 in the distance of the sensor system, because it scatters reflected light rays and thus pulls apart more distant objects .

Abstract

The invention relates to a special light source which produces a horizontal strip of light. Said strip of light is reflected by objects in the vicinity of the sensor system and conducted to a photoelectric converter by a special imaging device. Said imaging device is configured in such a way that objects situated further away are represented as being somewhat further apart so that an ordinary objective with linear resolution can obtain better position resolution of objects situated further away from the sensor system over the entire imaging area. Advantageously, light-emitting diodes are provided on the optical axis of a cylindrical mirror as the light-emitting elements. The electrical signals emitted by the photoelectric converter are evaluated by an evaluation unit in relation to their position. Using triangulation, said evaluation unit then determines how far away the objects which reflected the light are situated.

Description

1 Beschreibung 1 description
Optisches Sensorsystem zur Dete tion der Position eines Objektes .Optical sensor system for determining the position of an object.
Die Erfindung betrifft ein optisches Sensorsystem zur Erkundung von Objekten und für die Bestimmung von deren Positionen. Bevorzugt kann dieses Sensorsystem an autonomen mobilen Systemen angeordnet sein, um diesen ihre Orientierung in ei- ner unbekannten Umgebung zu ermöglichen.The invention relates to an optical sensor system for exploring objects and for determining their positions. This sensor system can preferably be arranged on autonomous mobile systems in order to enable them to find their way in an unknown environment.
In der Entwicklung und Planung befindliche autonome mobile Systeme, werden in Zukunft immer häufiger auch in Haushaltsumgebungen anzutreffen sein. Sie werden dort Transport- und Reinigungsaufgaben erledigen, indem sie die ihnen auferlegten Aufgaben autonom unter Zuhilfenahme eines Orientie- rungssystems ausführen, das es ihnen ermöglicht sich ein Bild von ihrer Umgebung zu verschaffen. Neben den unterschiedlichen Wegeplanungs- und Bewertungsalogrithmen kommt dabei dem Sensorsystem für die Detektion von Hindernissen in der Umgebung der autonomen mobilen Einheit eine starke Bedeutung zu. Um autonome mobile Systeme für Konsumenten attraktiv zu machen, ist es besonders wichtig, daß diese in großen Stückzahlen kostengünstig und technisch einfach gefertigt werden kön- nen. Die Sensorsysteme zur Detektion der Position von Objekten in der Umgebung der autonomen mobilen Systeme müssen daher robust sein und kostengünstig hergestellt werden können.Autonomous mobile systems in development and planning will increasingly be found in household environments in the future. They will carry out transport and cleaning tasks there by autonomously carrying out the tasks imposed on them with the help of an orientation system that enables them to get an idea of their surroundings. In addition to the different route planning and evaluation algorithms, the sensor system is of great importance for the detection of obstacles in the vicinity of the autonomous mobile unit. In order to make autonomous mobile systems attractive to consumers, it is particularly important that they can be mass-produced inexpensively and in a technically simple manner. The sensor systems for detecting the position of objects in the vicinity of the autonomous mobile systems must therefore be robust and inexpensive to manufacture.
Optische Sensorsysteme, welche durch Triangulation die Detek- tion von Objekten durchführen sind aus dem Stand der Technik bekannt. Eine spezielle Meßmethode besteht beispielsweise darin, eine aktive optische Triangulation mit Streifenbeleuchtung durchzuführen. Die Hauptelemente eines derartigen Meßsystems bestehen beispielsweise aus einer Lichtquelle, die einen Streifen im Raum beleuchtet, einem optischen Abbildungssystem, einem zweidimensionalen Bildempfänger und einer Elektronik für die Verarbeitung und Auswertung der vom Bil- 2 dempfanger empfangenen Signale. Zur Durchf hrung der Triangulation benotigt ein derartiges System eine Lichtquelle, die ausschließlich einen Raumstreifen ausleuchtet. Ein wichtiges Merkmal dieser Lichtquelle besteht m der Oberflachendichte ihrer abgestrahlten Lichtleistung. Die Anforderungen an solche Lichtquellen besteht darin, daß die Leistungsdichte groß genug sein muß, um auch dunkle Objekte erkennen zu können. Ein weiteres Merkmal derartiger Lichtquellen ist die Dicke des beleuchteten Streifens, welche sowohl die Große des de- tektierbaren Raumbereiches, als auch die Auflosung bei der Positionsmessung detektierter Objekte beeinflußt.Optical sensor systems which perform the detection of objects by triangulation are known from the prior art. A special measurement method is, for example, to carry out an active optical triangulation with strip lighting. The main elements of such a measuring system consist, for example, of a light source that illuminates a strip in space, an optical imaging system, a two-dimensional image receiver and electronics for processing and evaluating the images 2 signals received by the receiver. In order to carry out the triangulation, such a system requires a light source that only illuminates a strip of space. An important feature of this light source is the surface density of its emitted light output. The requirements for such light sources are that the power density must be large enough to be able to recognize even dark objects. Another feature of such light sources is the thickness of the illuminated strip, which influences both the size of the detectable spatial area and the resolution when measuring the position of detected objects.
Derzeit sind folgende Möglichkeiten für die Ausführung von Lichtquellen zur Abgabe von Leuchtstreifen bekannt: eine zy- lmdrische Linse vor einem Kollimatorobjektiv, das das Licht einer Laserquelle oder einer Glüh-, Halogen- oder Bogenlampe kollimiert; die Parallelisierung von Licht, aus einer Gluh- oder Halogenlampe mit Hilfe eines Kollimatorobπektivs und dessen Auffächerung durch einen Kegelspiegel. Das verwendete Abbildungssystem muß dabei vor allen Dingen zwei Hauptanforderungen gerecht werden. Zum einen muß es den zu messenden Raumbereich auf die Oberflache des zweidimensionalen Bilddetektors abbilden; zum anderen muß es die gewünschte Postions- auflosung bezüglich der zu messenden Objekte sicherstellen. Als Postionsauflösungsvermogen wird in diesem Zusammenhang die kleinste Entfernung zwischen Objekten, die nach der Abbildung auf den optoelektrischen Wandler noch auflösbar ist, verstanden. Sie ist ebenso durch den verwendeten Wandler, wie auch durch das Abbildungssystem bestimmt. Die Aufgabe einen großen Raumbereich, möglichst in Form eines ganzen Halbraumes weitwinkelig abzubilden und dabei ein ausreichendes Entfernungsauflosungsvermogen mit dem gleichen Objektiv zu erzeugen, stellen dabei widerspruchliche Erfordernisse dar. Ein mögliches Mittel zur Vergrößerung des meßbaren Raumbereiches durch ein solches Abbildungssystem, besteht m der Anwendung eines Weitwinkelobjektivs, das ein verzerrungsfreies Bild erzeugt. Solche Objektive mit mehreren Linsen haben aber den 3 Nachteil, daß sie nicht den gesamten Halbraum um das Objektiv herum abbilden können. Andere Objektive wiederum, die einen ganzen Halbraum abbilden arbeiten nicht mehr verzerrungslos und sind teuer in der Anschaffung. Verzerrende Objektive be- einflussen auch die Positionsauflösung bei der Triangulation. Dabei wird die Entfernung in der Bildebene zwischen den Abbildungen des rückgestreuten Lichtes von zwei benachbarten Gegenständen, die nahe am Abbildungssystem liegen, größer dargestellt, als bei zwei benachbarten Gegenständen, die sich weiter entfernt vom Abbildungssystem befinden. Dies führt dazu, daß die Positionsauflösung mit zunehmender Entfernung vom Objektiv, bzw. Abbildungssystem immer schlechter wird. Durch Anwendung von normalen oder asphärischen Brechflächen, wie sie bei normalen Objektiven üblich sind, sind weit entfernte Gegenstände vom Abbildungssystem nicht ausreichend voneinander abbildbar. Für die Abbildung solcher Gegenstände wäre die Anwendung eines auf diesen speziellen Zweck optimierten optischen Abbildungselementes erforderlich, welches jedoch aus der Literatur nicht bekannt ist.The following options are currently known for the implementation of light sources for the emission of light strips: a cylindrical lens in front of a collimator lens which collimates the light from a laser source or an incandescent, halogen or arc lamp; the parallelization of light from an incandescent or halogen lamp with the aid of a collimator lens and its fanning out by a cone mirror. The imaging system used must above all meet two main requirements. On the one hand, it has to map the spatial area to be measured onto the surface of the two-dimensional image detector; on the other hand, it must ensure the desired position resolution with regard to the objects to be measured. In this context, the position resolution capability is understood to be the smallest distance between objects, which can still be resolved after being imaged on the optoelectric converter. It is determined by the transducer used as well as by the imaging system. The task of imaging a large spatial area, as far as possible in the form of an entire half-space, and thereby generating a sufficient range resolution capability with the same lens, are contradictory requirements. One possible means of enlarging the measurable spatial area by means of such an imaging system is to use an imaging system Wide-angle lens that creates a distortion-free image. Such lenses with multiple lenses have that 3 disadvantage that they cannot map the entire half space around the lens. Other lenses that represent an entire half-space no longer work without distortion and are expensive to purchase. Distorting lenses also influence the position resolution during triangulation. The distance in the image plane between the images of the backscattered light from two neighboring objects that are close to the imaging system is shown larger than with two neighboring objects that are further away from the imaging system. This leads to the position resolution becoming increasingly poorer with increasing distance from the lens or imaging system. By using normal or aspherical refractive surfaces, such as are common with normal lenses, objects that are far away cannot be imaged sufficiently from one another by the imaging system. The imaging of such objects would require the use of an optical imaging element optimized for this special purpose, which is not known from the literature, however.
Aus der europäischen Veröffentlichung EP 0 358 628 A2 mit dem Titel „Visual navigation and obstacle avoidance structured light System", ist ein Triangulationssystem für die Anwendung an mobilen Fahrzeugen bekannt, welches mittels Streifenbe- leuchtung und einem normalen Objektiv in einem Abbildungssystem arbeitet. Die Nachteile dieser Lösung bestehen darin, daß einerseits das Fahrzeug nur vorne, in Fahrtrichtung liegende Gegenstände detektieren kann und andererseits durch die Verwendung eines normalen Objektives nur ein begrenzter Be- reich oder naheliegende Objekte mit ausreichender Auflösung zur Entfernungsmessung von Objekten verwendet werden kann. Aus den Artikeln von R. A. Jarvis, J. C. Byrne: „An automated guided vehicle with map building and path finding capabili- ties"; in R. C. Bolles und B. Roth, Herausgeber, 4th Interna- tional Symposium on Robotics Research, p. 497-504, MIT Press, Cambridge, Massachusetts, 1988, - und Y. Yagi, Y. Nishizawa, M. Yachida: „Map based navigation of the mobile robot using 4 omnidirectional image sensor COPIS, Proc. Of the 1992 IEEE International Conference on Robotics and Automation, Nice, France, May 1992, ist es bekannt, die Abbildung der Umgebung mittels eines Kegelspiegels und eines Objektivs durchzufüh- ren. Der verwendete Kegelspiegel ändert das Auflösungsvermögen des Systems bei weit entfernt liegenden Objektiven nicht. Es ist weiterhin durch das Kameraobjektiv bestimmt. Im Artikel von J. Hong, X. Tan, B. Pinette, R. Weiss, E. M. Riseman; „Image-based Homing, Proc. Of the 1991 IEEE International Conference on Robotics and Automation, Sacramento, California, April 1991 ist es bekannt die Abbildung der Umgebung mittels einer sphärischen Kugel durchzuführen. Dabei wird jedoch keine Streifenbeleuchtung, welche zur Triangulation dienen könnte, eingesetzt. Solche sogenannten passiven Systeme haben den Nachteil, daß die Objekte nicht von einem Lichtstrahl mit bekannter Höhenlage beleuchtet sind und damit Positionsinformation sehr schwer herleitbar ist, da keine Triangulation durchgeführt werden kann. Zur Auswertung müssen Echtzeitbildbearbeitungssysteme herangezogen werden, welche einen großen Aufwand an Rechnerkapazität erfordern. Weiterhin ist aus dem Artikel von P. Greguss: „PAL-Optik basierende Instrumente für Raumforschung und Robot-Technik, in Laser und Optoelektronik 28 (5)/1996, Seite 43-49 bekannt ein PAL- Objektiv für die Anwendungen von Navigationsaufgaben bei au- tonomen mobilen Robotern einzusetzen. Das PAL-Objektiv vonFrom the European publication EP 0 358 628 A2 with the title "Visual navigation and obstacle avoidance structured light system", a triangulation system for use on mobile vehicles is known, which works in an imaging system by means of strip lighting and a normal lens. The disadvantages This solution consists in that on the one hand the vehicle can only detect objects lying in the front, in the direction of travel and on the other hand only a limited area or nearby objects with sufficient resolution can be used for the distance measurement of objects by using a normal lens RA Jarvis, JC Byrne: "An automated guided vehicle with map building and path finding capabilities"; in RC Bolles and B. Roth, editors, 4th International Symposium on Robotics Research, p. 497-504, MIT Press, Cambridge, Massachusetts, 1988, and Y. Yagi, Y. Nishizawa, M. Yachida: “Map based navigation of the mobile robot using 4 omnidirectional image sensor COPIS, Proc. From the 1992 IEEE International Conference on Robotics and Automation, Nice, France, May 1992, it is known to carry out the imaging of the surroundings by means of a cone mirror and a lens. The cone mirror used does not change the resolving power of the system with lenses located far away . It is still determined by the camera lens. In the article by J. Hong, X. Tan, B. Pinette, R. Weiss, EM Riseman; "Image-based homing, Proc. From the 1991 IEEE International Conference on Robotics and Automation, Sacramento, California, April 1991 it is known to map the environment using a spherical sphere. However, no strip lighting that could serve for triangulation is used. Such so-called passive systems have the disadvantage that the objects are not illuminated by a light beam with a known altitude and position information is therefore very difficult to derive since triangulation cannot be carried out. Real-time image processing systems, which require a large amount of computing capacity, must be used for the evaluation. Furthermore, from the article by P. Greguss: "PAL optics-based instruments for space research and robot technology, in lasers and optoelectronics 28 (5) / 1996, pages 43-49 a PAL lens for the use of navigation tasks at au is known - use tonomobile mobile robots. The PAL lens from
Greguss ist ein weitwinkliges Abbildungselement, welches zwei spiegelnden und eine brechende asphärische Oberfläche enthält und welches in der Lage ist einen ganzen Halbraum abzubilden. Dort wird auch die Anwendung der PAL-Optik als Abbildungsele- ent eines aktiven triangulierenden Hinderniserkennungssystems für Roboter beschrieben.Greguss is a wide-angled imaging element that contains two reflective and one refractive aspherical surface and that is capable of imaging an entire half-space. The application of PAL optics as an imaging element of an active triangulating obstacle detection system for robots is also described there.
Der Erfindung liegt die Aufgabe zugrunde, ein optisches Sensorsystem anzugeben, das an mobilen Fahrzeugen, wie z. B. au- tonomen mobilen Robotern angesetzt werden kann, das technisch einfach ausgeführt ist, das in allen Richtungen um das Fahrzeug herum eine Detektion von Hindernissen ermöglicht, wobei 5 dessen Abbildungssystem sowohl die Position von Objekten im Nahbereich des Systems bei Entfernungen von kleiner 50 cm, wie auch im Fernbereich des Systems bei Entfernungen von über 2 m ein ausreichendes Positionsauflösungsvermögen von ungefähr 5-10 cm und einer Winkelauflösung von < 1° besitzt.The invention has for its object to provide an optical sensor system that on mobile vehicles such. B. autonomous mobile robots can be used, which is technically simple and which enables detection of obstacles in all directions around the vehicle, whereby 5 whose imaging system has both the position of objects in the vicinity of the system at distances of less than 50 cm, and in the far area of the system at distances of more than 2 m, a sufficient position resolution of approximately 5-10 cm and an angular resolution of <1 °.
Diese Aufgabe wird gemäß den Merkmalen des Patentanspruches 1 gelöst. Weiterbildungen der Erfindung ergeben sich aus den abhängigen Ansprüchen.This object is achieved according to the features of patent claim 1. Further developments of the invention result from the dependent claims.
Vorteilhaft besteht das beschriebene Sensorsystem aus Lichtquellen die die Umgebung der autonomen mobilen Einheit in Form von Streifen rund um die Einheit herum ausleuchten, da damit die simultane Detektion von Hindernissen bzw. Objekten rund um die Einheit herum gegeben ist. Vorteilhaft können dabei auch mehrere übereinander geordnete Lichtquellen vorgesehen sein, die zeitlich in verschiedenen Abständen eingeschalten werden, so daß unterschiedliche Höhendimensionen des Raumes detektierbar bzw. vermessbar sind. Vorteilhaft wird das Licht, welches von Objekten die angestrahlt werden zurückgestreut wird, durch Anwendung eines speziellen weitwinkeligen Abbildungselementes, das lediglich eine einzige gewölbte, sphärische oder asphärische, spiegelnde Oberfläche zur Lichtführung besitzt in Verbindung mit einem Objektiv und einem Filter, sowie einem photoelektrischen Wandler durchgeführt, wobei die Umgebung durch das Abbildungssystem auf den Wandler projiziert wird. Mit dieser Anordnung kann die Aufgabe mit möglichst geringem technischen Aufwand gelöst werden. Vorteilhaft wird bei einer Weiterbildung der Erfindung die beste Raumabdeckungs- und das beste Positionsauflösevermögen erreicht, indem die Gestalt der asphärischen spiegelnden Oberfläche des weitwinkeligen Abbildungselementes mit Hilfe von Spline-Funktionen beschrieben wird. Die Spline-Funktion beschreibt die Gestalt des Abbildungselementes dabei auf fol- gende Weise: durch die Spline-Funktion werden weiter entfernte Bereiche je nach Art des verwendeten Objektives gedehnt dargestellt. Mittels der Spline-Funktion werden dabei die 6 Entfernungsbereiche und die für die jeweiligen Entfernungsbereiche gültigen Teilbereiche des asphärischen Abbildungselementes so beschrieben, daß die benachbarten Polynomfunktionen in den jeweiligen Übergangspunkten der Detektionsbereiche den gleichen Wert und dieselben Ableitungen haben, wodurch die verwendete Funktion kontinuierlich und bruchfrei wird. Durch die Verwendung eines derartigen Abbildungselementes wird vorteilhaft erreicht, daß einfache Objektive mit einem gewöhnlichen Sichtwinkel für die bei der Weiterbildung der Erfindung benötigte weitwinklige lineare Abbildungscharakteristik eingesetzt werden können. Durch den Einsatz von Spline- Funktionen kann erreicht werden, daß Licht, welches von weiter entfernten Bereichen zurückgestreut wird, gezielt vorverzerrt wird, bevor es durch das Objektiv durchtritt, so daß weiter entfernte Bereiche mit einer höheren Auflösung dargestellt werden können, als es normalerweise durch das verwendete Objektiv möglich wäre. Auf diese Art wird ein Abbildungssystem zur Verfügung gestellt, daß eine einfache ökonomische Lösung für die Herstellung von weitwinkligen, linearen optischen Systemen bietet.The sensor system described advantageously consists of light sources which illuminate the surroundings of the autonomous mobile unit in the form of strips around the unit, since this enables simultaneous detection of obstacles or objects around the unit. A plurality of light sources arranged one above the other can advantageously also be provided, which are switched on at different intervals, so that different height dimensions of the room can be detected or measured. The light, which is backscattered by objects that are illuminated, is advantageously carried out by using a special wide-angle imaging element that has only a single curved, spherical or aspherical, reflective surface for guiding the light in connection with an objective and a filter, as well as a photoelectric converter , the environment being projected onto the transducer by the imaging system. With this arrangement, the task can be solved with as little technical effort as possible. In a further development of the invention, the best spatial coverage and the best position resolution is advantageously achieved by describing the shape of the aspherical reflecting surface of the wide-angle imaging element with the aid of spline functions. The spline function describes the shape of the imaging element in the following way: the spline function expands areas that are further away depending on the type of lens used. Using the spline function, the 6 distance ranges and the partial areas of the aspherical imaging element that are valid for the respective distance areas are described in such a way that the neighboring polynomial functions in the respective transition points of the detection areas have the same value and the same derivatives, whereby the function used becomes continuous and unbreakable. By using such an imaging element, it is advantageously achieved that simple lenses with a normal viewing angle can be used for the wide-angle linear imaging characteristic required in the development of the invention. Through the use of spline functions it can be achieved that light which is scattered back from more distant areas is deliberately pre-distorted before it passes through the lens, so that more distant areas can be displayed with a higher resolution than it would normally be the lens used would be possible. In this way, an imaging system is made available that offers a simple economical solution for the production of wide-angle, linear optical systems.
Im Folgenden werden Ausführungsbeispiele der Erfindung anhand von Abbildungen weiter erläutert.Exemplary embodiments of the invention are explained in more detail below with the aid of illustrations.
Abbildung 1 zeigt ein Ausführungsbeispiel eines Sensorsystems . Abbildung 2 zeigt eine mögliche Anordnung einer eingesetzten Lichtquelle in Seitenansicht. Abbildung 3 zeigt eine mögliche Anordnung zur Erzeugung eines Lichtstreifens rund um das Sensorsystem herum. Abbildung 4 zeigt eine weitere Ausführungsform zur Erzeugung eines Lichtstreifens rund um das Sensorsystem herum. Abbildung 5 zeigt eine weitere Ausführungsform zur Erzeugung eines Lichtstreifens rund um die Abbildungsvorrichtung herum. 7 Abbildung 6 zeigt einen möglichen Aufbau des Sensorsystems auf einem Fahrzeug, bzw. Roboter in Seitenansicht. Abbildung 7 zeigt eine Draufsicht auf das Sensorsystem und ein Fahrzeug.Figure 1 shows an embodiment of a sensor system. Figure 2 shows a possible arrangement of a light source used in side view. Figure 3 shows a possible arrangement for generating a light streak around the sensor system. Figure 4 shows a further embodiment for producing a light strip around the sensor system. Figure 5 shows a further embodiment for producing a light strip around the imaging device. 7 Figure 6 shows a possible installation of the sensor system on a vehicle or robot in a side view. Figure 7 shows a top view of the sensor system and a vehicle.
Abbildung 8 zeigt ein Sensorsystem zur Verwendung mit einem eindimensionalen photoelektrischen Wandler. Abbildung 9 zeigt eine Ausführungsform mit zweidimensiona- len optischem Positionsdetektor.Figure 8 shows a sensor system for use with a one-dimensional photoelectric converter. Figure 9 shows an embodiment with a two-dimensional optical position detector.
Wie Abbildung 1 zeigt, besteht eine mögliche Ausführungsform eines beschriebenen Sensorsystems, welches einen Raumstreifen rundherum ausleuchtet aus 4 Lichtquellen 1. Bei der Anordnung dieser Lichtquellen zur Ausleuchtung eines Lichtstreifens ist insbesondere zu beachten, daß diese Lichtstreifen in einer Ebene liegen, die im wesentlichen planparallel zur Unterlage ist, auf der sich die autonome mobile Einheit, an der der Sensor angebracht ist, bewegt. Falls diese planparallele An- Ordnung nicht möglich ist, so wird die Triangulation erschwert, indem bei der Auswertung der reflektieren Lichtstrahlen zu beachten ist, daß diese die reflektierenden Objekte unter unterschiedlichen Winkellagen getroffen haben, so daß sich für die Triangulation zur Bestimmung der Entfernung der Objekte unterschiedlich Triangulationswinkel ergeben. Die Lichtquellen 1 erzeugen dabei Lichtstreifen 2, die den Raum ausleuchten. Das verwendete Abbildungselement 4 projiziert das von den Objekten 3 zurückgestreute Licht durch das Objektiv 6 auf den photelektrischen Wandler 7, der in dieser An- ordnung als zweidimensionaler CCD-Bilddetektor einer Kamera 5 ausgeführt ist. Der photoelektrische Wandler 7 befindet sich in Verbindung mit einer an eine beispielsweise in einem Rechner bestehenden Auswertungselektronik 8, die Teil des Sensorsystems zur Bestimmung von Objektpositionen ist. Die Auswer- tungselektronik 8 bestimmt die Position von Objekten 3, aufgrund des auf dem photoelektrischen Wandler 7 projizierten Bildes unter Anwendung des Prinzips der aktiven optischen 8 Triangulation, wobei insbesondere die Abbildungseigenschaften des Objektivs 6 und des Abbildungselementes 4 in Verbindung mit der Höhe der Ebene, in welcher der Lichtstreifen ausgestrahlt wird, Verwendung finden. Vorteilhaft wird das Sensor- System auf mobilen Fahrzeugen 12, wie z. B. einem mobilen Roboter eingesetzt. Dabei können die aktuellen Informationen über die Steuerung des Fahrzeuges 12, bzw. des Roboters von der Auswertungselektronik 8 bestimmt und infolge dieser Informationen kann der weitere Fahrweg der Einheit geplant wer- den. Diese Informationen geben z. B. die Positionen von Objekten 3 an, unter denen sich das Fahrzeug 12 hindurchbewegt, oder zwischen denen sich das Fahrzeug 12 hindurchbewegen muß.As Figure 1 shows, there is a possible embodiment of a sensor system described, which illuminates a room strip all around from 4 light sources 1. When arranging these light sources for illuminating a light strip, it should be noted in particular that these light strips lie in a plane which is essentially plane-parallel to the The surface on which the autonomous mobile unit to which the sensor is attached moves. If this plane-parallel arrangement is not possible, the triangulation is made more difficult by taking into account when evaluating the reflected light beams that they have hit the reflecting objects at different angular positions, so that the triangulation is used to determine the distance of the objects result in different triangulation angles. The light sources 1 generate light strips 2 that illuminate the room. The imaging element 4 used projects the light backscattered from the objects 3 through the lens 6 onto the photoelectric converter 7, which in this arrangement is designed as a two-dimensional CCD image detector of a camera 5. The photoelectric converter 7 is connected to an evaluation electronics 8, for example in a computer, which is part of the sensor system for determining object positions. The evaluation electronics 8 determine the position of objects 3 based on the image projected on the photoelectric converter 7 using the principle of active optical 8 triangulation, the imaging properties of the objective 6 and the imaging element 4 in particular being used in conjunction with the height of the plane at which the light strip is emitted. The sensor system is advantageous on mobile vehicles 12, such as. B. used a mobile robot. The current information about the control of the vehicle 12 or the robot can be determined by the evaluation electronics 8 and, based on this information, the further travel path of the unit can be planned. This information gives z. B. the positions of objects 3, under which the vehicle 12 moves through, or between which the vehicle 12 must move.
Bei der in Abbildung 1 dargestellten Ausführungsform ist die optische Achse des Abbildungselementes 4 vorteilhaft senkrecht auf den Lichtstreifen 2 ausgerichtet, welche von den Lichtquellen 1 abgegeben werden. Bei dieser Ausführungsform ist das Abbildungselement 4 als solches optisches Element ausgeführt, das eine sphärische oder asphärische spiegelnde Oberfläche 9 aufweist, wobei die Außenseite der spiegelnden Oberfläche 9 für die Abbildung der reflektierten Lichtstrahlen im Abbildungssystem eingesetzt wird. Die von den Lichtquellen abgegebenen Lichtstreifen und von den Objekten 3 reflektierten Lichtstrahlen werden über das Abbildungselement 4 durch das Objektiv 3 auf den Lichtdetektor 7 geworfen, wie dies durch die mit Zahlen versehenen Strahlengänge schematisch dargestellt ist. Die Entfernung der auf dem Photodetektor 7 auftreffenden Lichtstrahlen ist dabei in Abhängigkeit der Abbildungseigenschaften des Objektivs und des Abbildung- selementes 4 kennzeichnend für die Entfernung der Objekte 3 vom Sensorsystem. Bei der in Abbildung 1 dargestellten Ausführungsform des Sensorsystems kann jeder beliebige zweidi- mensionale Bilddetektor 7 eingesetzt werden. Beispielsweise kann eine Fotodiodenmatrix anstatt eines zweidimensionalen CCD-Sensors als photoelektrischer Wandler 7 angewendet werden. 9 Abbildung zwei zeigt eine mögliche prinzipielle Ausführungs- form der angewandten Lichtquelle 1 in Seitenansicht. Die in Abbildung 2 dargestellte Lichtquelle 1 besteht dabei aus einem Zylinderspiegel 11, der zweckgemäß einen asphärischen Querschnitt besitzt und aus Lichtemittern 10 besteht, welche beispielsweise Leuchtdioden sein können. Diese Lichtemitter befinden sich in der Fokuslinie des Zylinderspiegels 11. Dabei sind die Lichtemitter 10 der Reihe nach nebeneinander in der Fokuslinie des asphärischen Zylinderspiegels 11 angeord- net, so daß die lichtemmittierenden Oberflächen der Lichtemitter 10 in Richtung des asphärischen Zylinderspiegels 11 zeigen. Das von den Lichtemittern 10 emmitierte Licht erreicht dabei zunächst den asphärischen Zylinderspiegel 11 und im Anschluß tritt es als Lichtstreif 2 durch den Spiegel pro- jiziert aus. Durch den Einsatz einer an die Lichtemitter 10 angepaßten asphärischen Spiegelgestalt kann erreicht werden, daß die Lichtquelle 1 einen parallelisierten Lichtstreif ausleuchtet. In diesem Zusammenhang ist zu erwähnen, das Leuchtdioden (LED) eine preisgünstige, einfache und kleine Licht- quelle darstellen und das durch die gewählte Anordnung derIn the embodiment shown in FIG. 1, the optical axis of the imaging element 4 is advantageously aligned perpendicular to the light strip 2, which are emitted by the light sources 1. In this embodiment, the imaging element 4 is designed as such an optical element which has a spherical or aspherical reflecting surface 9, the outside of the reflecting surface 9 being used for imaging the reflected light beams in the imaging system. The light strips emitted by the light sources and light beams reflected by the objects 3 are projected via the imaging element 4 through the lens 3 onto the light detector 7, as is shown schematically by the numbered beam paths. The distance of the light rays incident on the photodetector 7 is dependent on the imaging properties of the objective and the imaging element 4 and is characteristic of the distance of the objects 3 from the sensor system. In the embodiment of the sensor system shown in FIG. 1, any two-dimensional image detector 7 can be used. For example, a photodiode matrix can be used as a photoelectric converter 7 instead of a two-dimensional CCD sensor. 9 Figure two shows a possible basic embodiment of the applied light source 1 in a side view. The light source 1 shown in Figure 2 consists of a cylindrical mirror 11, which suitably has an aspherical cross section and consists of light emitters 10, which can be light-emitting diodes, for example. These light emitters are located in the focus line of the cylinder mirror 11. The light emitters 10 are arranged one after the other in the focus line of the aspherical cylinder mirror 11, so that the light-emitting surfaces of the light emitters 10 point in the direction of the aspherical cylinder mirror 11. The light emitted by the light emitters 10 first reaches the aspherical cylindrical mirror 11 and then emerges as a strip of light 2 projected through the mirror. By using an aspherical mirror shape adapted to the light emitters 10, it can be achieved that the light source 1 illuminates a parallelized light strip. In this context it should be mentioned that light-emitting diodes (LED) represent an inexpensive, simple and small light source and that due to the selected arrangement of the
Leuchtdioden auf der Achse des Zylinderspiegels eine kostengünstige Lichtquelle zur Verfügung gestellt werden kann.LEDs on the axis of the cylinder mirror an inexpensive light source can be provided.
Wie Abbildung 3 zeigt besteht eine mögliche prinzipielle An- Ordnung zur Erzeugung eines Lichtstreifens 2 aus einem Teil eines Zylinderspiegels. Hierbei steht der Zylinderspiegel 11 zu den Lichtemittern 10 in einer sogenannten off-achsen Anordnung, weswegen nur ein Teil des zuvor in Abbildung 2 beschriebenen Zylinderspiegels 11 Verwendung findet. Die Lich- temitter 10 sind dabei vorteilhaft als LEDs ausgebildet und der Reihe nach auf der Fokuslinie des asphärischen Zylinderspiegels so angeordnet, daß ihre lichtemmittierenden Oberflächen in Richtung des asphärischen Zylinderspiegels 11 gerichtet sind. Mit einer derartigen Lichtquelle kann ebenfalls der für das Sensorsystem gültige prallelisierte Lichtstrahl erzeugt werden. Angedeutet ist dies durch den mit den Pfeilen versehenen Strahlenverlauf. 1 0As Figure 3 shows, there is a possible basic arrangement for generating a light strip 2 from part of a cylinder mirror. Here, the cylinder mirror 11 is in a so-called off-axis arrangement with the light emitters 10, which is why only part of the cylinder mirror 11 previously described in FIG. 2 is used. The light emitters 10 are advantageously designed as LEDs and are arranged in succession on the focal line of the aspherical cylinder mirror in such a way that their light-emitting surfaces are directed in the direction of the aspherical cylinder mirror 11. With such a light source, the parallelized light beam valid for the sensor system can also be generated. This is indicated by the beam path provided with the arrows. 1 0
Wie Abbildung 4 zeigt, besteht eine andere mögliche Lösung zur Erzeugung eines rundum um die Abbildungsvorrichtung leuchtenden Lichtstreifens 2 darin, daß ein parallelisierter Lichtstrahl in Rotation versetzt wird. Der rotierende Lichtstrahl 2 wird dabei in der Weise erzeugt, daß sowohl der Lichtemitter 10, als auch die Kollimatoroptik 14 um eine Achse t herum in Drehung versetzt wird. Eine weitere derartige Ausführungsform kann beispielsweise darin bestehen, daß so- wohl der Lichtemitter 10 als auch die Kollimatoroptik 14 feststehen und der Lichtstahl 2 mit Hilfe eines rotierenden Spiegels rundum bewegt wird.As shown in Figure 4, another possible solution for producing a light strip 2 which shines all around the imaging device is that a parallelized light beam is set in rotation. The rotating light beam 2 is generated in such a way that both the light emitter 10 and the collimator optics 14 are set in rotation about an axis t. A further embodiment of this type can consist, for example, in that both the light emitter 10 and the collimator optics 14 are fixed and the light steel 2 is moved all around with the aid of a rotating mirror.
Abbildung 5 zeigt eine weitere mögliche Ausführungsform zur Erzeugung eines rundherum abgegebenen Lichtstreifens 2. Der Lichtstreifen 2 wird in dieser Ausführungsform durch einen Kegelspiegel 15 erzeugt. Dabei wird das vom Lichtemitter 10 abgegebene Licht zunächst durch eine Kollimatoroptik 14 par- allelisiert und im Anschluß durch einen Kegelspiegel 15 in den gewünschten Lichtstreifen 2 aufgefächert. Bei dieser Ausführungsform kann als Lichtemitter 10 beispielsweise eine Glühlampe, Halogenlampe, Bogenlampe oder Laser verwendet werden.Figure 5 shows a further possible embodiment for producing a light strip 2 emitted all around. In this embodiment, the light strip 2 is generated by a conical mirror 15. The light emitted by the light emitter 10 is first parallelized by collimator optics 14 and then fanned out into the desired light strip 2 by a conical mirror 15. In this embodiment, for example, an incandescent lamp, halogen lamp, arc lamp or laser can be used as the light emitter 10.
Abbildung 6 zeigt den möglichen Aufbau eines Sensorsystems an einer autonomen mobilen Einheit 12, die beispielsweise ein Serviceroboter sein kann. Abbildung 6 zeigt die Darstellung in Seitenansicht. Vorteilhaft können an mobilen Systemen mehrere übereinander angeordnete Lichtstreifen erzeugt werden, welche von mehreren übereinander liegenden Lichtquellen 1 abgegeben werden. Vorzugsweise werden die Lichtstreifen 2 zeitlich versetzt übereinander erzeugt und pulsiert ausgeleuchtet. Durch die Anordnung mehrerer Lichtquellen übereinander wird eine bessere Höhendifferenzierung der Hindernisse er- reicht. Um möglichst alle Hindernisse um das mobile Fahrzeug 12 herum detektieren und vermessen zu können, werden vorzugsweise 2 Abbildungselemente 4 mit den in zugehörigen Kameras 5 11 an zwei entgegengesetzten Ecken des mobilen Fahrzeuges 12 vorgesehen. Durch die Auswertungselektronik wird sichergestellt, daß bei der Triangulation von Hindernissen die entsprechende Höhenlage der aktuell eingeschalteten Lichtquelle zur Auswertung der Triangulationsergebnisse herangezogen wird.Figure 6 shows the possible structure of a sensor system on an autonomous mobile unit 12, which can be, for example, a service robot. Figure 6 shows a side view. A plurality of light strips arranged one above the other, which are emitted by a plurality of light sources 1 lying one above the other, can advantageously be generated on mobile systems. The light strips 2 are preferably generated at different times and illuminated in a pulsed manner. By arranging several light sources one above the other, a better height differentiation of the obstacles is achieved. In order to be able to detect and measure as many obstacles as possible around the mobile vehicle 12, two imaging elements 4 are preferably used with the cameras 5 associated with them 11 provided at two opposite corners of the mobile vehicle 12. The evaluation electronics ensure that when triangulating obstacles, the corresponding altitude of the currently switched on light source is used to evaluate the triangulation results.
Abbildung 7 zeigt die Draufsicht auf einen mit dem Sensorsystem versehenes mobiles Fahrzeug 12, z. B. einen Roboter mit dem Empfangsbereich des Detektionssystems 13. Wie Abbildung 7 weiter zeigt, sind die einzelnen Abbildungselemente 4 an jeweils 2 entgegengesetzten Ecken des mobilen Systems 12 angebracht. Fall zwei Abbildungselemente 4 in der Weise angeordnet sind, wie dies in Abbildung 7 dargestellt ist, so kann der Detektionsbereich 13 des optischen Sensorsystems auf die gesamte Umgebung des mobilen Systems 12 bzw. auf den gesamten Raum ausgedehnt werden, der das mobile System umgibt.Figure 7 shows the top view of a mobile vehicle 12 provided with the sensor system, e.g. B. A robot with the reception area of the detection system 13. As FIG. 7 further shows, the individual imaging elements 4 are attached to 2 opposite corners of the mobile system 12. If two imaging elements 4 are arranged in the manner shown in Figure 7, the detection area 13 of the optical sensor system can be extended to the entire environment of the mobile system 12 or to the entire space surrounding the mobile system.
In Abbildung 8 ist eine mögliche Ausführungsform des photo- elektrischen Wandlers 7 in Form eines eindimensionalen photoelektrischen Wandlers 7 dargestellt. Von dem Abbildungselement 4 wird das Licht durch das Objektiv 6 auf den eindimensionalen Lichtdetektor projiziert, der in der Bildebene bewegt, bzw. vorteilhaft rotiert wird. Dieser photoelektrische Wandler 7 kann beispielsweise als eindimensionaler positionsempfindlicher Detektor, z. B. als CCD oder PSD ausgeführt sein. Dadurch, daß der eindimensionale Lichtdetektor in der Bildebene bewegt, bzw. vorteilhaft rotiert wird, detektiert er die Lichtintensitätsverteilung in der gesamten Bildebene, worauf das Abbildungselement 4 und das Objektiv 6 den um das mobile Fahrzeug 12 liegenden Raumbereich abbildet. Die Meßergebnisse die so erhalten werden, können vorzugsweise zwischengespeichert werden oder die Auswertung erfolgt synchron zur Drehzahl des photoelektrischen Sensors.Figure 8 shows a possible embodiment of the photoelectric converter 7 in the form of a one-dimensional photoelectric converter 7. The light from the imaging element 4 is projected through the lens 6 onto the one-dimensional light detector, which moves in the image plane or is advantageously rotated. This photoelectric converter 7 can be used, for example, as a one-dimensional position-sensitive detector, e.g. B. as a CCD or PSD. Because the one-dimensional light detector is moved in the image plane or is advantageously rotated, it detects the light intensity distribution in the entire image plane, whereupon the imaging element 4 and the lens 6 image the area around the mobile vehicle 12. The measurement results obtained in this way can preferably be temporarily stored or the evaluation is carried out synchronously with the speed of the photoelectric sensor.
Abbildung 9 zeigt eine weitere mögliche Ausführung eines photoelektrischen Wandlers 7, der hier als zweidimensionaler po- 12 sitionsempfindlicher Detektor dargestellt ist. In dieser Ausfuhrungsform ist der photoelektrische Wandler 7 als zweidimensionaler positionsempfindlicher Detektor ausgeführt, der sich hinter dem Objektiv 6 in dessen Bildebene befindet. Zwi- sehen dem Ob ektiv 6 und dem photoelektrischen Wandler 7 befindet sich bei dieser Ausführungsform eine undurchlässige Scheibe 16, welche mit einem Spalt 17 versehen ist. Bei der Rotation dieser Scheibe wird immer der Bereich über dem positionsempfindlichen Detektor freigegeben, der aktuell vom Spalt 17 überstrichen wird. Beispielsweise laßt der Spalt 17 auf der lichtundurchlassigen Scheibe 16 nur das Licht von einem gut definierten Raumbereich beispielsweise mit dem Off- nungswinkel von 1° durch. Auf diese Weise kann ein Richtungsauflosungsvermogen mit beliebig kleinem Winkel erreicht wer- den. Die zu wahlende Spaltbreite ist davon abhangig, wieviel Licht zurückgestrahlt wird, bzw. mit welcher Empfindlichkeit der Detektor arbeitet und mit welcher Lichtstarke der Lichtstreifen von der Lichtquelle ausgeleuchtet wird. Bei der Anwendung eines rotierenden parallelisierten Lichtstrahles als Lichtstreif 2, wie dies im Ausfuhrungsbeispiel von Abbildung 4 dargestellt ist, ist die Anwendung der Scheibe 16 nicht notig, weil die Richtungsauflosung durch die rotierende Lichtquelle schon gesichert ist. Alles in allem wird mit dem beschriebenen Sensorsystem der Vorteil erzielt, daß sein Emp- fangsbereich größer ist als bei bekannten Ausführungsformen und das die Abbildung gleichmäßiger ist, als bei anderen bekannten triangulierenden Sensorsystemen. Durch die weitwmke- lige Abbildung können die Positionen von Objekten, die vom Sensorsystem einen großen Abstand aufweisen, gemessen werden. Dabei stellt die spezielle Gestalt des Abbildungselementes 4 die gleichmäßige Auflösung der Entfernungsmessung im gesamten Detektionsbereich des Sensorsystems sicher, indem es quasi das mangelnde Auslosungsvermogen des Objektives 6 in der Entfernung des Sensorsystems korrigiert, weil es von dort re- flektierte Lichtstrahlen streut und so entferntere Objekte auseinanderzieht . Figure 9 shows another possible embodiment of a photoelectric converter 7, which here is a two-dimensional positive 12 position-sensitive detector is shown. In this embodiment, the photoelectric converter 7 is designed as a two-dimensional position-sensitive detector, which is located behind the lens 6 in its image plane. Between the ob ective 6 and the photoelectric converter 7 there is an impermeable disk 16 in this embodiment, which is provided with a gap 17. When this disk rotates, the area above the position-sensitive detector that is currently swept by the gap 17 is always released. For example, the gap 17 on the opaque pane 16 only allows the light from a well-defined spatial area to pass through, for example with the opening angle of 1 °. In this way, a directional resolution capability with an arbitrarily small angle can be achieved. The slit width to be selected depends on how much light is reflected back, or with what sensitivity the detector works and with what intensity the light strip is illuminated by the light source. When using a rotating parallelized light beam as a light strip 2, as shown in the exemplary embodiment of Figure 4, the use of the disk 16 is not necessary because the directional resolution is already ensured by the rotating light source. All in all, the advantage of the sensor system described is that its reception range is larger than in known embodiments and that the image is more uniform than in other known triangulating sensor systems. The wide-angle image enables the positions of objects that are far from the sensor system to be measured. The special shape of the imaging element 4 ensures the uniform resolution of the distance measurement in the entire detection range of the sensor system by virtually correcting the lack of resolution of the lens 6 in the distance of the sensor system, because it scatters reflected light rays and thus pulls apart more distant objects .

Claims

13 Patentansprüche 13 claims
1. Optisches Sensorsystem zur Detektion der Position eines Objektes, mit einer Lichtquelle zur Beleuchtung der Umgebung, einem photoelektrischen Wandler, der die Intensitätsverteilung des von Objekten zurückgestreuten Lichtes in elektrische Signale umwandelt und an ein Sensorsignalauswertesystem weitergibt, dadurch gekennzeichnet, daß das Sensorsystem eine Lichtquelle (1) aufweist, wodurch ein oder mehrere Lichtstreifen in horizontaler Richtung in mehreren Raumrichtungen erzeugt werden, und das ein optisches Abbildungselement (4) aufweist, um das von Objekten (3) zurückgestreute Licht zu reflektieren und auf den photoelektrischen Wandler (7) zu projizieren, wobei das optische Abbildungselement (4) lediglich eine einzige spiegelnde Oberfläche (9) besitzt.1.Optical sensor system for detecting the position of an object, with a light source for illuminating the environment, a photoelectric converter which converts the intensity distribution of the light scattered back from objects into electrical signals and passes it on to a sensor signal evaluation system, characterized in that the sensor system has a light source ( 1), whereby one or more light strips are generated in the horizontal direction in several spatial directions, and which has an optical imaging element (4) in order to reflect the light scattered back by objects (3) and to project it onto the photoelectric converter (7), the optical imaging element (4) having only a single reflecting surface (9).
2. Optisches Sensorsystem nach Anspruch 1, das im Strahlengang zwischen dem Abbildungselement (4) und dem photoelektrischen Wandler (7) ein Objektiv (6) aufweist.2. Optical sensor system according to claim 1, which has a lens (6) in the beam path between the imaging element (4) and the photoelectric converter (7).
3. Optisches Sensorsystem nach einem der Ansprüche 1 oder 2, bei dem die optische Achse des Abbildungselementes (4) senk- recht zu dem beleuchteten Lichtstreifen (2) ist und das vier Lichtquellen (1) aufweist.3. Optical sensor system according to one of claims 1 or 2, in which the optical axis of the imaging element (4) is perpendicular to the illuminated light strip (2) and has four light sources (1).
4. Optisches Sensorsystem nach einem der vorangehenden Ansprüche, welches ein weitwinkeliges Abbildungselement (4) aufweist, das lediglich eine sphärische oder asphärische spiegelnde Oberfläche (9) aufweist.4. Optical sensor system according to one of the preceding claims, which has a wide-angle imaging element (4) which has only a spherical or aspherical reflecting surface (9).
5. Optisches Sensorsystem nach einem der vorangehenden An- sprüche, 145. Optical sensor system according to one of the preceding claims, 14
bei der das Abbildungselement (4) mindesten eine durch zwei Spline-Funktionen beschreibbare asphärische spiegelnde Oberfläche (9) aufweist.in which the imaging element (4) has at least one aspherical reflecting surface (9) that can be described by two spline functions.
6. Optisches Sensorsystem nach einem der vorangehenden Ansprüche, das mindestens 2 übereinanderliegende Lichtquellen (1) aufweist, um zwei übereinanderliegende Lichtstreifen (2) zu er- zeugen.6. Optical sensor system according to one of the preceding claims, which has at least 2 superimposed light sources (1) in order to produce two superimposed light strips (2).
7. Optisches Sensorsystem nach einem der vorangehenden Ansprüche, das als photoelektrischen Wandler (7) einen eindimensionalen positionsempfindlichen Lichtdetektor aufweist, der bewegt wird.7. Optical sensor system according to one of the preceding claims, which has as a photoelectric converter (7) a one-dimensional position-sensitive light detector which is moved.
8. Optisches Sensorsystem nach einem der Ansprüche 1-6, das als photoelektrischen Wandler (7) einen zweidimensionalen positionsempfindlichen Detektor aufweist, wobei im Strahlengang zwischen dem Abbildungselement (4) und dem photoelektrischen Wandler (7) ein räumlicher Lichtmodulator angebracht ist.8. Optical sensor system according to one of claims 1-6, which has a two-dimensional position-sensitive detector as a photoelectric converter (7), a spatial light modulator being mounted in the beam path between the imaging element (4) and the photoelectric converter (7).
9. Optisches Sensorssystem nach Anspruch 8, bei dem als räumlicher Lichtmodulator eine rotierende mit einem Spalt versehene Scheibe (16) , oder ein Flüssigkristallmo- dulator vorgesehen ist.9. Optical sensor system according to claim 8, in which a rotating disk (16) provided with a gap, or a liquid crystal modulator is provided as the spatial light modulator.
10. Optisches Sensorsystem nach einem der Ansprüche 1-6, bei dem der photoelektrische Wandler (7) als zweidimensionaler Bilddetektormatrix ausgeführt ist.10. Optical sensor system according to one of claims 1-6, wherein the photoelectric converter (7) is designed as a two-dimensional image detector matrix.
11. Optisches Sensorsystem nach einem der Ansprüche 1-5, Bei dem die Lichtquelle (1) als rotierende Lichtquelle ausgeführt ist. 1511. Optical sensor system according to one of claims 1-5, wherein the light source (1) is designed as a rotating light source. 15
12. Optisches Sensorsystem nach einem der Ansprüche 1-10, bei dem die Lichtquelle (1) aus lichtemmittierenden Elementen (10) aufgebaut ist und aus einer zylindrischen spiegelnden Oberfläche (11) mit einem asphärischen Querschnitt besteht, wobei die lichtemmittierenden Elemente (10) als Leuchtdioden in der Fokuslinie der zylindrischen Spiegelfläche (11) so plaziert sind, daß die lichtemmittierenden Flächen der Elemente (10) dem zylindrischen Spiegel (11) zugewandt sind.12. Optical sensor system according to any one of claims 1-10, wherein the light source (1) from light-emitting elements (10) is constructed and consists of a cylindrical reflecting surface (11) with an aspherical cross section, the light-emitting elements (10) as Light-emitting diodes are placed in the focus line of the cylindrical mirror surface (11) so that the light-emitting surfaces of the elements (10) face the cylindrical mirror (11).
13. Optisches Sensorsystem nach einem der Ansprüche 1-10, bei dem die Lichtquelle (1) zur Erzeugung des Lichtstreifens13. Optical sensor system according to one of claims 1-10, wherein the light source (1) for generating the light strip
(2) aus einem bekannten lichtemmittierenden Element, wie einer Glühlampe, einer Halogenlampe, einer Lichtbogenlampe oder einem Laser, aus einer Kollimatoroptik (14) und aus einem Kegelspiegel (15) aufgebaut ist.(2) from a known light-emitting element, such as an incandescent lamp, a halogen lamp, an arc lamp or a laser, from a collimator lens (14) and from a cone mirror (15).
14. Autonome mobile Einheit mit einem Sensorsystem nach einem der Ansprüche 1 bis 13 14. Autonomous mobile unit with a sensor system according to one of claims 1 to 13
PCT/DE1999/000620 1998-03-10 1999-03-09 Optical sensor system for detecting the position of an object WO1999046612A1 (en)

Priority Applications (4)

Application Number Priority Date Filing Date Title
KR1020007009913A KR20010041694A (en) 1998-03-10 1999-03-09 Optical sensor system for detecting the position of an object
EP99919045A EP1062524A1 (en) 1998-03-10 1999-03-09 Optical sensor system for detecting the position of an object
JP2000535942A JP2002506976A (en) 1998-03-10 1999-03-09 Optical sensor system for detecting the position of an object
CA002322419A CA2322419A1 (en) 1998-03-10 1999-03-09 Optical sensor system for detecting the position of an object

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE19810368 1998-03-10
DE19810368.9 1998-03-10

Publications (1)

Publication Number Publication Date
WO1999046612A1 true WO1999046612A1 (en) 1999-09-16

Family

ID=7860414

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/DE1999/000620 WO1999046612A1 (en) 1998-03-10 1999-03-09 Optical sensor system for detecting the position of an object

Country Status (6)

Country Link
EP (1) EP1062524A1 (en)
JP (1) JP2002506976A (en)
KR (1) KR20010041694A (en)
CN (1) CN1292878A (en)
CA (1) CA2322419A1 (en)
WO (1) WO1999046612A1 (en)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6972834B1 (en) 2000-12-11 2005-12-06 Mitsubishi Denki Kabushiki Kaisha Optical distance sensor
EP1653251A2 (en) 2004-10-29 2006-05-03 Deere & Company Method and system for obstacle detection
KR100787565B1 (en) 2006-09-04 2007-12-21 한국외국어대학교 산학협력단 Localization apparatus using a regular polygonal array of optical flow sensors and method therefor
DE102012107727A1 (en) * 2012-03-23 2013-09-26 Atlas Elektronik Gmbh Distance determination method, distance control method, and method of inspecting a flooded tunnel therewith, and distance detection means, distance control means, and underwater vehicle therewith
EP2672287A1 (en) * 2012-06-07 2013-12-11 Samsung Electronics Co., Ltd Obstacle sensing module and cleaning robot including the same
DE102013100192A1 (en) * 2013-01-10 2014-07-10 Miele & Cie. Kg Self-propelled robot and method for distance determination in a self-propelled robot
CN105141921A (en) * 2015-09-02 2015-12-09 上海大学 Monitoring device
AU2013272382B2 (en) * 2012-06-07 2016-03-17 Samsung Electronics Co., Ltd. Obstacle sensing module and cleaning robot including the same
DE102020100822B4 (en) 2019-02-04 2023-12-21 pmdtechnologies ag Illumination module for a time-of-flight camera system
DE102022129827B3 (en) 2022-11-11 2024-03-07 Sick Ag OPTOELECTRONIC SENSOR

Families Citing this family (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN100365428C (en) * 2003-07-03 2008-01-30 夏普株式会社 Humanbody detecting apparatus and electronic machine matched with the same
KR100569181B1 (en) * 2004-01-06 2006-04-07 김진오 Coordinate confirmation system for indoor navigation
EP1659417A1 (en) * 2004-11-19 2006-05-24 Leica Geosystems AG Method for the determination of the orientation of an orientationindicator
CN100356193C (en) * 2005-09-22 2007-12-19 哈尔滨工程大学 Stimulated Brillouin scattering laser radar underwater hidden substance detecting system and method
DE102015109775B3 (en) 2015-06-18 2016-09-22 RobArt GmbH Optical triangulation sensor for distance measurement
US20170008621A1 (en) * 2015-07-08 2017-01-12 Honeywell International Inc. Accurate object detection in free space using controlled light source techniques
CN106371101B (en) * 2015-07-20 2019-08-16 北醒(北京)光子科技有限公司 A kind of device of intelligent distance-measuring and avoidance
DE102015114883A1 (en) 2015-09-04 2017-03-09 RobArt GmbH Identification and localization of a base station of an autonomous mobile robot
DE102015119501A1 (en) 2015-11-11 2017-05-11 RobArt GmbH Subdivision of maps for robot navigation
DE102015119865B4 (en) 2015-11-17 2023-12-21 RobArt GmbH Robot-assisted processing of a surface using a robot
DE102015121666B3 (en) 2015-12-11 2017-05-24 RobArt GmbH Remote control of a mobile, autonomous robot
DE102016102644A1 (en) 2016-02-15 2017-08-17 RobArt GmbH Method for controlling an autonomous mobile robot
CN105974427B (en) * 2016-06-24 2021-05-04 上海图漾信息科技有限公司 Structured light distance measuring device and method
WO2018014252A1 (en) * 2016-07-20 2018-01-25 SZ DJI Technology Co., Ltd. Circular light source for obstacle detection
JP2020509500A (en) 2017-03-02 2020-03-26 ロブアート ゲーエムベーハーROBART GmbH Control method of autonomous mobile robot

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB1199824A (en) * 1968-03-18 1970-07-22 Zeiss Jena Veb Carl Electro-Optical Rangefinder
EP0358628A2 (en) * 1988-09-06 1990-03-14 Transitions Research Corporation Visual navigation and obstacle avoidance structured light system
US5110202A (en) * 1990-08-17 1992-05-05 Spatial Positioning Systems, Inc. Spatial positioning and measurement system
JPH09257934A (en) * 1996-03-25 1997-10-03 Mitsubishi Electric Corp Optical radar device
GB2314717A (en) * 1996-06-24 1998-01-07 Mitsui Shipbuilding Eng Laser obstacle detection

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB1199824A (en) * 1968-03-18 1970-07-22 Zeiss Jena Veb Carl Electro-Optical Rangefinder
EP0358628A2 (en) * 1988-09-06 1990-03-14 Transitions Research Corporation Visual navigation and obstacle avoidance structured light system
US5110202A (en) * 1990-08-17 1992-05-05 Spatial Positioning Systems, Inc. Spatial positioning and measurement system
JPH09257934A (en) * 1996-03-25 1997-10-03 Mitsubishi Electric Corp Optical radar device
US5751407A (en) * 1996-03-25 1998-05-12 Mitsubishi Denki Kabushiki Kaisha Optical radar device
GB2314717A (en) * 1996-06-24 1998-01-07 Mitsui Shipbuilding Eng Laser obstacle detection

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
JARVIS, BYRNE: "An Automated Guided Vehicle with Map Building and Path Finding Capabilities", 4TH INTERNATIONAL SYMPOSIUM ON ROBOTICS RESEARCH, 1988, pages 497 - 504, XP002111886 *

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6972834B1 (en) 2000-12-11 2005-12-06 Mitsubishi Denki Kabushiki Kaisha Optical distance sensor
EP1653251A2 (en) 2004-10-29 2006-05-03 Deere & Company Method and system for obstacle detection
EP1653251A3 (en) * 2004-10-29 2006-07-12 Deere & Company Method and system for obstacle detection
US7164118B2 (en) 2004-10-29 2007-01-16 Deere & Company Method and system for obstacle detection
KR100787565B1 (en) 2006-09-04 2007-12-21 한국외국어대학교 산학협력단 Localization apparatus using a regular polygonal array of optical flow sensors and method therefor
DE102012107727B4 (en) * 2012-03-23 2014-12-04 Atlas Elektronik Gmbh Navigation method, distance control method and method for inspecting a flooded tunnel therewith as well as navigation device, distance control device and underwater vehicle therewith
DE102012107727A1 (en) * 2012-03-23 2013-09-26 Atlas Elektronik Gmbh Distance determination method, distance control method, and method of inspecting a flooded tunnel therewith, and distance detection means, distance control means, and underwater vehicle therewith
AU2013272382B2 (en) * 2012-06-07 2016-03-17 Samsung Electronics Co., Ltd. Obstacle sensing module and cleaning robot including the same
US9020641B2 (en) 2012-06-07 2015-04-28 Samsung Electronics Co., Ltd. Obstacle sensing module and cleaning robot including the same
EP2672287A1 (en) * 2012-06-07 2013-12-11 Samsung Electronics Co., Ltd Obstacle sensing module and cleaning robot including the same
US9846435B2 (en) 2012-06-07 2017-12-19 Samsung Electronics Co., Ltd. Obstacle sensing module and cleaning robot including the same
EP2755101A2 (en) 2013-01-10 2014-07-16 Miele & Cie. KG Self-propelled robot and method for distance determination in a self-propelled robot
DE102013100192A1 (en) * 2013-01-10 2014-07-10 Miele & Cie. Kg Self-propelled robot and method for distance determination in a self-propelled robot
CN105141921A (en) * 2015-09-02 2015-12-09 上海大学 Monitoring device
DE102020100822B4 (en) 2019-02-04 2023-12-21 pmdtechnologies ag Illumination module for a time-of-flight camera system
DE102022129827B3 (en) 2022-11-11 2024-03-07 Sick Ag OPTOELECTRONIC SENSOR

Also Published As

Publication number Publication date
EP1062524A1 (en) 2000-12-27
CA2322419A1 (en) 1999-09-16
KR20010041694A (en) 2001-05-25
CN1292878A (en) 2001-04-25
JP2002506976A (en) 2002-03-05

Similar Documents

Publication Publication Date Title
EP1062524A1 (en) Optical sensor system for detecting the position of an object
EP1882153B1 (en) Device and method for measuring surfaces
EP3279685B2 (en) Optoelectronic sensor and method for detecting an object
EP2002281B1 (en) Device for optically measuring distance
DE112009005524B3 (en) Apparatus and method for measuring six degrees of freedom
EP0842395B1 (en) Process and device for the rapid detection of the position of a target marking
EP0892929B1 (en) Device for measuring the co-ordinates of several retroreflectors applied on an object
EP3633405B1 (en) Measuring apparatus for geometric 3d-scanning of an environment having a plurality of emission channels and semiconductor photomultiplier sensors
EP3167260B1 (en) Method for the direction-dependent measurement of at least one lighting or radiometric characteristic variable of an optical radiation source
EP3693698A1 (en) Measuring device with event-based camera
EP3819671B1 (en) Optoelectronic sensor and method for detecting objects
DE19628049C2 (en) Device for detecting the position of a human body using an infrared ray sensor
EP3404442B1 (en) Simulation device for a rotating lidar light measurement system
WO2006005285A1 (en) Scanning device for measuring the contours of an object
EP2354806B1 (en) Optoelectronic sensor
DE19919584A1 (en) 3D recording method and arrangement
DE19907546A1 (en) Opto-electronic arrangement for detecting object in supervised region
WO2006069748A1 (en) Device for measurement of an object and method for use of said device
DE102006055743B4 (en) Optical sensor
EP1901031B1 (en) Measuring assembly and method for measuring a three-dimensionally extended structure
CH676042A5 (en) Surveying unit with theodolite and range finder - determines coordinates of target point includes light pulse transmitter and receiver
DE102013007961A1 (en) Optical measuring system for a vehicle
DE4422886C2 (en) Method and device for the optical determination of spatial positions of individual reflecting objects
DE112015006912T5 (en) Optical distance measuring system
DE4341645C2 (en) Method for real-time measurement of dynamic three-dimensional deformations of a measurement object

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 99803884.9

Country of ref document: CN

AK Designated states

Kind code of ref document: A1

Designated state(s): CA CN JP KR US

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): AT BE CH CY DE DK ES FI FR GB GR IE IT LU MC NL PT SE

DFPE Request for preliminary examination filed prior to expiration of 19th month from priority date (pct application filed before 20040101)
121 Ep: the epo has been informed by wipo that ep was designated in this application
WWE Wipo information: entry into national phase

Ref document number: 1999919045

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 1020007009913

Country of ref document: KR

ENP Entry into the national phase

Ref document number: 2322419

Country of ref document: CA

Ref document number: 2322419

Country of ref document: CA

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 09646051

Country of ref document: US

WWP Wipo information: published in national office

Ref document number: 1999919045

Country of ref document: EP

WWP Wipo information: published in national office

Ref document number: 1020007009913

Country of ref document: KR

NENP Non-entry into the national phase

Ref country code: CA

WWW Wipo information: withdrawn in national office

Ref document number: 1999919045

Country of ref document: EP

WWW Wipo information: withdrawn in national office

Ref document number: 1020007009913

Country of ref document: KR