DE102005025963A1 - Object detecting method for motor vehicle, involves detecting reflections of all individual rays on seat of motor vehicle as common image by common receiver and evaluating brightness of local reflections of rays within image - Google Patents
Object detecting method for motor vehicle, involves detecting reflections of all individual rays on seat of motor vehicle as common image by common receiver and evaluating brightness of local reflections of rays within image Download PDFInfo
- Publication number
- DE102005025963A1 DE102005025963A1 DE102005025963A DE102005025963A DE102005025963A1 DE 102005025963 A1 DE102005025963 A1 DE 102005025963A1 DE 102005025963 A DE102005025963 A DE 102005025963A DE 102005025963 A DE102005025963 A DE 102005025963A DE 102005025963 A1 DE102005025963 A1 DE 102005025963A1
- Authority
- DE
- Germany
- Prior art keywords
- reflections
- image
- seat
- motor vehicle
- local
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60R—VEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
- B60R21/00—Arrangements or fittings on vehicles for protecting or preventing injuries to occupants or pedestrians in case of accidents or other traffic risks
- B60R21/01—Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents
- B60R21/015—Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents including means for detecting the presence or position of passengers, passenger seats or child seats, and the related safety parameters therefor, e.g. speed or timing of airbag inflation in relation to occupant position or seat belt use
- B60R21/01512—Passenger detection systems
- B60R21/0153—Passenger detection systems using field detection presence sensors
- B60R21/01538—Passenger detection systems using field detection presence sensors for image processing, e.g. cameras or sensor arrays
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/02—Systems using the reflection of electromagnetic waves other than radio waves
- G01S17/04—Systems determining the presence of a target
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Electromagnetism (AREA)
- Computer Networks & Wireless Communication (AREA)
- General Physics & Mathematics (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Mechanical Engineering (AREA)
- Air Bags (AREA)
- Length Measuring Devices By Optical Means (AREA)
Abstract
Description
Die Erfindung betrifft ein Verfahren zur Erfassung von Objekten auf dem Sitz eines Fahrzeugs gemäß dem Oberbegriff von Anspruch 1.The The invention relates to a method for detecting objects the seat of a vehicle according to the preamble of claim 1.
Es wird nicht zuletzt zur Erfüllung der US-amerikanischen Gesetzeslage (FMVSS 208) seit langem ein sog. OCS-Sensor (Occupant Classifikation System) zur Insassen-Belegungserkennung und ein OOP-Sensor (Out of Position) zur Positionserkennung des Kopfes entwickelt. Ziel ist es, die durch Airbagauslösung verursachten Verletzungen des Insassen zu minimieren. Es existieren zahlreiche Lösungsstrategien für diese Problemstellung. Dabei kann die Szenerie über Feldsensoren (kapazitiv, resistiv), Ultraschallsensoren oder optische Sensoren (aktiv, passiv) erfasst werden.It is not least to fulfillment US law (FMVSS 208) has long been a so-called Occupant classification system (OCS) sensor for occupant occupancy detection and an OOP sensor (Out of Position) for detecting the position of the Head developed. The aim is to cause the airbag deployment To minimize injury to the occupant. There are many solving strategies for this Problem. In doing so, the scenery can be monitored by field sensors (capacitive, resistive), ultrasonic sensors or optical sensors (active, passive) be recorded.
Die 2dimensionale Erfassung beispielsweise mittels entsprechender Graubildkameras erfordert eine sehr gleichmäßige Beleuchtung ohne störendes Aussenlicht, um Objekte exakt erkennen zu können. Daher kommen auch dort oft aktiv beleuchtete Systeme im nichtsichtbaren Wellenlängenbereich zum Einsatz.The 2-dimensional detection, for example by means of corresponding gray-scale cameras requires a very uniform lighting without disturbing outside light, to recognize objects exactly. Therefore often there are also actively illuminated systems in the non-visible Wavelength range for use.
Das Funktionsprinzip aktiver optischer Sensorsysteme lässt sich weiterhin grob unterteilen in 2-dimensionale (2D) und 3-dimensionale (3D) Erfassung. 3D-Erfassung kann nach dem Prinzip der Triangulation, Licht-Laufzeitmesssung bzw. Licht-Phasenmessung oder Stereoverfahren erfolgen.The Function principle of active optical sensor systems can be continue to roughly divide into 2-dimensional (2D) and 3-dimensional (3D) acquisition. 3D capture can after the Principle of triangulation, light transit time measurement or light phase measurement or stereo method.
Die 3D-Erfassung unter Berücksichtigung der Entfernung der Objekte ermöglicht eine qualitativ hochwertigere Bewertung als 2D-Bilder vergleichbarer Auflösung, ist jedoch deutlich aufwendiger.The 3D capture taking into account the Removal of objects allows a higher quality rating than 2D images comparable Resolution, However, it is much more complicated.
Bei der Entfernungsmessung nach dem Triangulationsverfahren wird für jeden diskreten Strahl über die Verschiebung am Empfänger auf die Entfernung zum Objekt geschlossen. Wird am Empfänger ein Intensitätsverlauf gemessen, wird die intensitätsreichste Stelle als jeweilige korrespondierende Verschiebung gewählt. Nach diesem Verfahren wird meist ein eindimensionaler Entfernungsvektor ermittelt.at The distance measurement according to the triangulation method will be for everyone discrete beam over the shift at the receiver closed to the distance to the object. Will be on the receiver intensity curve measured, is the most intense Digit selected as the respective corresponding displacement. To This method is usually a one-dimensional distance vector determined.
Bei Ermittlung der 3D-Information nach dem Prinzip der Licht-Laufzeit bzw. Licht-Phasenmessung belichtet der Sensor ein Raumsegment vor dem AB-Modul diffus mit hochfrequent moduliertem Infrarotlicht. Dies wird vom Insassen und der Fahrzeugstruktur reflektiert und vom Sensor wieder empfangen. Die rückgestreute Phasenfront des HF-modulierten Lichts enthält die vollständige Tiefeninformation innerhalb ihrer lokalen Verzögerung. Die eingestrahlte Wellenfront wird korreliert mit einem entsprechend modulierten elektrischen Feld innerhalb jedes Pixels. Als Ergebnis liefern die Pixel ein quasistationäres HF-Interferenzmuster.at Determination of the 3D information according to the principle of the light transit time or light phase measurement, the sensor exposes a space segment the AB module diffuse with high-frequency modulated infrared light. This is reflected by the occupant and the vehicle structure and received by the sensor again. The backscattered phase front of the Contains RF-modulated light the complete Depth information within their local delay. The irradiated wavefront is correlated with a correspondingly modulated electrical Field within each pixel. As a result, the pixels deliver quasi-stationary RF interference pattern.
Das Prinzip ist daher dem Prinzip der RF-Modulationsinterferometrie (RFMI) ähnlich. Aus der Phasenbeziehung zwischen der Senderansteuerung und dem empfangenen Licht lässt sich somit der Abstand der Remissionsfläche ableiten.The The principle is therefore the principle of RF modulation interferometry (RFMI) similar. From the phase relationship between the transmitter drive and the received one Leaves light thus derive the distance of the remission surface.
Beim klassischen Stereoverfahren werden in der Regel zwei Kameras gegeneinander versetzt angeordnet. Miteinander korrespondierende Bildpunkte im linken und rechten Stereobild werden identifiziert. Nahe Gegenstände im Bildfeld sich sehr stark gegeneinander verschoben, weiter entfernte hingegen kaum. Aus diesen Verschiebungen, Disparitäten genannt, können die Distanzen der Objekte berechnet werden. Ausgabe des Sensors ist somit ein Muster, welches weiterverarbeitet wird. Ein Klassifikationsalgorithmus liefert die momentane Belegungsklasse bzw. die Kopfposition.At the Classic stereo methods are usually two cameras against each other staggered. Corresponding pixels in the Left and right stereo image are identified. Close objects in the image field moved very strongly against each other, however far away hardly. From these shifts, called disparities, the Distances of the objects are calculated. Output of the sensor is thus a pattern, which is further processed. A classification algorithm returns the current occupancy class or head position.
Die Mustergewinnung nach dem Triangulationsverfahren ist sehr robust und beansprucht wenige Ressourcen. Es wird neben einen kleinen μC eine LED-Zeile (z.B. 10 LED) und ein Ein-Zeilen-Bildsensor benötigt. Ein gravierender Nachteil ist jedoch der ermittelte eindimensionale Entfernungsvektor. Der Informationsgehalt dieses Musters ist sehr gering. Der nachgeschaltete Klassifikationsalgorithmus ist häufig nicht in der Lage, kleine Änderungen (z.B. Verdrehung eines Kindersitzes), richtig zu interpretieren. Verwechslungen mit anderen Belegungsklassen sind die Folge.The Pattern extraction by the triangulation method is very robust and takes up few resources. It will be next to a small μC an LED line (e.g., 10 LEDs) and a one-line image sensor needed. A serious disadvantage, however, is the determined one-dimensional Range vector. The information content of this pattern is very much low. The downstream classification algorithm is often not able to make small changes (e.g., twisting a child seat) to interpret correctly. confusion with other occupancy classes are the result.
Ein mehrdimensionaler Entfernungsvektor (Remissionsmatrix) beinhaltet mehr Information. Die Klassifikationsalgorithmen haben somit mehr Information zur Verfügung, für die richtige Entscheidung. Bei „guten" Mustern, sind nahezu keine Verwechslungen mehr vorhanden. Allerdings befinden sich die momentan verfügbaren 3D-Sensoren im frühen Entwicklungsstadium. Die aufgenommenen Muster sind sehr verrauscht, temperatur- und remissionsabhängig. Zusätzlich existiert eine Abhängigkeit von der Intensität des Umgebungslichts. Der Systempreis (Sender und Empfänger) ist ebenfalls noch sehr hoch.One multidimensional distance vector (remission matrix) more information. The classification algorithms thus have more Information available for the right decision. In "good" patterns, are almost there are no more mistakes. However, they are currently available 3D sensors in the early Development. The recorded patterns are very noisy, temperature- and remission-dependent. additionally there is a dependency from the intensity the ambient light. The system price (sender and receiver) is also very high.
Beim Stereoverfahren sorgen physikalische Gegebenheiten, insbesondere Beleuchtungsvariationen, aber auch Verdeckungen, Sensorrauschen sowie unterschiedliche Kamera-Charakteristiken, optische Verzerrungen, unterschiedliche Blendenöffnungen, etc., dass sich die Helligkeitsverteilungen der beiden Stereobilder in der Regel deutlich voneinander unterscheiden. Suchalgorithmen, welche die Bildpunkte im linken und rechten Bild einander zuordnen sollen, müssen deshalb extrem fehlertolerant sein. Diese Algorithmen sind extrem rechenaufwendig und müssen oft in einem FPGA integriert werden.In the stereo method, physical conditions, in particular illumination variations, but also occlusions, sensor noise as well as different camera characteristics, optical distortions, different apertures etc., ensure that the brightness distributions of the two stereo images generally differ significantly from each other. Search algorithms which assign the pixels in the left and right image to each other must therefore be extremely fault-tolerant. These algorithms are extremely computationally expensive and often have to be integrated into an FPGA.
Auch hier ist der Systempreis (einfacher Sender aber zwei Kamera-Chips mit je einer Empfangsoptik) ebenfalls sehr hoch.Also here is the system price (simple transmitter but two camera chips each with a receiving optics) also very high.
Die Aufgabe der vorliegenden Erfindung ist es daher, ein Verfahren der eingangs genannten Art vorzustellen, welches äußerst kostengünstig zu realisieren ist und dennoch eine gute Objekterkennungsgenauigkeit aufweist.The Object of the present invention is therefore to provide a method of to introduce the aforementioned type, which is extremely cost-effective realize and yet a good object recognition accuracy having.
Diese Aufgabe wird durch die Merkmale der unabhängigen Ansprüche gelöst. Vorteilhafte Weiterbildungen der Erfindung ergeben sind aus den Unteransprüchen, wobei auch Kombinationen und Weiterbildungen einzelner Merkmale miteinander denkbar sind.These The object is solved by the features of the independent claims. advantageous Developments of the invention will become apparent from the dependent claims, wherein also combinations and developments of individual features with each other are conceivable.
Ein wesentlicher Gedanke der Erfindung besteht darin, dass gerade nicht die komplette Szenerie mit einem diffusen Licht möglichst gleichmäßig beleuchtet wird, wie dies für herkömmliche Systeme üblich ist, sondern gezielt eine lokal begrenzte, also quasi punktuelle Beleuchtung durch eine Mehrzahl von Einzelstrahlen erzeugt wird, wobei jedoch die Reflexionen aller Einzelstrahlen von einem Sitz von einem gemeinsamen Empfänger als ein gemeinsames Bild erfasst werden, so daß die Reflexionen entsprechend gemeinsam und in örtlicher wie amplitudenmäßiger Relation zueinander sowie im Bild als einen aufgenommenes Bildmuster ausgewertet werden können.One essential idea of the invention is that just not the complete scenery with a diffused light possible evenly lit. will, as for conventional Systems usual is, but specifically a locally limited, so quasi punctual Illumination is produced by a plurality of individual beams, however, the reflections of all individual rays from a seat from a common receiver be captured as a common image, so that the reflections accordingly together and in local like amplitude relation evaluated to each other and in the image as a recorded image pattern can be.
Die Position und Helligkeit der einzelnen Reflexionen ist dabei deutlich einfacher auswertbar als bspw. konventionelle Grauwertbilder. Zudem ermöglichen Helligkeit und/oder Position der lokalen Helligkeitsmaxima innerhalb des Bildes ähnlich wie 3dimensionale Bilder Rückschlüsse auf die Entfernung des aufgenommenen Punktes und damit den Sitzbelegungszustand einschließlich der Position des Insassen, dessen Kopfes oder anderer Parameter. Zudem lassen sich auf diese Muster lokaler Helligkeitsmaxima deutlich einfachere Mustererkennungsalgorithmen anwenden.The Position and brightness of the individual reflections is clear easier to evaluate than, for example, conventional grayscale images. moreover enable Brightness and / or position of the local brightness maxima within similar to the picture like 3dimensional images inferences the distance of the recorded point and thus the seat occupancy state including the position of the occupant, his head or other parameter. moreover can be clearly seen on these patterns of local maximum brightness apply simpler pattern recognition algorithms.
Die Erfindung wird nun nachfolgend anhand eines Ausführungsbeispieles unter Zuhilfenahme der Figuren näher erläutert. Im Folgenden können für funktional gleiche und/oder gleiche Elemente mit den gleichen Bezugsziffern bezeichnet sein. Es zeigenThe Invention will now be described below with reference to an embodiment with the aid closer to the figures explained. In the following you can for functional same and / or same elements with the same reference numerals be designated. Show it
Die
Beleuchtung erfolgt also quasi punktuell, d.h. es wird vorzugsweise
eine kollimierende Optik verwendet, wie in
Mit
einem gemeinsamen Empfänger
Darüber hinaus
skizziert
Dank der lokal begrenzten Beleuchtung mit Einzelstrahlen entsteht gegenüber dem klassischen Grauwertbild ein deutlich einfacher auswertbares Leuchtfleckenmuster.thanks the localized lighting with single beams is compared to the classic gray value image a clearly easier to evaluate light spot pattern.
Mit zunehmendem Abstand von der Beleuchtungsvorrichtung nehmen die Helligkeit im lokalen Maximum ab sowie die Größe der Leuchtflecken zu. Die räumliche Ausdehnung der Objekte ist also auswertbar.With increasing distance from the lighting device take the brightness in the local maximum and the size of the spots too. The spatial Extension of the objects is therefore evaluable.
Darüber hinaus
verändert
sich durch Objekte im Sitzbereich die Verteilung der Leuchtflecken
im Bild und damit das gesamte Bildmuster. Insbesondere verschieben
sich die Position der lokalen Helligkeitsmaxima (Punkt
Die
- a) Reboard-, also gegen die Fahrtrichtung gerichteter Kindersitz
- b) Unfallbedingt vorverlagerter Insasse
- a) Reboard, so directed against the direction of travel child seat
- b) accidentally displaced occupant
Die entstehenden Bildmuster, die einerseits deutlich die im Bildmuster tatsächlich lokal begrenzten Reflexionen und andererseits deren Signifikanz für diese Situationen zeigen.The resulting image patterns, on the one hand clearly in the image pattern indeed localized reflections and their significance for them Show situations.
Es ist nun möglich, einzelne dieser vom Belegungszustand einschließlich konkreter Lage und Halterung der Objekte abhängigen Größen selektiv zu bewerten.It is now possible single of these occupancy state including concrete location and fixture dependent on the objects Sizes selectively rate.
Wie
Besonders bevorzugt erfolgt aber eine Gesamtbewertung des aufgenommenen Bildmusters mittels Mustererkennungsverfahren, wie einem Polynomklassifikator, indem ein Vergleich mit gespeicherten Mustern für typische Sitzbelegungs- und Insassensituationen erfolgt. Dabei werden inhärent die Bilder ebenfalls hinsichtlich Helligkeit (z) und/oder Position (x, y) der lokalen Reflexionen mit den Mustern ausgewertet.Especially but preferably an overall evaluation of the recorded image pattern by means of Pattern recognition method, such as a polynomial classifier, by a comparison with stored patterns for typical seat occupancy and Occupant situations occur. In doing so, the images are inherent as well Brightness (z) and / or position (x, y) of the local reflections evaluated with the patterns.
Vorzugsweise ist für einen Sitz eine Mehrzahl von Einzelstrahlen so ausgerichtet, dass im Bild der Reflexionen eine x/y-Matrix aus mehreren Reihen 10n 20n mit jeweils mehreren lokalen Reflexionen entsteht.Preferably is for a seat a plurality of individual beams aligned so that in the image of the reflections, an x / y matrix of several rows 10n 20n, each with multiple local reflections arises.
Ein derartiges Objekterkennungssystem eignet sich für Sitze in Fahrzeugen sowie in anderen Objekten und wird zur Regelung von Anwendungen verwendet, die sitzbelegungs- und/oder insassenpositionsabhängig sind, wie beispielweise die Auslösung von Insassenschutzeinrichtungen, die andererseits aber hinsichtlich der Detailgenauigkeit mit den hier durch die Leuchtflecken deutlich reduzierten Bildmerkmalen noch auskommen, wobei die Anzahl der Einzelstrahlen natürlich situationsabhängig anpassbar ist und insbesondere neben kontinuierlichen Abständen der Einzelstrahlen und Leuchtflecken auch ganz gezielt bestimmte Zonen des Sitzbereichs beleuchtet werden können, um möglichst signifikante Bildmuster für eine einfache Mustererkennung zu erhalten.One Such object recognition system is suitable for seats in vehicles as well in other objects and is used to control applications the seat occupancy and / or occupant position are dependent, such as the triggering of Occupant protection devices, on the other hand, however, with regard to the level of detail with the here by the light spots clearly reduced pictorial features still get along, with the number of single rays Naturally depending on the situation is customizable and in particular, in addition to continuous intervals of Single rays and spots also specifically targeted zones of the seating area can be illuminated to maximize significant image patterns for one to get easy pattern recognition.
Claims (11)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102005025963A DE102005025963A1 (en) | 2005-05-23 | 2005-06-03 | Object detecting method for motor vehicle, involves detecting reflections of all individual rays on seat of motor vehicle as common image by common receiver and evaluating brightness of local reflections of rays within image |
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102005024147.6 | 2005-05-23 | ||
DE102005024147 | 2005-05-23 | ||
DE102005025963A DE102005025963A1 (en) | 2005-05-23 | 2005-06-03 | Object detecting method for motor vehicle, involves detecting reflections of all individual rays on seat of motor vehicle as common image by common receiver and evaluating brightness of local reflections of rays within image |
Publications (1)
Publication Number | Publication Date |
---|---|
DE102005025963A1 true DE102005025963A1 (en) | 2006-12-14 |
Family
ID=37439885
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE102005025963A Withdrawn DE102005025963A1 (en) | 2005-05-23 | 2005-06-03 | Object detecting method for motor vehicle, involves detecting reflections of all individual rays on seat of motor vehicle as common image by common receiver and evaluating brightness of local reflections of rays within image |
Country Status (1)
Country | Link |
---|---|
DE (1) | DE102005025963A1 (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102007032171A1 (en) | 2007-07-10 | 2009-01-22 | Key Safety Systems, Inc., Sterling Heights | Device for detecting the occupancy state of a vehicle seat |
WO2023210333A1 (en) * | 2022-04-27 | 2023-11-02 | 株式会社アイシン | Occupant detection device and occupant detection method |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE4400664A1 (en) * | 1994-01-12 | 1995-08-03 | Spies Martin Dipl Ing Fh | Device for detecting seat occupancy in vehicles etc. |
US5760885A (en) * | 1994-12-04 | 1998-06-02 | Seiko Epson Corporation | Light-sensing device |
US6049747A (en) * | 1996-06-12 | 2000-04-11 | Yazaki Corporation | Driver monitoring device |
DE10133386A1 (en) * | 2001-07-10 | 2003-01-23 | Bosch Gmbh Robert | Detecting position of person in vehicle involves generating event signal if significant characteristics of detected person changes position by more than defined amount |
US20030204363A1 (en) * | 1999-03-01 | 2003-10-30 | Griffin Dennis P. | Infrared out-of-position detection system and method for a vehicle restraint system |
US6757009B1 (en) * | 1997-06-11 | 2004-06-29 | Eaton Corporation | Apparatus for detecting the presence of an occupant in a motor vehicle |
-
2005
- 2005-06-03 DE DE102005025963A patent/DE102005025963A1/en not_active Withdrawn
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE4400664A1 (en) * | 1994-01-12 | 1995-08-03 | Spies Martin Dipl Ing Fh | Device for detecting seat occupancy in vehicles etc. |
US5760885A (en) * | 1994-12-04 | 1998-06-02 | Seiko Epson Corporation | Light-sensing device |
US6049747A (en) * | 1996-06-12 | 2000-04-11 | Yazaki Corporation | Driver monitoring device |
US6757009B1 (en) * | 1997-06-11 | 2004-06-29 | Eaton Corporation | Apparatus for detecting the presence of an occupant in a motor vehicle |
US20030204363A1 (en) * | 1999-03-01 | 2003-10-30 | Griffin Dennis P. | Infrared out-of-position detection system and method for a vehicle restraint system |
DE10133386A1 (en) * | 2001-07-10 | 2003-01-23 | Bosch Gmbh Robert | Detecting position of person in vehicle involves generating event signal if significant characteristics of detected person changes position by more than defined amount |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102007032171A1 (en) | 2007-07-10 | 2009-01-22 | Key Safety Systems, Inc., Sterling Heights | Device for detecting the occupancy state of a vehicle seat |
DE102007032171B4 (en) * | 2007-07-10 | 2009-09-17 | Key Safety Systems, Inc., Sterling Heights | Device for detecting the occupancy state of a vehicle seat |
US8013727B2 (en) | 2007-07-10 | 2011-09-06 | Key Safety Systems, Inc. | Device for detecting vehicle seat occupancy |
WO2023210333A1 (en) * | 2022-04-27 | 2023-11-02 | 株式会社アイシン | Occupant detection device and occupant detection method |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE102006020192B4 (en) | Apparatus and method for predicting collision | |
DE102006024979B4 (en) | Method and apparatus for detecting the presence of an occupant within a vehicle | |
EP3729137B1 (en) | Multi-pulse lidar system for multi-dimensional detection of objects | |
EP1933167B1 (en) | Optoelectronic sensor and method for detecting and determining the distance of an object | |
EP3049823B1 (en) | Method for controlling a micro-mirror scanner, and micro-mirror scanner | |
DE102010037744B3 (en) | Optoelectronic sensor | |
DE102005030968B4 (en) | Automatic mirror alignment method for a vehicle | |
EP2202533A1 (en) | Logging device | |
EP1185442B1 (en) | Device and method for monitoring seats by means of an optoelectronic triangulation technique | |
EP2772676A1 (en) | 3D camera and method for three dimensional surveillance of a surveillance area | |
DE102010039092B4 (en) | Method and control device for determining a distance between an object and a vehicle | |
WO2011045277A1 (en) | Camera system | |
EP2184616A2 (en) | Method and device for controlling a radiation source | |
EP3311190A1 (en) | Sensor system of a sensor device of a motor vehicle | |
DE102017200607B4 (en) | Method and device for detecting an object in a vehicle | |
DE102005025963A1 (en) | Object detecting method for motor vehicle, involves detecting reflections of all individual rays on seat of motor vehicle as common image by common receiver and evaluating brightness of local reflections of rays within image | |
WO2007036553A1 (en) | Device and method for recording distance images | |
WO2019048168A1 (en) | Stochastically clocked image generation of a lidar system | |
EP3502614B1 (en) | Optical measuring device | |
DE102014110203B3 (en) | Distance measuring sensor for the detection and distance determination of objects | |
DE102020117060B4 (en) | Device and method for detecting the surroundings of a vehicle | |
EP2270424B1 (en) | Opto-electronic sensor and monitoring method | |
DE102017222258A1 (en) | Method for a LIDAR device for detecting a hidden object | |
DE202012104074U1 (en) | 3D camera for three-dimensional monitoring of a surveillance area | |
DE102011007464A1 (en) | Method for visualizing scene, involves selecting scene region in three-dimensional image based on distance information, marking selected scene region in two-dimensional image and presenting scene with marked scene region on display unit |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
OM8 | Search report available as to paragraph 43 lit. 1 sentence 1 patent law | ||
ON | Later submitted papers | ||
R005 | Application deemed withdrawn due to failure to request examination |
Effective date: 20120605 |