LU100925B1 - Removing noise caused by vehicular movement from sensor signals using Deep Neural Networks - Google Patents
Removing noise caused by vehicular movement from sensor signals using Deep Neural Networks Download PDFInfo
- Publication number
- LU100925B1 LU100925B1 LU100925A LU100925A LU100925B1 LU 100925 B1 LU100925 B1 LU 100925B1 LU 100925 A LU100925 A LU 100925A LU 100925 A LU100925 A LU 100925A LU 100925 B1 LU100925 B1 LU 100925B1
- Authority
- LU
- Luxembourg
- Prior art keywords
- sensor
- vehicle
- motion
- neural network
- radar
- Prior art date
Links
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/05—Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/08—Measuring devices for evaluating the respiratory organs
- A61B5/0816—Measuring devices for examining respiratory frequency
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/103—Measuring devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
- A61B5/11—Measuring movement of the entire body or parts thereof, e.g. head or hand tremor or mobility of a limb
- A61B5/113—Measuring movement of the entire body or parts thereof, e.g. head or hand tremor or mobility of a limb occurring during breathing
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/68—Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient
- A61B5/6887—Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient mounted on external non-worn devices, e.g. non-medical devices
- A61B5/6893—Cars
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/72—Signal processing specially adapted for physiological signals or for diagnostic purposes
- A61B5/7203—Signal processing specially adapted for physiological signals or for diagnostic purposes for noise prevention, reduction or removal
- A61B5/7207—Signal processing specially adapted for physiological signals or for diagnostic purposes for noise prevention, reduction or removal of noise induced by motion artifacts
- A61B5/721—Signal processing specially adapted for physiological signals or for diagnostic purposes for noise prevention, reduction or removal of noise induced by motion artifacts using a separate sensor to detect motion or using motion information derived from signals other than the physiological signal to be measured
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/72—Signal processing specially adapted for physiological signals or for diagnostic purposes
- A61B5/7235—Details of waveform analysis
- A61B5/7264—Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems
- A61B5/7267—Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems involving training the classification device
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/88—Radar or analogous systems specially adapted for specific applications
- G01S13/93—Radar or analogous systems specially adapted for specific applications for anti-collision purposes
- G01S13/931—Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/02—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
- G01S7/41—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
- G01S7/417—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section involving the use of neural networks
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2413—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
- G06F18/24133—Distances to prototypes
- G06F18/24143—Distances to neighbourhood prototypes, e.g. restricted Coulomb energy networks [RCEN]
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
- G06N3/0442—Recurrent networks, e.g. Hopfield networks characterised by memory or gating, e.g. long short-term memory [LSTM] or gated recurrent units [GRU]
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/09—Supervised learning
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
- G06V10/443—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
- G06V10/449—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
- G06V10/451—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
- G06V10/454—Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/59—Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
- G06V20/597—Recognising the driver's state or behaviour, e.g. attention or drowsiness
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B2503/00—Evaluating a particular growth phase or type of persons or animals
- A61B2503/04—Babies, e.g. for SIDS detection
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B2503/00—Evaluating a particular growth phase or type of persons or animals
- A61B2503/20—Workers
- A61B2503/22—Motor vehicles operators, e.g. drivers, pilots, captains
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B2562/00—Details of sensors; Constructional details of sensor housings or probes; Accessories for sensors
- A61B2562/02—Details of sensors specially adapted for in-vivo measurements
- A61B2562/0219—Inertial sensors, e.g. accelerometers, gyroscopes, tilt switches
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/72—Signal processing specially adapted for physiological signals or for diagnostic purposes
- A61B5/7235—Details of waveform analysis
- A61B5/7253—Details of waveform analysis characterised by using transforms
- A61B5/7257—Details of waveform analysis characterised by using transforms using Fourier transforms
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H50/00—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
- G16H50/70—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for mining of medical data, e.g. analysing previous cases of other patients
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- Artificial Intelligence (AREA)
- General Physics & Mathematics (AREA)
- Biophysics (AREA)
- Evolutionary Computation (AREA)
- Public Health (AREA)
- Veterinary Medicine (AREA)
- Animal Behavior & Ethology (AREA)
- Surgery (AREA)
- Pathology (AREA)
- Heart & Thoracic Surgery (AREA)
- Medical Informatics (AREA)
- Data Mining & Analysis (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Mathematical Physics (AREA)
- General Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Physiology (AREA)
- Remote Sensing (AREA)
- Software Systems (AREA)
- Computing Systems (AREA)
- Computational Linguistics (AREA)
- Radar, Positioning & Navigation (AREA)
- Signal Processing (AREA)
- Computer Networks & Wireless Communication (AREA)
- Psychiatry (AREA)
- Biodiversity & Conservation Biology (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Radiology & Medical Imaging (AREA)
- Pulmonology (AREA)
- Electromagnetism (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Fuzzy Systems (AREA)
Claims (10)
1. Verfahren zum Betreiben einer Sensorvorrichtung (10) in einem Innenraum (18) eines Fahrzeugs (16), wobei die Sensorvorrichtung (10) mindestens einen Sensor (12) aufweist, der gegenüber einer Relativbewegung zu Teilen des und Gegenständen innerhalb des Innenraums (18) des Fahrzeugs (16) empfindlich ist, wobei der mindestens eine Sensor (12) dafür ausgelegt ist, mindestens eine auf den Fahrzeugpassagier bezogene physikalische GrôBe zu erkennen, wobei das Verfahren mindestens die folgenden Schritte umfasst: - Bereitstellen (70, 72) von unverarbeiteten oder verarbeiteten Daten, die von dem mindestens einen Sensor (12) abgefühlt wurden, und unverarbeiteten oder verarbeiteten Daten, die von mindestens einer Bewegungssensorvorrichtung (14) abgefühlt wurden, die dafür ausgelegt ist, Informationen betreffend die Vibration oder Bewegung einer Karosserie (24) des Fahrzeugs (16) als Eingabedaten in mindestens ein künstliches neurales Netz (48, 50, 52) bereitzustellen, - Ausführen (74) eines kombinierten maschinellen Lernplans mit dem mindestens einen künstlichen neuralen Netz (52), - Erzeugen (84) von unverarbeiteten oder verarbeiteten Daten des mindestens einen Sensors (12) und unverarbeiteten oder verarbeiteten Daten der mindestens einen Bewegungssensorvorrichtung (14) in einem Erkennungsszenarium innerhalb des Fahrzeuginnenraums (18), - Bereitstellen (86, 88) der in dem Erkennungsszenarium erzeugten unverarbeiteten oder verarbeiteten Daten als Eingabe in mindestens ein künstliches neurales Netz (52), das durch den kombinierten maschinellen Lernplan trainiert wurde, und - durch Betreiben zumindest des künstlichen neuralen Netzes (52), das mit dem kombinierten maschinellen Lernplan trainiert wurde, um die bereitgestellten Eingabedaten zu verarbeiten, Herleiten einer Ausgabe (90), die
2 | LU100925 eine oder mehrere, auf einen Fahrzeugpassagier bezogene physikalische Größe oder Größen darstellt, basierend auf dem ausgeführten kombinierten maschinellen Lernplan.
2. Verfahren nach Anspruch 1, wobei der Schritt (74) des Ausführens eines kombinierten maschinellen Lernplans ferner einen vorausgehenden Schritt (76) des Ausführens eines ersten maschinellen Lernplans mit einem ersten künstlichen neuralen Netz (48) umfasst, wobei der erste maschinelle Lernplan mehrere beispielhafte Paare von unverarbeiteten oder verarbeiteten Daten, die von dem mindestens einen Sensor (12) abgefühlt wurden, und mindestens eine spezifische, auf einen Fahrzeugpassagier bezogene physikalische Größe umfasst, und ferner einen vorausgehenden Schritt (78) des Ausführens eines zweiten maschinellen Lernplans mit einem zweiten künstlichen neuralen Netz (50) umfasst, wobei der zweite maschinelle Lernplan mehrere beispielhafte Paare von unverarbeiteten oder verarbeiteten Daten, de von der mindestens einen Bewegungssensorvorrichtung (14) abgefühlt wurden, und mindestens eine spezifische Bewegung der Fahrzeugkarosserie (24) umfasst, und wobei der Schritt (86, 88) des Bereitstellens der unverarbeiteten oder verarbeiteten Daten, die in dem Erkennungsszenarium erzeugt wurden, das Bereitstellen einer Ausgabe des ersten künstlichen neuralen Netzes (48) in Reaktion auf die erzeugten unverarbeiteten oder verarbeiteten Daten des mindestens einen Sensors (12) in dem Erkennungsszenarium innerhalb des Fahrzeuginnenraums (18) als Eingabe in das künstliche neurale Netz (52), das durch den kombinierten maschinellen Lernplan trainiert wurde, und das Bereitstellen einer Ausgabe des zweiten künstlichen neuralen Netzes (50) in Reaktion auf die erzeugten unverarbeiteten oder verarbeiteten Daten der mindestens einen Bewegungssensorvorrichtung (14) in dem Erkennungsszenarium innerhalb des Fahrzeuginnenraums (18) als weitere Eingabe in das künstliche neurale Netz (52), das durch den kombinierten maschinellen Lernplan trainiert wurde, umfasst.
3. Verfahren nach Anspruch 1 oder 2, wobei der Schritt (84) des Erzeugens von unverarbeiteten oder verarbeiteten Daten des mindestens einen Sensors (12) und unverarbeiteten oder verarbeiteten Daten der mindestens einen Bewegungssensorvorrichtung (14) in einem Erkennungsszenarium ein Schritt (84) des Erzeugens von verarbeiteten Daten von mindestens einem von dem mindestens einen Sensor (12) und der mindestens einen Bewegungssensorvorrichtung (14) ist und das Anwenden einer schnellen Fouriertransformation an verarbeiteten Daten von mindestens einem von dem mindestens einen Sensor (12) und der mindestens einen Bewegungssensorvorrichtung (14) aufweist.
4. Verfahren nach einem der vorhergehenden Ansprüche, wobei der Schritt (90) des Herleitens einer Ausgabe, die eine oder mehrere, auf einen Fahrzeugpassagier bezogene physikalische Größe oder Größen darstellt, die Verwendung der hergeleiteten Ausgabe des künstlichen neuralen Netzes (52), das mit dem kombinierten maschinellen Lernplan trainiert wurde, umfasst, um unmittelbar die Ausgabe herzuleiten, die eine oder mehrere, auf einen Fahrzeugpassagier bezogene physikalische Größe oder Größen darstellt, und/oder um Parameter für eine Rauschentfernung aus dem Signal des mindestens einen Sensors (12) durch Entfernen eines Abschnitts des Sensorsignals, das durch den mindestens einen Sensor (12) dadurch erzeugt wird, dass er durch Fahrzeugbewegungen bewegt wird, zu bestimmen und anzuwenden.
5. Sensorvorrichtung (10) zum Betrieb in einem Innenraum (18) eines Fahrzeugs (16), umfassend - mindestens einen Sensor (12), der gegenüber einer Relativbewegung zu Teilen des und Gegenständen innerhalb des Innenraums (18) des Fahrzeugs (16) empfindlich ist, wobei der mindestens eine Sensor (12) dafür ausgelegt ist, eine auf einen Fahrzeugpassagier bezogene physikalische Größe zu erkennen, und - eine Auswerte- und Steuereinheit (46), die mindestens ein künstliches neurales Netz (48, 50, 52) umfasst und mindestens dafür ausgelegt ist,
. Signale, die von dem mindestens einen Sensor (12) in einem Erkennungsszenarium empfangen werden, auszuwerten, . Bewegungssensordaten von mindestens einer Bewegungssensorvorrichtung (14) zu empfangen, wobei die Bewegungssensordaten Informationen betreffend eine Vibration oder Bewegung einer Karosserie (24) des Fahrzeugs (16) in dem Erkennungsszenarium enthalten, . die ausgewerteten Signalinformationen und die Informationen betreffend eine Vibration oder Bewegung einer Karosserie (24) des Fahrzeugs (16) als Eingabedaten in das mindestens eine künstliche neurale Netz (48, 50, 52) bereitzustellen, und . das mindestens eine künstliche neurale Netz (52), das mit einem kombinierten maschinellen Lernplan trainiert worden ist, zur Verarbeitung der bereitgestellten Eingabedaten zu betreiben, um eine Ausgabe herzuleiten, die eine oder mehrere, auf einen Fahrzeugpassagier bezogene physikalische Größe oder Größen darstellt, basierend auf dem kombinierten maschinellen Lernplan.
6. Sensorvorrichtung nach Anspruch 5, wobei mindestens ein künstliches neurales Netz (48, 50, 52) durch ein maschinelles neurales Netz (48, 50, 52) gebildet ist.
7. Sensorvorrichtung (10) nach Anspruch 5 oder 6, wobei die Sensorvorrichtung (10) als Radarsensorsystem (10) gebildet ist und der mindestens eine Sensor (12) durch einen Radarsensor (12) gebildet ist, wobei der Radarsensor (12) aufweist - eine Radarsendeeinheit mit mindestens einer Radarsendeantenne, und die dafür ausgelegt ist, Radarsignale zu mindestens einem Abschnitt des Fahrzeuginnenraums (18) zu senden, - eine Radarempfangseinheit mit mindestens einer Radarempfangsantenne, und die dafür ausgelegt ist, Radarsignale zu empfangen, die von der Radarsendereinheit gesendet und von Teilen des und
Gegenstanden innerhalb des Innenraums (18) des Fahrzeugs (16) gesendet worden sind, und wobei die Auswerte- und Steuereinheit (46) dafür ausgelegt ist, - Informationen von Radarsignalen, die von dem mindestens einen 5 Radarsensor (12) in dem Erkennungsszenarium empfangen wurden, auszuwerten, und - die ausgewerteten Radarsignalinformationen und die Informationen betreffend eine Vibration oder Bewegung einer Karosserie (24) des Fahrzeugs (16) als Eingabedaten in das mindestens eine künstliche neurale Netz (48, 50, 52) bereitzustellen.
8. Sensorvorrichtung (10) nach einem der Ansprüche 5 bis 7, ferner aufweisend mindestens eine Bewegungssensorvorrichtung (14), die dafür ausgelegt ist, die Bewegungssensordaten bereitzustellen.
9. Sensorvorrichtung (10) nach einem der Ansprüche 5 bis 8, wobei die mindestens eine Bewegungssensorvorrichtung (14) mindestens einen Beschleunigungssensor umfasst, der als mikro-elektromechanisches System gestaltet ist.
10. Verwendung der Sensorvorrichtung (10) nach einem der Ansprüche 5 bis 9, umfassend mindestens einen Radarsensor (12) als der mindestens eine Sensor (12) in einem Kraftfahrzeug-Innenraum-Messsystem zum Erkennen von Lebenszeichenmerkmalen.
Priority Applications (2)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| LU100925A LU100925B1 (en) | 2018-09-10 | 2018-09-10 | Removing noise caused by vehicular movement from sensor signals using Deep Neural Networks |
| PCT/EP2019/073993 WO2020053148A1 (en) | 2018-09-10 | 2019-09-09 | Removing noise caused by vehicular movement from sensor signals using deep neural networks |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| LU100925A LU100925B1 (en) | 2018-09-10 | 2018-09-10 | Removing noise caused by vehicular movement from sensor signals using Deep Neural Networks |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| LU100925B1 true LU100925B1 (en) | 2020-03-10 |
Family
ID=63713985
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| LU100925A LU100925B1 (en) | 2018-09-10 | 2018-09-10 | Removing noise caused by vehicular movement from sensor signals using Deep Neural Networks |
Country Status (2)
| Country | Link |
|---|---|
| LU (1) | LU100925B1 (de) |
| WO (1) | WO2020053148A1 (de) |
Cited By (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN112957013A (zh) * | 2021-02-05 | 2021-06-15 | 江西国科美信医疗科技有限公司 | 一种动态生命体征信号采集系统、监测装置及设备 |
| US20240118403A1 (en) * | 2021-02-24 | 2024-04-11 | Mitsubishi Electric Corporation | Occupant detection device and occupant detection method |
Families Citing this family (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP7596389B2 (ja) * | 2020-01-15 | 2024-12-09 | サン-ゴバン グラス フランス | 統合されたレーダーセンサを有する乗り物のための複合ペイン |
| US11769332B2 (en) * | 2020-06-15 | 2023-09-26 | Lytx, Inc. | Sensor fusion for collision detection |
| CN111965636A (zh) * | 2020-07-20 | 2020-11-20 | 重庆大学 | 一种基于毫米波雷达和视觉融合的夜间目标检测方法 |
| JP7502931B2 (ja) * | 2020-08-20 | 2024-06-19 | フォルシアクラリオン・エレクトロニクス株式会社 | バイタルデータ測定装置およびバイタルデータ測定方法 |
| JP2024516985A (ja) * | 2021-05-11 | 2024-04-18 | ハーマン ベッカー オートモーティブ システムズ ゲーエムベーハー | 生体信号抽出を改善するためのコンテキストセンサの融合 |
Citations (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| WO2013037399A1 (en) * | 2011-09-12 | 2013-03-21 | Ficomirrors, S.A. | System and method for detecting a vital-related signal pattern |
| CN105534517A (zh) * | 2016-02-29 | 2016-05-04 | 浙江铭众科技有限公司 | 一种去除三导联心电信号中车辆运动噪声的方法 |
| CN105769173A (zh) * | 2016-02-29 | 2016-07-20 | 浙江铭众科技有限公司 | 一种具有心电信号去噪功能的心电监测系统 |
| CN105796091A (zh) * | 2016-02-29 | 2016-07-27 | 浙江铭众科技有限公司 | 一种用于去除心电信号车辆运动噪声的智能终端 |
| US20160354027A1 (en) * | 2014-02-20 | 2016-12-08 | Faurecia Automotive Seating, Llc. | Vehicle seat with integrated sensors |
Family Cites Families (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| LU92541B1 (en) | 2014-09-10 | 2016-03-11 | Iee Sarl | Radar sensing of vehicle occupancy |
-
2018
- 2018-09-10 LU LU100925A patent/LU100925B1/en active IP Right Grant
-
2019
- 2019-09-09 WO PCT/EP2019/073993 patent/WO2020053148A1/en not_active Ceased
Patent Citations (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| WO2013037399A1 (en) * | 2011-09-12 | 2013-03-21 | Ficomirrors, S.A. | System and method for detecting a vital-related signal pattern |
| US20160354027A1 (en) * | 2014-02-20 | 2016-12-08 | Faurecia Automotive Seating, Llc. | Vehicle seat with integrated sensors |
| CN105534517A (zh) * | 2016-02-29 | 2016-05-04 | 浙江铭众科技有限公司 | 一种去除三导联心电信号中车辆运动噪声的方法 |
| CN105769173A (zh) * | 2016-02-29 | 2016-07-20 | 浙江铭众科技有限公司 | 一种具有心电信号去噪功能的心电监测系统 |
| CN105796091A (zh) * | 2016-02-29 | 2016-07-27 | 浙江铭众科技有限公司 | 一种用于去除心电信号车辆运动噪声的智能终端 |
Non-Patent Citations (1)
| Title |
|---|
| YIN WENFENG ET AL: "Self-adjustable domain adaptation in personalized ECG monitoring integrated with IR-UWB radar", BIOMEDICAL SIGNAL PROCESSING AND CONTROL, ELSEVIER, AMSTERDAM, NL, vol. 47, 23 August 2018 (2018-08-23), pages 75 - 87, XP085502714, ISSN: 1746-8094, DOI: 10.1016/J.BSPC.2018.08.002 * |
Cited By (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN112957013A (zh) * | 2021-02-05 | 2021-06-15 | 江西国科美信医疗科技有限公司 | 一种动态生命体征信号采集系统、监测装置及设备 |
| CN112957013B (zh) * | 2021-02-05 | 2022-11-11 | 江西国科美信医疗科技有限公司 | 一种动态生命体征信号采集系统、监测装置及设备 |
| US20240118403A1 (en) * | 2021-02-24 | 2024-04-11 | Mitsubishi Electric Corporation | Occupant detection device and occupant detection method |
Also Published As
| Publication number | Publication date |
|---|---|
| WO2020053148A1 (en) | 2020-03-19 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| LU100925B1 (en) | Removing noise caused by vehicular movement from sensor signals using Deep Neural Networks | |
| EP3652026B1 (de) | System und verfahren zur radarbasierten bestimmung einer anzahl von fahrgästen im fahrgastraum eines fahrzeugs | |
| CN113165646B (zh) | 用于检测车辆周围的风险因素的电子设备及其控制方法 | |
| CN112699721B (zh) | 离开道路扫视时间的情境相关调整 | |
| CN115023744B (zh) | 消除由干扰移动激发的信号的用于生命体征检测的操作雷达传感器系统的方法 | |
| JP4980988B2 (ja) | 運転者状態推定装置 | |
| US20110130111A1 (en) | System and method for minimizing occupant injury during vehicle crash events | |
| CN102654753B (zh) | 机动车环境传感器仿真及预见安全系统测试方法、仿真装置 | |
| US12425551B2 (en) | Enhanced occupant collision safety system | |
| WO2022261080A1 (en) | Sensing interactions with unpermitted components within a vehicle | |
| CN109070858B (zh) | 用于确定安全关键的车辆横摆运动的方法和设备 | |
| CN110472470A (zh) | 用于确定车辆的周围环境状态的方法和系统 | |
| CN112629872A (zh) | 低撞击力碰撞检测 | |
| CN117183840A (zh) | 基于雷达点云检测座位布置的座位占用状态的方法和系统 | |
| WO2018224612A1 (en) | Radar-based passenger classification and monitoring | |
| KR102232646B1 (ko) | 운전석을 포함한 차량의 실내 장치를 자동으로 조절하기 위한 방법 및 이를 위한 장치 | |
| Coyte et al. | Decision tree assisted EKF for vehicle slip angle estimation using inertial motion sensors | |
| US12023132B2 (en) | Systems and methods for remote vital sign monitoring in a vehicle | |
| US12304499B2 (en) | Prediction of operator input to a steering element | |
| Supriya et al. | Reliable automotive crash detection using multi sensor decision fusion | |
| Kamann et al. | Test methodology for automotive surround sensors in dynamic driving situations | |
| LU100364B1 (en) | Radar-Based Passenger Classification and Monitoring | |
| Tamizharasan et al. | Artificial intelligence-based vehicle in-cabin occupant detection and classification system | |
| Hannan et al. | Decision fusion of a multi-sensing embedded system for occupant safety measures | |
| LU101167B1 (en) | Method and System for Predicting the Time Behavior of an Environment using a Sensing Device, a Physical Model and an Artificial Neural Network |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| FG | Patent granted |
Effective date: 20200310 |