LU100925B1 - Removing noise caused by vehicular movement from sensor signals using Deep Neural Networks - Google Patents

Removing noise caused by vehicular movement from sensor signals using Deep Neural Networks Download PDF

Info

Publication number
LU100925B1
LU100925B1 LU100925A LU100925A LU100925B1 LU 100925 B1 LU100925 B1 LU 100925B1 LU 100925 A LU100925 A LU 100925A LU 100925 A LU100925 A LU 100925A LU 100925 B1 LU100925 B1 LU 100925B1
Authority
LU
Luxembourg
Prior art keywords
sensor
vehicle
motion
neural network
radar
Prior art date
Application number
LU100925A
Other languages
English (en)
Inventor
Hans Peter Beise
Da Cruz Steve Dias
Udo Schröder
Original Assignee
Iee Sa
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Iee Sa filed Critical Iee Sa
Priority to LU100925A priority Critical patent/LU100925B1/en
Priority to PCT/EP2019/073993 priority patent/WO2020053148A1/en
Application granted granted Critical
Publication of LU100925B1 publication Critical patent/LU100925B1/en

Links

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/05Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/08Measuring devices for evaluating the respiratory organs
    • A61B5/0816Measuring devices for examining respiratory frequency
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Measuring devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor or mobility of a limb
    • A61B5/113Measuring movement of the entire body or parts thereof, e.g. head or hand tremor or mobility of a limb occurring during breathing
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/68Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient
    • A61B5/6887Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient mounted on external non-worn devices, e.g. non-medical devices
    • A61B5/6893Cars
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7203Signal processing specially adapted for physiological signals or for diagnostic purposes for noise prevention, reduction or removal
    • A61B5/7207Signal processing specially adapted for physiological signals or for diagnostic purposes for noise prevention, reduction or removal of noise induced by motion artifacts
    • A61B5/721Signal processing specially adapted for physiological signals or for diagnostic purposes for noise prevention, reduction or removal of noise induced by motion artifacts using a separate sensor to detect motion or using motion information derived from signals other than the physiological signal to be measured
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7235Details of waveform analysis
    • A61B5/7264Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems
    • A61B5/7267Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems involving training the classification device
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/41Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
    • G01S7/417Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section involving the use of neural networks
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2413Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
    • G06F18/24133Distances to prototypes
    • G06F18/24143Distances to neighbourhood prototypes, e.g. restricted Coulomb energy networks [RCEN]
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/044Recurrent networks, e.g. Hopfield networks
    • G06N3/0442Recurrent networks, e.g. Hopfield networks characterised by memory or gating, e.g. long short-term memory [LSTM] or gated recurrent units [GRU]
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/09Supervised learning
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • G06V10/443Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
    • G06V10/449Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
    • G06V10/451Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
    • G06V10/454Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/59Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
    • G06V20/597Recognising the driver's state or behaviour, e.g. attention or drowsiness
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B2503/00Evaluating a particular growth phase or type of persons or animals
    • A61B2503/04Babies, e.g. for SIDS detection
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B2503/00Evaluating a particular growth phase or type of persons or animals
    • A61B2503/20Workers
    • A61B2503/22Motor vehicles operators, e.g. drivers, pilots, captains
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B2562/00Details of sensors; Constructional details of sensor housings or probes; Accessories for sensors
    • A61B2562/02Details of sensors specially adapted for in-vivo measurements
    • A61B2562/0219Inertial sensors, e.g. accelerometers, gyroscopes, tilt switches
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7235Details of waveform analysis
    • A61B5/7253Details of waveform analysis characterised by using transforms
    • A61B5/7257Details of waveform analysis characterised by using transforms using Fourier transforms
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/044Recurrent networks, e.g. Hopfield networks
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/70ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for mining of medical data, e.g. analysing previous cases of other patients

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Artificial Intelligence (AREA)
  • General Physics & Mathematics (AREA)
  • Biophysics (AREA)
  • Evolutionary Computation (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Animal Behavior & Ethology (AREA)
  • Surgery (AREA)
  • Pathology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Data Mining & Analysis (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Mathematical Physics (AREA)
  • General Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Physiology (AREA)
  • Remote Sensing (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • Computational Linguistics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Signal Processing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Psychiatry (AREA)
  • Biodiversity & Conservation Biology (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Pulmonology (AREA)
  • Electromagnetism (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Fuzzy Systems (AREA)

Claims (10)

P-IEE-510/LU ANSPRUCHE
1. Verfahren zum Betreiben einer Sensorvorrichtung (10) in einem Innenraum (18) eines Fahrzeugs (16), wobei die Sensorvorrichtung (10) mindestens einen Sensor (12) aufweist, der gegenüber einer Relativbewegung zu Teilen des und Gegenständen innerhalb des Innenraums (18) des Fahrzeugs (16) empfindlich ist, wobei der mindestens eine Sensor (12) dafür ausgelegt ist, mindestens eine auf den Fahrzeugpassagier bezogene physikalische GrôBe zu erkennen, wobei das Verfahren mindestens die folgenden Schritte umfasst: - Bereitstellen (70, 72) von unverarbeiteten oder verarbeiteten Daten, die von dem mindestens einen Sensor (12) abgefühlt wurden, und unverarbeiteten oder verarbeiteten Daten, die von mindestens einer Bewegungssensorvorrichtung (14) abgefühlt wurden, die dafür ausgelegt ist, Informationen betreffend die Vibration oder Bewegung einer Karosserie (24) des Fahrzeugs (16) als Eingabedaten in mindestens ein künstliches neurales Netz (48, 50, 52) bereitzustellen, - Ausführen (74) eines kombinierten maschinellen Lernplans mit dem mindestens einen künstlichen neuralen Netz (52), - Erzeugen (84) von unverarbeiteten oder verarbeiteten Daten des mindestens einen Sensors (12) und unverarbeiteten oder verarbeiteten Daten der mindestens einen Bewegungssensorvorrichtung (14) in einem Erkennungsszenarium innerhalb des Fahrzeuginnenraums (18), - Bereitstellen (86, 88) der in dem Erkennungsszenarium erzeugten unverarbeiteten oder verarbeiteten Daten als Eingabe in mindestens ein künstliches neurales Netz (52), das durch den kombinierten maschinellen Lernplan trainiert wurde, und - durch Betreiben zumindest des künstlichen neuralen Netzes (52), das mit dem kombinierten maschinellen Lernplan trainiert wurde, um die bereitgestellten Eingabedaten zu verarbeiten, Herleiten einer Ausgabe (90), die
2 | LU100925 eine oder mehrere, auf einen Fahrzeugpassagier bezogene physikalische Größe oder Größen darstellt, basierend auf dem ausgeführten kombinierten maschinellen Lernplan.
2. Verfahren nach Anspruch 1, wobei der Schritt (74) des Ausführens eines kombinierten maschinellen Lernplans ferner einen vorausgehenden Schritt (76) des Ausführens eines ersten maschinellen Lernplans mit einem ersten künstlichen neuralen Netz (48) umfasst, wobei der erste maschinelle Lernplan mehrere beispielhafte Paare von unverarbeiteten oder verarbeiteten Daten, die von dem mindestens einen Sensor (12) abgefühlt wurden, und mindestens eine spezifische, auf einen Fahrzeugpassagier bezogene physikalische Größe umfasst, und ferner einen vorausgehenden Schritt (78) des Ausführens eines zweiten maschinellen Lernplans mit einem zweiten künstlichen neuralen Netz (50) umfasst, wobei der zweite maschinelle Lernplan mehrere beispielhafte Paare von unverarbeiteten oder verarbeiteten Daten, de von der mindestens einen Bewegungssensorvorrichtung (14) abgefühlt wurden, und mindestens eine spezifische Bewegung der Fahrzeugkarosserie (24) umfasst, und wobei der Schritt (86, 88) des Bereitstellens der unverarbeiteten oder verarbeiteten Daten, die in dem Erkennungsszenarium erzeugt wurden, das Bereitstellen einer Ausgabe des ersten künstlichen neuralen Netzes (48) in Reaktion auf die erzeugten unverarbeiteten oder verarbeiteten Daten des mindestens einen Sensors (12) in dem Erkennungsszenarium innerhalb des Fahrzeuginnenraums (18) als Eingabe in das künstliche neurale Netz (52), das durch den kombinierten maschinellen Lernplan trainiert wurde, und das Bereitstellen einer Ausgabe des zweiten künstlichen neuralen Netzes (50) in Reaktion auf die erzeugten unverarbeiteten oder verarbeiteten Daten der mindestens einen Bewegungssensorvorrichtung (14) in dem Erkennungsszenarium innerhalb des Fahrzeuginnenraums (18) als weitere Eingabe in das künstliche neurale Netz (52), das durch den kombinierten maschinellen Lernplan trainiert wurde, umfasst.
3. Verfahren nach Anspruch 1 oder 2, wobei der Schritt (84) des Erzeugens von unverarbeiteten oder verarbeiteten Daten des mindestens einen Sensors (12) und unverarbeiteten oder verarbeiteten Daten der mindestens einen Bewegungssensorvorrichtung (14) in einem Erkennungsszenarium ein Schritt (84) des Erzeugens von verarbeiteten Daten von mindestens einem von dem mindestens einen Sensor (12) und der mindestens einen Bewegungssensorvorrichtung (14) ist und das Anwenden einer schnellen Fouriertransformation an verarbeiteten Daten von mindestens einem von dem mindestens einen Sensor (12) und der mindestens einen Bewegungssensorvorrichtung (14) aufweist.
4. Verfahren nach einem der vorhergehenden Ansprüche, wobei der Schritt (90) des Herleitens einer Ausgabe, die eine oder mehrere, auf einen Fahrzeugpassagier bezogene physikalische Größe oder Größen darstellt, die Verwendung der hergeleiteten Ausgabe des künstlichen neuralen Netzes (52), das mit dem kombinierten maschinellen Lernplan trainiert wurde, umfasst, um unmittelbar die Ausgabe herzuleiten, die eine oder mehrere, auf einen Fahrzeugpassagier bezogene physikalische Größe oder Größen darstellt, und/oder um Parameter für eine Rauschentfernung aus dem Signal des mindestens einen Sensors (12) durch Entfernen eines Abschnitts des Sensorsignals, das durch den mindestens einen Sensor (12) dadurch erzeugt wird, dass er durch Fahrzeugbewegungen bewegt wird, zu bestimmen und anzuwenden.
5. Sensorvorrichtung (10) zum Betrieb in einem Innenraum (18) eines Fahrzeugs (16), umfassend - mindestens einen Sensor (12), der gegenüber einer Relativbewegung zu Teilen des und Gegenständen innerhalb des Innenraums (18) des Fahrzeugs (16) empfindlich ist, wobei der mindestens eine Sensor (12) dafür ausgelegt ist, eine auf einen Fahrzeugpassagier bezogene physikalische Größe zu erkennen, und - eine Auswerte- und Steuereinheit (46), die mindestens ein künstliches neurales Netz (48, 50, 52) umfasst und mindestens dafür ausgelegt ist,
. Signale, die von dem mindestens einen Sensor (12) in einem Erkennungsszenarium empfangen werden, auszuwerten, . Bewegungssensordaten von mindestens einer Bewegungssensorvorrichtung (14) zu empfangen, wobei die Bewegungssensordaten Informationen betreffend eine Vibration oder Bewegung einer Karosserie (24) des Fahrzeugs (16) in dem Erkennungsszenarium enthalten, . die ausgewerteten Signalinformationen und die Informationen betreffend eine Vibration oder Bewegung einer Karosserie (24) des Fahrzeugs (16) als Eingabedaten in das mindestens eine künstliche neurale Netz (48, 50, 52) bereitzustellen, und . das mindestens eine künstliche neurale Netz (52), das mit einem kombinierten maschinellen Lernplan trainiert worden ist, zur Verarbeitung der bereitgestellten Eingabedaten zu betreiben, um eine Ausgabe herzuleiten, die eine oder mehrere, auf einen Fahrzeugpassagier bezogene physikalische Größe oder Größen darstellt, basierend auf dem kombinierten maschinellen Lernplan.
6. Sensorvorrichtung nach Anspruch 5, wobei mindestens ein künstliches neurales Netz (48, 50, 52) durch ein maschinelles neurales Netz (48, 50, 52) gebildet ist.
7. Sensorvorrichtung (10) nach Anspruch 5 oder 6, wobei die Sensorvorrichtung (10) als Radarsensorsystem (10) gebildet ist und der mindestens eine Sensor (12) durch einen Radarsensor (12) gebildet ist, wobei der Radarsensor (12) aufweist - eine Radarsendeeinheit mit mindestens einer Radarsendeantenne, und die dafür ausgelegt ist, Radarsignale zu mindestens einem Abschnitt des Fahrzeuginnenraums (18) zu senden, - eine Radarempfangseinheit mit mindestens einer Radarempfangsantenne, und die dafür ausgelegt ist, Radarsignale zu empfangen, die von der Radarsendereinheit gesendet und von Teilen des und
Gegenstanden innerhalb des Innenraums (18) des Fahrzeugs (16) gesendet worden sind, und wobei die Auswerte- und Steuereinheit (46) dafür ausgelegt ist, - Informationen von Radarsignalen, die von dem mindestens einen 5 Radarsensor (12) in dem Erkennungsszenarium empfangen wurden, auszuwerten, und - die ausgewerteten Radarsignalinformationen und die Informationen betreffend eine Vibration oder Bewegung einer Karosserie (24) des Fahrzeugs (16) als Eingabedaten in das mindestens eine künstliche neurale Netz (48, 50, 52) bereitzustellen.
8. Sensorvorrichtung (10) nach einem der Ansprüche 5 bis 7, ferner aufweisend mindestens eine Bewegungssensorvorrichtung (14), die dafür ausgelegt ist, die Bewegungssensordaten bereitzustellen.
9. Sensorvorrichtung (10) nach einem der Ansprüche 5 bis 8, wobei die mindestens eine Bewegungssensorvorrichtung (14) mindestens einen Beschleunigungssensor umfasst, der als mikro-elektromechanisches System gestaltet ist.
10. Verwendung der Sensorvorrichtung (10) nach einem der Ansprüche 5 bis 9, umfassend mindestens einen Radarsensor (12) als der mindestens eine Sensor (12) in einem Kraftfahrzeug-Innenraum-Messsystem zum Erkennen von Lebenszeichenmerkmalen.
LU100925A 2018-09-10 2018-09-10 Removing noise caused by vehicular movement from sensor signals using Deep Neural Networks LU100925B1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
LU100925A LU100925B1 (en) 2018-09-10 2018-09-10 Removing noise caused by vehicular movement from sensor signals using Deep Neural Networks
PCT/EP2019/073993 WO2020053148A1 (en) 2018-09-10 2019-09-09 Removing noise caused by vehicular movement from sensor signals using deep neural networks

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
LU100925A LU100925B1 (en) 2018-09-10 2018-09-10 Removing noise caused by vehicular movement from sensor signals using Deep Neural Networks

Publications (1)

Publication Number Publication Date
LU100925B1 true LU100925B1 (en) 2020-03-10

Family

ID=63713985

Family Applications (1)

Application Number Title Priority Date Filing Date
LU100925A LU100925B1 (en) 2018-09-10 2018-09-10 Removing noise caused by vehicular movement from sensor signals using Deep Neural Networks

Country Status (2)

Country Link
LU (1) LU100925B1 (de)
WO (1) WO2020053148A1 (de)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112957013A (zh) * 2021-02-05 2021-06-15 江西国科美信医疗科技有限公司 一种动态生命体征信号采集系统、监测装置及设备
US20240118403A1 (en) * 2021-02-24 2024-04-11 Mitsubishi Electric Corporation Occupant detection device and occupant detection method

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7596389B2 (ja) * 2020-01-15 2024-12-09 サン-ゴバン グラス フランス 統合されたレーダーセンサを有する乗り物のための複合ペイン
US11769332B2 (en) * 2020-06-15 2023-09-26 Lytx, Inc. Sensor fusion for collision detection
CN111965636A (zh) * 2020-07-20 2020-11-20 重庆大学 一种基于毫米波雷达和视觉融合的夜间目标检测方法
JP7502931B2 (ja) * 2020-08-20 2024-06-19 フォルシアクラリオン・エレクトロニクス株式会社 バイタルデータ測定装置およびバイタルデータ測定方法
JP2024516985A (ja) * 2021-05-11 2024-04-18 ハーマン ベッカー オートモーティブ システムズ ゲーエムベーハー 生体信号抽出を改善するためのコンテキストセンサの融合

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013037399A1 (en) * 2011-09-12 2013-03-21 Ficomirrors, S.A. System and method for detecting a vital-related signal pattern
CN105534517A (zh) * 2016-02-29 2016-05-04 浙江铭众科技有限公司 一种去除三导联心电信号中车辆运动噪声的方法
CN105769173A (zh) * 2016-02-29 2016-07-20 浙江铭众科技有限公司 一种具有心电信号去噪功能的心电监测系统
CN105796091A (zh) * 2016-02-29 2016-07-27 浙江铭众科技有限公司 一种用于去除心电信号车辆运动噪声的智能终端
US20160354027A1 (en) * 2014-02-20 2016-12-08 Faurecia Automotive Seating, Llc. Vehicle seat with integrated sensors

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
LU92541B1 (en) 2014-09-10 2016-03-11 Iee Sarl Radar sensing of vehicle occupancy

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013037399A1 (en) * 2011-09-12 2013-03-21 Ficomirrors, S.A. System and method for detecting a vital-related signal pattern
US20160354027A1 (en) * 2014-02-20 2016-12-08 Faurecia Automotive Seating, Llc. Vehicle seat with integrated sensors
CN105534517A (zh) * 2016-02-29 2016-05-04 浙江铭众科技有限公司 一种去除三导联心电信号中车辆运动噪声的方法
CN105769173A (zh) * 2016-02-29 2016-07-20 浙江铭众科技有限公司 一种具有心电信号去噪功能的心电监测系统
CN105796091A (zh) * 2016-02-29 2016-07-27 浙江铭众科技有限公司 一种用于去除心电信号车辆运动噪声的智能终端

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
YIN WENFENG ET AL: "Self-adjustable domain adaptation in personalized ECG monitoring integrated with IR-UWB radar", BIOMEDICAL SIGNAL PROCESSING AND CONTROL, ELSEVIER, AMSTERDAM, NL, vol. 47, 23 August 2018 (2018-08-23), pages 75 - 87, XP085502714, ISSN: 1746-8094, DOI: 10.1016/J.BSPC.2018.08.002 *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112957013A (zh) * 2021-02-05 2021-06-15 江西国科美信医疗科技有限公司 一种动态生命体征信号采集系统、监测装置及设备
CN112957013B (zh) * 2021-02-05 2022-11-11 江西国科美信医疗科技有限公司 一种动态生命体征信号采集系统、监测装置及设备
US20240118403A1 (en) * 2021-02-24 2024-04-11 Mitsubishi Electric Corporation Occupant detection device and occupant detection method

Also Published As

Publication number Publication date
WO2020053148A1 (en) 2020-03-19

Similar Documents

Publication Publication Date Title
LU100925B1 (en) Removing noise caused by vehicular movement from sensor signals using Deep Neural Networks
EP3652026B1 (de) System und verfahren zur radarbasierten bestimmung einer anzahl von fahrgästen im fahrgastraum eines fahrzeugs
CN113165646B (zh) 用于检测车辆周围的风险因素的电子设备及其控制方法
CN112699721B (zh) 离开道路扫视时间的情境相关调整
CN115023744B (zh) 消除由干扰移动激发的信号的用于生命体征检测的操作雷达传感器系统的方法
JP4980988B2 (ja) 運転者状態推定装置
US20110130111A1 (en) System and method for minimizing occupant injury during vehicle crash events
CN102654753B (zh) 机动车环境传感器仿真及预见安全系统测试方法、仿真装置
US12425551B2 (en) Enhanced occupant collision safety system
WO2022261080A1 (en) Sensing interactions with unpermitted components within a vehicle
CN109070858B (zh) 用于确定安全关键的车辆横摆运动的方法和设备
CN110472470A (zh) 用于确定车辆的周围环境状态的方法和系统
CN112629872A (zh) 低撞击力碰撞检测
CN117183840A (zh) 基于雷达点云检测座位布置的座位占用状态的方法和系统
WO2018224612A1 (en) Radar-based passenger classification and monitoring
KR102232646B1 (ko) 운전석을 포함한 차량의 실내 장치를 자동으로 조절하기 위한 방법 및 이를 위한 장치
Coyte et al. Decision tree assisted EKF for vehicle slip angle estimation using inertial motion sensors
US12023132B2 (en) Systems and methods for remote vital sign monitoring in a vehicle
US12304499B2 (en) Prediction of operator input to a steering element
Supriya et al. Reliable automotive crash detection using multi sensor decision fusion
Kamann et al. Test methodology for automotive surround sensors in dynamic driving situations
LU100364B1 (en) Radar-Based Passenger Classification and Monitoring
Tamizharasan et al. Artificial intelligence-based vehicle in-cabin occupant detection and classification system
Hannan et al. Decision fusion of a multi-sensing embedded system for occupant safety measures
LU101167B1 (en) Method and System for Predicting the Time Behavior of an Environment using a Sensing Device, a Physical Model and an Artificial Neural Network

Legal Events

Date Code Title Description
FG Patent granted

Effective date: 20200310