KR20220013581A - In-vehicle acoustic monitoring system for driver and passenger - Google Patents

In-vehicle acoustic monitoring system for driver and passenger Download PDF

Info

Publication number
KR20220013581A
KR20220013581A KR1020220005533A KR20220005533A KR20220013581A KR 20220013581 A KR20220013581 A KR 20220013581A KR 1020220005533 A KR1020220005533 A KR 1020220005533A KR 20220005533 A KR20220005533 A KR 20220005533A KR 20220013581 A KR20220013581 A KR 20220013581A
Authority
KR
South Korea
Prior art keywords
vehicle
driver
passenger
behavior
action
Prior art date
Application number
KR1020220005533A
Other languages
Korean (ko)
Inventor
웨이 왕
치 루오
커청 수
홍이 순
웨슬리 레이놀즈
제준 린
Original Assignee
바이두 유에스에이 엘엘씨
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 바이두 유에스에이 엘엘씨 filed Critical 바이두 유에스에이 엘엘씨
Publication of KR20220013581A publication Critical patent/KR20220013581A/en

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K28/00Safety devices for propulsion-unit control, specially adapted for, or arranged in, vehicles, e.g. preventing fuel supply or ignition in the event of potentially dangerous conditions
    • B60K28/02Safety devices for propulsion-unit control, specially adapted for, or arranged in, vehicles, e.g. preventing fuel supply or ignition in the event of potentially dangerous conditions responsive to conditions relating to the driver
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/08Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • B60W60/005Handover processes
    • B60W60/0059Estimation of the risk associated with autonomous or manual driving, e.g. situation too complex, sensor failure or driver incapacity
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R11/00Arrangements for holding or mounting articles, not otherwise provided for
    • B60R11/02Arrangements for holding or mounting articles, not otherwise provided for for radio sets, television sets, telephones, or the like; Arrangement of controls thereof
    • B60R11/0217Arrangements for holding or mounting articles, not otherwise provided for for radio sets, television sets, telephones, or the like; Arrangement of controls thereof for loud-speakers
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/18Propelling the vehicle
    • B60W30/182Selecting between different operative modes, e.g. comfort and performance modes
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/08Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
    • B60W40/09Driving style or behaviour
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/10Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to vehicle motion
    • B60W40/105Speed
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • B60W60/001Planning or execution of driving tasks
    • B60W60/0013Planning or execution of driving tasks specially adapted for occupant comfort
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • B60W60/001Planning or execution of driving tasks
    • B60W60/0015Planning or execution of driving tasks specially adapted for safety
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • B60W60/001Planning or execution of driving tasks
    • B60W60/0015Planning or execution of driving tasks specially adapted for safety
    • B60W60/0018Planning or execution of driving tasks specially adapted for safety by employing degraded modes, e.g. reducing speed, in response to suboptimal conditions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • B60W60/001Planning or execution of driving tasks
    • B60W60/0025Planning or execution of driving tasks specially adapted for specific operations
    • B60W60/00259Surveillance operations
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • B60W60/005Handover processes
    • B60W60/0051Handover processes from occupants to vehicle
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S15/00Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
    • G01S15/02Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems using reflection of acoustic waves
    • G01S15/06Systems determining the position data of a target
    • G01S15/08Systems for measuring distance only
    • G01S15/32Systems for measuring distance only using transmission of continuous waves, whether amplitude-, frequency-, or phase-modulated, or unmodulated
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S15/00Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
    • G01S15/02Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems using reflection of acoustic waves
    • G01S15/50Systems of measurement, based on relative movement of the target
    • G01S15/52Discriminating between fixed and moving objects or between objects moving at different speeds
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S15/00Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
    • G01S15/02Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems using reflection of acoustic waves
    • G01S15/50Systems of measurement, based on relative movement of the target
    • G01S15/58Velocity or trajectory determination systems; Sense-of-movement determination systems
    • G01S15/586Velocity or trajectory determination systems; Sense-of-movement determination systems using transmission of continuous unmodulated waves, amplitude-, frequency-, or phase-modulated waves and based upon the Doppler effect resulting from movement of targets
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/52Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S15/00
    • G01S7/539Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S15/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/03Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
    • G10L25/18Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters the extracted parameters being spectral information of each sub-band
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/51Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R1/00Details of transducers, loudspeakers or microphones
    • H04R1/02Casings; Cabinets ; Supports therefor; Mountings therein
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R1/00Details of transducers, loudspeakers or microphones
    • H04R1/08Mouthpieces; Microphones; Attachments therefor
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R3/00Circuits for transducers, loudspeakers or microphones
    • H04R3/005Circuits for transducers, loudspeakers or microphones for combining the signals of two or more microphones
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/08Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
    • B60W2040/0818Inactivity or incapacity of driver
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W2050/0001Details of the control system
    • B60W2050/0002Automatic control, details of type of controller or control system architecture
    • B60W2050/0004In digital systems, e.g. discrete-time systems involving sampling
    • B60W2050/0005Processor details or data handling, e.g. memory registers or chip architecture
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W2050/0001Details of the control system
    • B60W2050/0043Signal treatments, identification of variables or parameters, parameter estimation or state estimation
    • B60W2050/0057Frequency analysis, spectral techniques or transforms
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W2050/0062Adapting control system settings
    • B60W2050/007Switching between manual and automatic parameter input, and vice versa
    • B60W2050/0071Controller overrides driver automatically
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • B60W2050/143Alarm means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/54Audio sensitive means, e.g. ultrasound
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2520/00Input parameters relating to overall vehicle dynamics
    • B60W2520/10Longitudinal speed
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/01Occupants other than the driver
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/223Posture, e.g. hand, foot, or seat position, turned or inclined
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/229Attention level, e.g. attentive to driving, reading or sleeping
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/30Driving style
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2720/00Output or target parameters relating to overall vehicle dynamics
    • B60W2720/10Longitudinal speed
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2720/00Output or target parameters relating to overall vehicle dynamics
    • B60W2720/12Lateral speed
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R2499/00Aspects covered by H04R or H04S not otherwise provided for in their subgroups
    • H04R2499/10General applications
    • H04R2499/13Acoustic transducers and sound field adaptation in vehicles

Landscapes

  • Engineering & Computer Science (AREA)
  • Automation & Control Theory (AREA)
  • Physics & Mathematics (AREA)
  • Mechanical Engineering (AREA)
  • Transportation (AREA)
  • Human Computer Interaction (AREA)
  • Acoustics & Sound (AREA)
  • Signal Processing (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Mathematical Physics (AREA)
  • Health & Medical Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Multimedia (AREA)
  • Computational Linguistics (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Chemical & Material Sciences (AREA)
  • Combustion & Propulsion (AREA)
  • General Health & Medical Sciences (AREA)
  • Otolaryngology (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Traffic Control Systems (AREA)
  • Control Of Driving Devices And Active Controlling Of Vehicle (AREA)
  • Emergency Alarm Devices (AREA)
  • Fittings On The Vehicle Exterior For Carrying Loads, And Devices For Holding Or Mounting Articles (AREA)

Abstract

An inaudible signal is generated from one or a plurality of speakers installed in a vehicle. The inaudible signal reflected on a driver or a passenger of the vehicle is received by one or a plurality of microphones installed in the vehicle. A behavior induction acoustic pattern is detected based on the reflected ultrasonic waves. A behavior of the driver or the passenger of the vehicle is recognized by analyzing the behavior induction acoustic pattern. A warning is generated by the recognized behavior of the driver or the passenger of the vehicle.

Description

운전자 및 승객용 차량탑재 음향 모니터링 시스템{IN-VEHICLE ACOUSTIC MONITORING SYSTEM FOR DRIVER AND PASSENGER}IN-VEHICLE ACOUSTIC MONITORING SYSTEM FOR DRIVER AND PASSENGER

본 발명의 실시형태는 전반적으로 자율 주행 차량(ADV)의 조작에 관한 것으로, 보다 구체적으로 본 발명의 실시형태는 ADV용 감지 시스템에 관한 것이다.BACKGROUND OF THE INVENTION Embodiments of the present invention relate generally to the operation of autonomous vehicles (ADVs), and more particularly, embodiments of the present invention relate to sensing systems for ADVs.

자율 주행 차량의 조작에 있어서, 액티브 드라이버의 존재 여부에 관계없이 운전자 및/또는 승객에 대한 실시간 행동 감지 및 모니터링은 매우 중요하다. 휴대폰의 사용, 식사, 졸음운전 및 공격성 행동 등의 부적절한 행동은 특히, 자율 주행 모드가 꺼져있거나(또는 부분적으로 꺼져 있는) 경우, 운전의 안전성을 크게 해칠 가능성이 있다. 손짓과 같은 기타 동작은 차량 제어 및 차량과의 상호작용에 이용할 수 있다. 그러나 차량탑재 카메라 및 시각적 솔루션은 개인 정보 보호 문제를 일으킬 수 있다. 특히, 자율 주행 차량(ADV)은 차량의 운전자 또는 승객을 모니터링하기 위한 효과적인 방법이 줄곧 결핍한 상태이다.In the operation of an autonomous vehicle, real-time behavioral detection and monitoring of a driver and/or passengers regardless of the presence of an active driver is very important. Inappropriate behaviors such as cell phone use, eating, drowsy driving and aggressive behavior have the potential to significantly impair driving safety, especially when autonomous driving mode is turned off (or partially turned off). Other gestures, such as hand gestures, are available for vehicle control and interaction with the vehicle. However, in-vehicle cameras and visual solutions can pose privacy concerns. In particular, autonomous vehicles (ADVs) have always lacked effective methods for monitoring the vehicle's drivers or passengers.

본 출원의 일 양태는, 차량을 조작하기 위한 컴퓨터 구현방법을 제공하며, 상기 방법은, 상기 차량 내에 배치된 하나 또는 복수의 스피커를 사용하여 비가청 음성신호인 음성신호를 생성하는 단계; 상기 차량 내에 배치된 하나 또는 복수의 마이크에 의해 상기 차량의 운전자 또는 승객에서 반사된 음성신호를 수신하는 단계; 상기 하나 또는 복수의 마이크에 의해 수신된 반사된 음성신호에 기반하여 행동 유도 음향 패턴을 검출하는 단계; 상기 행동 유도 음향 패턴을 분석하여 상기 차량의 운전자 또는 승객의 행동을 결정하는 단계; 및 하나 또는 복수의 규칙의 세트에 기반하여, 상기 차량의 운전자 또는 승객의 행동에 따라 경보를 생성하는 단계를 포함한다.One aspect of the present application provides a computer-implemented method for operating a vehicle, the method comprising: generating a voice signal, which is an inaudible voice signal, using one or a plurality of speakers disposed in the vehicle; receiving a voice signal reflected from a driver or passenger of the vehicle by one or a plurality of microphones disposed in the vehicle; detecting an action-inducing sound pattern based on the reflected voice signal received by the one or more microphones; determining a behavior of a driver or a passenger of the vehicle by analyzing the action-inducing sound pattern; and generating an alert according to an action of a driver or passenger of the vehicle, based on one or a set of a plurality of rules.

본 출원의 다른 양태는, 명령어가 저장되어 있는 비 일시적 기계 판독 가능 매체를 제공하고, 상기 명령어가 프로세서에 의해 실행될 경우, 상기 프로세서에 조작을 수행하도록 하되, 상기 조작은, 차량 내에 배치된 하나 또는 복수의 스피커를 사용하여 비가청 음성신호인 음성신호를 생성하는 단계; 상기 차량 내에 배치된 하나 또는 복수의 마이크에 의해 상기 차량의 운전자 또는 승객에서 반사된 음성신호를 수신하는 단계; 상기 하나 또는 복수의 마이크에 의해 수신된 반사된 음성신호에 기반하여 행동 유도 음향 패턴을 검출하는 단계; 상기 행동 유도 음향 패턴을 분석하여 상기 차량의 운전자 또는 승객의 행동을 결정하는 단계; 및 하나 또는 복수의 규칙의 세트에 기반하여, 상기 차량의 운전자 또는 승객의 행동에 따라 경보를 생성하는 단계를 포함한다.Another aspect of the present application provides a non-transitory machine-readable medium having instructions stored thereon, when the instructions are executed by a processor, to perform an operation on the processor, wherein the operation includes: generating an audio signal that is an inaudible audio signal using a plurality of speakers; receiving a voice signal reflected from a driver or passenger of the vehicle by one or a plurality of microphones disposed in the vehicle; detecting an action-inducing sound pattern based on the reflected voice signal received by the one or more microphones; determining a behavior of a driver or a passenger of the vehicle by analyzing the action-inducing sound pattern; and generating an alert according to an action of a driver or passenger of the vehicle, based on one or a set of a plurality of rules.

본 출원의 또 다른 양태는, 프로세서와, 명령어를 저장하기 위해 상기 프로세서에 연결되고, 상기 프로세서에 의해 상기 명령어가 실행될 경우, 상기 프로세서에 조작을 실행하도록 하는 메모리를 구비하는 데이터 처리 시스템을 제공하고, 상기 조작은, 상기 차량 내에 배치된 하나 또는 복수의 스피커를 사용하여 비가청 음성신호를 생성하는 단계; 차량 내에 배치된 하나 또는 복수의 스피커를 사용하여 비가청 음성신호인 음성신호를 생성하는 단계; 상기 차량 내에 배치된 하나 또는 복수의 마이크에 의해 상기 차량의 운전자 또는 승객에서 반사된 음성신호를 수신하는 단계; 상기 하나 또는 복수의 마이크에 의해 수신된 반사된 음성신호에 기반하여 행동 유도 음향 패턴을 검출하는 단계; 상기 행동 유도 음향 패턴을 분석하여 상기 차량의 운전자 또는 승객의 행동을 결정하는 단계; 및 하나 또는 복수의 규칙의 세트에 기반하여, 상기 차량의 운전자 또는 승객의 행동에 따라 경보를 생성하는 단계를 포함한다.Another aspect of the present application provides a data processing system having a processor and a memory coupled to the processor to store instructions, and when the instructions are executed by the processor, cause the processor to execute operations and , The operation may include generating an inaudible voice signal using one or a plurality of speakers disposed in the vehicle; generating a voice signal that is an inaudible voice signal using one or a plurality of speakers disposed in the vehicle; receiving a voice signal reflected from a driver or passenger of the vehicle by one or a plurality of microphones disposed in the vehicle; detecting an action-inducing sound pattern based on the reflected voice signal received by the one or more microphones; determining a behavior of a driver or a passenger of the vehicle by analyzing the action-inducing sound pattern; and generating an alert according to an action of a driver or passenger of the vehicle, based on one or a set of a plurality of rules.

본 발명의 실시형태는 첨부한 각 도면에 있어서 제한이 아닌 예시의 형태로서 제공되며, 도면에 있어서 동일한 부호는 유사한 구성요소를 나타낸다.
도 1은 하나의 실시형태에 따른 네트워크화 시스템을 나타내는 블록도이다.
도 2는 하나의 실시형태에 따른 자율 주행 차량의 일례를 나타내는 블록도이다.
도 3a ~ 도 3b는 하나의 실시형태에 따른 자율 주행 차량과 함께 사용되는 자율 주행 시스템의 일례를 나타내는 블록도이다.
도 4는 하나의 실시형태에 따른 모니터링 시스템의 일례를 나타내는 블록도이다.
도 5a는 하나의 실시형태에 따른, 하나 또는 복수의 스피커를 가진 ADV의 평면도를 도시한 블록도이다.
도 5b는 하나의 실시형태에 따른 하나 또는 복수의 스피커를 가진 ADV의 측면도를 나타내는 블록도이다.
도 5c 및 도 5d는 하나의 실시형태에 따른 ADV에 배치된 하나 또는 복수의 마이크를 나타내는 블록도이다.
도 6은 하나의 실시형태에 따른 자율 주행 차량의 운전자 또는 승객의 행동을 음향적으로 모니터링하는 예를 나타내는 흐름도이다.
도 7a는 하나의 실시형태에 따른 음향 모니터링에서 수신한 데이터의 예를 나타낸다.
도 7b는 하나의 실시형태에 따른 음향 모니터링에서 검출된 이벤트의 예를 나타낸다.
도 7c는 하나의 실시형태에 따른 음향 모니터링 유래의 파워 스펙트럼의 예를 나타낸다.
도 7d는 하나의 실시형태에 따른 음향 모니터링 유래의 강화된 파워 스펙트럼의 예를 나타낸다.
도 7e는 강화된 파워 스펙트럼에서 검출된 행동 유도 음향 패턴의 예를 나타낸다.
도 7f는 인식된, 도 7e에서 검출된 행동 유도 음향 패턴에 대응하는 행동의 예를 나타낸다.
도 8은 하나의 실시형태에 따른 음향 모니터링에서 검출된 ADV 행동 및 응답의 예를 나타내는 블록도이다.
도 9는 ADV의 운전자 또는 승객의 행동을 음향적으로 모니터링하는 과정을 나타내는 흐름도이다.
Embodiments of the present invention are provided in the form of examples and not limitations in each accompanying drawing, in which like reference numerals denote like elements.
1 is a block diagram illustrating a networked system according to an embodiment.
2 is a block diagram illustrating an example of an autonomous driving vehicle according to an embodiment.
3A-3B are block diagrams illustrating an example of an autonomous driving system used with an autonomous driving vehicle according to an embodiment.
4 is a block diagram illustrating an example of a monitoring system according to an embodiment.
5A is a block diagram illustrating a top view of an ADV with one or more speakers, according to one embodiment.
5B is a block diagram illustrating a side view of an ADV with one or more speakers according to an embodiment.
5C and 5D are block diagrams illustrating one or a plurality of microphones disposed in an ADV according to an embodiment.
6 is a flowchart illustrating an example of acoustically monitoring the behavior of a driver or passenger of an autonomous vehicle according to an embodiment.
7A shows an example of data received in acoustic monitoring according to an embodiment.
7B shows an example of an event detected in acoustic monitoring according to one embodiment.
7C shows an example of a power spectrum from acoustic monitoring according to one embodiment.
7D shows an example of an enhanced power spectrum from acoustic monitoring in accordance with one embodiment.
7E shows an example of an action-inducing acoustic pattern detected in the enhanced power spectrum.
7F shows an example of a behavior corresponding to a recognized, action-inducing sound pattern detected in FIG. 7E .
8 is a block diagram illustrating an example of ADV behavior and response detected in acoustic monitoring according to one embodiment.
9 is a flowchart illustrating a process of acoustically monitoring the behavior of a driver or passenger of an ADV.

아래, 상세한 내용을 참조하면서 본 발명의 다양한 실시형태 및 양태를 설명하며, 첨부된 도면은 다양한 실시형태를 나타낸다. 다음의 설명 및 도면은 본 발명을 설명하기 위한 것으로서, 본 발명을 한정하는 것으로 해석되어서는 안 된다. 본 발명의 다양한 실시형태에 대한 전반적인 이해를 제공하기 위해 많은 특정의 세부사항이 설명되어 있다. 단지 일부 경우에 있어서, 본 발명의 실시형태에 대한 논술의 간결성을 제공하기 위해 공지되었거나 또는 통상적인 세부사항들에 대한 설명은 생략한다.DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Various embodiments and aspects of the present invention are described below with reference to the detailed description, in which the accompanying drawings illustrate the various embodiments. The following description and drawings are for explaining the present invention, and should not be construed as limiting the present invention. Numerous specific details are set forth in order to provide a thorough understanding of various embodiments of the invention. In only some instances, descriptions of well-known or conventional details are omitted in order to provide brevity of the description of the embodiments of the present invention.

본 명세서에 있어서, "일 실시형태" 또는 "실시형태"에 대한 언급은 해당 실시형태에 결합된 특정된 특징, 구조 또는 특성이 본 발명의 적어도 하나의 실시형태에 포함될 수 있음을 의미한다. 본 명세서의 여러부분에 나타나는 문구 "하나의 실시형태에 있어서"는 모두 동일한 실시형태를 가리키는 것은 아니다.In this specification, reference to "one embodiment" or "an embodiment" means that a specified feature, structure, or characteristic coupled to that embodiment may be included in at least one embodiment of the present invention. The phrases "in one embodiment" in various places in this specification are not all referring to the same embodiment.

일부 실시형태에 따르면, 음향 감지 및 도플러 효과를 사용하여 자율 주행 차량(ADV)의 운전자 및 승객의 행동을 감지하고 있다. 예를 들어, 차량탑재 오디오 시스템은 운전자 / 승객의 행동 감지를 실행하는데 사용된다. 음성 발생기 또는 음성 캡처장치(예를 들어, 차량 내의 스피커 및 마이크)는 음성신호(예를 들면, 초음파 신호)의 송신기 및 수신기로 사용된다. 행동 유도 음향 패턴은 예를 들어, 기계학습 및 심층학습 방법을 사용하여, 또는 행동 유도 음향 패턴을 사전에 분류된 행동 리스트를 나타내는 소정의 음향 패턴 리스트와 매칭하여 추출 및 분석한다. 실행자의 행동 및 신분에 기반하여 ADV는 행동의 위험수준을 추측할 수 있다. ADV는 상응한 주행전략의 변경 및/또는 응답을 선택할 수 있으며, 이를 통해 운전의 안전성을 향상시키고 지능적이고 순리로운 승객 - 차량과의 상호작용이 실현된다.According to some embodiments, acoustic sensing and the Doppler effect are used to sense the behavior of drivers and passengers of autonomous vehicles (ADVs). For example, in-vehicle audio systems are used to implement driver/passenger behavior detection. A voice generator or voice capture device (eg, a speaker and a microphone in a vehicle) is used as a transmitter and receiver of a voice signal (eg, an ultrasonic signal). The action-inducing sound pattern is extracted and analyzed using, for example, machine learning and deep learning methods, or by matching the action-inducing sound pattern with a predetermined sound pattern list representing a pre-classified action list. Based on the behavior and identity of the performer, ADV can infer the risk level of the behavior. ADV can select the corresponding driving strategy change and/or response, which improves driving safety and realizes intelligent and streamlined passenger-vehicle interaction.

일부 실시형태에 따르면, 비가청 음성신호는 하나 또는 복수의 음성 생성장치(예를 들어, 차량에 배치된 스피커)에 의해 생성된다. 차량의 운전자 또는 승객에서 반사 또는 반송된 반사 음성신호는 차량에 배치된 하나 또는 복수의 음성 캡처장치(예를 들어, 마이크)에 의해 포착된다. 반사된 초음파 신호에 기반하여 행동 유도 음향 패턴이 검출된다. 예를 들어, 인공지능(AI) 모델을 사용하거나, 또는 행동 유도 음향 패턴을 소정의 행동 리스트에 대응하는 소정의 음향 패턴 리스트와 비교 및 매칭함으로써 행동 유도 음향 패턴을 분석하여 차량의 운전자 또는 승객의 행동을 인식한다. 차량의 운전자 또는 승객의 인식된 행동에 의해 응답 또는 경보가 생성된다.According to some embodiments, the inaudible voice signal is generated by one or more voice generating devices (eg, a speaker disposed in a vehicle). The reflected voice signal reflected or returned by the driver or passenger of the vehicle is captured by one or more voice capture devices (eg, microphones) disposed in the vehicle. An action-inducing acoustic pattern is detected based on the reflected ultrasound signal. For example, by using an artificial intelligence (AI) model, or by comparing and matching the action-inducing sound pattern with a predetermined sound pattern list corresponding to the predetermined action list, the action-inducing sound pattern is analyzed by the driver or passenger of the vehicle. Recognize action. A response or alert is generated by a perceived action of a driver or passenger of the vehicle.

도 1은 본 발명의 하나의 실시형태에 따른 자율 주행 네트워크 구성을 나타내는 블록도이다. 도 1을 참조하면, 네트워크 구성(100)은 네트워크(102)를 통해 하나 또는 복수의 서버(103, 104)에 통신 가능하게 연결되는 자율 주행 차량(ADV)(101)을 포함한다. 하나의 ADV가 예시되어 있지만, 여러 ADV가 네트워크(102)를 통해 서로 연결될 수 있으며, 및/또는 서버(103, 104)에 연결될 수 있다. 네트워크(102)는 유선 또는 무선 로컬영역 네트워크(LAN), 인터넷 등과 같은 광역 네트워크(WAN), 셀룰러 네트워크, 위성 네트워크, 또는 이들의 조합 등 모든 유형의 네트워크일 수 있다. 서버(103, 104)는 예를 들어, 네트워크 또는 클라우드 서버, 애플리케이션 서버, 백엔드 서버 또는 이들의 조합 등 모든 유형의 서버 또는 서버 클러스터일 수 있다. 서버(103, 104)는 데이터 분석 서버, 콘텐츠 서버, 교통정보 서버, 지도 및 관심점(MPOI) 서버 또는 위치 서버 등일 수 있다.1 is a block diagram showing the configuration of an autonomous driving network according to an embodiment of the present invention. Referring to FIG. 1 , a network configuration 100 includes an autonomous vehicle (ADV) 101 communicatively coupled to one or a plurality of servers 103 , 104 via a network 102 . While one ADV is illustrated, several ADVs may be coupled to each other via network 102 and/or to servers 103 , 104 . Network 102 may be any type of network, such as a wired or wireless local area network (LAN), a wide area network (WAN) such as the Internet, a cellular network, a satellite network, or a combination thereof. Servers 103 and 104 may be any type of server or server cluster, for example, a network or cloud server, an application server, a backend server, or a combination thereof. The servers 103 and 104 may be a data analysis server, a content server, a traffic information server, a map and point of interest (MPOI) server, or a location server.

ADV는 차량이 운전자로부터 입력이 거의없거나 전혀없는 환경을 네비게이션을 통해 통과하는, 자율 주행 모드로 구성할 수 있는 차량을 가리킨다. 이러한 ADV는 차량 주행 환경과 연관된 정보를 검출하도록 구성된 하나 또는 복수의 센서를 갖는 센서 시스템을 포함할 수 있다. 해당 차량 및 차량과 연관된 컨트롤러는 검출된 정보를 이용하여 해당 환경을 네비게이션을 통해 통과한다. ADV(101)는 수동모드, 완전 자율 주행 모드 또는 부분 자율 주행 모드로 주행할 수 있다.ADV refers to a vehicle that can be configured for autonomous driving mode, in which the vehicle navigates through an environment with little or no input from the driver. Such an ADV may include a sensor system having one or a plurality of sensors configured to detect information associated with the vehicle driving environment. The corresponding vehicle and the controller associated with the vehicle pass through the corresponding environment through navigation using the detected information. ADV 101 can drive in manual mode, fully autonomous driving mode or partially autonomous driving mode.

하나의 실시형태에 있어서, ADV(101)는 자율 주행 시스템(ADS)(110), 차량 제어 시스템(111), 무선통신 시스템(112), 사용자 인터페이스 시스템(113) 및 센서 시스템(115)을 포함하되, 이에 국한되지 않는다. ADV(101)는 엔진, 바퀴, 핸들, 변속기 등 일반 차량에 포함되는 일부 통상의 구성요소를 더 구비할 수 있으며, 해당 구성요소는 차량 제어 시스템(111) 및/또는 ADS(110)가 다양한 통신신호 및/또는 명령, 예를 들어, 가속신호 또는 명령, 감속신호 또는 명령, 스티어링 신호 또는 명령, 브레이크 신호 또는 명령 등을 사용하여 제어할 수 있다. 하나의 실시형태에 있어서, ADV(101)는 음성신호에 기반하여 운전자 또는 승객의 행동을 감시하기 위한 모니터링 시스템(116)을 포함할 수 있다. 이에 대해서는 아래에서 자세히 설명하기로 한다.In one embodiment, the ADV 101 includes an autonomous driving system (ADS) 110 , a vehicle control system 111 , a wireless communication system 112 , a user interface system 113 , and a sensor system 115 . However, the present invention is not limited thereto. The ADV 101 may further include some common components included in a general vehicle, such as an engine, wheels, steering wheel, and transmission, and the components are the vehicle control system 111 and/or the ADS 110 for various communication Control may be performed using signals and/or commands, for example, an acceleration signal or command, a deceleration signal or command, a steering signal or command, a brake signal or command, and the like. In one embodiment, ADV 101 may include a monitoring system 116 for monitoring driver or passenger behavior based on voice signals. This will be described in detail below.

구성요소(110~116)는 인터커넥터, 버스, 네트워크 또는 이들의 조합을 통해 서로 통신 가능하게 연결될 수 있다. 예를 들어, 구성요소(110~116)는 컨트롤러 로컬영역 네트워크(CAN) 버스를 통해 서로 통신 가능하게 연결될 수 있다. CAN 버스는 호스트 컴퓨터가 없는 애플리케이션에 있어서 마이크로 컨트롤러 및 장치가 서로 통신할 수 있도록 설계된 차량 버스 규격이다. 이는 초기에는 자동차 내의 다중 전기배선을 위해 설계된 메시지 기반 프로토콜이지만 많은 기타 환경에도 이용되고 있다.The components 110 to 116 may be communicatively connected to each other through an interconnector, a bus, a network, or a combination thereof. For example, the components 110 to 116 may be communicatively connected to each other through a controller local area network (CAN) bus. The CAN bus is a vehicle bus specification designed to allow microcontrollers and devices to communicate with each other in applications without a host computer. It is a message-based protocol initially designed for multiple electrical wiring in automobiles, but is being used in many other environments as well.

도 2를 참조하면, 하나의 실시형태에 있어서, 센서 시스템(115)은 하나 또는 복수의 카메라(211), 글로벌 포지셔닝 시스템(GPS) 유닛(212), 관성 측정 유닛(IMU)(213), 레이더 유닛(214) 및 광 검출 및 측거(LIDAR)유닛(215)을 포함하나 이에 국한되지 않는다. GPS 유닛(212)은 ADV의 위치에 관한 정보를 제공하도록 조작 가능한 송수신기를 포함할 수 있다. IMU 유닛(213)은 관성 가속도에 기반하여 ADV의 위치 및 방위 변화를 감지할 수 있다. 레이더 유닛(214)은 무선신호를 이용하여 ADV의 로컬환경 내의 오브젝트를 감지하는 시스템을 나타낼 수 있다. 일부 실시형태에 있어서, 오브젝트를 감지하는 외에, 레이더 유닛(214)은 또한 오브젝트의 속도 및/또는 전진방향을 감지할 수 있다. LIDAR 유닛(215)은 ADV가 위치하고 있는 환경의 오브젝트를 레이저로 감지할 수 있다. 기타 시스템의 구성요소를 제외한 외, LIDAR 유닛(215)은 또한 하나 또는 복수의 레이저 광원, 레이저 스캐너 및 하나 또는 복수의 검출기를 구비할 수 있다. 카메라(211)는 ADV의 주위환경의 이미지를 수집하기 위한 하나 또는 복수의 장치를 구비할 수 있다. 카메라(211)는 스틸 카메라 및/또는 비디오 카메라일 수 있다. 카메라는 예를 들어, 회전 및/또는 경사진 플랫폼에 카메라를 설치하여 기계적으로 이동할 수 있다.2 , in one embodiment, the sensor system 115 includes one or more cameras 211 , a global positioning system (GPS) unit 212 , an inertial measurement unit (IMU) 213 , a radar unit 214 and a light detection and range (LIDAR) unit 215 . The GPS unit 212 may include a transceiver operable to provide information regarding the location of the ADV. The IMU unit 213 may detect a change in the position and orientation of the ADV based on the inertial acceleration. The radar unit 214 may represent a system for detecting an object in the local environment of the ADV using a radio signal. In some embodiments, in addition to detecting the object, the radar unit 214 may also sense the speed and/or forward direction of the object. The LIDAR unit 215 may detect an object in an environment in which the ADV is located with a laser. Besides other system components, the LIDAR unit 215 may also include one or more laser light sources, a laser scanner, and one or more detectors. The camera 211 may include one or more devices for collecting images of the ADV's surrounding environment. The camera 211 may be a still camera and/or a video camera. The camera may be moved mechanically, for example by installing the camera on a rotating and/or inclined platform.

센서 시스템(115)은 예를 들어, 소나 센서, 적외선 센서, 스티어링 센서, 스로틀 센서, 브레이크 센서 및 오디오 센서(예를 들어, 마이크) 등 기타 센서를 더 구비할 수 있다. 오디오 센서는 ADV의 주변의 환경에서 음성을 수집하도록 구성될 수 있다. 스티어링 센서는 스티어링 휠, 차량의 바퀴 또는 이들의 조합의 조향 각도를 감지하도록 구성될 수 있다. 스로틀 센서 및 브레이크 센서는 각각 차량의 스로틀 위치 및 브레이크 위치를 감지한다. 일부 상황에 있어서, 스로틀 센서 및 브레이크 센서는 통합형 스로틀 / 브레이크 센서로 통합될 수 있다.The sensor system 115 may further include other sensors such as, for example, a sonar sensor, an infrared sensor, a steering sensor, a throttle sensor, a brake sensor, and an audio sensor (eg, a microphone). The audio sensor may be configured to collect voice from the environment surrounding the ADV. The steering sensor may be configured to sense a steering angle of a steering wheel, a wheel of a vehicle, or a combination thereof. The throttle sensor and the brake sensor sense a throttle position and a brake position of the vehicle, respectively. In some situations, the throttle sensor and brake sensor may be integrated into an integrated throttle/brake sensor.

하나의 실시형태에 있어서, 차량 제어 시스템(111)은 스티어링 유닛(201), 스로틀 유닛(202)(가속 유닛이라고도 함) 및 브레이크 유닛(203)을 포함하나 이에 국한되지 않는다. 스티어링 유닛(201)은 차량의 방향 또는 전진방향을 조정하는데 사용된다. 스로틀 유닛(202)은 모터 또는 엔진의 속도를 제어하는데 사용되며, 모터 또는 엔진의 속도는 진일보 차량의 속도 및 가속도를 제어한다. 브레이크 유닛(203)은 마찰을 제공함으로써 차량의 바퀴 또는 타이어의 속도를 줄임으로써 차량의 속도를 줄인다. 유의해야 할 것은 도 2에 나타내는 구성요소는 하드웨어, 소프트웨어 또는 이들의 조합으로 구현될 수 있다는 점이다.In one embodiment, the vehicle control system 111 includes, but is not limited to, a steering unit 201 , a throttle unit 202 (also referred to as an acceleration unit) and a brake unit 203 . The steering unit 201 is used to adjust the direction or forward direction of the vehicle. The throttle unit 202 is used to control the speed of the motor or engine, and the speed of the motor or engine further controls the speed and acceleration of the vehicle. The brake unit 203 reduces the speed of the vehicle by reducing the speed of the wheels or tires of the vehicle by providing friction. It should be noted that the components shown in FIG. 2 may be implemented by hardware, software, or a combination thereof.

다시 도 1을 참조하면, 무선통신 시스템(112)은 ADV(101)와, 장치, 센서, 기타 차량 등의 외부 시스템 간의 통신을 가능하게 한다. 예를 들어, 무선통신 시스템(112)은 하나 또는 복수의 장치와 직접 무선으로 통신하거나 네트워크(102)를 통해 서버(103, 104)와 통신하는 등 통신 네트워크를 통해 무선으로 통신할 수 있다. 무선통신 시스템(112)은 모든 셀룰러통신 네트워크 또는 무선 근거리 통신망(WLAN)을 사용할 수 있으며, 예를 들어, WiFi를 사용하여 다른 구성요소 또는 시스템과 통신할 수 있다. 무선통신 시스템(112)은 예를 들어, 적외선 링크, 블루투스 등을 사용하여 장치(예를 들어, 승객의 이동 장치, 디스플레이 장치, 차량(101) 내의 스피커)와 직접 통신할 수 있다. 사용자 인터페이스 시스템(113)은 차량(101) 내에서 구현되는 주변장치의 부분이며, 예를 들어, 키보드, 터치 스크린 디스플레이 장치, 마이크 및 스피커 등을 포함할 수 있다.Referring back to FIG. 1 , the wireless communication system 112 enables communication between the ADV 101 and external systems such as devices, sensors, and other vehicles. For example, the wireless communication system 112 may communicate wirelessly over a communication network, such as directly wirelessly communicating with one or a plurality of devices, or communicating with the servers 103 , 104 over the network 102 . The wireless communication system 112 may use any cellular communication network or wireless local area network (WLAN), for example, may communicate with other components or systems using WiFi. The wireless communication system 112 may communicate directly with a device (eg, a passenger's mobile device, a display device, a speaker in the vehicle 101 ) using, for example, an infrared link, Bluetooth, or the like. The user interface system 113 is a part of a peripheral device implemented in the vehicle 101 , and may include, for example, a keyboard, a touch screen display device, a microphone, and a speaker.

ADV(101)의 기능 중의 일부 또는 전부는, 특히 자율 주행 모드에서 조작할 경우, ADS(110)에 의해 제어 또는 관리될 수 있다. ADS(110)는 센서 시스템(115), 제어 시스템(111), 무선통신 시스템(112) 및/또는 사용자 인터페이스 시스템(113)으로부터 정보를 수신하고 수신된 정보를 처리하고 출발지에서 목적지까지의 노선 또는 경로를 계획한 후, 계획 및 제어정보에 기반하여 차량(101)을 운전하기 위해 필요한 하드웨어(예를 들어, 프로세서, 메모리, 저장장치) 및 소프트웨어(예를 들어, 조작 시스템, 계획 및 라우팅 프로그램)를 포함한다. 경우에 따라, ADS(110)는 차량 제어 시스템(111)과 함께 통합될 수 있다.Some or all of the functions of the ADV 101 may be controlled or managed by the ADS 110 , particularly when operated in an autonomous driving mode. ADS 110 receives information from sensor system 115 , control system 111 , wireless communication system 112 , and/or user interface system 113 , processes the received information, and routes or After planning the route, hardware (eg, processor, memory, storage) and software (eg, operation system, planning and routing program) necessary to drive the vehicle 101 based on the planning and control information includes In some cases, the ADS 110 may be integrated with the vehicle control system 111 .

예를 들어, 승객으로서의 사용자가 예를 들어, 사용자 인터페이스를 통해 노정의 출발지와 목적지를 지정할 수 있다. ADS(110)는 노정 관련 데이터를 취득한다. 예를 들어, ADS(110)는 MPOI 서버로부터 위치 및 노선 데이터를 취득할 수 있으며, MPOI 서버는 서버(103, 104)의 일부일 수 있다. 위치 서버는 위치 서비스를 제공하고, MPOI 서버는 지도 서비스 및 특정 위치의 POI를 제공한다. 경우에 따라, 이러한 위치 및 MPOI 정보는 ADS(110)의 영구 저장 장치에 로컬로 캐싱될 수 있다.For example, a user as a passenger may specify the origin and destination of a route, for example via a user interface. The ADS 110 acquires route-related data. For example, the ADS 110 may obtain location and route data from an MPOI server, which may be part of the servers 103 and 104 . The location server provides a location service, and the MPOI server provides a map service and a POI of a specific location. In some cases, such location and MPOI information may be cached locally in persistent storage of the ADS 110 .

ADV(101)가 노선을 따라 이동할 때, ADS(110)도 교통정보 시스템 또는 서버(TIS)로부터 실시간 교통정보를 얻을 수 있다. 유의해야 할 것은, 서버(103, 104)는 제3자 실체에 의해 조작 가능하다는 점이다. 경우에 따라, 서버(103, 104)의 기능은 ADS(110)와 함께 통합될 수 있다. 실시간 교통정보, MPOI정보와 위치정보, 및 센서 시스템(115)에 의해 검출 또는 감지된 실시간 로컬환경 데이터(예를 들어, 장애물, 오브젝트, 부근 차량)에 기반하여 ADS(110)는 최적의 노선을 계획하고 계획한 노선에 따라 예를 들어, 제어 시스템(111)을 통해 차량(101)을 운전하여 지정된 목적지에 안전하고 효율적으로 도착할 수 있다.When the ADV 101 moves along a route, the ADS 110 may also obtain real-time traffic information from a traffic information system or server (TIS). It should be noted that the servers 103 and 104 are operable by a third party entity. In some cases, the functions of the servers 103 and 104 may be integrated with the ADS 110 . Based on real-time traffic information, MPOI information and location information, and real-time local environment data detected or detected by the sensor system 115 (eg, obstacles, objects, nearby vehicles), the ADS 110 selects an optimal route It is possible to safely and efficiently arrive at a designated destination by driving the vehicle 101 through the control system 111 according to the planned and planned route, for example.

서버(103)는 다양한 클라이언트를 위해 데이터 분석 서비스를 실행하기 위한 데이터 분석 시스템일 수 있다. 하나의 실시형태에 있어서, 데이터 분석 시스템(103)은 데이터 수집기(121)와 기계 학습 엔진(122)을 포함한다. 데이터 수집기(121)는 각종 차량((ADV) 또는 인간의 운전자에 의해 운전되는 차량)으로부터 주행 통계 데이터(123)를 수집한다. 주행 통계 데이터(123)는 송신된 주행 명령(예를 들어, 스로틀, 브레이크, 스티어링 명령) 및 차량의 센서에 의해 상이한 시점에서 포착된 차량의 응답(예를 들면, 속도, 가속, 감속, 방향)을 지시하는 정보를 포함한다. 주행 통계 데이터(123)는 또한 상이한 시점에서의 주행환경을 설명하는 정보, 예를 들어, 노선(출발 위치와 목적지 위치를 포함), MPOI, 도로상황, 날씨상황 등을 포함할 수 있다.The server 103 may be a data analysis system for executing data analysis services for various clients. In one embodiment, the data analysis system 103 includes a data collector 121 and a machine learning engine 122 . The data collector 121 collects driving statistics data 123 from various vehicles (ADV or a vehicle driven by a human driver). Driving statistics data 123 includes transmitted driving commands (eg, throttle, brake, steering commands) and responses of the vehicle (eg, speed, acceleration, deceleration, direction) captured at different points in time by sensors of the vehicle. It contains information indicating The driving statistics data 123 may also include information describing the driving environment at different points in time, for example, a route (including a departure location and a destination location), an MPOI, a road condition, a weather condition, and the like.

주행 통계 데이터(123)에 기반하여 기계 학습 엔진(122)은 다양한 목적에 따라 규칙세트, 알고리즘 및/또는 예측 모델(124)을 생성 또는 훈련한다. 하나의 실시형태에 있어서, 알고리즘(124)은 하나 또는 복수의 스피커에 의해 비가청 음성신호를 생성하기 위한 알고리즘 또는 모델, 하나 또는 복수의 마이크에 의해 비가청 반사 음성신호를 수신하기 위한 알고리즘 또는 모델, 반사된 초음파 신호에 기반하여 행동 유도 음향 패턴을 검출하기 위한 알고리즘 또는 모델, 행동 유도 음향 패턴을 분석하여 운전자 또는 승객의 행동을 인식하기 위한 알고리즘 또는 모델, 운전자 또는 승객의 행동의 위험수준을 결정하기 위한 알고리즘 또는 모델, 및/또는 결정된, 운전자 또는 승객의 행동의 위험수준에 따라 응답을 생성하기 위한 알고리즘 또는 모델을 포함할 수 있다. 그다음, 알고리즘(124)을 ADV에 업로드하여 자율 주행 과정에 실시간으로 사용할 수 있다.Based on the driving statistics data 123 , the machine learning engine 122 generates or trains a rule set, algorithm and/or predictive model 124 according to various purposes. In one embodiment, the algorithm 124 is an algorithm or model for generating an inaudible speech signal by one or a plurality of speakers, an algorithm or model for receiving an inaudible reflected speech signal by one or a plurality of microphones. , an algorithm or model for detecting behavior-inducing acoustic patterns based on reflected ultrasound signals, an algorithm or model for recognizing driver or passenger behavior by analyzing behavior-inducing acoustic patterns, and determining the risk level of driver or passenger behavior and/or algorithms or models for generating a response according to the determined, risk level of the driver's or passenger's behavior. The algorithm 124 can then be uploaded to the ADV and used in real-time for the autonomous driving process.

도 3a 및 도 3b는 하나의 실시형태에 따른 ADV와 함께 사용되는 자율 주행 시스템의 일례를 나타내는 블록도이다. 시스템(300)은 도 1의 ADV(101)의 일부로 구현될 수 있으며, ADS(110), 제어 시스템(111) 및 센서 시스템(115)을 포함하되 이에 국한되지 않는다. 도 3a ~ 도 3b를 참조하면, ADS(110)는 측위 모듈(301), 감지 모듈(302), 예측 모듈(303), 결정 모듈(304), 계획 모듈(305), 제어 모듈(306) 및 라우팅 모듈(307)을 포함하되 이에 국한되지 않는다.3A and 3B are block diagrams illustrating an example of an autonomous driving system used with an ADV according to an embodiment. System 300 may be implemented as part of ADV 101 of FIG. 1 , including but not limited to ADS 110 , control system 111 , and sensor system 115 . 3A to 3B , the ADS 110 includes a positioning module 301 , a detection module 302 , a prediction module 303 , a determination module 304 , a planning module 305 , a control module 306 and including but not limited to routing module 307 .

모듈(301~307)은 소프트웨어, 하드웨어 또는 이들의 조합으로 구현될 수 있다. 예를 들어, 이러한 모듈은 영구 저장 장치(352)에 설치된 메모리(351)에 로딩되어 하나 또는 복수의 프로세서(미도시)에 의해 수행될 수 있다. 유의해야 할것은 이러한 모듈의 일부 또는 전부가 도 2의 차량 제어 시스템(111)의 일부 또는 전부의 모듈에 통신 가능하게 연결되거나, 또는 이들과 함께 통합될 수 있다는 점이다. 모듈(301~307)의 일부는 통합 모듈로 통합될 수 있다.The modules 301 to 307 may be implemented in software, hardware, or a combination thereof. For example, such a module may be loaded into the memory 351 installed in the persistent storage device 352 and executed by one or a plurality of processors (not shown). It should be noted that some or all of these modules may be communicatively coupled to, or integrated with, some or all of the modules of the vehicle control system 111 of FIG. 2 . Some of the modules 301 to 307 may be integrated into an integrated module.

측위 모듈(301)은(예를 들어, GPS 유닛(212)을 사용하여) ADV(300)의 현재 위치를 확인하고, 사용자의 노정 또는 노선에 관련된 모든 데이터를 관리한다. 측위 모듈(301)(지도 및 노선 모듈이라고도 함)은 사용자의 노정 또는 노선에 관련된 모든 데이터를 관리한다. 사용자는 예를 들어, 사용자 인터페이스를 통해 로그인하고 노정의 출발지와 목적지를 지정할 수 있다. 측위 모듈(301)은 ADV(300)의 지도 및 노선 데이터(311) 등과 같은 기타 구성요소와 통신하여 노정 관련 데이터를 취득한다. 예를 들어, 측위 모듈(301)은 위치 서버 및 지도와 POI(MPOI) 서버로부터 위치 및 노선 데이터를 얻을 수 있다. 위치 서버는 위치 서비스를 제공하고, MPOI 서버는 지도 서비스 및 특정 위치의 POI를 제공하고, 지도 및 노선 데이터(311)의 일부분으로 캐싱될 수 있다. ADV(300)가 노선에 따라 이동할 때, 측위 모듈(301)은 교통정보 시스템 또는 서버로부터 실시간 교통정보를 얻을 수 있다.The positioning module 301 (eg, using the GPS unit 212) checks the current location of the ADV 300, and manages all data related to the user's route or route. The positioning module 301 (also referred to as a map and route module) manages all data related to a user's route or route. The user can log in via the user interface, for example, and specify the origin and destination of the route. The positioning module 301 acquires route-related data by communicating with other components such as maps and route data 311 of the ADV 300 . For example, the positioning module 301 may obtain location and route data from a location server, a map, and a POI (MPOI) server. The location server provides a location service, and the MPOI server provides a map service and a POI of a specific location, and may be cached as part of the map and route data 311 . When the ADV 300 moves along a route, the positioning module 301 may obtain real-time traffic information from a traffic information system or server.

감지 모듈(302)은 센서 시스템(115)에 의해 제공된 센서 데이터와 측위 모듈(301)에 의해 취득된 측위정보에 기초하여 주위환경에 대한 감지를 결정한다. 감지정보는 일반 운전자가 운전자가 지금 현재 주행하고 있는 차량의 주변에서 감지한 것들을 나타낼 수 있다. 감지는 예를 들어, 오브젝트 형식을 채용한 차선구성, 신호등의 신호, 다른 차량의 상대적 위치, 보행자, 건물, 횡단보도 또는 기타 교통 관련 표지(예를 들어, 정지표지, 양보표지) 등을 포함할 수 있다. 차선구성은 예를 들면, 차선의 형상(예를 들어, 직선 또는 곡선), 차선 폭, 도로 중의 차선 수량, 단방향 또는 양방향 차선, 합류 또는 분류 차선, 출구 차선 등과 같은 하나 또는 복수의 차선을 설명하는 정보가 포함된다.The sensing module 302 determines sensing of the surrounding environment based on the sensor data provided by the sensor system 115 and the positioning information acquired by the positioning module 301 . The sensed information may indicate what the general driver senses in the vicinity of the vehicle the driver is currently driving. Sensing may include, for example, lane configuration employing object types, signals from traffic lights, relative positions of other vehicles, pedestrians, buildings, crosswalks, or other traffic-related signs (e.g., stop signs, yield signs), etc. can Lane configuration describes one or more lanes, such as, for example, the shape of the lanes (e.g., straight or curved), lane width, number of lanes on the road, one-way or two-way lanes, merging or classified lanes, exit lanes, etc. information is included.

감지 모듈(302)은 하나 또는 복수의 카메라에서 수집된 이미지를 처리, 분석하여 ADV 환경 중의 오브젝트 및/또는 특징을 인식하기 위해 컴퓨터 비전 시스템 또는 컴퓨터 비전 시스템의 기능을 포함할 수 있다. 해당 오브젝트는 교통신호, 도로의 경계, 기타 차량, 보행자 및/또는 장애물 등을 포함할 수 있다. 컴퓨터 비전 시스템은 오브젝트 인식 알고리즘, 비디오 추적 및 기타 컴퓨터 비전기술을 사용할 수 있다. 일부 실시형태에 있어서, 컴퓨터 비전 시스템은 환경지도를 작성하여 오브젝트를 추적하고 오브젝트의 속도 등을 추정할 수 있다. 감지 모듈(302)은 레이더 및/또는 LIDAR 등 기타 센서에 의해 제공되는 기타 센서의 데이터에 기반하여 오브젝트를 검출할 수 있다.The sensing module 302 may include a computer vision system or the functionality of a computer vision system to process and analyze images collected from one or more cameras to recognize objects and/or features in the ADV environment. The object may include traffic signals, road boundaries, other vehicles, pedestrians and/or obstacles, and the like. Computer vision systems may use object recognition algorithms, video tracking, and other computer vision technologies. In some embodiments, the computer vision system may create a map of the environment to track the object, estimate the object's velocity, and the like. The detection module 302 may detect an object based on data from other sensors provided by other sensors such as radar and/or LIDAR.

각 오브젝트에 대해, 예측 모듈(303)은 오브젝트가 이러한 경우에 어떻게 표현할지를 예측한다. 예측은 일련의 지도 / 노선 데이터(311) 및 교통규칙(312)을 고려한 시점에서 주행환경을 감지하는 감지 데이터에 기반하여 실행된다. 예를 들어, 오브젝트가 반대방향의 차량에 있고 또한 현재의 주행환경에 교차로가 포함되어 있는 경우, 예측 모듈(303)은 차량이 직진할 것인지 회전할 것인지 여부를 예측한다. 감지 데이터가 교차로에 신호등이 없음을 나타내는 경우, 예측 모듈(303)은 차량이 교차로에 들어서기 전에 완전히 정지해야 함을 예측할 수 있다. 감지 데이터가 차량이 현재 좌회전 전용차선 또는 우회전 전용차선에 있음을 나타내는 경우, 예측 모듈(303)은 차량이 각각 좌회전 또는 우회전할 가능성이 있음을 예측할 수 있다.For each object, the prediction module 303 predicts how the object will represent in this case. Prediction is performed based on the sensed data that detects the driving environment at a point in time in consideration of a series of map/route data 311 and traffic rules 312 . For example, when the object is in a vehicle in the opposite direction and an intersection is included in the current driving environment, the prediction module 303 predicts whether the vehicle will go straight or turn. When the sensing data indicates that there is no traffic light at the intersection, the prediction module 303 may predict that the vehicle must come to a complete stop before entering the intersection. When the sensed data indicates that the vehicle is currently in the left-turn only lane or the right-turn only lane, the prediction module 303 may predict that the vehicle is likely to turn left or right, respectively.

매개 오브젝트에 대해, 결정 모듈(304)은 오브젝트를 어떻게 대처할 것인지에 관하여 결정한다. 예를 들어, 특정 오브젝트(예를 들어, 교차 노선 중의 다른 차량) 및 오브젝트를 설명하는 메타 데이터(예를 들면, 속도, 방향, 조향 각도)에 대해 결정 모듈(304)은 해당 오브젝트와 어떻게 마주칠 것인가(예를 들어, 추월, 양보, 정지, 초과)를 결정한다. 결정 모듈(304)은 교통규칙 또는 운전규칙(312) 등의 규칙 세트에 따라 위에서와 같은 결정을 할 수 있으며, 상기 규칙 세트는 영구 저장 장치(352)에 저장될 수 있다.For each object, the decision module 304 determines how to deal with the object. For example, for a particular object (eg, another vehicle on an intersecting route) and metadata describing the object (eg, speed, direction, steering angle), the determination module 304 may determine how to encounter that object. (eg, overtaking, yielding, stopping, exceeding). The decision module 304 may make the above decision according to a rule set such as a traffic rule or a driving rule 312 , and the rule set may be stored in the permanent storage device 352 .

라우팅 모듈(307)은 출발 지점으로부터 목표 지점까지의 하나 또는 복수의 노선 또는 경로를 제공하도록 구성된다. 예를 들어, 사용자로부터 접수한, 출발지로부터 목적지까지의 소정의 노정에 대해, 라우팅 모듈(307)은 노선 및 지도 데이터(311)를 취득하고, 출발지로부터 목적지에 도착하기 위한 모든 가능한 노선 또는 경로를 결정한다. 라우팅 모듈(307)은 출발지로부터 목적지에 도착하기 위한 매개 노선이 결정된 지형도 형태의 참고선을 생성할 수 있다. 참고선은 다른 차량, 장애물 또는 교통상황 등과 같은 다른 사물로부터 어떠한 간섭도 받지 않는 이상적인 노선 또는 경로를 가리킨다. 즉, 도로에 다른 차량, 보행자 또는 장애물이 존재하지 않으면, ADV는 참고선을 정확히 또는 엄격히 준수한다. 그다음 지형도가 결정 모듈(304) 및/또는 계획 모듈(305)에 제공된다. 결정 모듈(304) 및/또는 계획 모듈(305)은 모든 가능한 경로를 조사하고 기타 모듈에 의해 제공되는 기타 데이터, 예를 들면, 측위 모듈(301)에 의한 교통상황, 감지 모듈(302)에 의해 감지된 주행환경, 및 예측 모듈(303)에 의해 예측된 교통상황 등에 의해 최적의 노선 중의 하나를 선택하고 수정한다. ADV를 제어하기 위한 실제 경로 또는 노선은 시간상의 특정 주행환경에 의해 라우팅 모듈(307)에 의해 제공되는 참고선과 비슷하면서 상이할 수 있다.The routing module 307 is configured to provide one or more routes or routes from a starting point to a destination point. For example, for a given route from the origin to the destination, received from the user, the routing module 307 obtains the route and map data 311 and lists all possible routes or routes from the origin to the destination. decide The routing module 307 may generate a reference line in the form of a topographic map in which each route for arriving at a destination from a source is determined. Reference lines indicate ideal routes or routes that are not subject to any interference from other objects such as other vehicles, obstacles or traffic conditions. In other words, if there are no other vehicles, pedestrians or obstacles on the road, the ADV follows the reference line precisely or strictly. The topographic map is then provided to the determining module 304 and/or the planning module 305 . The decision module 304 and/or the planning module 305 examines all possible routes and other data provided by other modules, eg, traffic conditions by the positioning module 301 , by the sensing module 302 . One of the optimal routes is selected and corrected according to the sensed driving environment and the traffic conditions predicted by the prediction module 303 . The actual route or route for controlling the ADV may be similar to and different from the reference line provided by the routing module 307 according to a specific driving environment in time.

계획 모듈(305)은 감지된 오브젝트 각각에 대한 결정에 기반하여 라우팅 모듈(307)에 의해 제공되는 참고선을 기반으로, ADV를 위해 경로 또는 노선 및 주행 파라미터(예를 들면, 거리, 속도 및/또는 조향 각도)를 계획한다. 즉, 소정의 오브젝트에 대해, 결정 모듈(304)은 해당 오브젝트에 대해 무엇을 할 것인지를 결정하는 한편, 계획 모듈(305)은 그것을 어떻게 실행할 것인지를 결정한다. 예를 들어, 소정의 오브젝트에 대해, 결정 모듈(304)은, 해당 오브젝트를 따라잡는 것을 결정할 수 있고, 계획 모듈(305)은 해당 오브젝트를 왼쪽 또는 오른쪽으로 추월하는 것을 결정할 수 있다. 계획 및 제어 데이터는 계획 모듈(305)에 의해 생성되며, 차량(300)이 다음 이동 사이클(예를 들어, 다음 노선 / 경로 구간)에서 어떻게 이동할 것인지를 설명하는 정보를 포함한다. 예를 들어, 계획 및 제어 데이터는 차량(300)에 30 마일 / 시간(mph)의 속도로 10미터 이동한 다음 25mph의 속도로 오른쪽 차선으로 변경하도록 지시할 수 있다.The planning module 305 may configure a route or route and travel parameters (eg, distance, speed and/or distance or steering angle). That is, for a given object, the decision module 304 determines what to do with that object, while the planning module 305 determines how to execute it. For example, for a given object, the determining module 304 may determine to overtake the object, and the planning module 305 may determine to overtake the object to the left or right. The planning and control data is generated by the planning module 305 and includes information describing how the vehicle 300 will travel in the next travel cycle (eg, the next route/route segment). For example, planning and control data may instruct vehicle 300 to travel 10 meters at a speed of 30 miles/hour (mph) and then change to the right lane at a speed of 25 mph.

제어 모듈(306)은 계획 및 제어 데이터에 기반하여, 계획 및 제어 데이터에 의해 한정된 노선 또는 경로에 따라 적절한 명령 또는 신호를 차량 제어 시스템(111)에 전송하여 ADV를 제어 및 운전한다. 계획 및 제어 데이터는 경로 또는 노선에 따라, 서로 다른 시점에서 적절한 차량 설정 또는 주행 파라미터(예를 들어, 스로틀, 브레이크, 스티어링 명령)를 사용하여, 차량을 노선 또는 경로의 제1 지점에서 제2 지점까지 주행하기에 충분한 정보를 포함한다.The control module 306 controls and drives the ADV by sending an appropriate command or signal to the vehicle control system 111 according to the route or route defined by the planning and control data, based on the planning and control data. The planning and control data transfers the vehicle from a first point on a route or route to a second point along the route or route, using appropriate vehicle settings or driving parameters (eg, throttle, brake, steering commands) at different points in time, along the route or route. Include enough information to drive to

하나의 실시형태에 있어서, 계획단계는 여러 계획 사이클(주행 사이클이라고도 함)에서 실행된다. 예를 들어, 100밀리초(ms) 시간간격에서 실행된다. 계획 사이클 또는 주행 사이클마다 계획 및 제어 데이터에 기반하여 하나 또는 복수의 제어 명령이 송신된다. 즉 100ms마다 계획 모듈(305)은 예를 들어, 목표 위치 및 ADV가 목표 위치에 도달하는데 필요한 시간을 포함한 다음 노선 구간 또는 경로 구간을 계획한다. 혹은, 계획 모듈(305)은 구체적인 속도, 방향 및/또는 조향 각도 등을 추가로 지정할 수 있다. 하나의 실시형태에 있어서, 계획 모듈(305)은 다음의 소정 기간(예를 들어, 5초동안)의 노선 구간 또는 경로구 간을 계획한다. 각 계획 사이클에 대해, 계획 모듈(305)은 전의 사이클에서 계획한 목표 위치에 기반하여 현재 사이클(예를 들어, 다음 5초)의 목표 위치를 계획한다. 그다음, 제어 모듈(306)은 현재 사이클의 계획 및 제어 데이터에 기반하여 하나 또는 복수의 제어 명령(예를 들어, 스로틀, 브레이크, 스티어링 제어 명령)을 생성한다.In one embodiment, the planning phase is implemented in several planning cycles (also referred to as travel cycles). For example, it is executed at a time interval of 100 milliseconds (ms). One or a plurality of control commands are transmitted based on the planning and control data for each planning cycle or travel cycle. That is, every 100 ms, the planning module 305 plans the next route segment or route segment including, for example, the target position and the time required for the ADV to reach the target position. Alternatively, the planning module 305 may additionally designate a specific speed, direction and/or steering angle. In one embodiment, the planning module 305 plans a route segment or route segment for the next predetermined period of time (eg, for 5 seconds). For each planning cycle, the planning module 305 plans the target position of the current cycle (eg, next 5 seconds) based on the target position planned in the previous cycle. The control module 306 then generates one or more control commands (eg, throttle, brake, steering control commands) based on the planning and control data of the current cycle.

유의할것은, 결정 모듈(304) 및 계획 모듈(305)은 통합 모듈로 통합할 수 있다는 점이다. 결정 모듈(304) / 계획 모듈(305)은 ADV의 주행 경로를 결정하기 위한 네비게이션 시스템이나 네비게이션 시스템의 기능을 포함할 수 있다. 예를 들어, 네비게이션 시스템은 다음과 같은 경로를 따라 ADV의 움직임에 영향을 주는 일련의 속도 및 전진방향을 결정할 수 있는바, 여기서 경로는 최종 목적지에 이르는 도로 기반 경로에 기반하여 ADV를 전진시킴과 동시에 감지된 장애물을 실질적으로 회피할 수 있다. 목적지는 사용자 인터페이스 시스템(113)을 통해 사용자가 입력함으로써 설정할 수 있다. 네비게이션 시스템은 ADV가 주행하는 동안의 주행 경로를 동적으로 업데이트할 수 있다. 네비게이션 시스템은 ADV의 주행 경로를 결정하기 위해 GPS 시스템 및 하나 또는 복수의 지도의 데이터를 합병할 수 있다.It should be noted that the decision module 304 and the planning module 305 may be integrated into an integrated module. The determining module 304 / planning module 305 may include a navigation system or a function of a navigation system for determining a driving route of the ADV. For example, a navigation system can determine a set of speeds and forward directions that affect the movement of the ADV along a path such that the path advances the ADV based on a road-based path to its final destination; At the same time, it is possible to substantially avoid the detected obstacle. The destination may be set by a user input through the user interface system 113 . The navigation system may dynamically update the driving route while the ADV is driving. The navigation system may merge data from the GPS system and one or more maps to determine the ADV's driving route.

도 4는 하나의 실시형태에 따른 모니터링 시스템(116)의 예를 나타내는 블록도이다. 모니터링 시스템(116)은 운전자 또는 승객의 행동을 모니터링하고 응답을 생성하도록 구현될 수 있다. 도 4를 참조하면, 모니터링 시스템(116)은 스피커 유닛(401), 마이크 유닛(402), 검출기 유닛(403), 인식 유닛(404), 위험수준 유닛(405) 및 응답 유닛(406)을 포함하되 이에 국한되지 않는다. 모니터링 시스템(116)은 주행의 안전성을 높이고 지능적이고 순리롭게 승객과 차량과의 상호 작용을 실현하기 위해, 이동 중인 차량의 행동을 인식하고 모니터링하도록 구성된다. 모니터링 시스템(116)은 작업 인식과 차량 조작 모드 조정 간의 간격을 연결하여 폐쇄루프 시스템을 형성한다.4 is a block diagram illustrating an example of a monitoring system 116 in accordance with one embodiment. Monitoring system 116 may be implemented to monitor driver or passenger behavior and generate a response. Referring to FIG. 4 , the monitoring system 116 includes a speaker unit 401 , a microphone unit 402 , a detector unit 403 , a recognition unit 404 , a risk level unit 405 and a response unit 406 . However, it is not limited thereto. The monitoring system 116 is configured to recognize and monitor the behavior of the moving vehicle in order to increase the safety of driving and realize the intelligent and smooth interaction between the passenger and the vehicle. Monitoring system 116 bridges the gap between task recognition and vehicle operation mode adjustment to form a closed-loop system.

하나의 실시형태에 있어서, 스피커 유닛(401)은 스피커와 같은 하나 또는 복수의 음성 발생기를 포함하고, 차량 내의 각 위치에 배치된 하나 또는 복수의 음성 발생기를 사용하여 비가청 음성신호를 생성하도록 구성된다. 음성신호는 차량의 운전자 또는 승객으로부터 반사 또는 반송될 수 있다. 마이크 유닛(402)은 마이크와 같은 하나 또는 복수의 음성 캡처장치를 포함하고, 차량 내의 부동한 위치에 배치된 하나 또는 복수의 마이크를 사용하여 차량의 운전자 또는 승객으로부터 반사 또는 반송된 비가청 반사 음성신호를 포착하도록 구성된다. 검출기 유닛(403)은 반사된 초음파 신호에 기반하여 행동 유도 음향 패턴을 검출하도록 구성된다. 인식 유닛(404)은 행동 유도 음향 패턴을 분석하여 차량의 운전자 또는 승객의 행동을 결정하고 인식하도록 구성된다.In one embodiment, the speaker unit 401 includes one or more voice generators, such as speakers, and is configured to generate an inaudible voice signal using one or more voice generators disposed at respective locations within the vehicle. do. The voice signal may be reflected or returned from the driver or passenger of the vehicle. The microphone unit 402 includes one or a plurality of voice capture devices, such as a microphone, and uses one or a plurality of microphones disposed at different locations within the vehicle to provide inaudible reflected voices reflected or returned from the driver or passenger of the vehicle. configured to acquire a signal. The detector unit 403 is configured to detect the action-inducing acoustic pattern based on the reflected ultrasound signal. The recognition unit 404 is configured to analyze the action-inducing acoustic pattern to determine and recognize the action of a driver or passenger of the vehicle.

음성신호는 하나 또는 복수의 스피커에서 공기를 통해 전파되며, 하나 또는 복수의 마이크에 의해 수신된다. 예를 들어, 도플러 효과에 기반하여, 음파는 도중에 사용자의 움직임에 의해 편향 또는 중단될 가능성이 있지만 여전히 마이크에 도달할 수 있다. 예를 들어, 음성신호는 차량의 운전자 또는 승객에 부딛히고, 운전자 또는 승객으로부터 반사되어 되돌아올 수 있다. 운전자 또는 승객으로부터 반사된 음성신호는 도플러 효과에 의해 음성신호에 급격한 변화를 일으킬 수 있다.The voice signal is propagated through the air in one or more speakers, and is received by one or more microphones. For example, based on the Doppler effect, the sound wave is likely to be deflected or interrupted by the user's movement along the way, but still reach the microphone. For example, the voice signal may hit the driver or passenger of the vehicle, and may be reflected back from the driver or passenger. The voice signal reflected from the driver or passenger may cause a sudden change in the voice signal due to the Doppler effect.

하나의 실시형태에 있어서, 운전자 또는 승객의 행동은 반사 음성신호로부터 추출된 특징 세트에 AI모델 또는 기계 학습 모델을 적용하여 결정할 수 있다. 하나의 실시형태에 있어서, 행동은 음향 패턴을 소정의 행동 리스트를 나타내는 소정의 음향 패턴 리스트와 비교 또는 매칭하여 결정할 수 있다. 음향 패턴을 분석하여 사람의 행동을 결정할 수 있다. 예를 들어, ADV의 운전자 또는 승객이 이동하는 경우, 도플러 효과에 기반하여, 반사신호(운전자 또는 승객으로부터 반사된 비가청 음성신호)는 음성신호에 급격한 변화를 일으킬 수 있다. 도플러 효과(또는 도플러 시프트)는 파원에 대해 이동하는 관찰자에 대한 파 주파수의 변화이다. 음성신호의 급격한 변화는 운전자 또는 승객으로부터 검출된 행동 이벤트를 나타낼 수 있다. 하나의 실시형태에 있어서, 반사 음성신호에 대역 통과 필터를 적용한 후, 밴드 스톱 필터를 적용하여 프로브 신호의 정확한 주파수를 갖는 오디오 성분을 제거할 수 있으며, 프로브 신호는 하나 또는 복수의 스피커에 의해 생성된 비가청 음성신호일 수 있다. 따라서, 도플러 효과에 기반하여 인체의 움직임으로부터 발생 또는 초래된 반사 음성신호만을 유지할 수 있다.In one embodiment, the behavior of the driver or passenger may be determined by applying an AI model or a machine learning model to a feature set extracted from the reflected speech signal. In one embodiment, the behavior may be determined by comparing or matching an acoustic pattern to a predefined list of acoustic patterns representing a predefined list of behaviors. By analyzing acoustic patterns, human behavior can be determined. For example, when a driver or passenger of ADV moves, based on the Doppler effect, a reflected signal (inaudible audio signal reflected from the driver or passenger) may cause a sudden change in the audio signal. The Doppler effect (or Doppler shift) is the change in wave frequency for an observer moving with respect to a wave source. A sudden change in the voice signal may indicate a behavioral event detected from the driver or passenger. In one embodiment, after applying a band-pass filter to the reflected speech signal, a band-stop filter may be applied to remove an audio component having an exact frequency of the probe signal, wherein the probe signal is generated by one or a plurality of speakers It may be an inaudible voice signal. Accordingly, based on the Doppler effect, it is possible to maintain only the reflected voice signal generated or caused by the movement of the human body.

위험수준 유닛(405)은 위험수준 임계값의 세트에 의해, 운전자 또는 승객의 행동에 기반하여 운전자 또는 승객의 행동의 위험수준을 결정하도록 구성된다. 예를 들어, 승객의 특정 행동은 위험하지 않을 수 있지만, 운전자의 같은 행동은 위험하다고 간주될 수 있다. 응답 유닛(406)은 결정된, 운전자 또는 승객의 행동의 위험수준에 의해 응답 또는 경보를 생성하도록 구성된다.The risk level unit 405 is configured to determine the risk level of the driver's or passenger's action based on the driver's or passenger's action, by the set of risk level thresholds. For example, a certain behavior of a passenger may not be dangerous, but the same behavior of a driver may be considered dangerous. The response unit 406 is configured to generate a response or an alert according to the determined, risk level of the driver's or passenger's action.

도 5a는 ADV(501)에 배치된 하나 또는 복수의 스피커(510)의 평면도를 도시한 블록도(500a)이다. 도 5b는 ADV(501)에 배치된 하나 또는 복수의 스피커(510)의 측면도를 나타내는 블록도(500b)이다. 도 5a 및 도 5b를 참조하면, 모니터링 시스템(116)은 하나 또는 복수의 스피커(510)를 포함하는 스피커 유닛(401)을 포함한다. 하나 또는 복수의 스피커(510)는 인간에게 들리지않는 음성신호를 생성하도록 구성된다. 음성신호는 고정 주파수 또는 변조된 변화 주파수로 생성할 수 있다. 예를 들어, 하나 또는 복수의 스피커(510)는 초음파 신호를 생성하도록 구성된다. 일반 인간이 들을 수 있는 주파수 범위는 약 20Hz에서 20kHz이다. 따라서, 일반적으로 이 범위(>20kHz 또는 <20Hz)에서 벗어난 음성신호는 인간에게 들리지 않는다. 일반적으로 주파수가 20kHz 이상의 소리는 초음파로 간주된다. 인간의 귀로 검출할 수 없는 저주파 소리를 초 저주파음이라고 부른다. 하나의 실시형태에 있어서, 비가청 음성신호는 초음파 신호를 포함할 수 있다. 하나의 실시형태에 있어서, 비가청 음성신호는 초 저주파 음성신호를 포함할 수 있다.5A is a block diagram 500a illustrating a plan view of one or a plurality of speakers 510 disposed in the ADV 501 . 5B is a block diagram 500b illustrating a side view of one or a plurality of speakers 510 disposed in the ADV 501 . 5A and 5B , the monitoring system 116 includes a speaker unit 401 including one or a plurality of speakers 510 . One or more speakers 510 are configured to generate a voice signal inaudible to humans. The voice signal can be generated with a fixed frequency or a modulated variable frequency. For example, one or more speakers 510 are configured to generate an ultrasonic signal. The frequency range that the average human can hear is about 20Hz to 20kHz. Therefore, in general, audio signals outside this range (>20 kHz or <20 Hz) are inaudible to humans. Generally, sounds with a frequency of 20 kHz or higher are considered ultrasound. Low-frequency sounds that cannot be detected by the human ear are called infrasound. In one embodiment, the inaudible voice signal may include an ultrasonic signal. In one embodiment, the inaudible voice signal may include an infrasound voice signal.

하나 또는 복수의 스피커(510)는 ADV의 네 모퉁이에 배치될 수 있다. 하나 또는 복수의 스피커(510)는 ADV의 왼쪽 앞측, 왼쪽 뒷측, 오른쪽 앞측, 오른쪽 뒷측에 배치될 수 있다. 하나의 실시형태에 있어서, 하나 또는 복수의 스피커(510)는 ADV의 차량탑재 오디오 시스템을 이용할 수 있다. 하나의 실시형태에 있어서, 하나 또는 복수의 스피커(510)는 초음파 신호를 생성하도록 구성될 수 있다. 하나 또는 복수의 스피커(510)는 인간에게 들리지 않는 음성신호를 생성할 수 있는 것이라면 모든 유형 또는 모든 종류의 스피커일 수 있다.One or a plurality of speakers 510 may be disposed at the four corners of the ADV. One or a plurality of speakers 510 may be disposed on the left front side, left rear side, right front side, and right rear side of the ADV. In one embodiment, one or more speakers 510 may utilize the ADV's in-vehicle audio system. In one embodiment, one or more speakers 510 may be configured to generate ultrasound signals. One or a plurality of speakers 510 may be any type or all types of speakers as long as they can generate a voice signal inaudible to humans.

도 5c 및 도 5d는 ADV(501)에 배치된 하나 또는 복수의 마이크(예를 들어, 521 ~ 527)의 블록도(500c),(500d)이다. 하나 또는 복수의 마이크는 왼쪽 위 앞(예를 들어, 521), 오른쪽 위 앞(예를 들어, 522) 또는 운전석과 조수석 사이(예를 들어, 523)에 배치될 수 있다. 하나 또는 복수의 마이크는 운전석의 뒷측(예를 들어, 524) 또는 조수석의 뒷측(예를 들어, 525) 또는 두명의 승객 뒷좌석 사이(예를 들어, 526) 또는 앞부분의 중앙위치(예를 들어, 527)에 배치될 수 있다. 하나 또는 복수의 마이크는 ADV(501) 내의 다른 위치에 배치될 수 있으며, 운전자 또는 승객에서 반사된 음성신호는 ADV 내의 장애물(예를 들어, 차량의 좌석, 도어, 콘솔박스, 뒷모퉁이 등)의 지장을 받지 않는다. 하나 또는 복수의 마이크(예를 들어, 521 ~ 527)는 운전자 또는 승객에서 반사된 음성신호를 수신하도록 구성된다. 하나 또는 복수의 스피커(예를 들어, 510)에 의해 생성된 비가청 음성신호,(예를 들어, 초음파 신호)는 운전자 또는 승객에 입사될 수 있으며, 음성신호가 운전자 또는 승객으로부터 반사될 수도 있다. 운전자 또는 승객에서 반사된 음성신호는 하나 또는 복수의 마이크(예를 들어, 521 ~ 527)에 의해 수신될 수 있다.5C and 5D are block diagrams 500c and 500d of one or more microphones (eg, 521 - 527 ) disposed in the ADV 501 . One or more microphones may be disposed in the upper left front (eg 521), upper right front (eg 522), or between the driver's seat and the passenger seat (eg 523). One or more microphones may be located on the rear side of the driver's seat (eg 524) or on the back side of the passenger seat (eg 525) or between the rear seats of two passengers (eg 526) or centrally located on the front (eg, 527). One or a plurality of microphones may be disposed at different positions within the ADV 501 , and the voice signal reflected from the driver or passenger is transmitted to an obstacle in the ADV (eg, a vehicle seat, door, console box, rear corner, etc.) not disturbed One or a plurality of microphones (eg, 521 to 527) is configured to receive a voice signal reflected from the driver or passenger. An inaudible voice signal (eg, an ultrasonic signal) generated by one or a plurality of speakers (eg, 510) may be incident on the driver or passenger, and the voice signal may be reflected from the driver or passenger . The voice signal reflected from the driver or passenger may be received by one or a plurality of microphones (eg, 521 to 527 ).

도 6은 실시형태에 따른 자율 주행 차량의 운전자 또는 승객의 행동을 음향적으로 모니터링하는 예를 나타내는 흐름도이다. 모니터링 시스템(116)은 음향적 모니터링을 기반으로 ADV의 운전자 또는 승객의 행동을 모니터링하도록 구성된다. 이러한 방법은 개인정보의 과다누설을 우려하지 않아도 된다. 운전자에 의한 위험한 행동에 개입할 수 있어 주행의 안전성을 높일 수 있다. 또한 승객의 편안함을 향상시킬 수 있고 승객과 차량과의 원활한 상호작용을 실현할 수 있다.6 is a flowchart illustrating an example of acoustically monitoring the behavior of a driver or passenger of an autonomous vehicle according to an embodiment. The monitoring system 116 is configured to monitor the behavior of the driver or passenger of the ADV based on the acoustic monitoring. In this way, there is no need to worry about excessive leakage of personal information. It is possible to intervene in dangerous behavior by the driver, thereby increasing driving safety. In addition, it can improve passenger comfort and realize smooth interaction between passengers and vehicles.

블록(601a)에 있어서, ADV의 하나 또는 복수의 스피커 또는 기타 음성 발생기는 비가청 음성신호(예를 들면, 초음파 신호)를 생성할 수 있다.At block 601a, one or more speakers or other voice generators of the ADV may generate an inaudible voice signal (eg, an ultrasonic signal).

블록(601)에 도시된 바와 같이, 하나 또는 복수의 마이크 또는 기타 음성 수신기는 비가청 음성신호(예를 들면, 초음파 신호)를 수신할 수 있다. 하나 또는 복수의 마이크 또는 기타 음성 수신기에서 취득한 데이터는(도 4를 결합하여 설명한 바와 같이) 모니터링 시스템(118)의 검출기 유닛(403)에 입력될 수 있다. 도 7a의 도700a는 하나 또는 복수의 마이크 또는 기타 음성 수신기로부터 수신된 데이터의 예를 나타낸다.As shown in block 601, one or more microphones or other audio receivers may receive an inaudible audio signal (eg, an ultrasonic signal). Data obtained from one or more microphones or other voice receivers (as described in conjunction with FIG. 4 ) may be input to the detector unit 403 of the monitoring system 118 . 700A of FIG. 7A shows an example of data received from one or more microphones or other voice receivers.

블록(602)에 있어서, 운전자 또는 승객의 행동 이벤트를 검출할 수 있다. 행동 이벤트는 ADV의 운전자 또는 승객에 의해 생기는 행동 또는 움직임의 이벤트이다. 예를 들어, ADV의 운전자 또는 승객이 움직이는 경우, 도플러 효과에 기반하여, 반사신호(운전자 또는 승객에서 반사되어 돌아온 비가청 음성신호)는 음성신호에 급격한 변화를 일으킬 수 있다. 도플러 효과(또는 도플러 시프트)는 파원에 대해 상대적으로 이동하는 관찰자에 대한 파 주파수의 변화이다. 음성신호의 급격한 변화는 운전자 또는 승객에서 검출된 행동 이벤트를 나타낼 수 있다. 도 7b의 도700b는 음성신호에서 검출된 행동 이벤트의 예를 나타낸다.At block 602, a driver or passenger behavioral event may be detected. A behavioral event is an event of an action or movement caused by a driver or passenger of an ADV. For example, when a driver or passenger of ADV moves, based on the Doppler effect, a reflected signal (inaudible audio signal reflected from the driver or passenger) may cause a sudden change in the audio signal. The Doppler effect (or Doppler shift) is the change in wave frequency for an observer moving relative to the wave source. A sudden change in the voice signal may indicate a behavioral event detected in the driver or passenger. 700B of FIG. 7B shows an example of a behavioral event detected in a voice signal.

블록(603)에 있어서, 특징 추출 및 행동 인식을 위해 음성신호의 프레임을 분할한다.In block 603, a frame of the speech signal is segmented for feature extraction and behavior recognition.

블록(604)에 있어서, 음성신호로부터 행동 유도 음향 패턴을 포함하는 행동 특징을 추출한다. 블록(605)에 있어서, 음성신호는 필터링되어 노이즈 제거될 수 있다. 음성신호는 관심 주파수 범위 이외의 노이즈를 줄이기 위해 필터링을 행할 수 있다. 예를 들어, 필터는 대역 통과 필터 또는 대역 정지 필터일 수 있다. 예를 들어, 비가청 음성신호는 초음파 신호이며, 필터는 소정 범위 이외의 음성신호를 필터링하도록 구성할 수 있다. 예를 들어, 소정 범위는 19kHz ~ 21kHz일 수 있다. 소정 범위 이외의 음성신호는 노이즈 또는 이상치일 수 있다.In block 604, a behavioral characteristic including an action-inducing sound pattern is extracted from the voice signal. In block 605, the audio signal may be filtered to denoise. The audio signal may be filtered to reduce noise outside the frequency range of interest. For example, the filter may be a bandpass filter or a bandstop filter. For example, the inaudible audio signal is an ultrasonic signal, and the filter may be configured to filter the audio signal outside a predetermined range. For example, the predetermined range may be 19 kHz to 21 kHz. The audio signal outside the predetermined range may be noise or an outlier.

블록(606)에 있어서, 필터링된 음성신호의 파워 스펙트럼을 얻을 수 있다. 스펙트로그램은 시간에 따라 변화하는 신호의 주파수 스펙트럼을 직관적으로 나타낸 것이다. 파워 스펙트럼은 시간의 경과에 따른 각 주파수 대역의 신호의 파워 레벨을 나타낸다. 하나의 실시형태에 있어서, 음성신호에 대역 통과 필터를 적용한 후, 밴드 스톱 필터를 적용하여 프로브 신호의 정확한 주파수를 갖는 오디오 성분을 제거할 수 있으며, 프로브 신호는 하나 또는 복수의 스피커에 의해 생성하는 비가청 음성신호일 수 있다. 따라서, 도플러 효과에 기반하여 인체의 움직임에 의해 발생 또는 초래된 음성신호만을 보류할 수 있다. 예를 들어, 밴드 스톱 필터는 제1 소정의 임계치보다 크고 제2 소정의 임계치보다 작은, 원하지 않는 주파수 범위의 음성신호를 차단할 수 있다. 제1 소정의 임계치보다 크고 제2 소정의 임계치보다 작은 음성신호는 프로브 신호에 의해 지배된다. 하나의 실시형태에 있어서, 프로브 신호는 20kHz의 주파수를 가질 수 있다. 일례로서 제1 소정의 임계값은 20.2kHz일 수 있고, 제2 소정의 임계값은 19.8kHz일 수 있다.In block 606, a power spectrum of the filtered speech signal may be obtained. The spectrogram intuitively represents the frequency spectrum of a signal that changes with time. The power spectrum represents the power level of a signal in each frequency band over time. In one embodiment, after applying the band-pass filter to the audio signal, the band-stop filter may be applied to remove an audio component having the correct frequency of the probe signal, and the probe signal is generated by one or a plurality of speakers. It may be an inaudible voice signal. Accordingly, based on the Doppler effect, only the voice signal generated or caused by the movement of the human body may be withheld. For example, the band-stop filter may block a voice signal having an undesired frequency range greater than a first predetermined threshold and less than a second predetermined threshold. A voice signal greater than the first predetermined threshold and less than the second predetermined threshold is dominated by the probe signal. In one embodiment, the probe signal may have a frequency of 20 kHz. As an example, the first predetermined threshold value may be 20.2 kHz, and the second predetermined threshold value may be 19.8 kHz.

그다음 단시간 푸리에 변환(STFT)을 적용하여 음성신호의 파워 스펙트럼을 얻을 수 있다. 도 7c는 음성신호의 파워 스펙트럼(700c)의 예를 나타낸다. 도 7c에 나타낸 바와 같이, x축은 시간을 나타내고, y축은 주파수를 나타내며, 각 좌표점의 값은 음성신호의 파워의 진폭을 나타낸다. 파워 스펙트럼에 있어서, 부동한 색상 또는 부동한 색상 음영은 부동한 파워 레벨을 나타내며, 이는 부동한 행동을 나타낼 수 있다. 도 7c에 있어서, 밝은 색상(노란색)은 높은 파워 레벨을 나타내고, 어두운 색상(진한 파란색)은 낮은 파워 레벨을 나타낸다.Then, a short-time Fourier transform (STFT) is applied to obtain the power spectrum of the speech signal. 7C shows an example of a power spectrum 700c of a voice signal. As shown in FIG. 7C , the x-axis represents time, the y-axis represents frequency, and the value of each coordinate point represents the amplitude of the power of the audio signal. In the power spectrum, different colors or different shades of color represent different power levels, which can represent different behaviors. In FIG. 7C , a light color (yellow) indicates a high power level, and a dark color (dark blue) indicates a low power level.

블록(607)에 있어서, 파워 스펙트럼에 기반하여 진일보 처리 및 강화된 파워 스펙트럼을 얻을 수 있다. 도 7d는 강화된 파워 스펙트럼 700d의 예를 나타내고 있다. 파워 스펙트럼(700c)에 기반하여 파워값의 임계치를 결정할 수 있다. 파워값의 임계치는 음성신호 및 관련된 움직임에 의해 결정할 수 있다. 강화된 파워 스펙트럼(700d)은 파워 스펙트럼(700c)의 각 포인트에 대해, 대응 포인트의 파워값이 파워값의 임계치보다 작은 경우, 대응 포인트의 파워값의 진폭을 0으로 설정함으로써 얻을 수 있다. 추가적인 이미지 노이즈 제거 또는 평활화 필터를 적용하여 보다 좋은 효과를 취득함으로써 강화된 파워 스펙트럼(700d)을 얻을 수 있다.In block 607, an advanced processing and enhanced power spectrum may be obtained based on the power spectrum. 7d shows an example of an enhanced power spectrum 700d. A threshold of the power value may be determined based on the power spectrum 700c. The threshold of the power value may be determined by a voice signal and related motion. The enhanced power spectrum 700d may be obtained for each point of the power spectrum 700c by setting the amplitude of the power value of the corresponding point to 0 when the power value of the corresponding point is less than the threshold value of the power value. An enhanced power spectrum 700d may be obtained by applying an additional image denoising or smoothing filter to obtain a better effect.

블록(608)에 있어서, 운전자 또는 승객의 행동은, 예를 들어, 파워 스펙트럼을 소정의 행동 리스트에 대응하는 소정의 파워 스펙트럼 리스트와 비교 또는 매칭함으로써, 강화된 파워 스펙트럼에 기반하여 검출되는 행동 유도 음향 패턴에 기반하여 인식할 수 있다. 도 7e는 강화된 파워 스펙트럼(700e)에서 검출된 행동 유도 음향 패턴(710)의 예를 나타낸다. 도 7f는 검출된 행동 유도 음향 패턴(710)에 대응하는 인식된 행동(720)의 예를 나타낸다. 운전자 또는 승객의 부동한 행동 또는 움직임은 도플러 효과에 의해 부동한 행동 유도 음향 패턴에 대응된다. 일례로서 도 7f에 도시된 바와 같은 박수 행동은 도 7e에 도시된 행동 유도 음향 패턴(710)에 대응된다. 운전자 또는 승객의 이동 또는 행동(손짓, 전화 사용, 식사, 꾸벅꾸벅 졸고 있는 등)이 있을 경우, 행동 유도 음향 패턴을 검출할 수 있다. 기계 학습 및 심층 학습 방법을 사용하여 행동 유도 음향 패턴(예를 들어, 710)을 분석하여, 대응하는 행동(예를 들어, 720)을 인식할 수 있다.At block 608 , the driver's or passenger's behavior is detected based on the enhanced power spectrum, for example, by comparing or matching the power spectrum with a predetermined power spectrum list corresponding to the predetermined behavioral list. It can be recognized based on the acoustic pattern. 7E shows an example of an action-inducing acoustic pattern 710 detected in the enhanced power spectrum 700e. 7F shows an example of a recognized action 720 corresponding to a detected action-inducing sound pattern 710 . Different actions or movements of the driver or passengers are corresponded to different action-inducing acoustic patterns by the Doppler effect. As an example, the applause action shown in FIG. 7F corresponds to the action-inducing sound pattern 710 shown in FIG. 7E . When there is movement or behavior of the driver or passenger (hand gestures, phone use, eating, nodding, etc.), action-inducing acoustic patterns can be detected. Machine learning and deep learning methods may be used to analyze a behavioral sound pattern (eg, 710 ) to recognize a corresponding behavior (eg, 720 ).

하나의 실시형태에 있어서, 행동이 차량 운전자의 행동인지 승객의 행동인지를 진일보 결정한다. 행동이 운전자의 행동인 경우, 안전문제의 잠재적 위험이 존재할 가능성이 있다. 따라서, 행동이 차량 운전자의 행동인지 아니면 승객의 행동인지를 결정하는 것이 중요하다. 검출된 음성신호(예를 들어, 비가청 음성신호)의 발생원에 기반하여 행동이 차량 운전자의 행동인지 아니면 승객의 행동인지를 결정할 수 있다.In one embodiment, it further determines whether the action is that of a vehicle driver or that of a passenger. If the behavior is that of the driver, there is a possibility that a potential risk of safety problem exists. Therefore, it is important to determine whether the behavior is that of the vehicle driver or that of a passenger. Based on the source of the detected voice signal (eg, inaudible voice signal), it is possible to determine whether the behavior is the behavior of the vehicle driver or the behavior of the passenger.

도 8은 검출된, ADV의 행동 및 응답의 예를 나타내는 블록도이다. 검출된 행동(801)은 운전자의 행동(802) 또는 승객의 행동(803)을 포함할 수 있다. 예를 들어, 운전자의 행동(802)은 손짓, 전화 사용, 식사, 졸음 운전 또는 부주의 운전 등을 포함할 수 있다. 승객의 행동(803)은 손짓, 전화 사용, 식사, 졸음 / 수면 등을 포함할 수 있다. 운전자 또는 승객의 기타 행동이 검출될 가능성도 있다. 도 8에 나타낸 바와 같이, 인식된, 운전자 또는 승객의 행동의 위험수준을 결정할 수 있다.8 is a block diagram illustrating an example of detected, behavior and response of an ADV. The detected behavior 801 may include a driver's behavior 802 or a passenger's behavior 803 . For example, the driver's behavior 802 may include hand gestures, phone use, eating, drowsy driving or careless driving, and the like. The passenger's behavior 803 may include hand gestures, phone use, eating, drowsiness/sleep, and the like. There is also the possibility that other actions of the driver or passengers may be detected. As shown in FIG. 8 , it is possible to determine the perceived risk level of the driver's or passenger's behavior.

일례로서, 인식된, 행동의 위험수준은 위험없음, 잠재적 위험 또는 고위험으로 나눌수 있다. 예를 들어, 운전자의 손짓은 위험이 없는 것으로 결정되고, 운전자의 전화 사용 및 식사는 잠재적인 위험으로 결정되며, 졸음 운전이나 부주의 운전은 고위험으로 결정될 수 있다. 승객의 행동은 위험이 없는 것으로 결정될 수 있다. 이외에도 부동한 유형의 행동을 부동한 방법으로 분류할 수 있다.As an example, the perceived risk level of the behavior can be divided into no risk, potential risk, or high risk. For example, the driver's hand gestures may be determined to be non-hazardous, the driver's phone use and eating may be determined to be potentially hazardous, and drowsy driving or careless driving may be determined to be high risk. The behavior of the passenger may be determined to be risk-free. In addition, different types of behavior can be classified in different ways.

ADV의 응답은 결정된, 운전자 또는 승객의 행동의 위험수준에 기반하여 생성할 수 있다. 하나의 실시형태에 있어서, 결정된 위험수준이 잠재적인 위험인 경우, 블록(804)에 나타낸 바와 같이, ADV는 경보를 생성하고 자율 주행 모드를 작동시켜 일시적으로 주행을 인수할 수 있다.The ADV's response can be generated based on a determined, risk level of the driver's or passenger's behavior. In one embodiment, if the determined risk level is a potential risk, the ADV may generate an alert and activate an autonomous driving mode to temporarily take over driving, as shown in block 804 .

하나의 실시형태에 있어서, 결정된 위험수준이 고위험인 경우, 블록(805)에 나타낸 바와 같이, ADV는 경보를 생성하고 자율 주행 모드를 작동시켜 일시적으로 주행을 인수하여 길옆에 속도를 줄여 정지할 수 있다. 그러나 결정된 위험수준이 잠재적인 위험인 경우, 경보를 생성한 후 운전자로부터 응답이 없으면 ADV는 주행을 인수하여 길옆에 속도를 줄여 정지할 수 있다.In one embodiment, if the determined risk level is high risk, as shown in block 805, the ADV generates an alert and activates an autonomous driving mode to temporarily take over driving to slow down and stop by the side of the road. have. However, if the determined hazard level is a potential hazard, if there is no response from the driver after generating the alert, the ADV can take over the drive and slow down to a stop on the side of the road.

결정된 위험수준이 위험없음이고 또한 해당 행동이 운전자의 행동(예를 들어, 운전자가 손짓하고 있는 행동)인 경우, 블록(806)에 나타낸 바와 같이, ADV는 라디오 / 음악을 켜거나, 하나 또는 복수의 스피커의 가청 음량을 조절하거나 계속 모니터링하는 등의 응답을 할 수 있다.If the determined risk level is no risk and the behavior is the driver's behavior (eg, the driver beckoning behavior), then, as shown in block 806, the ADV turns on the radio/music, one or more You can respond by adjusting the audible volume of your speaker or continuously monitoring it.

검출된 행동이 승객의 행동이고 또한 차량이 자율 주행 모드에 있는 경우, 블록(808)에 나타낸 바와 같이, ADV는 ADV의 속도를 줄이거나 또는 자율 주행 모드의 컴포트 모드로 전환할 수 있으며, 또는 블록(807)에 나타낸 바와 같이, ADV는 하나 또는 복수의 스피커의 가청 음량을 낮출 수 있다.If the detected behavior is that of a passenger and the vehicle is in an autonomous driving mode, the ADV may slow the ADV or switch to the comfort mode of the autonomous driving mode, as shown in block 808 , or block As shown at 807 , the ADV may lower the audible volume of one or more speakers.

도 9는 ADV의 운전자 또는 승객의 행동을 음향적으로 모니터링하는 과정을 나타내는 흐름도이다. 이 프로세스를 통해 ADV의 운전자 또는 승객의 행동이 모니터링될 수 있으나 개인정보의 과다누출은 우려하지 않아도 된다. 운전자 또는 승객의 행동의 위험수준을 결정할 수 있고, 운전의 안전성과 편안함을 증강하기 위해 응답을 생성할 수 있다. 프로세스(900)는 소프트웨어, 하드웨어, 또는 이들의 조합을 포함하는 처리 논리에 의해 수행할 수 있다. 예를 들어, 프로세스(900)는 모니터링 시스템(116)에 의해 수행할 수 있다.9 is a flowchart illustrating a process of acoustically monitoring the behavior of a driver or passenger of an ADV. Through this process, the behavior of drivers or passengers in ADV can be monitored, but there is no need to worry about excessive leakage of personal information. It is possible to determine the level of risk of a driver's or passenger's behavior and generate a response to enhance the safety and comfort of driving. Process 900 may be performed by processing logic including software, hardware, or a combination thereof. For example, process 900 may be performed by monitoring system 116 .

도 9를 참조하면, 조작(901)에 있어서, 처리 논리는 차량 내에 배치된 하나 또는 복수의 스피커를 통해 비가청 음성신호를 생성한다. 하나의 실시형태에 있어서, 비가청 음성신호는 차량에 배치된 하나 또는 복수의 스피커에 의해 연속적으로 생성되며, 비가청 음성신호는 초음파 신호이다.Referring to Fig. 9, in operation 901, the processing logic generates an inaudible audio signal through one or a plurality of speakers disposed in the vehicle. In one embodiment, the inaudible audio signal is continuously generated by one or a plurality of speakers disposed in the vehicle, and the inaudible audio signal is an ultrasonic signal.

조작(902)에 있어서, 처리 논리는 차량 내에 배치된 하나 또는 복수의 마이크를 통해 비가청 반사 음성신호를 수신한다. 하나의 실시형태에 있어서, 하나 또는 복수의 마이크는 차량의 왼쪽 앞 위, 오른쪽 앞 위, 운전석과 조수석 사이, 운전석 또는 조수석의 뒷측, 또는 두 뒷좌석 사이에 배치된다.In operation 902, the processing logic receives the inaudible reflected audio signal via one or more microphones disposed within the vehicle. In one embodiment, the one or the plurality of microphones are disposed above the left front side, above the right front side, between the driver's seat and the front passenger's seat, the rear side of the driver's seat or the front passenger's seat, or between the two rear seats of the vehicle.

조작(903)에 있어서, 처리 논리는 반사된 음성신호에 기반하여 행동 유도 음향 패턴을 검출한다. 하나의 실시형태에 있어서, 처리 논리는 반사된 음성신호에 기반하여 행동 이벤트를 검출할 수 있다. 하나의 실시형태에 있어서, 처리 논리는 반사된 음성신호를 필터링할 수 있다.In operation 903, the processing logic detects an action-inducing acoustic pattern based on the reflected speech signal. In one embodiment, the processing logic may detect a behavioral event based on the reflected speech signal. In one embodiment, the processing logic may filter the reflected speech signal.

하나의 실시형태에 있어서, 처리 논리는 또한 반사된 음성신호에 기반하여 파워 스펙트럼을 추출할 수 있다. 하나의 실시형태에 있어서, 처리 논리는 파워 스펙트럼에 기반하여 강화된 파워 스펙트럼을 얻을 수 있다. 하나의 실시형태에 있어서, 처리 논리는 강화된 파워 스펙트럼에 기반하여 행동 유도 음향 패턴을 얻을 수 있다.In one embodiment, the processing logic may also extract a power spectrum based on the reflected speech signal. In one embodiment, the processing logic may obtain an enhanced power spectrum based on the power spectrum. In one embodiment, the processing logic may obtain a call-to-action acoustic pattern based on the enhanced power spectrum.

조작(904)에 있어서, 처리 논리는 행동 유도 음향 패턴을 분석하여 차량의 운전자 또는 승객의 행동을 인식한다. 하나의 실시형태에 있어서, 처리 논리는 행동이 차량의 운전자의 행동인지 아니면 차량의 승객의 행동인지를 결정할 수 있다.In operation 904, the processing logic analyzes the action-inducing acoustic pattern to recognize the behavior of the driver or passenger of the vehicle. In one embodiment, the processing logic may determine whether the action is that of a driver of the vehicle or that of a passenger of the vehicle.

조작(905)에 있어서, 처리 논리는 인식된, 차량의 운전자 또는 승객의 행동에 의해 응답을 생성한다.In operation 905, the processing logic generates a response by the recognized, action of the driver or passenger of the vehicle.

하나의 실시형태에 있어서, 처리 논리는 인식된, 운전자 또는 승객의 행동의 위험수준을 결정할 수 있으며, 또한 결정되고 인식된 운전자 또는 승객의 행동의 위험수준에 기반하여 응답을 생성할 수 있다.In one embodiment, the processing logic may determine a perceived risk level of the driver or passenger behavior and may also generate a response based on the determined and perceived risk level of the driver or passenger behavior.

하나의 실시형태에 있어서, 행동이 운전자의 행동인 경우, 처리 논리는 결정된 위험수준이 고위험인 것에 응답하여 경보를 생성함과 동시에 자율 주행 모드를 작동시키고 길옆에 속도를 줄여 정지하거나, 또는 결정된 위험수준이 잠재적인 위험인 것에 응답하여 경보를 생성함과 동시에 자율 주행 모드를 작동시킨다.In one embodiment, if the action is a driver's action, the processing logic generates an alert in response to the determined risk level being high risk while simultaneously activating the autonomous driving mode and slowing down to a roadside stop, or the determined risk In response to the level being a potential hazard, it generates an alert and activates an autonomous driving mode.

하나의 실시형태에 있어서, 행동이 승객의 행동이고, 또한 차량이 자율 주행 모드에 있는 경우, 처리 논리는 차량의 속도를 줄이거나, 또는 자율 주행 모드의 컴포트 모드로 전환할 수 있다.In one embodiment, if the action is that of a passenger and the vehicle is in an autonomous driving mode, the processing logic may slow the vehicle down, or switch to a comfort mode in the autonomous driving mode.

유의해야 할것은 위에서 도시되고 설명된 바와 같은 구성요소의 일부 또는 전부가 소프트웨어, 하드웨어 또는 이들의 조합으로 구현될 수 있다는 점이다. 예를 들어, 이러한 구성요소는 영구 저장 장치에 설치되고 저장되는 소프트웨어로 구현될 수 있으며, 해당 소프트웨어는 프로세서(미도시)에 의해 메모리에 로드되어 실행됨으로써, 본 출원 전체에 걸쳐 설명되는 프로세스 또는 조작을 수행할 수 있다. 또는, 이러한 구성요소는 예를 들어, 집적회로(예를 들어, 주문형 집적회로 또는 ASIC), 디지털 신호 프로세서(DSP) 또는 필드 프로그래머블 게이트 어레이(FPGA)) 등의 전용 하드웨어에 프로그래밍되거나 또는 내장된 실행 가능 코드로 구현되며, 해당 실행 가능 코드는 애플리케이션에서 해당 드라이버 및/또는 운영 체제를 통해 액세스할 수 있다. 또한 이러한 구성요소는 소프트웨어 구성요소에 의해 하나 또는 복수의 특정 명령을 통해 액세스 가능한 명령 세트의 일부로 프로세서 또는 프로세서 코어에서 특정 하드웨어 로직으로 구현될 수 있다.It should be noted that some or all of the components as shown and described above may be implemented in software, hardware, or a combination thereof. For example, these components may be implemented as software installed and stored on a persistent storage device, and the software is loaded into memory and executed by a processor (not shown), whereby the processes or operations described throughout this application are executed. can be performed. Alternatively, such components may execute programmed or embodied in dedicated hardware, such as, for example, an integrated circuit (eg, application specific integrated circuits or ASICs), digital signal processors (DSPs), or field programmable gate arrays (FPGAs)). It is implemented as executable code, which executable code can be accessed by applications through its drivers and/or operating system. These components may also be implemented as specific hardware logic in a processor or processor core as part of an instruction set accessible through one or more specific instructions by a software component.

전술한 상세한 설명의 일부는 컴퓨터 메모리 내의 데이터 비트에 대한 연산의 알고리즘 및 부호 표시에 따라 나타난다. 이러한 알고리즘의 설명과 표시는 데이터 처리 분야의 당업자가 작업 내용을 본 분야의 다른 기술자에게 가장 효과적으로 전달하기 위해 사용되는 방식이다. 본문에서, 알고리즘은 통상적으로 바라는 결과를 초래하는 일관된 조작 시퀀스인 것으로 간주된다. 이러한 조작은 물리량에 대해 물리적으로 조작 및 제어해야 하는 조작을 가리킨다.Portions of the foregoing detailed description appear according to algorithmic and symbolic representations of operations on bits of data within a computer memory. Descriptions and representations of these algorithms are the manner used by those skilled in the data processing arts to most effectively convey their work to others skilled in the art. In the present context, an algorithm is generally considered to be a coherent sequence of operations that results in a desired result. These manipulations refer to manipulations that must be physically manipulated and controlled with respect to a physical quantity.

그러나 모든 이러한 유사한 용어는 적절한 물리량과 관련되도록 의도된 것이며, 단지 이러한 양에 응용되기 위한 간편한 표기일 뿐이다. 이상 논의에서 달리 명시되지 않는 한, 명세서 전체에서, 용어(청구범위에 기술된 용어와 같음)를 이용하여 진행한 논의는 컴퓨터 시스템 또는 유사 전자 계산 장치의 동작 및 처리를 지칭하는 것으로 이해해야 하며, 상기 컴퓨터 시스템 또는 전자 계산 장치는 컴퓨터 시스템의 레지스터 및 메모리 내의 물리(전자)량으로 표시되는 데이터를 조절하고, 상기 데이터를 컴퓨터 시스템 메모리 또는 레지스터 또는 다른 유형의 정보 저장 장치, 전송 또는 디스플레이 장치 내 유사하게 물리량으로 표시되는 다른 데이터로 변환시킨다.However, all such similar terms are intended to be associated with the appropriate physical quantities, and are merely convenient notations for application to these quantities. Unless otherwise specified in the above discussion, throughout the specification, discussions using terms (such as those set forth in the claims) should be understood to refer to the operation and processing of a computer system or similar electronic computing device, and A computer system or electronic computing device controls data represented as physical (electronic) quantities in registers and memories of the computer system, and similarly stores the data in computer system memory or registers or other types of information storage, transmission or display devices. It is converted into other data expressed as a physical quantity.

본 발명의 실시형태는 또한 본문에서의 조작을 수행하기 위한 장치에 관한 것이다. 이러한 컴퓨터 프로그램은 비일시적 컴퓨터 판독 가능 매체에 저장된다. 기계 판독 가능 매체는 기계(예를 들어, 컴퓨터)에 의해 판독 가능한 형태로 정보를 저장하기 위한 임의의 메커니즘을 포함한다. 예를 들어, 기계 판독 가능(예를 들어, 컴퓨터 판독 가능) 매체는 기계(예를 들어, 컴퓨터) 판독 가능 저장 매체(예를 들어, 판독 전용 메모리(“ROM”), 랜덤 액세스 메모리(“RAM”), 자기 디스크 저장 매체, 광 저장 매체, 플래시 메모리 장치)를 포함한다.An embodiment of the present invention also relates to an apparatus for performing an operation in the text. Such a computer program is stored in a non-transitory computer-readable medium. Machine-readable media includes any mechanism for storing information in a form readable by a machine (eg, a computer). For example, machine-readable (eg, computer-readable) media may include machine (eg, computer)-readable storage media (eg, read-only memory (“ROM”), random access memory (“RAM”) ”), magnetic disk storage media, optical storage media, flash memory devices).

전술한 도면에 도시된 프로세스 또는 방법은 하드웨어(예를 들어, 회로, 전용 논리 등), 소프트웨어(예를 들어, 비일시적 컴퓨터 판독 가능 매체에 구현됨) 또는 이들의 조합을 포함하는 처리 논리에 의해 수행될 수 있다. 상기 프로세스 또는 방법이 일부 순차적 조작에 의해 설명되었지만, 상기 조작 중 일부는 상이한 순서에 따라 수행될 수 있음을 이해해야 한다. 이밖에, 일부 조작은 순차적이 아니라 병렬로 수행될 수 있다.A process or method illustrated in the foregoing drawings is performed by processing logic including hardware (eg, circuitry, dedicated logic, etc.), software (eg, embodied in a non-transitory computer-readable medium), or a combination thereof. can be performed. Although the above process or method has been described with some sequential operations, it should be understood that some of the above operations may be performed according to a different order. In addition, some operations may be performed in parallel instead of sequentially.

본 발명의 실시형태는 임의의 특정 프로그래밍 언어를 참조하여 설명된 것이 아니다. 다양한 프로그래밍 언어를 사용하여 본문에 기술된 바와 같이 본 발명의 실시형태의 교시를 구현할 수 있음을 이해해야 한다.Embodiments of the present invention have not been described with reference to any particular programming language. It should be understood that a variety of programming languages may be used to implement the teachings of embodiments of the present invention as described herein.

상기 명세서에서, 본 발명의 구체적인 예시적 실시형태를 참조하여 본 발명의 실시형태를 설명한다. 청구범위에 기술된 본 발명의 보다 광범위한 사상 및 범위를 벗어나지 않으면서 본 발명에 대해 다양한 수정을 진행할 수 있음은 자명한 것이다. 따라서, 본 명세서와 도면은 한정적 의미가 아닌 설명적 의미로 이해되어야 한다.In the above specification, embodiments of the present invention are described with reference to specific exemplary embodiments of the present invention. It will be apparent that various modifications may be made to the present invention without departing from the broader spirit and scope of the invention as set forth in the appended claims. Accordingly, the specification and drawings are to be understood in an illustrative rather than a restrictive sense.

Claims (21)

차량을 조작하기 위한 컴퓨터 구현방법에 있어서,
상기 차량 내에 배치된 하나 또는 복수의 스피커를 사용하여 비가청 음성신호인 음성신호를 생성하는 단계;
상기 차량 내에 배치된 하나 또는 복수의 마이크에 의해 상기 차량의 운전자 또는 승객에서 반사된 음성신호를 수신하는 단계;
상기 하나 또는 복수의 마이크에 의해 수신된 반사된 음성신호에 기반하여 행동 유도 음향 패턴을 검출하는 단계;
상기 행동 유도 음향 패턴을 분석하여 상기 차량의 운전자 또는 승객의 행동을 결정하는 단계; 및
하나 또는 복수의 규칙의 세트에 기반하여, 상기 차량의 운전자 또는 승객의 행동에 따라 경보를 생성하는 단계
를 포함하는, 차량을 조작하기 위한 컴퓨터 구현방법.
A computer implemented method for operating a vehicle, comprising:
generating a voice signal that is an inaudible voice signal using one or a plurality of speakers disposed in the vehicle;
receiving a voice signal reflected from a driver or passenger of the vehicle by one or a plurality of microphones disposed in the vehicle;
detecting an action-inducing sound pattern based on the reflected voice signal received by the one or more microphones;
determining a behavior of a driver or a passenger of the vehicle by analyzing the action-inducing sound pattern; and
generating an alert according to an action of a driver or passenger of the vehicle, based on one or a set of a plurality of rules;
A computer implemented method for operating a vehicle, comprising:
제1항에 있어서,
상기 음성신호가 초음파 신호를 포함하는, 차량을 조작하기 위한 컴퓨터 구현방법.
According to claim 1,
A computer implemented method for operating a vehicle, wherein the voice signal includes an ultrasonic signal.
제1항에 있어서,
상기 하나 또는 복수의 마이크가 상기 차량의 왼쪽 위 앞, 오른쪽 위 앞, 운전석과 조수석 사이, 상기 운전석 또는 상기 조수석의 뒤쪽, 또는 두 뒷좌석 사이에 배치되는, 차량을 조작하기 위한 컴퓨터 구현방법.
According to claim 1,
The computer implemented method for operating a vehicle, wherein the one or more microphones are disposed in the upper left front, upper right front, between a driver's seat and a passenger seat, behind the driver's seat or the front passenger seat, or between two rear seats of the vehicle.
제1항에 있어서,
상기 행동 유도 음향 패턴을 분석하여 상기 차량의 운전자 또는 승객의 행동을 결정하는 단계는, 상기 행동 유도 음향 패턴을 소정의 행동 리스트를 표시하는 소정의 음향 패턴 리스트와 매칭하는 단계를 포함하는, 차량을 조작하기 위한 컴퓨터 구현방법.
According to claim 1,
The step of determining the behavior of a driver or a passenger of the vehicle by analyzing the action-inducing sound pattern includes matching the action-inducing sound pattern with a predetermined sound pattern list displaying a predetermined action list. A computer implemented method for manipulation.
제1항에 있어서,
반사된 음성신호에 기반하여 행동 유도 음향 패턴을 검출하는 단계는, 반사된 음성신호에 기반하여 파워 스펙트럼을 추출하는 단계를 포함하는, 차량을 조작하기 위한 컴퓨터 구현방법.
According to claim 1,
The computer-implemented method for operating a vehicle, wherein detecting the action-inducing sound pattern based on the reflected voice signal includes extracting a power spectrum based on the reflected voice signal.
제5항에 있어서,
상기 행동 유도 음향 패턴을 분석하여 상기 차량의 운전자 또는 승객의 행동을 결정하는 단계는, 상기 파워 스펙트럼을 특정 행동과 관련되는 소정의 파워 스펙트럼과 비교하는 단계를 포함하는, 차량을 조작하기 위한 컴퓨터 구현방법.
6. The method of claim 5,
wherein analyzing the action-inducing sound pattern to determine the behavior of a driver or passenger of the vehicle comprises comparing the power spectrum with a predetermined power spectrum associated with a particular action. Way.
제1항에 있어서,
상기 운전자 또는 상기 승객의 행동의 위험수준을 결정하는 단계, 및 상기 운전자 또는 상기 승객의 행동의 위험수준에 기반하여 상기 경보를 생성하는 단계를 더 포함하는, 차량을 조작하기 위한 컴퓨터 구현방법.
According to claim 1,
A computer implemented method for operating a vehicle, further comprising: determining a risk level of the behavior of the driver or the passenger; and generating the alert based on the risk level of the behavior of the driver or the passenger.
제7항에 있어서,
상기 운전자 또는 상기 승객의 행동의 위험수준에 기반하여 상기 경보를 생성하는 단계는, 상기 행동이 상기 운전자의 행동일 경우, 결정된 위험수준이 소정의 위험 임계값보다 높은 것에 응답하여, 경보를 생성함과 동시에 자율 주행 모드를 작동시켜 속도를 줄여 길옆에 정지시키는 단계를 포함하는, 차량을 조작하기 위한 컴퓨터 구현방법.
8. The method of claim 7,
In the step of generating the alert based on the risk level of the behavior of the driver or the passenger, when the behavior is the behavior of the driver, the determined risk level is higher than a predetermined risk threshold, generating an alert. and simultaneously activating the autonomous driving mode to reduce the speed and stop the vehicle at the side of the road.
제7항에 있어서,
상기 운전자 또는 상기 승객의 행동의 위험수준에 기반하여 상기 경보를 생성하는 단계는, 상기 행동이 상기 승객의 행동이며 또한 상기 차량이 자율 주행 모드에 있는 경우, 상기 차량의 속도를 줄이거나 또는 상기 자율 주행 모드의 컴포트 모드로 전환하는 단계를 포함하는, 차량을 조작하기 위한 컴퓨터 구현방법.
8. The method of claim 7,
The generating of the alert based on the risk level of the behavior of the driver or the passenger may include: if the behavior is the behavior of the passenger and the vehicle is in an autonomous driving mode, reduce the speed of the vehicle or A computer-implemented method for operating a vehicle, comprising switching from a driving mode to a comfort mode.
명령어가 저장되어 있는 비 일시적 기계 판독 가능 매체에 있어서,
상기 명령어가 프로세서에 의해 실행될 경우, 상기 프로세서에 조작을 수행하도록 하되, 상기 조작은,
차량 내에 배치된 하나 또는 복수의 스피커를 사용하여 비가청 음성신호인 음성신호를 생성하는 단계;
상기 차량 내에 배치된 하나 또는 복수의 마이크에 의해 상기 차량의 운전자 또는 승객에서 반사된 음성신호를 수신하는 단계;
상기 하나 또는 복수의 마이크에 의해 수신된 반사된 음성신호에 기반하여 행동 유도 음향 패턴을 검출하는 단계;
상기 행동 유도 음향 패턴을 분석하여 상기 차량의 운전자 또는 승객의 행동을 결정하는 단계; 및
하나 또는 복수의 규칙의 세트에 기반하여, 상기 차량의 운전자 또는 승객의 행동에 따라 경보를 생성하는 단계를 포함하는, 비 일시적 기계 판독 가능 매체.
A non-transitory machine-readable medium having instructions stored thereon, comprising:
When the instruction is executed by the processor, cause the processor to perform an operation, wherein the operation comprises:
generating a voice signal that is an inaudible voice signal using one or a plurality of speakers disposed in the vehicle;
receiving a voice signal reflected from a driver or passenger of the vehicle by one or a plurality of microphones disposed in the vehicle;
detecting an action-inducing sound pattern based on the reflected voice signal received by the one or more microphones;
determining a behavior of a driver or a passenger of the vehicle by analyzing the action-inducing sound pattern; and
and generating an alert according to an action of a driver or passenger of the vehicle based on one or a set of a plurality of rules.
제10항에 있어서,
상기 음성신호가 초음파 신호를 포함하는, 비 일시적 기계 판독 가능 매체.
11. The method of claim 10,
wherein the audio signal comprises an ultrasound signal.
제10항에 있어서,
상기 하나 또는 복수의 마이크가 상기 차량의 왼쪽 위 앞, 오른쪽 위 앞, 운전석과 조수석 사이, 상기 운전석 또는 상기 조수석의 뒤쪽, 또는 두 뒷좌석 사이에 배치되는, 비 일시적 기계 판독 가능 매체.
11. The method of claim 10,
wherein the one or more microphones are disposed in the upper left front, upper right front, between a driver's seat and a passenger seat, behind the driver's seat or the front passenger seat, or between two rear seats of the vehicle.
제10항에 있어서,
상기 행동 유도 음향 패턴을 분석하여 상기 차량의 운전자 또는 승객의 행동을 결정하는 단계는, 상기 행동 유도 음향 패턴을 소정의 행동 리스트를 표시하는 소정의 음향 패턴 리스트와 매칭하는 단계를 포함하는, 비 일시적 기계 판독 가능 매체.
11. The method of claim 10,
The step of analyzing the action-inducing sound pattern to determine the behavior of a driver or a passenger of the vehicle includes matching the action-inducing sound pattern with a predetermined sound pattern list displaying a predetermined action list, Machine-readable media.
제10항에 있어서,
반사된 음성신호에 기반하여 행동 유도 음향 패턴을 검출하는 단계는, 상기 음성신호에 기반하여 파워 스펙트럼을 추출하는 단계를 포함하는, 비 일시적 기계 판독 가능 매체.
11. The method of claim 10,
The detecting of the action-inducing sound pattern based on the reflected speech signal includes extracting a power spectrum based on the speech signal.
제14항에 있어서,
상기 행동 유도 음향 패턴을 분석하여 상기 차량의 운전자 또는 승객의 행동을 결정하는 단계는, 상기 파워 스펙트럼을 특정 행동과 관련되는 소정의 파워 스펙트럼과 비교하는 단계를 포함하는, 비 일시적 기계 판독 가능 매체.
15. The method of claim 14,
and analyzing the action-inducing sound pattern to determine the behavior of a driver or passenger of the vehicle comprises comparing the power spectrum to a predetermined power spectrum associated with a particular behavior.
제10항에 있어서,
상기 조작은, 상기 운전자 또는 상기 승객의 행동의 위험수준을 결정하는 단계, 및 상기 운전자 또는 상기 승객의 행동의 위험수준에 기반하여 상기 경보를 생성하는 단계를 더 포함하는, 비 일시적 기계 판독 가능 매체.
11. The method of claim 10,
wherein the manipulation further comprises determining a risk level of the behavior of the driver or the passenger, and generating the alert based on the risk level of the behavior of the driver or the passenger. .
제16항에 있어서,
상기 운전자 또는 상기 승객의 행동의 위험수준에 기반하여 상기 경보를 생성하는 단계는, 상기 행동이 상기 운전자의 행동인 경우, 상기 위험수준이 소정의 위험 임계값보다 높은 것에 응답하여, 경보를 생성함과 동시에 자율 주행 모드를 작동시켜 속도를 줄여 길옆에 정지시키는 단계를 포함하는, 비 일시적 기계 판독 가능 매체.
17. The method of claim 16,
The generating the alert based on the risk level of the driver's or the passenger's behavior may include generating an alert in response to the risk level being higher than a predetermined risk threshold if the behavior is the driver's behavior. and simultaneously activating an autonomous driving mode to reduce speed to stop at the side of the road.
제16항에 있어서,
상기 운전자 또는 상기 승객의 행동의 위험수준에 기반하여 상기 경보를 생성하는 단계는, 상기 행동이 상기 승객의 행동이며 또한 상기 차량이 자율 주행 모드에 있는 경우, 상기 차량의 속도를 줄이거나 또는 상기 자율 주행 모드의 컴포트 모드로 전환하는 단계를 포함하는, 비 일시적 기계 판독 가능 매체.
17. The method of claim 16,
The generating of the alert based on the risk level of the behavior of the driver or the passenger may include: if the behavior is the behavior of the passenger and the vehicle is in an autonomous driving mode, reduce the speed of the vehicle or A non-transitory machine readable medium comprising transitioning from a driving mode to a comfort mode.
프로세서와,
명령어를 저장하기 위해 상기 프로세서에 연결되고, 상기 프로세서에 의해 상기 명령어가 실행될 경우, 상기 프로세서에 조작을 실행하도록 하는 메모리를 구비하는 데이터 처리 시스템에 있어서,
상기 조작은,
차량 내에 배치된 하나 또는 복수의 스피커를 사용하여 비가청 음성신호인 음성신호를 생성하는 단계;
상기 차량 내에 배치된 하나 또는 복수의 마이크에 의해 상기 차량의 운전자 또는 승객에서 반사된 음성신호를 수신하는 단계;
상기 하나 또는 복수의 마이크에 의해 수신된 반사된 음성신호에 기반하여 행동 유도 음향 패턴을 검출하는 단계;
상기 행동 유도 음향 패턴을 분석하여 상기 차량의 운전자 또는 승객의 행동을 결정하는 단계; 및
하나 또는 복수의 규칙의 세트에 기반하여, 상기 차량의 운전자 또는 승객의 행동에 따라 경보를 생성하는 단계를 포함하는, 데이터 처리 시스템.
processor and
A data processing system comprising: a memory coupled to the processor for storing instructions, the memory configured to cause the processor to execute an operation when the instructions are executed by the processor, the data processing system comprising:
The operation is
generating a voice signal that is an inaudible voice signal using one or a plurality of speakers disposed in the vehicle;
receiving a voice signal reflected from a driver or passenger of the vehicle by one or a plurality of microphones disposed in the vehicle;
detecting an action-inducing sound pattern based on the reflected voice signal received by the one or more microphones;
determining a behavior of a driver or a passenger of the vehicle by analyzing the action-inducing sound pattern; and
generating an alert according to an action of a driver or passenger of the vehicle, based on one or a set of a plurality of rules.
제19항에 있어서,
상기 음성신호가 초음파 신호를 포함하는, 데이터 처리 시스템.
20. The method of claim 19,
The data processing system, wherein the audio signal includes an ultrasonic signal.
컴퓨터 판독 가능한 저장 매체에 저장된 컴퓨터 프로그램에 있어서,
상기 컴퓨터 프로그램이 프로세서에 의해 실행될 경우 제1항 내지 제9항 중 어느 한 항에 따른 방법을 구현하도록 하는 저장 매체에 저장된 컴퓨터 프로그램.
In a computer program stored in a computer-readable storage medium,
A computer program stored in a storage medium to implement the method according to any one of claims 1 to 9 when the computer program is executed by a processor.
KR1020220005533A 2021-01-14 2022-01-13 In-vehicle acoustic monitoring system for driver and passenger KR20220013581A (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US17/149,585 US11897331B2 (en) 2021-01-14 2021-01-14 In-vehicle acoustic monitoring system for driver and passenger
US17/149,585 2021-01-14

Publications (1)

Publication Number Publication Date
KR20220013581A true KR20220013581A (en) 2022-02-04

Family

ID=78822499

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020220005533A KR20220013581A (en) 2021-01-14 2022-01-13 In-vehicle acoustic monitoring system for driver and passenger

Country Status (5)

Country Link
US (1) US11897331B2 (en)
EP (1) EP3957535A3 (en)
JP (1) JP7311648B2 (en)
KR (1) KR20220013581A (en)
CN (1) CN113799785A (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114390254B (en) * 2022-01-14 2024-04-19 中国第一汽车股份有限公司 Rear-row cockpit monitoring method and device and vehicle
EP4357739A1 (en) * 2022-10-21 2024-04-24 Valeo Telematik Und Akustik GmbH Method and a system for evaluating an emergency situation in a vehicle
CN115440221B (en) * 2022-11-09 2023-03-24 佛山市天地行科技有限公司 Vehicle-mounted intelligent voice interaction method and system based on cloud computing

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20080065291A1 (en) * 2002-11-04 2008-03-13 Automotive Technologies International, Inc. Gesture-Based Control of Vehicular Components
US8907929B2 (en) 2010-06-29 2014-12-09 Qualcomm Incorporated Touchless sensing and gesture recognition using continuous wave ultrasound signals
US9751534B2 (en) * 2013-03-15 2017-09-05 Honda Motor Co., Ltd. System and method for responding to driver state
CN110167823B (en) * 2016-07-01 2022-08-12 视力移动技术有限公司 System and method for driver monitoring
US10349032B2 (en) * 2016-09-30 2019-07-09 Veoneer Us, Inc. Vehicle occupant head positioning system
US11065958B2 (en) * 2017-01-03 2021-07-20 Transportation Ip Holdings, Llc Control system and method
US10891502B1 (en) * 2017-01-19 2021-01-12 State Farm Mutual Automobile Insurance Company Apparatuses, systems and methods for alleviating driver distractions
EP3392670B1 (en) * 2017-04-20 2024-06-19 Polestar Performance AB A method and system for spatial modelling of an interior of a vehicle
EP3499941B1 (en) * 2017-12-15 2021-12-22 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Device and method for cross-domain analysis of wireless systems
KR102649497B1 (en) * 2017-12-22 2024-03-20 레스메드 센서 테크놀로지스 리미티드 Apparatus, system, and method for physiological sensing in vehicles
US11971714B2 (en) * 2018-02-19 2024-04-30 Martin Tremblay Systems and methods for autonomous vehicles
DE102019004822A1 (en) * 2019-07-10 2020-01-23 Daimler Ag Device for performing a vehicle function and associated method
US11485308B2 (en) * 2020-06-29 2022-11-01 Nvidia Corporation In-cabin hazard prevention and safety control system for autonomous machine applications

Also Published As

Publication number Publication date
CN113799785A (en) 2021-12-17
US20220219532A1 (en) 2022-07-14
JP7311648B2 (en) 2023-07-19
US11897331B2 (en) 2024-02-13
EP3957535A3 (en) 2022-06-08
JP2022058611A (en) 2022-04-12
EP3957535A2 (en) 2022-02-23

Similar Documents

Publication Publication Date Title
US10210756B2 (en) Emergency vehicle alert system
JP7311648B2 (en) In-vehicle acoustic monitoring system for drivers and passengers
CN112793584B (en) Emergency vehicle audio detection
KR102607029B1 (en) Emergency vehicle audio and visual detection post fusion
EP3960568A2 (en) Audio-based method to sense and detect the road condition for autonomous driving vehicles, computer-readable medium, data processing system and autonomous driving vehicle
JP2023517105A (en) Obstacle filtering system based on point cloud features
KR20220058492A (en) Machine learning model to fuse emergency vehicle audio and visual detection
CN111002998A (en) State prompting method and device, automatic driving vehicle and storage medium
CN111052193A (en) Anti-theft technique for autonomous vehicles for transporting goods
CN113366440A (en) Dynamic model with actuation delay
CN113548043B (en) Collision warning system and method for a safety operator of an autonomous vehicle
US11835629B2 (en) Neighbor-based point cloud filter system
CN111028531B (en) Prompting method, prompting device, automatic driving vehicle and storage medium
CN113002534A (en) Post-crash loss-reducing brake system
KR102597917B1 (en) Sound source detection and localization for autonomous driving vehicle
CN113492848B (en) Front collision alert warning system for autonomous driving vehicle safety operator
US20240218911A1 (en) Brake pad wear detection and warning for autonomous driving vehicles
CN113834636A (en) Dirty monocular camera detection method for autonomous vehicle

Legal Events

Date Code Title Description
WITB Written withdrawal of application