KR102331882B1 - 음성 인식 기반의 차량 제어 방법 및 장치 - Google Patents

음성 인식 기반의 차량 제어 방법 및 장치 Download PDF

Info

Publication number
KR102331882B1
KR102331882B1 KR1020200064616A KR20200064616A KR102331882B1 KR 102331882 B1 KR102331882 B1 KR 102331882B1 KR 1020200064616 A KR1020200064616 A KR 1020200064616A KR 20200064616 A KR20200064616 A KR 20200064616A KR 102331882 B1 KR102331882 B1 KR 102331882B1
Authority
KR
South Korea
Prior art keywords
vehicle
user
voice
location
noise
Prior art date
Application number
KR1020200064616A
Other languages
English (en)
Inventor
안민환
김명로
Original Assignee
주식회사대성엘텍
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사대성엘텍 filed Critical 주식회사대성엘텍
Priority to KR1020200064616A priority Critical patent/KR102331882B1/ko
Application granted granted Critical
Publication of KR102331882B1 publication Critical patent/KR102331882B1/ko

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R16/00Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for
    • B60R16/02Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for electric constitutive elements
    • B60R16/037Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for electric constitutive elements for occupant comfort, e.g. for automatic adjustment of appliances according to personal settings, e.g. seats, mirrors, steering wheel
    • B60R16/0373Voice control
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R11/00Arrangements for holding or mounting articles, not otherwise provided for
    • B60R11/02Arrangements for holding or mounting articles, not otherwise provided for for radio sets, television sets, telephones, or the like; Arrangement of controls thereof
    • B60R11/0247Arrangements for holding or mounting articles, not otherwise provided for for radio sets, television sets, telephones, or the like; Arrangement of controls thereof for microphones or earphones
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/08Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/0208Noise filtering
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R11/00Arrangements for holding or mounting articles, not otherwise provided for
    • B60R2011/0001Arrangements for holding or mounting articles, not otherwise provided for characterised by position
    • B60R2011/0003Arrangements for holding or mounting articles, not otherwise provided for characterised by position inside the vehicle
    • B60R2011/0019Side or rear panels
    • B60R2011/0022Pillars
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/08Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
    • B60W2040/089Driver voice
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60YINDEXING SCHEME RELATING TO ASPECTS CROSS-CUTTING VEHICLE TECHNOLOGY
    • B60Y2400/00Special features of vehicle units
    • B60Y2400/30Sensors
    • B60Y2400/304Acceleration sensors
    • B60Y2400/3044Vibration sensors

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Mechanical Engineering (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Acoustics & Sound (AREA)
  • Theoretical Computer Science (AREA)
  • Computational Linguistics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Quality & Reliability (AREA)
  • Signal Processing (AREA)
  • Automation & Control Theory (AREA)
  • Mathematical Physics (AREA)
  • Transportation (AREA)
  • Traffic Control Systems (AREA)

Abstract

일 실시 예에 따른 음성 인식 기반의 차량 제어 방법은 차량 내에 위치한 복수의 마이크로부터 사용자의 음성 입력을 감지하고, 사용자의 위치를 판단하고, 차량 내에 위치한 복수의 진동 센서로부터 차량의 진동주파수를 획득하고, 획득된 진동주파수를 기초로 감지된 음성 입력에 상응하는 음성 신호에서 잡음을 제거하고, 잡음 제거된 음성 신호를 인식하고, 인식된 음성 신호에 상응하는 음성 제어 명령 및 판단된 사용자의 위치를 기초로 차량 제어를 수행한다.

Description

음성 인식 기반의 차량 제어 방법 및 장치{Method and apparatus for controlling an vehicle based on voice recognition}
본 발명은 음성 인식 기반의 차량 제어 방법 및 장치에 관한 것이다.
차량의 사용자인 운전자가 다양한 애플리케이션이 포함된 차량의 헤드 유닛을 주행 중에 이용함에 따라 운전 부주의로 교통 사고의 위험성이 증가하고 있다. 이는, 다양한 애플리케이션을 이용함에 있어서 차량의 사용자인 운전자 및 승객이 일반적인 상황과는 다른 도로상에서의 운전 상태라는 특수한 상황이라는 점이 고려되지 않은, 일반적인 헤드 유닛 또는 헤드 유닛의 일부 기능을 포함하는 스마트 기기의 일반적인 사용자 인터페이스로 인하여 차량의 사용자인 운전자에게 운전시 불필요한 정보가 과다 노출되며, 이로 인하여 운전자는 운전에 집중할 수 없게 되어 교통 사고 위험성이 증가하게 되는 것이다.
한편, 음성인식 기술은 음의 강약과 높낮음 등의 음성의 진동이 갖는 특징을 디지털 신호로 바꾼 후 분석하여 데이터 베이스에 저장된 음성 자료와 비교함으로써 음성에 담긴 언어적인 의미를 프로세서가 자동적으로 결정하는 기술로서 요즈음에는 탤레매틱스 시스템(Telematics System)의 발전과 더불어 차량에 적용되어 점차적으로 다양한 분야에서 사용되고 있는 추세이다.
일반적으로 자동차에 사용되는 음성인식장치는 자동차에 구비되는 파워 윈도우, 와이퍼, 비상램프, 에어컨, 오디오 등 운행에 안전성 및 편의성을 제공하여 주는 각종 주변 장치를 운전자의 음성을 통해 편리하게 조작하였지만, 자율주행이 점차 발전되면서, 차량 주행과 관련된 제어에도 음성인식 기능이 적용되고 있다.
[선행기술문헌번호]
선행기술 1: 한국특허출원공개 10-2020-0027280호
선행기술 2: 한국특허출원공개 10-2020-0001018호
일 실시 예는 음성 인식 기반의 차량 제어 방법 및 장치를 제공하는 것이다. 또한, 상기 방법을 컴퓨터에서 실행시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체를 제공하는 데 있다. 해결하려는 기술적 과제는 상기된 바와 같은 기술적 과제들로 한정되지 않으며, 또 다른 기술적 과제들이 존재할 수 있다.
일 실시 예에 따른 음성 인식 기반의 차량 제어 방법은 차량 내에 위치한 복수의 마이크로부터 사용자의 음성 입력을 감지하고, 상기 사용자의 위치를 판단하는 단계; 상기 차량 내에 위치한 복수의 진동 센서로부터 상기 차량의 진동주파수를 획득하는 단계; 상기 획득된 진동주파수를 기초로 상기 감지된 음성 입력에 상응하는 음성 신호에서 잡음을 제거하는 단계; 및 상기 잡음 제거된 음성 신호를 인식하고, 인식된 음성 신호에 상응하는 음성 제어 명령 및 상기 판단된 사용자의 위치를 기초로 차량 제어를 수행하는 단계를 포함한다.
상기 차량의 A 필러 및 C 필러에 각각 마이크가 부착되고, 상기 각각의 마이크로부터 획득된 복수의 음성 입력 신호 각각의 도달시간 및 감쇄률을 기초로 상기 사용자의 위치를 판단하는 것을 특징으로 한다.
상기 사용자의 위치는, 상기 차량의 운전석, 상기 차량의 조수석 및 복수의 뒷자석을 포함하는 것을 특징으로 한다.
상기 음성 인식 기반의 차량 제어 방법은 상기 사용자의 위치가 상기 차량의 조수석 및 복수의 뒷자석 중 하나인 경우, 상기 차량의 주행과 관련된 음성 입력에 대해서는 차량 제어를 수행하지 않는 것을 특징으로 한다.
상기 음성 인식 기반의 차량 제어 방법은 상기 사용자의 위치에 따라 상기 차량의 해당 위치에서의 차량 편의 기능에 대한 차량 제어를 수행하는 것을 특징으로 한다.
상기 차량의 진동주파수는, 상기 차량의 외부로부터 유입되는 잡음에 상응하는 제1 잡음주파수와, 상기 차량의 운행에 따라 내부 또는 외부에서 유입되는 제2 잡음주파수를 포함하는 것을 특징으로 한다.
다른 실시 예에 따른 음성 인식 기반의 차량 제어 장치는 차량 내에 위치한 복수의 마이크; 상기 차량 내에 위치한 복수의 진동 센서; 및 상기 복수의 마이크로부터 사용자의 음성 입력을 감지하고, 상기 사용자의 위치를 판단하고, 상기 복수의 진동 센서로부터 상기 차량의 진동주파수를 획득하고, 상기 획득된 진동주파수를 기초로 상기 감지된 음성 입력에 상응하는 음성 신호에서 잡음을 제거하고, 상기 잡음 제거된 음성 신호를 인식하고, 인식된 음성 신호에 상응하는 음성 제어 명령 및 상기 판단된 사용자의 위치를 기초로 차량 제어를 수행하는 프로세서를 포함한다.
상기 복수의 마이크는 상기 차량의 A 필러 및 C 필러에 각각 부착되고, 상기 프로세서는, 상기 각각의 마이크로부터 획득된 복수의 음성 입력 신호 각각의 도달시간 및 감쇄률을 기초로 상기 사용자의 위치를 판단하는 것을 특징으로 한다.
상기 사용자의 위치는, 상기 차량의 운전석, 상기 차량의 조수석 및 복수의 뒷자석을 포함하는 것을 특징으로 한다.
또 다른 실시 예에 따른 상기 음성 인식 기반의 차량 제어 방법을 컴퓨터에서 실행시키기 위한 프로그램을 기록한 기록매체를 포함한다.
도 1은 차량의 내부 블록 도이다.
도 2는 도 1에 도시된 차량 운전 보조 시스템(ADAS)의 블록 도이다.
도 3은 일 실시 예에 따른 음성 인식 기반의 차량 제어 장치의 개략 도이다.
도 4는 도 3에 도시된 프로세서(310)의 상세 블록 도이다.
도 5는 다른 실시 예에 따른 음성 인식 기반의 차량 제어 방법을 설명하기 위한 흐름 도이다.
본 명세서에서 사용되는 용어에 대해 간략히 설명하고, 본 발명에 대해 구체적으로 설명하기로 한다.
본 발명에서 사용되는 용어는 본 발명에서의 기능을 고려하면서 가능한 현재 널리 사용되는 일반적인 용어들을 선택하였으나, 이는 해당 분야에 종사하는 기술자의 의도 또는 판례, 새로운 기술의 출현 등에 따라 달라질 수 있다. 또한, 특정한 경우는 출원인이 임의로 선정한 용어도 있으며, 이 경우 해당되는 발명의 설명 부분에서 상세히 그 의미를 기재할 것이다. 따라서 본 발명에서 사용되는 용어는 단순한 용어의 명칭이 아닌, 그 용어가 가지는 의미와 본 발명의 전반에 걸친 내용을 토대로 정의되어야 한다.
명세서 전체에서 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있음을 의미한다. 또한, 명세서에 기재된 "...부", "모듈" 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 이는 하드웨어 또는 소프트웨어로 구현되거나 하드웨어와 소프트웨어의 결합으로 구현될 수 있다.
이하 첨부된 도면을 참고하여 본 개시를 상세히 설명하기로 한다.
도 1은 일 실시 예에 따른 차량의 내부 블록도이다.
도 1을 참조하면, 차량(100)은, 통신부(110), 입력부(120), 센싱부(125) 메모리(130), 출력부(140), 차량 구동부(150), 차량 운전 보조 시스템(ADAS, 160), 제어부(170), 인터페이스부(180) 및 전원 공급부(190)를 포함할 수 있다.
통신부(110)는, 근거리 통신 모듈, 위치 정보 모듈, 광통신 모듈 및 V2X 통신 모듈을 포함할 수 있다.
입력부(120)는, 운전 조작 수단, 카메라, 마이크로폰 및 사용자 입력부를 포함할 수 있다.
운전 조작 수단은, 차량(100) 운전을 위한 사용자 입력을 수신한다. 운전 조작 수단은 조향 입력 수단, 쉬프트 입력 수단, 가속 입력 수단, 브레이크 입력 수단을 포함할 수 있다.
가속 입력 수단은, 사용자로부터 차량(100)의 가속을 위한 입력을 수신한다. 브레이크 입력 수단은, 사용자로부터 차량(100)의 감속을 위한 입력을 수신한다.
카메라는, 이미지 센서와 영상 처리 모듈을 포함할 수 있다. 카메라는 이미지 센서(예를 들면, CMOS 또는 CCD)에 의해 얻어지는 정지영상 또는 동영상을 처리할 수 있다. 영상 처리 모듈은 이미지 센서를 통해 획득된 정지영상 또는 동영상을 가공하여, 필요한 정보를 추출하고, 추출된 정보를 제어부(170)에 전달할 수 있다.
한편, 차량(100)은 차량 전방 영상을 촬영하는 전방 카메라, 차량 주변 영상을 촬영하는 어라운드 뷰 카메라 및 차량 후방 영상을 촬영하는 후방카메라를 포함할 수 있다. 각각의 카메라는 렌즈, 이미지 센서 및 프로세서를 포함할 수 있다. 프로세서는, 촬영되는 영상을 컴퓨터 처리하여, 데이터 또는 정보를 생성하고, 생성된 데이터 또는 정보를 제어부(170)에 전달할 수 있다. 카메라에 포함되는 프로세서는, 제어부(170)의 제어를 받을 수 있다.
카메라는 스테레오 카메라를 포함할 수 있다. 이 경우, 카메라의 프로세서는, 스테레오 영상에서 검출된 디스페리티(disparity) 차이를 이용하여, 오브젝트와의 거리, 영상에서 검출된 오브젝트와의 상대 속도, 복수의 오브젝트 간의 거리를 검출할 수 있다.
카메라는 TOF(Time of Flight) 카메라를 포함할 수 있다. 이 경우, 카메라는, 광원(예를 들면, 적외선 또는 레이저) 및 수신부를 포함할 수 있다. 이 경우, 카메라의 프로세서는, 광원에서 발신되는 적외선 또는 레이저가 오브젝트에 반사되어 수신될 때까지의 시간(TOF)에 기초하여 오브젝트와의 거리, 오브젝트와의 상대 속도, 복수의 오브젝트 간의 거리를 검출할 수 있다.
한편, 후방 카메라는, 후방 번호판 또는 트렁크 또는 테일 게이트 스위치 부근에 배치될 수 있으나, 후방 카메라가 배치되는 위치는 이에 제한되지 않는다.
복수의 카메라에서 촬영된 각각의 이미지는, 카메라의 프로세서에 전달되고, 프로세서는 상기 각각의 이미지를 합성하여, 차량 주변 영상을 생성할 수 있다. 이때, 차량 주변 영상은 탑뷰 이미지 또는 버드 아이 이미지로 디스플레이부를 통해 표시될 수 있다.
센싱부(125)는, 차량(100)의 각종 상황을 센싱한다. 이를 위해, 센싱부(125)는, 충돌 센서, 휠 센서(wheel sensor), 속도 센서, 경사 센서, 중량 감지 센서, 헤딩 센서(heading sensor), 요 센서(yaw sensor), 자이로 센서(gyro sensor), 포지션 모듈(position module), 차량 전진/후진 센서, 배터리 센서, 연료 센서, 타이어 센서, 핸들 회전에 의한 스티어링 센서, 차량 내부 온도 센서, 차량 내부 습도 센서, 초음파 센서, 조도 센서, 레이더, 라이더 등을 포함할 수 있다.
이에 의해, 센싱부(125)는, 차량 충돌 정보, 차량 방향 정보, 차량 위치 정보(GPS 정보), 차량 각도 정보, 차량 속도 정보, 차량 가속도 정보, 차량 기울기 정보, 차량 전진/후진 정보, 배터리 정보, 연료 정보, 타이어 정보, 차량 램프 정보, 차량 내부 온도 정보, 차량 내부 습도 정보, 스티어링 휠 회전 각도, 차량 외부 조도 등에 대한 센싱 신호를 획득할 수 있다.
메모리(130)는, 제어부(170)와 전기적으로 연결된다. 메모리(130)는 유닛에 대한 기본데이터, 유닛의 동작제어를 위한 제어데이터, 입출력되는 데이터를 저장할 수 있다. 메모리(130)는, 하드웨어적으로, ROM, RAM, EPROM, 플래시 드라이브, 하드 드라이브 등과 같은 다양한 저장기기 일 수 있다. 메모리(130)는 제어부(170)의 처리 또는 제어를 위한 프로그램 등, 차량(100) 전반의 동작을 위한 다양한 데이터를 저장할 수 있다.
출력부(140)는, 제어부(170)에서 처리된 정보를 출력하기 위한 것으로, 디스플레이부, 음향 출력부 및 햅틱 출력부를 포함할 수 있다.
디스플레이부는 제어부(170)에서 처리되는 정보를 표시할 수 있다. 예를 들면, 디스플레이부는 차량 관련 정보를 표시할 수 있다. 여기서, 차량 관련 정보는, 현재 차량의 상태를 알려주는 차량 상태 정보 또는 차량의 운행과 관련되는 차량 운행 정보를 포함할 수 있다. 예를 들어, 디스플레이부는 현재 차량의 속도(또는 속력), 주변차량의 속도(또는 속력) 및 현재 차량과 주변차량 간의 거리 정보를 표시할 수 있다.
한편, 디스플레이부는 운전자가 운전을 함과 동시에 차량 상태 정보 또는 차량 운행 정보를 확인할 수 있도록 클러스터(cluster)를 포함할 수 있다. 클러스터는 대시보드 위에 위치할 수 있다. 이 경우, 운전자는, 시선을 차량 전방에 유지한 채로 클러스터에 표시되는 정보를 확인할 수 있다.
음향 출력부는 제어부(170)로부터의 전기 신호를 오디오 신호로 변환하여 출력한다. 이를 위해, 음향 출력부는 스피커 등을 구비할 수 있다.
차량 구동부(150)는, 차량 각종 장치의 동작을 제어할 수 있다. 차량 구동부(150)는 동력원 구동부, 조향 구동부, 브레이크 구동부, 램프 구동부, 공조 구동부, 윈도우 구동부, 에어백 구동부, 썬루프 구동부 및 서스펜션 구동부를 포함할 수 있다.
동력원 구동부는, 차량(100) 내의 동력원에 대한 전자식 제어를 수행할 수 있다. 예를 들면, 화석 연료 기반의 엔진(미도시)이 동력원인 경우, 동력원 구동부는, 엔진에 대한 전자식 제어를 수행할 수 있다. 이에 의해, 엔진의 출력 토크 등을 제어할 수 있다. 동력원 구동부가 엔진인 경우, 제어부(170)의 제어에 따라, 엔진 출력 토크를 제한하여 차량의 속도를 제한할 수 있다.
브레이크 구동부는, 차량(100) 내의 브레이크 장치(brake apparatus)(미도시)에 대한 전자식 제어를 수행할 수 있다. 예를 들면, 바퀴에 배치되는 브레이크의 동작을 제어하여, 차량(100)의 속도를 줄일 수 있다. 다른 예로, 좌측 바퀴와 우측 바퀴에 각각 배치되는 브레이크의 동작을 달리하여, 차량(100)의 진행 방향을 좌측, 또는 우측으로 조정할 수 있다.
램프 구동부는, 차량 내, 외부에 배치되는 램프의 턴 온/턴 오프를 제어할 수 있다. 또한, 램프의 빛의 세기, 방향 등을 제어할 수 있다. 예를 들면, 방향 지시 램프, 브레이크 램프 등의 대한 제어를 수행할 수 있다.
제어부(170)는, 차량(100) 내의 각 유닛의 전반적인 동작을 제어할 수 있다. 제어부(170)는 ECU(Electronic Contol Unit)로 명명될 수 있다. 상술한 사고 유무 판단 장치는 제어부(170)에 의해 구동될 수 있다.
제어부(170)는, 하드웨어적으로, ASICs (application specific integrated circuits), DSPs(digital signal processors), DSPDs(digital signal processing devices), PLDs(programmable logic devices), FPGAs(field programmable gate arrays), 프로세서(processors), 제어기(controllers), 마이크로 컨트롤러(micro-controllers), 마이크로프로세서(microprocessors), 기타 기능 수행을 위한 전기적 유닛 중 적어도 하나를 이용하여 구현될 수 있다.
일 실시 예에서 제어부(170)는 차량 내의 복수의 카메라에 의해 촬영 가능한 영역을 설정하고, 설정된 촬영 가능한 영역 내에 소정의 객체가 존재하는지 판단하고, 차량이 주행 또는 주차 상태인지 여부와, 존재한 객체의 유형을 기초로 사고 유무를 판단하고, 판단결과에 따라 소정의 장면을 촬영한 영상을 메모리에 기록할 수 있다. 실시 예에 따른 사고 판단 내지 사고 영상 저장은 충격 감지 센서에 의해 기록할 영상을 선택하는 것이 아니라, 영상만을 이용하고, 영상 분석 내지 객체 인식과 사고 판단 알고리즘을 적용함으로써, 센서 오작동에 의해 오인식, 잘못된 사고 영상의 저장의 단점을 극복할 수 있다.
인터페이스부(180)는, 차량(100)에 연결되는 다양한 종류의 외부 기기와의 통로 역할을 수행할 수 있다. 예를 들면, 인터페이스부(180)는 이동 단말기(미도시)와 연결 가능한 포트를 구비할 수 있고, 상기 포트를 통해, 이동 단말기(미도시)와 연결할 수 있다. 이 경우, 인터페이스부(180)는 이동 단말기와 데이터를 교환할 수 있다.
전원 공급부(190)는, 제어부(170)의 제어에 따라, 각 구성요소들의 동작에 필요한 전원을 공급할 수 있다. 특히, 전원 공급부(190)는, 차량 내부의 배터리(미도시) 등으로부터 전원을 공급받을 수 있다.
도 2는 도 1에 도시된 차량 운전 보조 시스템(ADAS)의 블록 도이다.
ADAS(200)는, 편의, 안전 제공을 위해 운전자를 보조 하는 차량 운전 보조 시스템이다.
ADAS(200)는, 자동 비상 제동 모듈(이하, AEB: Autonomous Emergency Braking)(210), 전방 충돌 회피 모듈 (이하, FCW: Foward Collision Warning)(211), 차선 이탈 경고 모듈 (이하, LDW: Lane Departure Warning)(212), 차선 유지 보조 모듈 (이하, LKA: Lane Keeping Assist)(213), 속도 지원 시스템 모듈 (이하, SAS: Speed Assist System)(214), 교통 신호 검출 모듈 (TSR: Traffic Sign Recognition)(215), 적응형 상향등 제어 모듈 (이하, HBA: High Beam Assist)(216), 사각 지대 감시 모듈 (이하, BSD: Blind Spot Detection)(217), 자동 비상 조향 모듈 (이하, AES: Autonomous Emergency Steering)(218), 커브 속도 경고 시스템 모듈 (이하, CSWS: Curve Speed Warning System)(219), 적응 순향 제어 모듈 (이하, ACC: Adaptive Cruise Control)(220), 스마트 주차 시스템 모듈 (이하, SPAS: Smart Parking Assist System)(221), 교통 정체 지원 모듈 (이하, TJA: Traffic Jam Assist)(222) 및 어라운드 뷰 모니터 모듈 (이하, AVM: Around View Monitor)(223)을 포함할 수 있다.
상기 각각의 ADAS 모듈(210, 211, 212, 213, 214, 215, 216, 217, 218, 219, 220, 221, 222, 223)들은 차량 운전 보조 기능 제어를 위한 프로세서를 포함할 수 있다.
상기 각각의 ADAS 모듈(210, 211, 212, 213, 214, 215, 216, 217, 218, 219, 220, 221, 222, 223)에 포함되는 프로세서는, 제어부(270)의 제어를 받을 수 있다.
상기 각각의 ADAS 모듈(210, 211, 212, 213, 214, 215, 216, 217, 218, 219, 220, 221, 222, 223) 프로세서는, 하드웨어적으로, ASICs (application specific integrated circuits), DSPs(digital signal processors), DSPDs(digital signal processing devices), PLDs(programmable logic devices), FPGAs(field programmable gate arrays), 프로세서(processors), 제어기(controllers), 마이크로 컨트롤러(micro-controllers), 마이크로 프로세서(microprocessors), 기타 기능 수행을 위한 전기적 유닛 중 적어도 하나를 이용하여 구현될 수 있다.
AEB(210)는, 검출된 오브젝트와의 충돌을 방지하기 위해, 자동 제동을 제어하는 모듈이다. FCW(211)는, 차량 전방 오브젝트와의 충돌을 방지하기 위해, 경고가 출력되도록 제어하는 모듈이다. LDW(212)는, 주행 중 차선 이탈 방지를 위해, 경고가 출력되도록 제어하는 모듈이다. LKA(213)는, 주행 중 주행 차선 유지하도록 제어하는 모듈이다. SAS(214)는, 설정된 속도 이하로 주행하도록 제어하는 모듈이다. TSR(215)은, 주행 중 교통 신호를 감지하여 감지된 교통 신호를 기초로 정보를 제공하는 모듈이다. HBA(216)는, 주행 상황에 따라 상향등의 조사 범위 또는 조사량을 제어하는 모듈이다. BSD(217)는, 주행 중, 운전자 시야 밖의 오브젝트를 검출하고, 검출 정보를 제공하는 모듈이다. AES(218)는, 비상시 조향을 자동으로 수행하는 모듈이다. CSWS(219)는, 커브 주행시 기 설정 속도 이상으로 주행하는 경우 경로를 출력하도록 제어하는 모듈이다. ACC(220)는, 선행 차량을 추종하여 주행하도록 제어하는 모듈이다. SPAS(221)는, 주차 공간을 검출하고, 주차 공간에 주차하도록 제어하는 모듈이다. TJA(222)는, 교통 정체시 자동 운행하도록 제어하는 모듈이다. AVM(223)은, 차량 주변 영상을 제공하고, 차량 주변을 모니터링하도록 제어하는 모듈이다.
ADAS(200)는, 입력부(230) 또는 센싱부(235)에서 획득한 데이터를 기초로, 각각의 차량 운전 보조 기능을 수행하기 위한 제어 신호를 출력부(250) 또는 차량 구동부(260)에 제공할 수 있다. ADAS(200)는, 상기 제어 신호를, 출력부(250) 또는 차량 구동부(260)에 차량 내부 네트워크 통신(예를 들면, CAN)을 통해, 직접 출력할 수 있다. 또는, ADAS(200)는, 상기 제어 신호를, 제어부(270)를 거쳐, 출력부(250) 또는 차량 구동부(260)에 출력할 수 있다.
도 3은 일 실시 예에 따른 음성 인식 기반의 차량 제어 장치(300)의 개략 도이다.
도 3을 참조하면, 차량 제어 장치(300)는 복수 개의 마이크(310)와 복수 개의 진동 센서(320)와 프로세서(310)를 포함한다. 차량 제어 장치(300)는 전술한 구성 외에 추가 구성을 더 포함하여 구성할 수 있음은 물론이다.
차량 제어 장치(300)는 복수의 마이크(310)로부터 사용자의 음성 입력을 감지하고, 사용자의 위치를 판단한다. 또한, 복수의 진동 센서(320)로부터 차량의 진동주파수를 획득하고, 획득된 진동주파수를 기초로 감지된 음성 입력에 상응하는 음성 신호에서 잡음을 제거하고, 잡음 제거된 음성 신호를 인식하고, 인식된 음성 신호에 상응하는 음성 제어 명령 및 판단된 사용자의 위치를 기초로 차량 제어를 수행한다. 여기서, 사용자의 위치는 차량의 운전석, 차량의 조수석 및 복수의 뒷자석을 포함할 수 있다. 차량 제어는 차량의 주행과 관련된 제어, 차량 편의 기능에 대한 제어를 포함할 수 있다. 주행과 관련된 제어는 차량 가감속, 핸들 조작, 기어 조작, 차량 안전 제어 등을 포함하며, 차량 편의 기능에 대한 제어는 멀티미디어 기기 조작, 각각의 좌석의 시트 이동, 차량 개폐 등을 포함할 수 있다.
실시 예에서, 차량 제어 장치(300)는 차량 내의 다중 사용자가 존재하는 경우, 예를 들면, 운전석과 보조석, 뒷좌석에 탑승하고 있는 경우, 다중 사용자의 음성이 입력되는 경우, 어느 위치에서 사용자의 음성인지를 확인하다. 그리고, 운전석 이외의 위치에서 차량 주행과 관련된 음성 명령이 입력되는 경우, 해당 명령을 수행하지 않지만, 차량 편의 기능과 관련된 음성 명령이 입력되는 경우, 해당 위치에서의 차량 제어를 수행한다.
실시 예에서, 복수 개의 마이크(320)는 차량의 A필러와 C필러에 배치될 수 있다. 예를 들면 A필러의 운전석과 보조석에 배치되고, C필러의 좌측 및 우측에 배치될 수 있다. 여기서, 복수 개의 마이크(320)가 A필러와 C필러에 배치되는 것으로 설명하였지만, 이에 한정되지 않고, 운전석과 보조석, 및 뒷좌석의 위치를 판단할 수 있는 어떠한 위치에도 배치될 수 있다.
복수개의 마이크(320)는 외부의 음향 신호를 입력 받아 전기적인 음성 데이터로 처리한다. 예를 들어, 마이크(320)는 사용자의 음성 입력을 수신할 수 있다. 마이크(320)는 외부의 음향 신호를 입력받는 과정에서 발생 되는 잡음(noise)를 제거하기 위한 다양한 잡음 제거 알고리즘을 이용할 수도 있다.
복수개의 진동센서(330)는 차량 내부의 전단 또는 후단에 배치될 수 있다. 진동센서(330)는 차량의 외부 및 내부 원인에 의해 발생되는 진동주파수를 획득한다.
프로세서(310)는 복수의 마이크(320)로부터 사용자의 음성 입력을 감지하고, 사용자의 위치를 판단한다. 프로세서(310)는 복수의 음성 입력 신호 각각의 도달시간 및 감쇄률을 기초로 사용자의 위치를 판단한다. 예를 들면, A필러 좌측의 마이크를 통해서, 운전석, 보조석, 또는 뒷좌석에서 발화된 음성 신호의 도달시간은 서로 차이가 있게 되며, 음성 신호 감쇄률도 서로 차이가 있다. 따라서, 각각의 마이크를 통해 입력되는 음성 신호의 도달시간과 감쇄률을 기초로 어느 위치의 사용자가 발화한 것인지를 판단할 수 있다.
프로세서(310)는 복수의 진동 센서(330)로부터 차량의 진동주파수를 획득하고, 획득된 진동주파수를 기초로 감지된 음성 입력에 상응하는 음성 신호에서 잡음을 제거한다. 차량의 진동은 승차감, 쉐이크, 쉬미, 브레이크, 엔진, 가속페달진동, 변속레버 진동 등의 차량 내부 요인에 의하 발생하며, 대략 수 내지 수십 Hz의 진동주파수를 가진다. 또한, 차량 외부로부터 유입되는 소음을 포함할 수 있다. 차량의 내외부로부터 발생하는 잡음에 대한 제거는 공지의 차량 잡음 제거 기술을 이용할 수 있다.
프로세서(310)는 잡음 제거된 음성 신호를 인식하고, 인식된 음성 신호에 상응하는 음성 제어 명령 및 판단된 사용자의 위치를 기초로 차량 제어를 수행한다.
도 4는 도 3에 도시된 프로세서(310)의 상세 블록 도이다.
도 4를 참조하면, 프로세서(310)는 위치 판단부(311), 잡음 제거부(312), 음성 인식부(313) 및 차량 제어부(314)를 포함한다.
위치 판단부(311)는 복수 개의 마이크로부터 입력된 음성 신호의 도착시간 및 감쇄률을 기초로 사용자의 위치를 판단한다.
잡음 제거부(312)는 음성 신호에 존재하는 잡음과 차량의 내부 또는 외부로부터 유입되는 잡음을 제거한다.
음성 인식부(313)는 잡음 제거된 음성 신호로부터 음성명령을 인식한다.
차량 제어부(314)는 음성명령에 따라 차량 제어를 수행한다.
도 5는 다른 실시 예에 따른 음성 인식 기반의 차량 제어 방법을 설명하기 위한 흐름 도이다.
도 5를 참조하면, 단계 500에서, 차량 내에 위치한 복수의 마이크로부터 사용자의 음성 입력을 감지하고, 사용자의 위치를 판단한다.
단계 502에서, 차량 내에 위치한 복수의 진동 센서로부터 차량의 진동주파수를 획득한다.
단계 504에서, 획득된 진동주파수를 기초로 감지된 음성 입력에 상응하는 음성 신호에서 잡음을 제거한다.
단계 506에서, 잡음 제거된 음성 신호를 인식하고, 인식된 음성 신호에 상응하는 음성 제어 명령 및 판단된 사용자의 위치를 기초로 차량 제어를 수행한다.
일 실시 예에 따른 장치는 프로세서, 프로그램 데이터를 저장하고 실행하는 메모리, 디스크 드라이브와 같은 영구 저장부(permanent storage), 외부 장치와 통신하는 통신 포트, 터치 패널, 키(key), 버튼 등과 같은 사용자 인터페이스 장치 등을 포함할 수 있다. 소프트웨어 모듈 또는 알고리즘으로 구현되는 방법들은 상기 프로세서상에서 실행 가능한 컴퓨터가 읽을 수 있는 코드들 또는 프로그램 명령들로서 컴퓨터가 읽을 수 있는 기록 매체 상에 저장될 수 있다. 여기서 컴퓨터가 읽을 수 있는 기록 매체로 마그네틱 저장 매체(예컨대, ROM(read-only memory), RAM(random-access memory), 플로피 디스크, 하드 디스크 등) 및 광학적 판독 매체(예컨대, 시디롬(CD-ROM), 디브이디(DVD: Digital Versatile Disc)) 등이 있다. 컴퓨터가 읽을 수 있는 기록 매체는 네트워크로 연결된 컴퓨터 시스템들에 분산되어, 분산 방식으로 컴퓨터가 판독 가능한 코드가 저장되고 실행될 수 있다. 매체는 컴퓨터에 의해 판독가능하며, 메모리에 저장되고, 프로세서에서 실행될 수 있다.
도면에 도시된 실시 예들에서 참조 부호를 기재하였으며, 실시 예들을 설명하기 위하여 특정 용어들을 사용하였으나, 특정 용어에 의해 본 발명이 한정되는 것은 아니며, 실시 예는 당업자에 있어서 통상적으로 생각할 수 있는 모든 구성 요소들을 포함할 수 있다.
실시 예는 기능적인 블록 구성들 및 다양한 처리 단계들로 나타내어질 수 있다. 이러한 기능 블록들은 특정 기능들을 실행하는 다양한 개수의 하드웨어 또는/및 소프트웨어 구성들로 구현될 수 있다. 예를 들어, 실시 예는 하나 이상의 마이크로프로세서들의 제어 또는 다른 제어 장치들에 의해서 다양한 기능들을 실행할 수 있는, 메모리, 프로세싱, 로직(logic), 룩 업 테이블(look-up table) 등과 같은 직접 회로 구성들을 채용할 수 있다. 본 발명에의 구성 요소들이 소프트웨어 프로그래밍 또는 소프트웨어 요소들로 실행될 수 있는 것과 유사하게, 실시 예는 데이터 구조, 프로세스들, 루틴들 또는 다른 프로그래밍 구성들의 조합으로 구현되는 다양한 알고리즘을 포함하여, C, C++, 자바(Java), 어셈블러(assembler) 등과 같은 프로그래밍 또는 스크립팅 언어로 구현될 수 있다. 기능적인 측면들은 하나 이상의 프로세서들에서 실행되는 알고리즘으로 구현될 수 있다. 또한, 실시 예는 전자적인 환경 설정, 신호 처리, 및/또는 데이터 처리 등을 위하여 종래 기술을 채용할 수 있다. “매커니즘”, “요소”, “수단”, “구성”과 같은 용어는 넓게 사용될 수 있으며, 기계적이고 물리적인 구성들로서 한정되는 것은 아니다. 상기 용어는 프로세서 등과 연계하여 소프트웨어의 일련의 처리들(routines)의 의미를 포함할 수 있다.
실시 예에서 설명하는 특정 실행들은 일 실시 예들로서, 어떠한 방법으로도 실시 예의 범위를 한정하는 것은 아니다. 명세서의 간결함을 위하여, 종래 전자적인 구성들, 제어 시스템들, 소프트웨어, 상기 시스템들의 다른 기능적인 측면들의 기재는 생략될 수 있다. 또한, 도면에 도시된 구성 요소들 간의 선들의 연결 또는 연결 부재들은 기능적인 연결 및/또는 물리적 또는 회로적 연결들을 예시적으로 나타낸 것으로서, 실제 장치에서는 대체 가능하거나 추가의 다양한 기능적인 연결, 물리적인 연결, 또는 회로 연결들로서 나타내어질 수 있다. 또한, “필수적인”, “중요하게” 등과 같이 구체적인 언급이 없다면 본 발명의 적용을 위하여 반드시 필요한 구성 요소가 아닐 수 있다.
실시 예의 명세서(특히 특허청구범위에서)에서 “상기”의 용어 및 이와 유사한 지시 용어의 사용은 단수 및 복수 모두에 해당하는 것일 수 있다. 또한, 실시 예에서 범위(range)를 기재한 경우 상기 범위에 속하는 개별적인 값을 적용한 발명을 포함하는 것으로서(이에 반하는 기재가 없다면), 상세한 설명에 상기 범위를 구성하는 각 개별적인 값을 기재한 것과 같다. 마지막으로, 실시 예에 따른 방법을 구성하는 단계들에 대하여 명백하게 순서를 기재하거나 반하는 기재가 없다면, 상기 단계들은 적당한 순서로 행해질 수 있다. 반드시 상기 단계들의 기재 순서에 따라 실시 예들이 한정되는 것은 아니다. 실시 예에서 모든 예들 또는 예시적인 용어(예들 들어, 등등)의 사용은 단순히 실시 예를 상세히 설명하기 위한 것으로서 특허청구범위에 의해 한정되지 않는 이상 상기 예들 또는 예시적인 용어로 인해 실시 예의 범위가 한정되는 것은 아니다. 또한, 당업자는 다양한 수정, 조합 및 변경이 부가된 특허청구범위 또는 그 균등물의 범주 내에서 설계 조건 및 팩터에 따라 구성될 수 있음을 알 수 있다.

Claims (10)

  1. 차량 내에 위치한 복수의 마이크로부터 사용자의 음성 입력을 감지하고, 상기 사용자의 위치를 판단하는 단계;
    상기 차량 내에 위치한 복수의 진동 센서로부터 상기 차량의 진동주파수를 획득하는 단계;
    상기 획득된 진동주파수를 기초로 상기 감지된 음성 입력에 상응하는 음성 신호에서 잡음을 제거하는 단계; 및
    상기 잡음 제거된 음성 신호를 인식하고, 인식된 음성 신호에 상응하는 음성 제어 명령 및 상기 판단된 사용자의 위치를 기초로 차량 제어를 수행하는 단계를 포함하고,
    상기 차량의 A 필러 및 C 필러에 각각 마이크가 부착되고,
    상기 각각의 마이크로부터 획득된 복수의 음성 입력 신호 각각의 도달시간 및 감쇄률을 기초로 상기 사용자의 위치를 판단하고,
    상기 사용자의 위치는,
    상기 차량의 운전석, 상기 차량의 조수석 및 복수의 뒷자석을 포함하고, 상기 사용자의 위치가 상기 차량의 조수석 및 복수의 뒷자석 중 하나인 경우, 상기 차량의 주행과 관련된 음성 입력에 대해서는 차량 제어를 수행하지 않는 것을 특징으로 하는 음성 인식 기반의 차량 제어 방법.
  2. 삭제
  3. 삭제
  4. 삭제
  5. 제 1 항에 있어서,
    상기 사용자의 위치에 따라 상기 차량의 해당 위치에서의 차량 편의 기능에 대한 차량 제어를 수행하는 것을 특징으로 하는 음성 인식 기반의 차량 제어 방법.
  6. 제 1 항에 있어서,
    상기 차량의 진동주파수는,
    상기 차량의 외부로부터 유입되는 잡음에 상응하는 제1 잡음주파수와, 상기 차량의 운행에 따라 내부 또는 외부에서 유입되는 제2 잡음주파수를 포함하는 것을 특징으로 하는 음성 인식 기반의 차량 제어 방법.
  7. 제 1 항, 제 5 항 내지 제 6 항 중 어느 한 항에 따른 음성 인식 기반의 차량 제어 방법을 컴퓨터에서 실행시키기 위한 프로그램을 기록한 기록매체.
  8. 차량 내에 위치한 복수의 마이크;
    상기 차량 내에 위치한 복수의 진동 센서; 및
    상기 복수의 마이크로부터 사용자의 음성 입력을 감지하고, 상기 사용자의 위치를 판단하고, 상기 복수의 진동 센서로부터 상기 차량의 진동주파수를 획득하고, 상기 획득된 진동주파수를 기초로 상기 감지된 음성 입력에 상응하는 음성 신호에서 잡음을 제거하고, 상기 잡음 제거된 음성 신호를 인식하고, 인식된 음성 신호에 상응하는 음성 제어 명령 및 상기 판단된 사용자의 위치를 기초로 차량 제어를 수행하는 프로세서를 포함하고,
    상기 복수의 마이크는 상기 차량의 A 필러 및 C 필러에 각각 부착되고,
    상기 프로세서는,
    상기 각각의 마이크로부터 획득된 복수의 음성 입력 신호 각각의 도달시간 및 감쇄률을 기초로 상기 사용자의 위치를 판단하고,
    상기 사용자의 위치는,
    상기 차량의 운전석, 상기 차량의 조수석 및 복수의 뒷자석을 포함하고,
    상기 프로세서는,
    상기 사용자의 위치가 상기 차량의 조수석 및 복수의 뒷자석 중 하나인 경우, 상기 차량의 주행과 관련된 음성 입력에 대해서는 차량 제어를 수행하지 않는 것을 특징으로 하는 음성 인식 기반의 차량 제어 장치.
  9. 삭제
  10. 삭제
KR1020200064616A 2020-05-28 2020-05-28 음성 인식 기반의 차량 제어 방법 및 장치 KR102331882B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020200064616A KR102331882B1 (ko) 2020-05-28 2020-05-28 음성 인식 기반의 차량 제어 방법 및 장치

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200064616A KR102331882B1 (ko) 2020-05-28 2020-05-28 음성 인식 기반의 차량 제어 방법 및 장치

Publications (1)

Publication Number Publication Date
KR102331882B1 true KR102331882B1 (ko) 2021-11-29

Family

ID=78697884

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200064616A KR102331882B1 (ko) 2020-05-28 2020-05-28 음성 인식 기반의 차량 제어 방법 및 장치

Country Status (1)

Country Link
KR (1) KR102331882B1 (ko)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114274902A (zh) * 2021-12-23 2022-04-05 阿波罗智联(北京)科技有限公司 模式控制方法、装置、设备以及存储介质
CN115257626A (zh) * 2022-07-27 2022-11-01 中国第一汽车股份有限公司 座椅占位检测方法、装置、检测设备及存储介质
CN115440208A (zh) * 2022-04-15 2022-12-06 北京罗克维尔斯科技有限公司 车辆控制方法、装置、设备及计算机可读存储介质

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009073417A (ja) * 2007-09-21 2009-04-09 Nissan Motor Co Ltd 騒音制御装置および方法
WO2013153583A1 (ja) * 2012-04-13 2013-10-17 三菱電機株式会社 車載用音声入力装置
KR101910383B1 (ko) * 2015-08-05 2018-10-22 엘지전자 주식회사 차량 운전 보조 장치 및 이를 구비한 차량
JP2019212168A (ja) * 2018-06-07 2019-12-12 トヨタ自動車株式会社 音声認識システムおよび情報処理装置
JP6658887B2 (ja) * 2016-07-13 2020-03-04 ヤマハ株式会社 楽器を用いた車内用音響システム、楽器を用いた車内用音響方法、車内用音響機器、及び車内用音響システム。

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009073417A (ja) * 2007-09-21 2009-04-09 Nissan Motor Co Ltd 騒音制御装置および方法
WO2013153583A1 (ja) * 2012-04-13 2013-10-17 三菱電機株式会社 車載用音声入力装置
KR101910383B1 (ko) * 2015-08-05 2018-10-22 엘지전자 주식회사 차량 운전 보조 장치 및 이를 구비한 차량
JP6658887B2 (ja) * 2016-07-13 2020-03-04 ヤマハ株式会社 楽器を用いた車内用音響システム、楽器を用いた車内用音響方法、車内用音響機器、及び車内用音響システム。
JP2019212168A (ja) * 2018-06-07 2019-12-12 トヨタ自動車株式会社 音声認識システムおよび情報処理装置

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114274902A (zh) * 2021-12-23 2022-04-05 阿波罗智联(北京)科技有限公司 模式控制方法、装置、设备以及存储介质
CN115440208A (zh) * 2022-04-15 2022-12-06 北京罗克维尔斯科技有限公司 车辆控制方法、装置、设备及计算机可读存储介质
CN115257626A (zh) * 2022-07-27 2022-11-01 中国第一汽车股份有限公司 座椅占位检测方法、装置、检测设备及存储介质

Similar Documents

Publication Publication Date Title
US10800428B2 (en) Vehicle driving assistance method and vehicle
CN109572702B (zh) 车辆控制装置和包括该车辆控制装置的车辆
US10532746B2 (en) Vehicle and controlling method thereof
EP3128462B1 (en) Driver assistance apparatus and control method for the same
CN111361552B (zh) 自动驾驶系统
KR102331882B1 (ko) 음성 인식 기반의 차량 제어 방법 및 장치
JP7047763B2 (ja) 運転支援装置および方法、移動体、並びにプログラム
US10713501B2 (en) Focus system to enhance vehicle vision performance
CN111278702B (zh) 车辆控制装置、具有该车辆控制装置的车辆以及控制方法
US20230143515A1 (en) Driving assistance apparatus
CN111443708A (zh) 自动驾驶系统
KR102094405B1 (ko) 영상을 이용한 사고 유무 판단 방법 및 장치
KR20200082457A (ko) A d a s 알람 출력 제어 방법 및 장치
KR102389728B1 (ko) 차량의 복수의 카메라로부터 획득된 영상처리방법 및 장치
CN115123207A (zh) 驾驶辅助装置以及车辆
KR102559534B1 (ko) 악천후에서의 차량의 주행차선 지원 방법 및 장치
KR102175793B1 (ko) 인지 장애 경고 방법 및 장치
KR102296213B1 (ko) 영상 기록 장치 및 그 동작 방법
KR102541416B1 (ko) 실시간 교통정보를 반영한 헤드업 디스플레이 영상 표시 방법 및 장치
KR20230046799A (ko) 차량의 핸들 디스플레이의 영상 표시 방법 및 장치
KR20230168060A (ko) 차량의 안전 하차를 지원하는 방법 및 장치
KR20240103847A (ko) 차량의 안전운전 제공 방법 및 장치
KR20190079334A (ko) 후방 추돌 사고를 방지하는 장치 및 방법
KR20220028939A (ko) 사운드 검출 기반의 영상녹화방법 및 장치
KR20230046798A (ko) 차량의 사각영역을 감시하는 방법 및 장치

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant