KR20210158706A - 차량 및 그 제어방법 - Google Patents
차량 및 그 제어방법 Download PDFInfo
- Publication number
- KR20210158706A KR20210158706A KR1020200077390A KR20200077390A KR20210158706A KR 20210158706 A KR20210158706 A KR 20210158706A KR 1020200077390 A KR1020200077390 A KR 1020200077390A KR 20200077390 A KR20200077390 A KR 20200077390A KR 20210158706 A KR20210158706 A KR 20210158706A
- Authority
- KR
- South Korea
- Prior art keywords
- sound
- ratio
- emotion
- color
- vehicle
- Prior art date
Links
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60Q—ARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
- B60Q5/00—Arrangement or adaptation of acoustic signal devices
- B60Q5/005—Arrangement or adaptation of acoustic signal devices automatically actuated
- B60Q5/008—Arrangement or adaptation of acoustic signal devices automatically actuated for signaling silent vehicles, e.g. for warning that a hybrid or electric vehicle is approaching
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04R—LOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
- H04R3/00—Circuits for transducers, loudspeakers or microphones
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/26—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
- G01C21/34—Route searching; Route guidance
- G01C21/36—Input/output arrangements for on-board computers
- G01C21/3605—Destination input or retrieval
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/26—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
- G01C21/34—Route searching; Route guidance
- G01C21/36—Input/output arrangements for on-board computers
- G01C21/3605—Destination input or retrieval
- G01C21/3608—Destination input or retrieval using speech input, e.g. using speech recognition
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/26—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
- G01C21/34—Route searching; Route guidance
- G01C21/36—Input/output arrangements for on-board computers
- G01C21/3626—Details of the output of route guidance instructions
- G01C21/3629—Guidance using speech or audio output, e.g. text-to-speech
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/26—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
- G01C21/34—Route searching; Route guidance
- G01C21/36—Input/output arrangements for on-board computers
- G01C21/3626—Details of the output of route guidance instructions
- G01C21/3644—Landmark guidance, e.g. using POIs or conspicuous other objects
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/26—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
- G01C21/34—Route searching; Route guidance
- G01C21/36—Input/output arrangements for on-board computers
- G01C21/3667—Display of a road map
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/26—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
- G01C21/34—Route searching; Route guidance
- G01C21/36—Input/output arrangements for on-board computers
- G01C21/3697—Output of additional, non-guidance related information, e.g. low fuel level
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/22—Matching criteria, e.g. proximity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/23—Clustering techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/23—Clustering techniques
- G06F18/232—Non-hierarchical techniques
- G06F18/2321—Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions
- G06F18/23213—Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions with fixed number of clusters, e.g. K-means clustering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/30—Semantic analysis
-
- G06K9/6223—
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/90—Determination of colour characteristics
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T9/00—Image coding
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/56—Extraction of image or video features relating to colour
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H1/00—Details of electrophonic musical instruments
- G10H1/0033—Recording/reproducing or transmission of music for electrophonic musical instruments
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H7/00—Instruments in which the tones are synthesised from a data store, e.g. computer organs
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10K—SOUND-PRODUCING DEVICES; METHODS OR DEVICES FOR PROTECTING AGAINST, OR FOR DAMPING, NOISE OR OTHER ACOUSTIC WAVES IN GENERAL; ACOUSTICS NOT OTHERWISE PROVIDED FOR
- G10K11/00—Methods or devices for transmitting, conducting or directing sound in general; Methods or devices for protecting against, or for damping, noise or other acoustic waves in general
- G10K11/16—Methods or devices for protecting against, or for damping, noise or other acoustic waves in general
- G10K11/175—Methods or devices for protecting against, or for damping, noise or other acoustic waves in general using interference effects; Masking sound
- G10K11/178—Methods or devices for protecting against, or for damping, noise or other acoustic waves in general using interference effects; Masking sound by electro-acoustically regenerating the original acoustic waves in anti-phase
- G10K11/1785—Methods, e.g. algorithms; Devices
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10K—SOUND-PRODUCING DEVICES; METHODS OR DEVICES FOR PROTECTING AGAINST, OR FOR DAMPING, NOISE OR OTHER ACOUSTIC WAVES IN GENERAL; ACOUSTICS NOT OTHERWISE PROVIDED FOR
- G10K15/00—Acoustics not otherwise provided for
- G10K15/02—Synthesis of acoustic waves
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04R—LOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
- H04R1/00—Details of transducers, loudspeakers or microphones
- H04R1/02—Casings; Cabinets ; Supports therefor; Mountings therein
- H04R1/025—Arrangements for fixing loudspeaker transducers, e.g. in a box, furniture
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60Y—INDEXING SCHEME RELATING TO ASPECTS CROSS-CUTTING VEHICLE TECHNOLOGY
- B60Y2200/00—Type of vehicle
- B60Y2200/90—Vehicles comprising electric prime movers
- B60Y2200/91—Electric vehicles
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/279—Recognition of textual entities
- G06F40/289—Phrasal analysis, e.g. finite state techniques or chunking
- G06F40/295—Named entity recognition
-
- G—PHYSICS
- G07—CHECKING-DEVICES
- G07C—TIME OR ATTENDANCE REGISTERS; REGISTERING OR INDICATING THE WORKING OF MACHINES; GENERATING RANDOM NUMBERS; VOTING OR LOTTERY APPARATUS; ARRANGEMENTS, SYSTEMS OR APPARATUS FOR CHECKING NOT PROVIDED FOR ELSEWHERE
- G07C5/00—Registering or indicating the working of vehicles
- G07C5/02—Registering or indicating driving, working, idle, or waiting time only
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04R—LOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
- H04R2460/00—Details of hearing devices, i.e. of ear- or headphones covered by H04R1/10 or H04R5/033 but not provided for in any of their subgroups, or of hearing aids covered by H04R25/00 but not provided for in any of its subgroups
- H04R2460/07—Use of position data from wide-area or local-area positioning systems in hearing devices, e.g. program or information selection
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04R—LOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
- H04R2499/00—Aspects covered by H04R or H04S not otherwise provided for in their subgroups
- H04R2499/10—General applications
- H04R2499/13—Acoustic transducers and sound field adaptation in vehicles
Abstract
네비게이션 시스템으로부터 수신한 정보에 기초하여 다양한 음원을 선택하고 주행 사운드를 출력하는 차량은, 제1 감정으로 분류된 복수의 음원들과 제2 감정으로 분류된 복수의 음원들을 저장하는 데이터 베이스; 스피커; 및 네비게이션 시스템에서 산출된 주행 경로 정보에 포함된 경로 안내 문구에 기초하여 랜드마크명을 출력하고, 상기 랜드마크명에 기초하여 상기 랜드마크명에 대응되는 상기 제1 감정의 비율과 상기 제2 감정의 비율을 출력하고, 상기 제1 감정의 비율에 기초하여 상기 제1 감정으로 분류된 복수의 음원들 중에서 제1 음원을 선택하고, 상기 제2 감정의 비율에 기초하여 상기 제2 감정으로 분류된 복수의 음원들 중에서 제2 음원을 선택하고, 상기 제1 감정의 비율과 상기 제2 감정의 비율에 기초하여 제1 재생 기간 및 제2 재생 기간을 결정하고, 상기 스피커가 상기 제1 재생 기간 동안 상기 제1 음원에 기초하여 생성된 제1 사운드를 출력하고 상기 제2 재생 기간 동안 상기 제2 음원에 기초하여 생성된 제2 사운드를 출력하도록 제어하는 제어부;를 포함한다.
Description
본 발명은 네비게이션 시스템으로부터 수신한 데이터에 기초하여 주행 사운드를 변경시키는 차량 및 그 제어방법에 관한 것이다.
현대 사회에서 자동차는 사람들이 가장 많이 이용하는 이동 수단으로서, 그 수는 점점 증가하고 있다. 과거에는 자동차는 단순히 이동 수단 이상의 의미는 존재하지 않았으나 현대사회에 들어와서는 자동차는 단순히 이동 수단을 넘어 자신을 표현하거나 드라이브를 즐기는 수단으로 많이 이용되어지고 있다.
이에 따라, 모터바이크나 경주용 자동차처럼 스피드를 즐기는 사람들이 많아지고 있는데 이러한 스피드를 즐기는 사람들은 단순한 자동차의 속도에서 나오는 속도감 뿐만 아니라 차량의 엔진에서 발생되는 작동음과 진동음으로부터도 많은 흥분을 느낀다. 이에 일부 운전자들은 자신이 원하는 주행 사운드를 얻기 위해 엔진을 개조하여 사용하기도 한다.
특히, 전기 차량의 경우 차량의 엔진에서 발생되는 작동음과 진동음이 부재하기 때문에, 스피커를 통해 인위적으로 생성된 주행 사운드를 출력하기도 한다.
다만, 차량에 제공되는 주행 사운드는 제조사가 미리 설계한 주행 사운드이기 때문에 운전자의 수요를 만족시키기 어렵다.
네비게이션 시스템으로부터 수신한 정보에 기초하여 다양한 음원을 선택하고 주행 사운드를 출력하는 차량 및 그 제어방법을 제공한다.
일 실시예에 따른 차량은, 제1 감정으로 분류된 복수의 음원들과 제2 감정으로 분류된 복수의 음원들을 저장하는 데이터 베이스; 스피커; 및 네비게이션 시스템에서 산출된 주행 경로 정보에 포함된 경로 안내 문구에 기초하여 랜드마크명을 출력하고, 상기 랜드마크명에 기초하여 상기 랜드마크명에 대응되는 상기 제1 감정의 비율과 상기 제2 감정의 비율을 출력하고, 상기 제1 감정의 비율에 기초하여 상기 제1 감정으로 분류된 복수의 음원들 중에서 제1 음원을 선택하고, 상기 제2 감정의 비율에 기초하여 상기 제2 감정으로 분류된 복수의 음원들 중에서 제2 음원을 선택하고, 상기 제1 감정의 비율과 상기 제2 감정의 비율에 기초하여 제1 재생 기간 및 제2 재생 기간을 결정하고, 상기 스피커가 상기 제1 재생 기간 동안 상기 제1 음원에 기초하여 생성된 제1 사운드를 출력하고 상기 제2 재생 기간 동안 상기 제2 음원에 기초하여 생성된 제2 사운드를 출력하도록 제어하는 제어부;를 포함할 수 있다.
또한, 상기 제어부는, 자연어 처리(Natural Language Processing; NLP)를 이용하여 상기 경로 안내 문구에 포함된 상기 랜드마크명을 출력할 수 있다.
또한, 상기 제어부는, 상기 랜드마크명을 LSTM(Long Short-Term Memory)의 입력 데이터로 이용하여 상기 랜드마크명에 대응되는 상기 제1 감정의 비율과 상기 제2 감정의 비율을 출력할 수 있다.
또한, 상기 제어부는, 상기 제1 사운드가 출력되는 상기 제1 재생 기간 동안의 차량의 출력 토크, 속도 및 가속도 페달 답력 중 적어도 하나에 기초하여 복수의 제1 목표 엔진음 차수를 결정하고, 상기 제1 음원과 상기 복수의 제1 목표 엔진음 차수에 기초하여 상기 제1 사운드를 합성하고, 상기 제2 사운드가 출력되는 상기 제2 재생 기간 동안의 상기 차량의 출력 토크, 속도 및 가속도 페달 답력 중 적어도 하나에 기초하여 복수의 제2목표 엔진음 차수를 결정하고, 상기 제2 음원과 상기 복수의 제2 목표 엔진음 차수에 기초하여 상기 제2 사운드를 합성할 수 있다.
또한, 상기 제어부는, 상기 제1 감정의 비율과 상기 제2 감정의 비율에 기초하여 상기 복수의 제1 목표 엔진음 차수 중 일부의 제1 목표 엔진음 차수를 선택하고, 상기 제1 음원과 상기 선택된 일부의 제1 목표 엔진음 차수에 기초하여 상기 제1 사운드를 합성하고, 상기 제1 감정의 비율과 상기 제2 감정의 비율에 기초하여 상기 복수의 제2 목표 엔진음 차수 중 일부의 제2 목표 엔진음 차수를 선택하고, 상기 제2 음원과 상기 선택된 일부의 제2 목표 엔진음 차수에 기초하여 상기 제2 사운드를 합성할 수 있다.
또한, 상기 제어부는, 차량의 출력 토크, 속도 및 가속도 페달 답력 중 적어도 하나에 기초하여 상기 제1 사운드 및 상기 제2 사운드의 음량을 결정할 수 있다.
또한, 상기 제1 감정 및 상기 제2 감정은, 행복, 기쁨, 슬픔, 활기, 공포, 분노, 평온 중 어느 하나일 수 있다.
다른 실시예에 따른 차량은, 제1 지형으로 분류된 복수의 음원들과 제2 지형으로 분류된 복수의 음원들을 저장하는 데이터 베이스; 스피커; 및 네비게이션 시스템에서 출력되는 지도 이미지를 수신하고, 상기 지도 이미지를 처리하여 상기 지도 이미지를 구성하는 제1 컬러의 비율과 제2 컬러의 비율을 출력하고, 상기 제1 컬러의 비율에 기초하여 상기 제1 지형으로 분류된 복수의 음원들 중에서 제1 음원을 선택하고, 상기 제2 컬러의 비율에 기초하여 상기 제2 지형으로 분류된 복수의 음원들 중에서 제2 음원을 선택하고, 상기 제1 컬러의 비율과 상기 제2 컬러의 비율에 기초하여 제1 재생 기간 및 제2 재생 기간을 결정하고, 상기 스피커가 상기 제1 재생 기간 동안 상기 제1 음원에 기초하여 생성된 제1 사운드를 출력하고 상기 제2 재생 기간 동안 상기 제2 음원에 기초하여 생성된 제2 사운드를 출력하도록 제어하는 제어부;를 포함할 수 있다.
또한, 상기 제어부는, 상기 지도 이미지를 압축하고, K-평균 알고리즘(K-means algorithm)을 이용하여 상기 압축된 지도 이미지를 컬러 별로 클러스터링할 수 있다.
또한, 상기 제어부는, 상기 제1 컬러를 상기 제1 지형에 매칭시키고, 상기 제2 컬러를 상기 제2 지형에 매칭시킬 수 있다.
또한, 상기 제어부는, 상기 제1 사운드가 출력되는 상기 제1 재생 기간 동안의 차량의 출력 토크, 속도 및 가속도 페달 답력 중 적어도 하나에 기초하여 복수의 제1 목표 엔진음 차수를 결정하고, 상기 제1 음원과 상기 복수의 제1 목표 엔진음 차수에 기초하여 상기 제1 사운드를 합성하고, 상기 제2 사운드가 출력되는 상기 제2 재생 기간 동안의 상기 차량의 출력 토크, 속도 및 가속도 페달 답력 중 적어도 하나에 기초하여 복수의 제2목표 엔진음 차수를 결정하고, 상기 제2 음원과 상기 복수의 제2 목표 엔진음 차수에 기초하여 상기 제2 사운드를 합성할 수 있다.
또한, 상기 제어부는, 상기 제1 컬러의 비율과 상기 제2 컬러의 비율에 기초하여 상기 복수의 제1 목표 엔진음 차수 중 일부의 제1 목표 엔진음 차수를 선택하고, 상기 제1 음원과 상기 선택된 일부의 제1 목표 엔진음 차수에 기초하여 상기 제1 사운드를 합성하고, 상기 제1 컬러의 비율과 상기 제2 컬러의 비율에 기초하여 상기 복수의 제2 목표 엔진음 차수 중 일부의 제2 목표 엔진음 차수를 선택하고, 상기 제2 음원과 상기 선택된 일부의 제2 목표 엔진음 차수에 기초하여 상기 제2 사운드를 합성할 수 있다.
또한, 상기 제어부는, 차량의 출력 토크, 속도 및 가속도 페달 답력 중 적어도 하나에 기초하여 상기 제1 사운드 및 상기 제2 사운드의 음량을 결정할 수 있다.
또한, 상기 제1 지형 및 상기 제2 지형은, 도시, 산, 강, 고속도로, 해변가, 터널 중 어느 하나일 수 있다.
일 실시예에 따른 차량의 제어방법은, 제1 감정으로 분류된 복수의 음원들과 제2 감정으로 분류된 복수의 음원들을 저장하는 데이터 베이스를 포함하는 차량의 제어방법에 있어서, 네비게이션 시스템에서 산출된 주행 경로 정보에 포함된 경로 안내 문구에 기초하여 랜드마크명을 출력하는 단계; 상기 랜드마크명에 기초하여 상기 랜드마크명에 대응되는 상기 제1 감정의 비율과 상기 제2 감정의 비율을 출력하는 단계; 상기 제1 감정의 비율에 기초하여 상기 제1 감정으로 분류된 복수의 음원들 중에서 제1 음원을 선택하고, 상기 제2 감정의 비율에 기초하여 상기 제2 감정으로 분류된 복수의 음원들 중에서 제2 음원을 선택하는 단계; 상기 제1 감정의 비율과 상기 제2 감정의 비율에 기초하여 제1 재생 기간 및 제2 재생 기간을 결정하는 단계; 스피커가 상기 제1 재생 기간 동안 상기 제1 음원에 기초하여 생성된 제1 사운드를 출력하고 상기 제2 재생 기간 동안 상기 제2 음원에 기초하여 생성된 제2 사운드를 출력하도록 제어하는 단계;를 포함할 수 있다.
또한, 상기 랜드마크명에 기초하여 상기 랜드마크명에 대응되는 상기 제1 감정의 비율과 상기 제2 감정의 비율을 출력하는 단계는, 자연어 처리(Natural Language Processing; NLP)를 이용하여 상기 경로 안내 문구에 포함된 상기 랜드마크명을 출력하는 단계;를 포함할 수 있다.
또한, 상기 랜드마크명에 기초하여 상기 랜드마크명에 대응되는 상기 제1 감정의 비율과 상기 제2 감정의 비율을 출력하는 단계는, 상기 랜드마크명을 LSTM(Long Short-Term Memory)의 입력 데이터로 이용하여 상기 랜드마크명에 대응되는 상기 제1 감정의 비율과 상기 제2 감정의 비율을 출력하는 단계;를 포함할 수 있다.
다른 실시예에 따른 차량의 제어방법은, 제1 지형으로 분류된 복수의 음원들과 제2 지형으로 분류된 복수의 음원들을 저장하는 데이터 베이스를 포함하는 차량의 제어방법에 있어서, 네비게이션 시스템에서 출력되는 지도 이미지를 수신하는 단계; 상기 지도 이미지를 처리하여 상기 지도 이미지를 구성하는 제1 컬러의 비율과 제2 컬러의 비율을 출력하는 단계; 상기 제1 컬러의 비율에 기초하여 상기 제1 지형으로 분류된 복수의 음원들 중에서 제1 음원을 선택하고, 상기 제2 컬러의 비율에 기초하여 상기 제2 지형으로 분류된 복수의 음원들 중에서 제2 음원을 선택하는 단계; 상기 제1 컬러의 비율과 상기 제2 컬러의 비율에 기초하여 제1 재생 기간 및 제2 재생 기간을 결정하는 단계; 스피커가 상기 제1 재생 기간 동안 상기 제1 음원에 기초하여 생성된 제1 사운드를 출력하고 상기 제2 재생 기간 동안 상기 제2 음원에 기초하여 생성된 제2 사운드를 출력하도록 제어하는 단계;를 포함할 수 있다.
또한, 상기 지도 이미지를 처리하여 상기 지도 이미지를 구성하는 제1 컬러의 비율과 제2 컬러의 비율을 출력하는 단계는, 상기 지도 이미지를 압축하고, K-평균 알고리즘(K-means algorithm)을 이용하여 상기 압축된 지도 이미지를 컬러 별로 클러스터링하는 단계;를 포함할 수 있다.
또한, 상기 제1 컬러의 비율에 기초하여 상기 제1 지형으로 분류된 복수의 음원들 중에서 제1 음원을 선택하고, 상기 제2 컬러의 비율에 기초하여 상기 제2 지형으로 분류된 복수의 음원들 중에서 제2 음원을 선택하는 단계는, 상기 제1 컬러를 상기 제1 지형에 매칭시키고, 상기 제2 컬러를 상기 제2 지형에 매칭시키는 단계;를 포함할 수 있다.
개시된 발명의 일 실시예에 따른 차량 및 그 제어방법에 따르면, 일률적인 주행 사운드를 출력하는 것이 아니라 네비게이션 시스템으로부터 수신한 정보에 기초하여 생성된 주행 사운드를 출력함으로써 사용자의 요구를 만족시킬 수 있다.
도 1은 일 실시예에 따른 차량의 내부를 도시한 도면이다.
도 2는 일 실시예에 따른 차량의 제어 블록도이다.
도 3은 일 실시예에 따른 차량의 제어 순서도이다.
도 4는 자연어 처리를 이용하여 경로 안내 문구에 포함된 랜드마크명을 출력하는 모습을 도시한 도면이다.
도 5는 인공 신경망 모델을 이용하여 랜드마크명에 대응되는 감정의 비율을 출력하는 과정을 나타낸 도면이다.
도 6은 감정의 비율에 기초하여 주행 사운드를 합성하는 과정을 나타낸 도면이다.
도 7은 다른 실시예에 따른 차량의 제어 순서도이다.
도 8은 특정 알고리즘을 이용하여 지도 이미지에 포함된 지형을 결정하는 모습을 도시한 도면이다.
도 9는 지형의 비율에 기초하여 주행 사운드를 합성하는 과정을 나타낸 도면이다.
도 2는 일 실시예에 따른 차량의 제어 블록도이다.
도 3은 일 실시예에 따른 차량의 제어 순서도이다.
도 4는 자연어 처리를 이용하여 경로 안내 문구에 포함된 랜드마크명을 출력하는 모습을 도시한 도면이다.
도 5는 인공 신경망 모델을 이용하여 랜드마크명에 대응되는 감정의 비율을 출력하는 과정을 나타낸 도면이다.
도 6은 감정의 비율에 기초하여 주행 사운드를 합성하는 과정을 나타낸 도면이다.
도 7은 다른 실시예에 따른 차량의 제어 순서도이다.
도 8은 특정 알고리즘을 이용하여 지도 이미지에 포함된 지형을 결정하는 모습을 도시한 도면이다.
도 9는 지형의 비율에 기초하여 주행 사운드를 합성하는 과정을 나타낸 도면이다.
명세서 전체에 걸쳐 동일 참조 부호는 동일 구성요소를 지칭한다. 본 명세서가 실시예들의 모든 요소들을 설명하는 것은 아니며, 본 발명이 속하는 기술분야에서 일반적인 내용 또는 실시예들 간에 중복되는 내용은 생략한다.
명세서 전체에서, 어떤 부분이 다른 부분과 "연결"되어 있다고 할 때, 이는 직접적으로 연결되어 있는 경우뿐 아니라, 간접적으로 연결되어 있는 경우를 포함하고, 간접적인 연결은 무선 통신망을 통해 연결되는 것을 포함한다.
또한, 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다.
단수의 표현은 문맥상 명백하게 예외가 있지 않는 한, 복수의 표현을 포함한다.
또한, "~부", "~기", "~블록", "~부재", "~모듈" 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미할 수 있다. 예를 들어, 상기 용어들은 FPGA(Field-Programmable Gate Array) / ASIC(Application Specific Integrated Circuit) 등 적어도 하나의 하드웨어, 메모리에 저장된 적어도 하나의 소프트웨어 또는 프로세서에 의하여 처리되는 적어도 하나의 프로세스를 의미할 수 있다.
각 단계들에 붙여지는 부호는 각 단계들을 식별하기 위해 사용되는 것으로 이들 부호는 각 단계들 상호 간의 순서를 나타내는 것이 아니며, 각 단계들은 문맥상 명백하게 특정 순서를 기재하지 않는 이상 명기된 순서와 다르게 실시될 수 있다.
이하에서는 첨부된 도면을 참조하여 일 측면에 따른 차량 및 그 제어방법에 관한 실시예를 상세하게 설명하도록 한다.
도 1은 일 실시예에 따른 차량의 내부를 도시한 도면이다.
도 1을 참조하면, 일 실시예에 따른 차량은 AVN 장치(110)와 스피커(140)를 포함할 수 있으며, 일 실시예에 따른 차량의 운전자는 네비게이션 단말(200)을 소유할 수 있다.
AVN(Audio Video Navigation) 장치(110)는 오디오(Audio), 비디오(Video), 네비게이션(Navigation), 텔레매틱스 단말 등이 하나로 통합된 멀티미디어 장치를 의미할 수 있다.
AVN 장치(110)는 사용자로부터 목적지를 설정 받고, 목적지와 차량의 현재 위치에 기초하여 주행 경로 정보를 산출하고, 산출된 주행 경로 정보를 표시함으로써 사용자에게 주행 경로를 안내할 수 있다.
구체적으로, AVN 장치(110)는 터치 입력 또는 음성 입력을 통해 사용자로부터 목적지의 명칭을 입력 받고 입력된 목적지의 명칭과 매칭되는 장소의 리스트를 표시함으로써, 사용자로 하여금 목적지의 선택을 요구할 수 있다.
또한, AVN 장치(110)는 사용자로부터 선택된 목적지에 따라 설정된 주행 경로에 기초하여 주행 경로 정보를 생성하고, 생성된 주행 경로 정보를 표시함으로써 차량의 주행 방향을 안내할 수 있다.
주행 경로 정보는 11시 방향, 1시 방향, 우회전, 5시 방향, 유턴, 8시 방향, 좌회전 등의 방향 정보를 의미하는 TBT 정보와, 주행 방향을 안내하기 위한 경로 안내 문구와, 차량이 주행 중인 현재 위치를 기준으로 한 지도 이미지를 포함할 수 있다. TBT 정보와 경로 안내 문구는 AVN 장치(110)의 오디오 시스템을 통해 음성으로 출력될 수도 있으며, TBT 정보와 경로 안내 문구와 지도 이미지는 AVN 장치(110)의 화면을 통해 시각적으로 출력될 수도 있다.
AVN 장치(110)는 차량의 센터페시아에 마련될 수 있으나, 이에 한정되는 것은 아니다.
운전자가 소유한 네비게이션 단말(200) 또한 AVN 장치(110)와 동일한 기능을 제공할 수 있다.
네비게이션 단말(200)은, 운전자의 스마트 폰, 태블릿 PC, 랩탑 등과 같은 사용자 단말을 의미할 수 있으며, 목적지까지의 경로를 안내하는 네비게이션 어플리케이션을 실행할 수 있는 모든 단말 장치를 의미할 수 있다.
차량과의 근거리 통신 및/또는 원거리 통신에 기초하여 네비게이션 단말(200)에 표시되는 화면은 차량의 AVN 장치(110)에 표시될 수도 있다.
이하에서는, 차량에 마련된 AVN 장치(110) 및/또는 운전자가 소유하고 있는 네비게이션 단말(200)을 네비게이션 시스템으로 총칭한다.
스피커(140)는 차량 내부에 각종 사운드를 출력할 수 있다. 이를 위한 스피커(140)는 차량의 양쪽 도어에 마련될 수 있으나, 차량 내부의 운전자가 출력되는 사운드를 청취할 수 있는 위치라면 제한 없이 마련될 수 있다.
스피커(140)는 전기 신호를 사운드로 변환하여 출력할 수 있는 모든 장치를 의미할 수 있다. 이를 위한 스피커(140)는 보이스 코일, 보이스 코일에 전류를 공급되는 전류의 크기를 조절하여 출력 사운드의 음량을 조절하는 앰프 등의 구성 요소를 포함할 수 있다.
도 2는 일 실시예에 따른 차량의 제어 블록도이다.
도 2를 참조하면, 일 실시예에 따른 차량은 주행 경로 정보를 산출하여 차량에 전달하는 네비게이션 시스템과, 복수의 음원들을 저장하는 데이터 베이스(120)와, 네비게이션 시스템으로부터 수신한 주행 경로 정보에 기초하여 데이터 베이스(120)로부터 음원을 선택하고, 선택된 음원에 기초하여 생성된 주행 사운드를 출력하도록 스피커(140)를 제어하는 제어부(130), 제어부(130)의 제어 신호에 기초하여 주행 사운드를 출력하는 스피커(140)를 포함할 수 있다.
네비게이션 시스템은 앞서 설명한 바와 같이 차량에 마련된 AVN 장치(110), 운전자가 소유하는 네비게이션 단말(200)을 포함할 수 있다.
네비게이션 시스템은 제어부(130)와 차량 내 통신 및/또는 근거리 통신 및/또는 원거리 통신을 수행하여 각종 정보를 전달할 수 있다.
예를 들어, 네비게이션 시스템에서 산출된 주행 경로 정보는 제어부(130)로 전달될 수 있다.
일 실시예에 따른 데이터 베이스(120)는 복수의 감정으로 분류된 복수의 음원들 및/또는 복수의 지형으로 분류된 복수의 음원들을 저장할 수 있다.
이 때, 복수의 감정은 행복, 기쁨, 슬픔, 활기, 공포, 분노, 평온 등의 감정을 포함할 수 있으며, 복수의 지형은 도시, 산, 강, 고속도로, 해변가, 터널 등의 지형을 포함할 수 있다.
예를 들어, 데이터 베이스(120)는 기쁨 상태로 분류된 복수의 음원들을 저장할 수 있으며, '기쁨' 상태로 분류된 복수의 음원들은 '기쁨' 상태의 비율에 따라 '기쁨' 상태의 카테고리 내에서 다시 한번 구별될 수 있다. 또한, 데이터 베이스(120)는 '도시' 지형으로 분류된 복수의 음원들을 저장할 수 있으며, 복수의 음원들은 '도시' 지형의 비율에 따라 '도시' 지형의 카테고리 내에서 다시 한번 구별될 수 있다.
구체적으로, 데이터 베이스(120)에는 운전자의 기쁨 상태의 비율이 75%이고, 슬픔 상태의 비율이 25%인 감정 상태에 대응되는 음원이 저장되어 있을 수 있다.
또한, 데이터 베이스(120)에는 지도 이미지의 도시 비율이 75%이고, 산 비율이 25%인 지형 비율에 대응되는 음원이 저장되어 있을 수 있다.
이를 위한 데이터 베이스(120)는 각종 정보를 저장하기 위해 캐쉬, ROM(Read Only Memory), PROM(Programmable ROM), EPROM(Erasable Programmable ROM), EEPROM(Electrically Erasable Programmable ROM) 및 플래쉬 메모리(Flash memory)와 같은 비휘발성 메모리 소자 또는 RAM(Random Access Memory)과 같은 휘발성 메모리 소자 또는 하드디스크 드라이브(Hard Disk Drive, HDD), CD-ROM과 같은 저장 매체 중 적어도 하나로 구현될 수 있으나, 이에 한정되지는 않는다. 데이터 베이스(120)는 별개의 칩으로 구현된 메모리일 수 있고, 제어부(130)에 대응하는 프로세서(131)와 단일 칩으로 구현될 수도 있다.
일 실시예에 따른 제어부(130)는 네비게이션 시스템으로부터 수신한 데이터에 기초하여 데이터 베이스(120)에 저장된 복수의 음원들 중에서 적어도 하나의 음원을 선택할 수 있다. 또한, 제어부(130)는 선택된 각각의 음원에 기초하여 주행 사운드를 합성하고, 합성된 주행 사운드가 출력되는 재생 기간을 결정할 수 있다.
예를 들어, 제어부(130)는 네비게이션 시스템에서 산출된 주행 경로 정보에 포함된 경로 안내 문구에 기초하여 랜드마크명을 출력하고, 랜드마크명에 기초하여 랜드마크명에 대응되는 제1 감정의 비율과 상기 제2 감정의 비율을 출력하고, 제1 감정의 비율에 기초하여 제1 감정으로 분류된 복수의 음원들 중에서 제1 음원을 선택하고, 제2 감정의 비율에 기초하여 제2 감정으로 분류된 복수의 음원들 중에서 제2 음원을 선택하고, 제1 감정의 비율과 제2 감정의 비율에 기초하여 제1 재생 기간 및 제2 재생 기간을 결정하고, 스피커(140)가 제1 재생 기간 동안 제1 음원에 기초하여 생성된 제1 사운드를 출력하고 제2 재생 기간 동안 제2 음원에 기초하여 생성된 제2 사운드를 출력하도록 제어할 수 있다.
다른 예로, 제어부(130)는 네비게이션 시스템에서 출력되는 지도 이미지를 수신하고, 지도 이미지를 처리하여 지도 이미지를 구성하는 제1 컬러의 비율과 제2 컬러의 비율을 출력하고, 제1 컬러의 비율에 기초하여 제1 지형으로 분류된 복수의 음원들 중에서 제1 음원을 선택하고, 제2 컬러의 비율에 기초하여 상기 제2 지형으로 분류된 복수의 음원들 중에서 제2 음원을 선택하고, 제1 컬러의 비율과 제2 컬러의 비율에 기초하여 제1 재생 기간 및 제2 재생 기간을 결정하고, 스피커(140)가 제1 재생 기간 동안 제1 음원에 기초하여 생성된 제1 사운드를 출력하고 제2 재생 기간 동안 제2 음원에 기초하여 생성된 제2 사운드를 출력하도록 제어할 수 있다.
이를 위한 제어부(130)는, 경로 안내 문구에 기초하여 랜드마크명을 출력하기 위한 프로그램과, 랜드마크명에 대응되는 감정들의 비율을 출력하는 프로그램과, 감정들의 비율에 기초하여 적어도 하나의 음원을 선택하는 프로그램과, 지도 이미지를 처리하여 지도 이미지를 구성하는 컬러의 비율을 출력하기 위한 프로그램과, 컬러의 비율에 대응되는 지형의 비율을 출력하기 위한 프로그램과, 지형의 비율에 기초하여 적어도 하나의 음원을 선택하는 프로그램과, 주행 사운드를 생성하기 위한 프로그램과, 스피커(140)를 제어하기 위한 프로그램 등의 다양한 프로그램을 저장하고 있는 적어도 하나의 메모리(132)와, 적어도 하나의 메모리(132)에 저장된 프로그램을 실행할 수 있는 적어도 하나의 프로세서(131)를 포함할 수 있다.
메모리(132)에 저장된 프로그램은, 자연어 처리(Natural Language Processing; NLP) 알고리즘, K-평균 알고리즘(K-means algorithm), CNN(Convolutional Neural Networks) 알고리즘, GAN(Generative Adversarial Networks) 알고리즘, RNN(Recurrent Neural Networks) 알고리즘, RNN 알고리즘의 일종인 LSTM(Long Short-Term Memory) 알고리즘, R-CNN(Region Based Convolutional Neural Networks) 알고리즘 등의 인공지능 알고리즘(인공 신경망 모델)을 포함할 수 있다.
일 실시예에 따른 스피커(140)는, 제어부(130)로부터 전달 받은 제어 신호(전기 신호)에 기초하여 주행 사운드로 출력할 수 있다.
이상으로 일 실시예에 따른 차량의 각종 구성 요소를 상세하게 설명하였다. 상술한 차량의 각종 구성 요소는 통상의 기술 범위 수준에서 자유롭게 변경될 수 있음은 물론이다. 이하에서는 상술한 차량의 각종 구성 요소를 이용한 차량의 제어방법을 상세하게 설명한다.
도 3은 일 실시예에 따른 차량의 제어 순서도이고, 도 4는 자연어 처리를 이용하여 경로 안내 문구에 포함된 랜드마크명을 출력하는 모습을 도시한 도면이고, 도 5는 인공 신경망 모델을 이용하여 랜드마크명에 대응되는 감정의 비율을 출력하는 과정을 나타낸 도면이고, 도 6은 감정의 비율에 기초하여 주행 사운드를 합성하는 과정을 나타낸 도면이다.
도 3을 참조하면, 일 실시예에 따른 제어부(130)는 내부 네비게이션 시스템(AVN 장치; 110) 및/또는 외부 네비게이션 시스템(네비게이션 단말; 200)으로부터 주행 경로 정보를 수신할 수 있다(1000).
제어부(130)는 주행 경로 정보에 포함된 경로 안내 문구에 기초하여 랜드마크명을 출력할 수 있다(1100). 이 때, 경로 안내 문구에 포함된 랜드마크명은 복수 개일 수 있다.
도 4를 참조하면, 주행 경로 정보에 포함된 경로 안내 문구는 '연신내역에서 좌회전'이라는 문구와, '숭례문 사거리에서 우회전'이라는 문구와 '남산공원 방면'이라는 문구를 포함할 수 있다.
제어부(130)는 자연어 처리(NLP)를 이용하여 경로 안내 문구에 포함된 랜드마크명을 출력할 수 있다. 예를 들어, '연신내역에서 좌회전'이라는 문구에서 '연신내역'이라는 랜드마크명만 추출할 수 있으며, '숭례문 사거리에서 우회전'이라는 문구에서 '숭례문'이라는 랜드마크명만 추출할 수 있으며, '남산공원 방면'이라는 문구에서 '남산공원'이라는 랜드마크명만 추출할 수 있다.
구체적으로, 제어부(130)는 목적지와 방향을 언급하는 조사 등에 대한 분리 규칙을 적용하여 주요 랜드마크명을 분리할 수 있다.
이후 제어부(130)는 랜드마크명에 대응되는 감정들의 비율을 출력할 수 있다(1200).
구체적으로, 도 5를 참조하면 제어부(130)는 랜드마크명을 LSTM의 입력 데이터로 이용하여 랜드마크명에 대응되는 감정들의 비율을 출력할 수 있다.
예를 들어, LSTM은 '연신내역'이라는 랜드마크명을 입력 데이터로 입력하였을 때, 기쁨 75%, 슬픔 20%의 감정 비율을 출력할 수 있으며, '숭례문'이라는 랜드마크명을 입력 데이터로 입력 하였을 때 평온 55%, 슬픔 18%의 감정 비율을 출력할 수 있으며, '남산공원'이라는 랜드마크명을 입력 데이터로 입력 하였을 때 기쁨 52%, 평온 4%의 감정 비율을 출력할 수 있다.
이를 위해, LSTM은 복수 개의 랜드마크명을 학습 데이터로 하여 미리 학습될 수 있다.
제어부(130)는 각각의 랜드마크명에 대응되는 감정 비율에 기초하여 랜드마크명에 대응되는 종합적인 감정 비율을 결정할 수 있다.
예를 들어, 제어부(130)는 '연신내역 - 숭례문 - 남산공원'으로 이어지는 경로에 대하여 기쁨(이하 '제1 감정') 60%, 평온(이하 '제2 감정') 30%, 슬픔(이하 '제3 감정') 10%의 감정 비율을 산출할 수 있다.
제어부(130)는 제1 감정의 비율에 기초하여 제1 음원을 선택할 수 있으며, 제2 감정의 비율에 기초하여 제2 음원을 선택할 수 있으며, 제3 감정의 비율에 기초하여 제3 음원을 선택할 수 있다(1300).
이 때, 제1 음원은 데이터 베이스(120)에서 제1 감정으로 분류되어 저장된 음원들 중 어느 하나를 의미할 수 있으며, 제2 음원은 데이터 베이스(120)에서 제2 감정으로 분류되어 저장된 음원들 중 어느 하나를 의미할 수 있으며, 제3 음원은 데이터 베이스(120)에서 제3 감정으로 분류되어 저장된 음원들 중 어느 하나를 의미할 수 있다.
이 때, 제어부(130)는 제1 감정의 비율, 제2 감정의 비율 및 제3 감정의 비율 각각에 기초하여 제1 재생 기간, 제2 재생 기간 및 제3 재생 기간을 결정할 수 있다.
예를 들어, '연신내역 - 숭례문 - 남산공원'으로 이어지는 경로의 예상 주행 시간이 20분이라고 가정하면, 제어부(130)는 제1 음원에 기초하여 생성되는 주행 사운드(이하 '제1 사운드')가 출력되는 제1 재생 기간을 12분으로, 제2 음원에 기초하여 생성되는 주행 사운드(이하 '제2 사운드')가 출력되는 제2 재생 기간을 6분으로, 제3 음원에 기초하여 생성되는 주행 사운드(이하 '제3 사운드')가 출력되는 제3 재생 기간을 2분으로 결정할 수 있다.
제어부(130)는 제1 음원, 제2 음원 및 제3 음원에 기초하여 제1 사운드, 제2 사운드 및 제3 사운드를 생성할 수 있다(1400).
도 5를 참조하면 제어부(130)는 데이터 베이스(120)에서 제1 감정으로 분류된 복수의 음원들(121a, 121b, 121c, 121d) 중에서 제1 감정의 비율에 대응되는 음원(121a)을 선택할 수 있다.
또한, 제어부(130)는 데이터 베이스(120)에서 제2 감정으로 분류된 복수의 음원들(125a, 125b, 125c, 125d) 중에서 제2 감정의 비율에 대응되는 음원(125c)을 선택할 수 있다.
또한, 제어부(130)는 데이터 베이스(120)에서 제3 감정으로 분류된 복수의 음원들(124a, 124b, 124c, 124d) 중에서 제3 감정의 비율에 대응되는 음원(124b)을 선택할 수 있다.
제어부(130)는 제1 재생 기간 동안 차량의 출력 토크, 속도 및 가속도 페달 답력 중 적어도 하나에 기초하여 복수의 제1 목표 엔진음 차수를 결정하고, 선택된 제1 음원(121a)과 복수의 제1 목표 엔진음 차수에 기초하여 제1 사운드를 합성할 수 있다.
마찬가지로, 제어부(130)는 제2 재생 기간 동안 차량의 출력 토크, 속도 및 가속도 페달 답력 중 적어도 하나에 기초하여 복수의 제2 목표 엔진음 차수를 결정하고, 선택된 제2 음원(125c)과 복수의 제2목표 엔진음 차수에 기초하여 제2 사운드를 합성할 수 있으며, 제3 재생 기간 동안 차량의 출력 토크, 속도 및 가속도 페달 답력 중 적어도 하나에 기초하여 복수의 제3 목표 엔진음 차수를 결정하고, 선택된 제3 음원(124b)과 복수의 제3 목표 엔진음 차수에 기초하여 제3 사운드를 합성할 수 있다.
전기 차량의 경우 엔진을 갖고 있지 않으므로, 엔진 RPM에 기초하여 목표 엔진음 차수를 선택할 수가 없다. 따라서, 제어부(130)는 차량의 출력 토크, 속도 및 가속도 페달 답력 중 적어도 하나에 기초하여 엔진이 있는 차량이라고 가정하였을 때의 RPM을 추정하고, 엔진 RPM에 기초하여 복수의 목표 엔진음 차수를 결정할 수 있다.
즉, 데이터 베이스(120) 또는 메모리(132)는 차량의 특정 출력 토크, 특정 속도 및 특정 가속도 페달 답력과 목표 엔진음 차수 사이의 관계를 나타내는 룩업 테이블을 저장할 수 있으며, 제어부(130)는 데이터 베이스(120) 또는 메모리(132)에 저장된 룩업 테이블에 기초하여 복수의 목표 엔진음 차수를 결정할 수 있다.
제어부(130)는 제1 감정의 비율, 제2 감정의 비율 및 제3 감정의 비율에 기초하여, 룩업 테이블에 따라 결정된 제1 목표 엔진음 차수들 중에서 일부의 제1 목표 엔진음 차수를 선택할 수 있다.
예를 들어, 차량의 출력 토크, 속도 및 가속도 페달 답력 중 적어도 하나에 기초하여 결정된 제1 목표 엔진음 차수가 1차, 2차, 6차, 7차인 경우에도 제1 감정의 비율, 제2 감정의 비율 및 제3 감정의 비율에 따라 제1 목표 엔진음 차수로서 1차와 2차만을 선택할 수 있다.
일 예로, 평온 상태에 해당하는 제2 감정의 비율이 높을 수록, 보다 평온한 주행 사운드을 생성하기 위해 목표 엔진음 차수로서 낮은 차수만을 선택할 수 있다.
제어부(130)는 위와 같은 방법으로 복수의 제2 목표 엔진음 차수와 복수의 제3 목표 엔진음 차수를 결정하고, 제1 감정의 비율, 제2 감정의 비율 및 제3 감정의 비율에 따라 제2 목표 엔진음 차수와 제3 목표 엔진음 차수를 선택할 수 있다.
제어부(130)는 데이터 베이스(120)에서 선택된 제1 음원(121a)과 선택된 제1 목표 엔진음 차수를 갖는 신호를 합성하여 제1 사운드를 생성할 수 있으며, 데이터 베이스(120)에서 선택된 제2 음원(125c)과 선택된 제2 목표 엔진음 차수를 갖는 신호를 합성하여 제2 사운드를 생성할 수 있으며, 데이터 베이스(120)에서 선택된 제3 음원(124b)과 선택된 제3 목표 엔진음 차수를 갖는 신호를 합성하여 제3 사운드를 생성할 수 있다.
합성에 사용되는 목표 엔진음 차수를 갖는 신호는 메모리(132) 또는 데이터 베이스(120)에 저장되어 있을 수 있다.
이후 제어부(130)는 스피커(140)를 제어하여 최종적으로 생성된 제1 사운드를 제1 재생 기간 동안 출력하고, 제2 사운드를 제2 재생 기간 동안 출력하고, 제3 사운드를 제3 재생 기간 동안 출력할 수 있다(1500).
이 때, 제어부(130)는 차량의 출력 토크, 속도 및 가속도 페달 답력 중 적어도 하나에 기초하여 제1 사운드, 제2 사운드 및 제3 사운드의 음량을 결정할 수 있다.
예를 들어, 제어부(130)는 차량의 출력 토크, 속도 및 가속도 페달 답력이 클수록 제1 사운드, 제2 사운드 및 제3 사운드의 음량을 크게 결정할 수 있다.
상술하여 설명한 일 실시예에 따른 차량 및 차량의 제어방법에 의하면, 차량 내에서 늘 동일한 주행 사운드가 아니라 주행 경로에 포함된 랜드마크명을 자동으로 반영한 다양한 주행 사운드를 제공할 수 있다.
이에 따라, 운전자에게 주행의 즐거움을 줌으로써 차량의 상품성을 높일 수 있다.
이하에서는 도 7 내지 도 9를 참조하여 다른 실시예에 따른 차량의 제어방법을 상세하게 설명한다.
도 7은 다른 실시예에 따른 차량의 제어 순서도이고, 도 8은 특정 알고리즘을 이용하여 지도 이미지에 포함된 지형을 결정하는 모습을 도시한 도면이고, 도 9는 지형의 비율에 기초하여 주행 사운드를 합성하는 과정을 나타낸 도면이다.
도 7을 참조하면, 일 실시예에 따른 제어부(130)는 내부 네비게이션 시스템(AVN 장치; 110) 및/또는 외부 네비게이션 시스템(네비게이션 단말; 200)으로부터 지도 이미지를 수신할 수 있다(2000). 이 때, 제어부(130)는 미리 설정된 간격마다 지도 이미지를 수신할 수 있다.
제어부(130)는 네비게이션 시스템으로부터 출력된 지도 이미지에 대해 압축/변경 등의 처리를 수행하고, 지도 이미지의 RGB 데이터에 기초하여 지도 이미지에 포함된 컬러들의 비율을 출력할 수 있다(2100).
구체적으로, 도 8을 참조하면, 제어부(130)는 지도 이미지의 컬러 정보를 RGB 형태로 변환하고, 이미지 크기를 미리 설정된 학습 데이터의 사이즈로 변환한 후, 각 픽셀의 RGB 정보를 추출하고, RGB의 3차원 데이터를 2차원 데이터로 변환시킨 후 K-평균 알고리즘을 적용하여 지도 이미지를 구성하는 제1 컬러의 비율과 제2 컬러의 비율과 제3 컬러의 비율을 출력할 수 있다.
즉, 제어부(130)는 지도 이미지를 압축하고 K-평균 알고리즘을 이용하여 압축된 지도 이미지를 컬러 별로 클러스터링할 수 있다.
지도 이미지가 제1 컬러. 제2 컬러 및 제3 컬러로 분류된 것을 가정하면, 제어부(130)는 각각의 컬러를 각각의 지형과 대응시킬 수 있다.
예를 들어, 제어부(130)는 회색(이하 '제1 컬러')을 도시(이하 '제1 지형')에 매칭시킬 수 있으며, 녹색(이하 '제2 컬러')을 산(이하 '제2 지형')에 매칭시킬 수 있으며, 검은색(이하 '제3 컬러')을 터널(이하 '제3 지형')에 매칭시킬 수 있다.
각각의 컬러와 대응되는 지형에 관한 정보는 데이터 베이스(120) 및/또는 메모리(132)에 저장되어 있을 수 있다.
이후, 제어부(130)는 제1 컬러로 클러스터링된 픽셀 개수의 비율, 제2 컬러로 클러스터링된 픽셀 개수의 비율 및 제3 컬러로 클러스터링된 픽셀 개수의 비율에 기초하여 제1 지형의 비율, 제2 지형의 비율 및 제3 지형의 비율을 결정할 수 있다.
예를 들어, 제어부(130)는 제1 지형의 비율을 60%로, 제2 지형의 비율을 30%로, 제3 지형의 비율을 10%로 결정할 수 있다.
이 때, 컬러의 종류와 지형은 1:1로 매칭하는 것이 아닐 수 있다. 예를 들어, 회색에 대응되는 지형도 도시이고, 베이지색에 대응되는 지형도 도시일 수 있다. 즉, 제1 컬러, 제2 컬러 및 제3 컬러 각각은 복수 개의 컬러를 포함할 수 있다.
도 9를 참조하면, 제어부(130)는 제1 컬러의 비율에 기초하여 제1 지형으로 분류된 복수의 음원들(126a, 126b, 126c, 126d) 중에서 제1 음원(126a)을 선택할 수 있으며, 제2 컬러의 비율에 기초하여 제2 지형으로 분류된 복수의 음원들(127a, 127b, 127c, 127d) 중에서 제2 음원(127c)을 선택할 수 있으며, 제3 컬러의 비율에 기초하여 제3 지형으로 분류된 복수의 음원들(128a, 128b, 128c, 128d) 중에서 제3 음원(128d)을 선택할 수 있다(2200).
이 때, 제어부(130)는 제1 컬러의 비율, 제2 컬러의 비율 및 제3 컬러의 비율 각각에 기초하여 제1 재생 기간, 제2 재생 기간 및 제3 재생 기간을 결정할 수 있다. 다시 말해서, 제어부(130)는 제1 지형의 비율, 제2 지형의 비율 및 제3 지형의 비율 각각에 기초하여 제1 재생 기간, 제2 재생 기간 및 제3 재생 기간을 결정할 수 있다.
예를 들어, 제어부(130)가 네비게이션 시스템으로부터 지도 이미지를 수신 받는 수신 주기가 20분이라고 가정하면, 제어부(130)는 제1 음원(126a)에 기초하여 생성되는 주행 사운드(이하 '제1 사운드')가 출력되는 제1 재생 기간을 12분으로, 제2 음원(127c)에 기초하여 생성되는 주행 사운드(이하 '제2 사운드')가 출력되는 제2 재생 기간을 6분으로, 제3 음원(128d)에 기초하여 생성되는 주행 사운드(이하 '제3 사운드')가 출력되는 제3 재생 기간을 2분으로 결정할 수 있다.
앞서 설명한 바와 같이, 제어부(130)는 제1 재생 기간 동안 차량의 출력 토크, 속도 및 가속도 페달 답력 중 적어도 하나에 기초하여 복수의 제1 목표 엔진음 차수를 결정하고, 선택된 제1 음원(126a)과 복수의 제1 목표 엔진음 차수에 기초하여 제1 사운드를 합성할 수 있다.
마찬가지로, 제어부(130)는 제2 재생 기간 동안 차량의 출력 토크, 속도 및 가속도 페달 답력 중 적어도 하나에 기초하여 복수의 제2 목표 엔진음 차수를 결정하고, 선택된 제2 음원(127c)과 복수의 제2목표 엔진음 차수에 기초하여 제2 사운드를 합성할 수 있으며, 제3 재생 기간 동안 차량의 출력 토크, 속도 및 가속도 페달 답력 중 적어도 하나에 기초하여 복수의 제3 목표 엔진음 차수를 결정하고, 선택된 제3 음원(128d)과 복수의 제3 목표 엔진음 차수에 기초하여 제3 사운드를 합성할 수 있다.
이 때, 제어부(130)는 제1 컬러의 비율(제1 지형의 비율), 제2 컬러의 비율(제2 지형의 비율) 및 제3 컬러의 비율(제3 지형의 비율)에 기초하여, 룩업 테이블에 따라 결정된 제1 목표 엔진음 차수들 중에서 일부의 제1 목표 엔진음 차수를 선택할 수 있다.
예를 들어, 차량의 출력 토크, 속도 및 가속도 페달 답력 중 적어도 하나에 기초하여 결정된 제1 목표 엔진음 차수가 1차, 2차, 6차, 7차인 경우에도 제1 컬러의 비율, 제2 컬러의 비율 및 제3 컬러의 비율에 따라 제1 목표 엔진음 차수로서 1차와 2차만을 선택할 수 있다.
일 예로, 산에 해당하는 제2 지형의 비율이 높을 수록, 보다 평온한 주행 사운드을 생성하기 위해 목표 엔진음 차수로서 낮은 차수만을 선택할 수 있다.
제어부(130)는 위와 같은 방법으로 복수의 제2 목표 엔진음 차수와 복수의 제3 목표 엔진음 차수를 결정하고, 제1 컬러의 비율, 제2 컬러의 비율 및 제3 컬러의 비율에 따라 일부의 제2 목표 엔진음 차수와 제3 목표 엔진음 차수를 선택할 수 있다.
제어부(130)는 데이터 베이스(120)에서 선택된 제1 음원(126a)과 선택된 제1 목표 엔진음 차수를 갖는 신호를 합성하여 제1 사운드를 생성할 수 있으며, 데이터 베이스(120)에서 선택된 제2 음원(127c)과 선택된 제2 목표 엔진음 차수를 갖는 신호를 합성하여 제2 사운드를 생성할 수 있으며, 데이터 베이스(120)에서 선택된 제3 음원(128d)과 선택된 제3 목표 엔진음 차수를 갖는 신호를 합성하여 제3 사운드를 생성할 수 있다(2300).
이후 제어부(130)는 스피커(140)를 제어하여 최종적으로 생성된 제1 사운드를 제1 재생 기간 동안 출력하고, 제2 사운드를 제2 재생 기간 동안 출력하고, 제3 사운드를 제3 재생 기간 동안 출력할 수 있다(2400).
이 때, 제어부(130)는 차량의 출력 토크, 속도 및 가속도 페달 답력 중 적어도 하나에 기초하여 제1 사운드, 제2 사운드 및 제3 사운드의 음량을 결정할 수 있다.
예를 들어, 제어부(130)는 차량의 출력 토크, 속도 및 가속도 페달 답력이 클수록 제1 사운드, 제2 사운드 및 제3 사운드의 음량을 크게 결정할 수 있다.
상술하여 설명한 일 실시예에 따른 차량 및 차량의 제어방법에 의하면, 차량 내에서 늘 동일한 주행 사운드가 아니라 현재 차량의 위치를 기반으로 한 지도 이미지를 자동으로 반영한 다양한 주행 사운드를 제공할 수 있다.
이에 따라, 운전자에게 주행의 즐거움을 줌으로써 차량의 상품성을 높일 수 있다.
한편, 개시된 실시예들은 컴퓨터에 의해 실행 가능한 명령어를 저장하는 기록매체의 형태로 구현될 수 있다. 명령어는 프로그램 코드의 형태로 저장될 수 있으며, 프로세서에 의해 실행되었을 때, 프로그램 모듈을 생성하여 개시된 실시예들의 동작을 수행할 수 있다. 기록매체는 컴퓨터로 읽을 수 있는 기록매체로 구현될 수 있다.
컴퓨터가 읽을 수 있는 기록매체로는 컴퓨터에 의하여 해독될 수 있는 명령어가 저장된 모든 종류의 기록 매체를 포함한다. 예를 들어, ROM(Read Only Memory), RAM(Random Access Memory), 자기 테이프, 자기 디스크, 플래쉬 메모리, 광 데이터 저장장치 등이 있을 수 있다.
이상에서와 같이 첨부된 도면을 참조하여 개시된 실시예들을 설명하였다. 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자는 본 발명의 기술적 사상이나 필수적인 특징을 변경하지 않고도, 개시된 실시예들과 다른 형태로 본 발명이 실시될 수 있음을 이해할 것이다. 개시된 실시예들은 예시적인 것이며, 한정적으로 해석되어서는 안 된다.
110: AVN 장치
120: 데이터 베이스
130: 제어부 140: 스피커
200: 네비게이션 단말
130: 제어부 140: 스피커
200: 네비게이션 단말
Claims (20)
- 제1 감정으로 분류된 복수의 음원들과 제2 감정으로 분류된 복수의 음원들을 저장하는 데이터 베이스;
스피커; 및
네비게이션 시스템에서 산출된 주행 경로 정보에 포함된 경로 안내 문구에 기초하여 랜드마크명을 출력하고, 상기 랜드마크명에 기초하여 상기 랜드마크명에 대응되는 상기 제1 감정의 비율과 상기 제2 감정의 비율을 출력하고, 상기 제1 감정의 비율에 기초하여 상기 제1 감정으로 분류된 복수의 음원들 중에서 제1 음원을 선택하고, 상기 제2 감정의 비율에 기초하여 상기 제2 감정으로 분류된 복수의 음원들 중에서 제2 음원을 선택하고, 상기 제1 감정의 비율과 상기 제2 감정의 비율에 기초하여 제1 재생 기간 및 제2 재생 기간을 결정하고, 상기 스피커가 상기 제1 재생 기간 동안 상기 제1 음원에 기초하여 생성된 제1 사운드를 출력하고 상기 제2 재생 기간 동안 상기 제2 음원에 기초하여 생성된 제2 사운드를 출력하도록 제어하는 제어부;를 포함하는 차량. - 제1항에 있어서,
상기 제어부는,
자연어 처리(Natural Language Processing; NLP)를 이용하여 상기 경로 안내 문구에 포함된 상기 랜드마크명을 출력하는 차량. - 제1항에 있어서,
상기 제어부는,
상기 랜드마크명을 LSTM(Long Short-Term Memory)의 입력 데이터로 이용하여 상기 랜드마크명에 대응되는 상기 제1 감정의 비율과 상기 제2 감정의 비율을 출력하는 차량. - 제1항에 있어서,
상기 제어부는,
상기 제1 사운드가 출력되는 상기 제1 재생 기간 동안의 차량의 출력 토크, 속도 및 가속도 페달 답력 중 적어도 하나에 기초하여 복수의 제1 목표 엔진음 차수를 결정하고, 상기 제1 음원과 상기 복수의 제1 목표 엔진음 차수에 기초하여 상기 제1 사운드를 합성하고,
상기 제2 사운드가 출력되는 상기 제2 재생 기간 동안의 상기 차량의 출력 토크, 속도 및 가속도 페달 답력 중 적어도 하나에 기초하여 복수의 제2목표 엔진음 차수를 결정하고, 상기 제2 음원과 상기 복수의 제2 목표 엔진음 차수에 기초하여 상기 제2 사운드를 합성하는 차량. - 제4항에 있어서,
상기 제어부는,
상기 제1 감정의 비율과 상기 제2 감정의 비율에 기초하여 상기 복수의 제1 목표 엔진음 차수 중 일부의 제1 목표 엔진음 차수를 선택하고, 상기 제1 음원과 상기 선택된 일부의 제1 목표 엔진음 차수에 기초하여 상기 제1 사운드를 합성하고,
상기 제1 감정의 비율과 상기 제2 감정의 비율에 기초하여 상기 복수의 제2 목표 엔진음 차수 중 일부의 제2 목표 엔진음 차수를 선택하고, 상기 제2 음원과 상기 선택된 일부의 제2 목표 엔진음 차수에 기초하여 상기 제2 사운드를 합성하는 차량. - 제1항에 있어서,
상기 제어부는,
차량의 출력 토크, 속도 및 가속도 페달 답력 중 적어도 하나에 기초하여 상기 제1 사운드 및 상기 제2 사운드의 음량을 결정하는 차량. - 제1항에 있어서,
상기 제1 감정 및 상기 제2 감정은,
행복, 기쁨, 슬픔, 활기, 공포, 분노, 평온 중 어느 하나인 차량. - 제1 지형으로 분류된 복수의 음원들과 제2 지형으로 분류된 복수의 음원들을 저장하는 데이터 베이스;
스피커; 및
네비게이션 시스템에서 출력되는 지도 이미지를 수신하고, 상기 지도 이미지를 처리하여 상기 지도 이미지를 구성하는 제1 컬러의 비율과 제2 컬러의 비율을 출력하고, 상기 제1 컬러의 비율에 기초하여 상기 제1 지형으로 분류된 복수의 음원들 중에서 제1 음원을 선택하고, 상기 제2 컬러의 비율에 기초하여 상기 제2 지형으로 분류된 복수의 음원들 중에서 제2 음원을 선택하고, 상기 제1 컬러의 비율과 상기 제2 컬러의 비율에 기초하여 제1 재생 기간 및 제2 재생 기간을 결정하고, 상기 스피커가 상기 제1 재생 기간 동안 상기 제1 음원에 기초하여 생성된 제1 사운드를 출력하고 상기 제2 재생 기간 동안 상기 제2 음원에 기초하여 생성된 제2 사운드를 출력하도록 제어하는 제어부;를 포함하는 차량. - 제8항에 있어서,
상기 제어부는,
상기 지도 이미지를 압축하고, K-평균 알고리즘(K-means algorithm)을 이용하여 상기 압축된 지도 이미지를 컬러 별로 클러스터링하는 차량. - 제8항에 있어서,
상기 제어부는,
상기 제1 컬러를 상기 제1 지형에 매칭시키고, 상기 제2 컬러를 상기 제2 지형에 매칭시키는 차량. - 제8항에 있어서,
상기 제어부는,
상기 제1 사운드가 출력되는 상기 제1 재생 기간 동안의 차량의 출력 토크, 속도 및 가속도 페달 답력 중 적어도 하나에 기초하여 복수의 제1 목표 엔진음 차수를 결정하고, 상기 제1 음원과 상기 복수의 제1 목표 엔진음 차수에 기초하여 상기 제1 사운드를 합성하고,
상기 제2 사운드가 출력되는 상기 제2 재생 기간 동안의 상기 차량의 출력 토크, 속도 및 가속도 페달 답력 중 적어도 하나에 기초하여 복수의 제2목표 엔진음 차수를 결정하고, 상기 제2 음원과 상기 복수의 제2 목표 엔진음 차수에 기초하여 상기 제2 사운드를 합성하는 차량. - 제11항에 있어서,
상기 제어부는,
상기 제1 컬러의 비율과 상기 제2 컬러의 비율에 기초하여 상기 복수의 제1 목표 엔진음 차수 중 일부의 제1 목표 엔진음 차수를 선택하고, 상기 제1 음원과 상기 선택된 일부의 제1 목표 엔진음 차수에 기초하여 상기 제1 사운드를 합성하고,
상기 제1 컬러의 비율과 상기 제2 컬러의 비율에 기초하여 상기 복수의 제2 목표 엔진음 차수 중 일부의 제2 목표 엔진음 차수를 선택하고, 상기 제2 음원과 상기 선택된 일부의 제2 목표 엔진음 차수에 기초하여 상기 제2 사운드를 합성하는 차량. - 제8항에 있어서,
상기 제어부는,
차량의 출력 토크, 속도 및 가속도 페달 답력 중 적어도 하나에 기초하여 상기 제1 사운드 및 상기 제2 사운드의 음량을 결정하는 차량. - 제8항에 있어서,
상기 제1 지형 및 상기 제2 지형은,
도시, 산, 강, 고속도로, 해변가, 터널 중 어느 하나인 차량. - 제1 감정으로 분류된 복수의 음원들과 제2 감정으로 분류된 복수의 음원들을 저장하는 데이터 베이스를 포함하는 차량의 제어방법에 있어서,
네비게이션 시스템에서 산출된 주행 경로 정보에 포함된 경로 안내 문구에 기초하여 랜드마크명을 출력하는 단계;
상기 랜드마크명에 기초하여 상기 랜드마크명에 대응되는 상기 제1 감정의 비율과 상기 제2 감정의 비율을 출력하는 단계;
상기 제1 감정의 비율에 기초하여 상기 제1 감정으로 분류된 복수의 음원들 중에서 제1 음원을 선택하고, 상기 제2 감정의 비율에 기초하여 상기 제2 감정으로 분류된 복수의 음원들 중에서 제2 음원을 선택하는 단계;
상기 제1 감정의 비율과 상기 제2 감정의 비율에 기초하여 제1 재생 기간 및 제2 재생 기간을 결정하는 단계;
스피커가 상기 제1 재생 기간 동안 상기 제1 음원에 기초하여 생성된 제1 사운드를 출력하고 상기 제2 재생 기간 동안 상기 제2 음원에 기초하여 생성된 제2 사운드를 출력하도록 제어하는 단계;를 포함하는 차량의 제어방법. - 제15항에 있어서,
상기 랜드마크명에 기초하여 상기 랜드마크명에 대응되는 상기 제1 감정의 비율과 상기 제2 감정의 비율을 출력하는 단계는,
자연어 처리(Natural Language Processing; NLP)를 이용하여 상기 경로 안내 문구에 포함된 상기 랜드마크명을 출력하는 단계;를 포함하는 차량의 제어방법. - 제15항에 있어서,
상기 랜드마크명에 기초하여 상기 랜드마크명에 대응되는 상기 제1 감정의 비율과 상기 제2 감정의 비율을 출력하는 단계는,
상기 랜드마크명을 LSTM(Long Short-Term Memory)의 입력 데이터로 이용하여 상기 랜드마크명에 대응되는 상기 제1 감정의 비율과 상기 제2 감정의 비율을 출력하는 단계;를 포함하는 차량의 제어방법. - 제1 지형으로 분류된 복수의 음원들과 제2 지형으로 분류된 복수의 음원들을 저장하는 데이터 베이스를 포함하는 차량의 제어방법에 있어서,
네비게이션 시스템에서 출력되는 지도 이미지를 수신하는 단계;
상기 지도 이미지를 처리하여 상기 지도 이미지를 구성하는 제1 컬러의 비율과 제2 컬러의 비율을 출력하는 단계;
상기 제1 컬러의 비율에 기초하여 상기 제1 지형으로 분류된 복수의 음원들 중에서 제1 음원을 선택하고, 상기 제2 컬러의 비율에 기초하여 상기 제2 지형으로 분류된 복수의 음원들 중에서 제2 음원을 선택하는 단계;
상기 제1 컬러의 비율과 상기 제2 컬러의 비율에 기초하여 제1 재생 기간 및 제2 재생 기간을 결정하는 단계;
스피커가 상기 제1 재생 기간 동안 상기 제1 음원에 기초하여 생성된 제1 사운드를 출력하고 상기 제2 재생 기간 동안 상기 제2 음원에 기초하여 생성된 제2 사운드를 출력하도록 제어하는 단계;를 포함하는 차량의 제어방법. - 제18항에 있어서,
상기 지도 이미지를 처리하여 상기 지도 이미지를 구성하는 제1 컬러의 비율과 제2 컬러의 비율을 출력하는 단계는,
상기 지도 이미지를 압축하고, K-평균 알고리즘(K-means algorithm)을 이용하여 상기 압축된 지도 이미지를 컬러 별로 클러스터링하는 단계;를 포함하는 차량의 제어방법. - 제18항에 있어서,
상기 제1 컬러의 비율에 기초하여 상기 제1 지형으로 분류된 복수의 음원들 중에서 제1 음원을 선택하고, 상기 제2 컬러의 비율에 기초하여 상기 제2 지형으로 분류된 복수의 음원들 중에서 제2 음원을 선택하는 단계는,
상기 제1 컬러를 상기 제1 지형에 매칭시키고, 상기 제2 컬러를 상기 제2 지형에 매칭시키는 단계;를 포함하는 차량의 제어방법.
Priority Applications (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020200077390A KR20210158706A (ko) | 2020-06-24 | 2020-06-24 | 차량 및 그 제어방법 |
US17/082,592 US11671754B2 (en) | 2020-06-24 | 2020-10-28 | Vehicle and method for controlling thereof |
CN202011254485.9A CN113829992A (zh) | 2020-06-24 | 2020-11-11 | 车辆及其控制方法 |
US18/139,838 US20230262383A1 (en) | 2020-06-24 | 2023-04-26 | Vehicle and method for controlling thereof |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020200077390A KR20210158706A (ko) | 2020-06-24 | 2020-06-24 | 차량 및 그 제어방법 |
Publications (1)
Publication Number | Publication Date |
---|---|
KR20210158706A true KR20210158706A (ko) | 2021-12-31 |
Family
ID=78962411
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020200077390A KR20210158706A (ko) | 2020-06-24 | 2020-06-24 | 차량 및 그 제어방법 |
Country Status (3)
Country | Link |
---|---|
US (2) | US11671754B2 (ko) |
KR (1) | KR20210158706A (ko) |
CN (1) | CN113829992A (ko) |
Family Cites Families (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7317386B2 (en) * | 2004-03-11 | 2008-01-08 | Bayerische Motoren Werke Aktiengesellschaft | Method and apparatus for the output of music information to an operator |
WO2007055099A1 (ja) * | 2005-11-09 | 2007-05-18 | Pioneer Corporation | 運転者精神状態情報提供システム |
KR100922458B1 (ko) * | 2006-12-06 | 2009-10-21 | 야마하 가부시키가이샤 | 차량용 악음 발생 장치, 악음 발생 방법 및 프로그램을기록한 컴퓨터로 판독가능한 기록 매체 |
US11067405B2 (en) * | 2010-06-07 | 2021-07-20 | Affectiva, Inc. | Cognitive state vehicle navigation based on image processing |
US10628741B2 (en) * | 2010-06-07 | 2020-04-21 | Affectiva, Inc. | Multimodal machine learning for emotion metrics |
TWI449410B (zh) * | 2011-07-29 | 2014-08-11 | Nat Univ Chung Cheng | Personalized Sorting Method of Internet Audio and Video Data |
KR20130065846A (ko) * | 2011-12-02 | 2013-06-20 | 삼성전자주식회사 | 사용자 감정 공유 장치 및 방법 |
US10082401B2 (en) * | 2013-10-25 | 2018-09-25 | Mitsubishi Electric Corporation | Movement support apparatus and movement support method |
KR101867198B1 (ko) * | 2013-12-05 | 2018-06-12 | 피에스티 가부시키가이샤 | 추정장치, 프로그램, 추정방법 및 추정시스템 |
CN107148636B (zh) * | 2015-01-14 | 2020-08-14 | 索尼公司 | 导航系统、客户终端装置、控制方法和存储介质 |
US9860667B2 (en) * | 2015-09-11 | 2018-01-02 | GM Global Technology Operations LLC | Vehicle sound enhancement |
US9721551B2 (en) | 2015-09-29 | 2017-08-01 | Amper Music, Inc. | Machines, systems, processes for automated music composition and generation employing linguistic and/or graphical icon based musical experience descriptions |
US20170262256A1 (en) * | 2016-03-10 | 2017-09-14 | Panasonic Automotive Systems Company of America, Division of Panasonic Corporation of North Americ | Environment based entertainment |
CN105893460B (zh) | 2016-03-22 | 2019-11-29 | 无锡五楼信息技术有限公司 | 一种基于人工智能技术的音乐自动创作方法及装置 |
KR101886534B1 (ko) | 2016-12-16 | 2018-08-09 | 아주대학교산학협력단 | 인공지능을 이용한 작곡 시스템 및 작곡 방법 |
US10684136B2 (en) * | 2017-02-28 | 2020-06-16 | International Business Machines Corporation | User-friendly navigation system |
KR101982345B1 (ko) | 2017-07-21 | 2019-05-24 | 주식회사 마인드셋 | 인공지능을 이용한 음악 생성 장치 및 방법 |
KR20190100543A (ko) | 2018-02-09 | 2019-08-29 | 삼성전자주식회사 | 전자장치 및 이를 이용한 인공지능 알고리즘 기반의 음악 작곡 방법 |
CN110364140B (zh) | 2019-06-11 | 2024-02-06 | 平安科技(深圳)有限公司 | 歌声合成模型的训练方法、装置、计算机设备以及存储介质 |
KR20190137727A (ko) | 2019-10-08 | 2019-12-11 | (주)오렌지디지트코리아 | 인공지능 뮤직박스 운용 시스템 |
-
2020
- 2020-06-24 KR KR1020200077390A patent/KR20210158706A/ko active Search and Examination
- 2020-10-28 US US17/082,592 patent/US11671754B2/en active Active
- 2020-11-11 CN CN202011254485.9A patent/CN113829992A/zh active Pending
-
2023
- 2023-04-26 US US18/139,838 patent/US20230262383A1/en active Pending
Also Published As
Publication number | Publication date |
---|---|
US20230262383A1 (en) | 2023-08-17 |
US11671754B2 (en) | 2023-06-06 |
US20210407491A1 (en) | 2021-12-30 |
CN113829992A (zh) | 2021-12-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US7881934B2 (en) | Method and system for adjusting the voice prompt of an interactive system based upon the user's state | |
CN111508482A (zh) | 语义理解及语音交互方法、装置、设备及存储介质 | |
CN111402925A (zh) | 语音调节的方法、装置、电子设备、车载系统和可读介质 | |
KR100922458B1 (ko) | 차량용 악음 발생 장치, 악음 발생 방법 및 프로그램을기록한 컴퓨터로 판독가능한 기록 매체 | |
CN108627176B (zh) | 屏幕亮度调节方法及相关产品 | |
US11514884B2 (en) | Driving sound library, apparatus for generating driving sound library and vehicle comprising driving sound library | |
US20220299335A1 (en) | Content-aware navigation instructions | |
US11188293B2 (en) | Playback sound provision device | |
TW201939214A (zh) | 車載音樂的匹配方法、裝置及車載智慧控制器 | |
CN111402879A (zh) | 车辆导航提示语音控制方法、装置、设备及介质 | |
US10068620B1 (en) | Affective sound augmentation for automotive applications | |
KR20210158706A (ko) | 차량 및 그 제어방법 | |
WO2021175735A1 (en) | Electronic device, method and computer program | |
JP6499438B2 (ja) | ナビゲーション装置、ナビゲーション方法、およびプログラム | |
US20190196780A1 (en) | Sound outputting device, sound outputting method, and sound outputting program storage medium | |
CN117425586A (zh) | 声音体验发生器 | |
WO2009139022A1 (ja) | 音声出力装置およびプログラム | |
CN112896177B (zh) | 确定车辆行驶速度的方法、装置、存储介质及电子设备 | |
CN115623146A (zh) | 一种生成特效视频的方法、装置、电子设备及存储介质 | |
WO2018234848A1 (en) | AFFECTIVE SOUND AMPLIFICATION FOR AUTOMOTIVE APPLICATIONS | |
CN115079989A (zh) | 车辆及其控制方法 | |
US20040167781A1 (en) | Voice output unit and navigation system | |
US20240025416A1 (en) | In-vehicle soundscape and melody generation system and method using continuously interpreted spatial contextualized information | |
CN116168704B (zh) | 语音交互的引导方法、装置、设备、介质及车辆 | |
JP5109397B2 (ja) | 車両用楽音発生装置及び楽音発生方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination |