KR20210158706A - 차량 및 그 제어방법 - Google Patents

차량 및 그 제어방법 Download PDF

Info

Publication number
KR20210158706A
KR20210158706A KR1020200077390A KR20200077390A KR20210158706A KR 20210158706 A KR20210158706 A KR 20210158706A KR 1020200077390 A KR1020200077390 A KR 1020200077390A KR 20200077390 A KR20200077390 A KR 20200077390A KR 20210158706 A KR20210158706 A KR 20210158706A
Authority
KR
South Korea
Prior art keywords
sound
ratio
emotion
color
vehicle
Prior art date
Application number
KR1020200077390A
Other languages
English (en)
Inventor
장경진
Original Assignee
현대자동차주식회사
기아 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 현대자동차주식회사, 기아 주식회사 filed Critical 현대자동차주식회사
Priority to KR1020200077390A priority Critical patent/KR20210158706A/ko
Priority to US17/082,592 priority patent/US11671754B2/en
Priority to CN202011254485.9A priority patent/CN113829992A/zh
Publication of KR20210158706A publication Critical patent/KR20210158706A/ko
Priority to US18/139,838 priority patent/US20230262383A1/en

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60QARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
    • B60Q5/00Arrangement or adaptation of acoustic signal devices
    • B60Q5/005Arrangement or adaptation of acoustic signal devices automatically actuated
    • B60Q5/008Arrangement or adaptation of acoustic signal devices automatically actuated for signaling silent vehicles, e.g. for warning that a hybrid or electric vehicle is approaching
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R3/00Circuits for transducers, loudspeakers or microphones
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3605Destination input or retrieval
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3605Destination input or retrieval
    • G01C21/3608Destination input or retrieval using speech input, e.g. using speech recognition
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3626Details of the output of route guidance instructions
    • G01C21/3629Guidance using speech or audio output, e.g. text-to-speech
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3626Details of the output of route guidance instructions
    • G01C21/3644Landmark guidance, e.g. using POIs or conspicuous other objects
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3667Display of a road map
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3697Output of additional, non-guidance related information, e.g. low fuel level
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/23Clustering techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/23Clustering techniques
    • G06F18/232Non-hierarchical techniques
    • G06F18/2321Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions
    • G06F18/23213Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions with fixed number of clusters, e.g. K-means clustering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/30Semantic analysis
    • G06K9/6223
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T9/00Image coding
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/56Extraction of image or video features relating to colour
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/0033Recording/reproducing or transmission of music for electrophonic musical instruments
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H7/00Instruments in which the tones are synthesised from a data store, e.g. computer organs
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10KSOUND-PRODUCING DEVICES; METHODS OR DEVICES FOR PROTECTING AGAINST, OR FOR DAMPING, NOISE OR OTHER ACOUSTIC WAVES IN GENERAL; ACOUSTICS NOT OTHERWISE PROVIDED FOR
    • G10K11/00Methods or devices for transmitting, conducting or directing sound in general; Methods or devices for protecting against, or for damping, noise or other acoustic waves in general
    • G10K11/16Methods or devices for protecting against, or for damping, noise or other acoustic waves in general
    • G10K11/175Methods or devices for protecting against, or for damping, noise or other acoustic waves in general using interference effects; Masking sound
    • G10K11/178Methods or devices for protecting against, or for damping, noise or other acoustic waves in general using interference effects; Masking sound by electro-acoustically regenerating the original acoustic waves in anti-phase
    • G10K11/1785Methods, e.g. algorithms; Devices
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10KSOUND-PRODUCING DEVICES; METHODS OR DEVICES FOR PROTECTING AGAINST, OR FOR DAMPING, NOISE OR OTHER ACOUSTIC WAVES IN GENERAL; ACOUSTICS NOT OTHERWISE PROVIDED FOR
    • G10K15/00Acoustics not otherwise provided for
    • G10K15/02Synthesis of acoustic waves
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R1/00Details of transducers, loudspeakers or microphones
    • H04R1/02Casings; Cabinets ; Supports therefor; Mountings therein
    • H04R1/025Arrangements for fixing loudspeaker transducers, e.g. in a box, furniture
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60YINDEXING SCHEME RELATING TO ASPECTS CROSS-CUTTING VEHICLE TECHNOLOGY
    • B60Y2200/00Type of vehicle
    • B60Y2200/90Vehicles comprising electric prime movers
    • B60Y2200/91Electric vehicles
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/279Recognition of textual entities
    • G06F40/289Phrasal analysis, e.g. finite state techniques or chunking
    • G06F40/295Named entity recognition
    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07CTIME OR ATTENDANCE REGISTERS; REGISTERING OR INDICATING THE WORKING OF MACHINES; GENERATING RANDOM NUMBERS; VOTING OR LOTTERY APPARATUS; ARRANGEMENTS, SYSTEMS OR APPARATUS FOR CHECKING NOT PROVIDED FOR ELSEWHERE
    • G07C5/00Registering or indicating the working of vehicles
    • G07C5/02Registering or indicating driving, working, idle, or waiting time only
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R2460/00Details of hearing devices, i.e. of ear- or headphones covered by H04R1/10 or H04R5/033 but not provided for in any of their subgroups, or of hearing aids covered by H04R25/00 but not provided for in any of its subgroups
    • H04R2460/07Use of position data from wide-area or local-area positioning systems in hearing devices, e.g. program or information selection
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R2499/00Aspects covered by H04R or H04S not otherwise provided for in their subgroups
    • H04R2499/10General applications
    • H04R2499/13Acoustic transducers and sound field adaptation in vehicles

Abstract

네비게이션 시스템으로부터 수신한 정보에 기초하여 다양한 음원을 선택하고 주행 사운드를 출력하는 차량은, 제1 감정으로 분류된 복수의 음원들과 제2 감정으로 분류된 복수의 음원들을 저장하는 데이터 베이스; 스피커; 및 네비게이션 시스템에서 산출된 주행 경로 정보에 포함된 경로 안내 문구에 기초하여 랜드마크명을 출력하고, 상기 랜드마크명에 기초하여 상기 랜드마크명에 대응되는 상기 제1 감정의 비율과 상기 제2 감정의 비율을 출력하고, 상기 제1 감정의 비율에 기초하여 상기 제1 감정으로 분류된 복수의 음원들 중에서 제1 음원을 선택하고, 상기 제2 감정의 비율에 기초하여 상기 제2 감정으로 분류된 복수의 음원들 중에서 제2 음원을 선택하고, 상기 제1 감정의 비율과 상기 제2 감정의 비율에 기초하여 제1 재생 기간 및 제2 재생 기간을 결정하고, 상기 스피커가 상기 제1 재생 기간 동안 상기 제1 음원에 기초하여 생성된 제1 사운드를 출력하고 상기 제2 재생 기간 동안 상기 제2 음원에 기초하여 생성된 제2 사운드를 출력하도록 제어하는 제어부;를 포함한다.

Description

차량 및 그 제어방법{VEHICLE AND CONTROL METHOD FOR THE SAME}
본 발명은 네비게이션 시스템으로부터 수신한 데이터에 기초하여 주행 사운드를 변경시키는 차량 및 그 제어방법에 관한 것이다.
현대 사회에서 자동차는 사람들이 가장 많이 이용하는 이동 수단으로서, 그 수는 점점 증가하고 있다. 과거에는 자동차는 단순히 이동 수단 이상의 의미는 존재하지 않았으나 현대사회에 들어와서는 자동차는 단순히 이동 수단을 넘어 자신을 표현하거나 드라이브를 즐기는 수단으로 많이 이용되어지고 있다.
이에 따라, 모터바이크나 경주용 자동차처럼 스피드를 즐기는 사람들이 많아지고 있는데 이러한 스피드를 즐기는 사람들은 단순한 자동차의 속도에서 나오는 속도감 뿐만 아니라 차량의 엔진에서 발생되는 작동음과 진동음으로부터도 많은 흥분을 느낀다. 이에 일부 운전자들은 자신이 원하는 주행 사운드를 얻기 위해 엔진을 개조하여 사용하기도 한다.
특히, 전기 차량의 경우 차량의 엔진에서 발생되는 작동음과 진동음이 부재하기 때문에, 스피커를 통해 인위적으로 생성된 주행 사운드를 출력하기도 한다.
다만, 차량에 제공되는 주행 사운드는 제조사가 미리 설계한 주행 사운드이기 때문에 운전자의 수요를 만족시키기 어렵다.
네비게이션 시스템으로부터 수신한 정보에 기초하여 다양한 음원을 선택하고 주행 사운드를 출력하는 차량 및 그 제어방법을 제공한다.
일 실시예에 따른 차량은, 제1 감정으로 분류된 복수의 음원들과 제2 감정으로 분류된 복수의 음원들을 저장하는 데이터 베이스; 스피커; 및 네비게이션 시스템에서 산출된 주행 경로 정보에 포함된 경로 안내 문구에 기초하여 랜드마크명을 출력하고, 상기 랜드마크명에 기초하여 상기 랜드마크명에 대응되는 상기 제1 감정의 비율과 상기 제2 감정의 비율을 출력하고, 상기 제1 감정의 비율에 기초하여 상기 제1 감정으로 분류된 복수의 음원들 중에서 제1 음원을 선택하고, 상기 제2 감정의 비율에 기초하여 상기 제2 감정으로 분류된 복수의 음원들 중에서 제2 음원을 선택하고, 상기 제1 감정의 비율과 상기 제2 감정의 비율에 기초하여 제1 재생 기간 및 제2 재생 기간을 결정하고, 상기 스피커가 상기 제1 재생 기간 동안 상기 제1 음원에 기초하여 생성된 제1 사운드를 출력하고 상기 제2 재생 기간 동안 상기 제2 음원에 기초하여 생성된 제2 사운드를 출력하도록 제어하는 제어부;를 포함할 수 있다.
또한, 상기 제어부는, 자연어 처리(Natural Language Processing; NLP)를 이용하여 상기 경로 안내 문구에 포함된 상기 랜드마크명을 출력할 수 있다.
또한, 상기 제어부는, 상기 랜드마크명을 LSTM(Long Short-Term Memory)의 입력 데이터로 이용하여 상기 랜드마크명에 대응되는 상기 제1 감정의 비율과 상기 제2 감정의 비율을 출력할 수 있다.
또한, 상기 제어부는, 상기 제1 사운드가 출력되는 상기 제1 재생 기간 동안의 차량의 출력 토크, 속도 및 가속도 페달 답력 중 적어도 하나에 기초하여 복수의 제1 목표 엔진음 차수를 결정하고, 상기 제1 음원과 상기 복수의 제1 목표 엔진음 차수에 기초하여 상기 제1 사운드를 합성하고, 상기 제2 사운드가 출력되는 상기 제2 재생 기간 동안의 상기 차량의 출력 토크, 속도 및 가속도 페달 답력 중 적어도 하나에 기초하여 복수의 제2목표 엔진음 차수를 결정하고, 상기 제2 음원과 상기 복수의 제2 목표 엔진음 차수에 기초하여 상기 제2 사운드를 합성할 수 있다.
또한, 상기 제어부는, 상기 제1 감정의 비율과 상기 제2 감정의 비율에 기초하여 상기 복수의 제1 목표 엔진음 차수 중 일부의 제1 목표 엔진음 차수를 선택하고, 상기 제1 음원과 상기 선택된 일부의 제1 목표 엔진음 차수에 기초하여 상기 제1 사운드를 합성하고, 상기 제1 감정의 비율과 상기 제2 감정의 비율에 기초하여 상기 복수의 제2 목표 엔진음 차수 중 일부의 제2 목표 엔진음 차수를 선택하고, 상기 제2 음원과 상기 선택된 일부의 제2 목표 엔진음 차수에 기초하여 상기 제2 사운드를 합성할 수 있다.
또한, 상기 제어부는, 차량의 출력 토크, 속도 및 가속도 페달 답력 중 적어도 하나에 기초하여 상기 제1 사운드 및 상기 제2 사운드의 음량을 결정할 수 있다.
또한, 상기 제1 감정 및 상기 제2 감정은, 행복, 기쁨, 슬픔, 활기, 공포, 분노, 평온 중 어느 하나일 수 있다.
다른 실시예에 따른 차량은, 제1 지형으로 분류된 복수의 음원들과 제2 지형으로 분류된 복수의 음원들을 저장하는 데이터 베이스; 스피커; 및 네비게이션 시스템에서 출력되는 지도 이미지를 수신하고, 상기 지도 이미지를 처리하여 상기 지도 이미지를 구성하는 제1 컬러의 비율과 제2 컬러의 비율을 출력하고, 상기 제1 컬러의 비율에 기초하여 상기 제1 지형으로 분류된 복수의 음원들 중에서 제1 음원을 선택하고, 상기 제2 컬러의 비율에 기초하여 상기 제2 지형으로 분류된 복수의 음원들 중에서 제2 음원을 선택하고, 상기 제1 컬러의 비율과 상기 제2 컬러의 비율에 기초하여 제1 재생 기간 및 제2 재생 기간을 결정하고, 상기 스피커가 상기 제1 재생 기간 동안 상기 제1 음원에 기초하여 생성된 제1 사운드를 출력하고 상기 제2 재생 기간 동안 상기 제2 음원에 기초하여 생성된 제2 사운드를 출력하도록 제어하는 제어부;를 포함할 수 있다.
또한, 상기 제어부는, 상기 지도 이미지를 압축하고, K-평균 알고리즘(K-means algorithm)을 이용하여 상기 압축된 지도 이미지를 컬러 별로 클러스터링할 수 있다.
또한, 상기 제어부는, 상기 제1 컬러를 상기 제1 지형에 매칭시키고, 상기 제2 컬러를 상기 제2 지형에 매칭시킬 수 있다.
또한, 상기 제어부는, 상기 제1 사운드가 출력되는 상기 제1 재생 기간 동안의 차량의 출력 토크, 속도 및 가속도 페달 답력 중 적어도 하나에 기초하여 복수의 제1 목표 엔진음 차수를 결정하고, 상기 제1 음원과 상기 복수의 제1 목표 엔진음 차수에 기초하여 상기 제1 사운드를 합성하고, 상기 제2 사운드가 출력되는 상기 제2 재생 기간 동안의 상기 차량의 출력 토크, 속도 및 가속도 페달 답력 중 적어도 하나에 기초하여 복수의 제2목표 엔진음 차수를 결정하고, 상기 제2 음원과 상기 복수의 제2 목표 엔진음 차수에 기초하여 상기 제2 사운드를 합성할 수 있다.
또한, 상기 제어부는, 상기 제1 컬러의 비율과 상기 제2 컬러의 비율에 기초하여 상기 복수의 제1 목표 엔진음 차수 중 일부의 제1 목표 엔진음 차수를 선택하고, 상기 제1 음원과 상기 선택된 일부의 제1 목표 엔진음 차수에 기초하여 상기 제1 사운드를 합성하고, 상기 제1 컬러의 비율과 상기 제2 컬러의 비율에 기초하여 상기 복수의 제2 목표 엔진음 차수 중 일부의 제2 목표 엔진음 차수를 선택하고, 상기 제2 음원과 상기 선택된 일부의 제2 목표 엔진음 차수에 기초하여 상기 제2 사운드를 합성할 수 있다.
또한, 상기 제어부는, 차량의 출력 토크, 속도 및 가속도 페달 답력 중 적어도 하나에 기초하여 상기 제1 사운드 및 상기 제2 사운드의 음량을 결정할 수 있다.
또한, 상기 제1 지형 및 상기 제2 지형은, 도시, 산, 강, 고속도로, 해변가, 터널 중 어느 하나일 수 있다.
일 실시예에 따른 차량의 제어방법은, 제1 감정으로 분류된 복수의 음원들과 제2 감정으로 분류된 복수의 음원들을 저장하는 데이터 베이스를 포함하는 차량의 제어방법에 있어서, 네비게이션 시스템에서 산출된 주행 경로 정보에 포함된 경로 안내 문구에 기초하여 랜드마크명을 출력하는 단계; 상기 랜드마크명에 기초하여 상기 랜드마크명에 대응되는 상기 제1 감정의 비율과 상기 제2 감정의 비율을 출력하는 단계; 상기 제1 감정의 비율에 기초하여 상기 제1 감정으로 분류된 복수의 음원들 중에서 제1 음원을 선택하고, 상기 제2 감정의 비율에 기초하여 상기 제2 감정으로 분류된 복수의 음원들 중에서 제2 음원을 선택하는 단계; 상기 제1 감정의 비율과 상기 제2 감정의 비율에 기초하여 제1 재생 기간 및 제2 재생 기간을 결정하는 단계; 스피커가 상기 제1 재생 기간 동안 상기 제1 음원에 기초하여 생성된 제1 사운드를 출력하고 상기 제2 재생 기간 동안 상기 제2 음원에 기초하여 생성된 제2 사운드를 출력하도록 제어하는 단계;를 포함할 수 있다.
또한, 상기 랜드마크명에 기초하여 상기 랜드마크명에 대응되는 상기 제1 감정의 비율과 상기 제2 감정의 비율을 출력하는 단계는, 자연어 처리(Natural Language Processing; NLP)를 이용하여 상기 경로 안내 문구에 포함된 상기 랜드마크명을 출력하는 단계;를 포함할 수 있다.
또한, 상기 랜드마크명에 기초하여 상기 랜드마크명에 대응되는 상기 제1 감정의 비율과 상기 제2 감정의 비율을 출력하는 단계는, 상기 랜드마크명을 LSTM(Long Short-Term Memory)의 입력 데이터로 이용하여 상기 랜드마크명에 대응되는 상기 제1 감정의 비율과 상기 제2 감정의 비율을 출력하는 단계;를 포함할 수 있다.
다른 실시예에 따른 차량의 제어방법은, 제1 지형으로 분류된 복수의 음원들과 제2 지형으로 분류된 복수의 음원들을 저장하는 데이터 베이스를 포함하는 차량의 제어방법에 있어서, 네비게이션 시스템에서 출력되는 지도 이미지를 수신하는 단계; 상기 지도 이미지를 처리하여 상기 지도 이미지를 구성하는 제1 컬러의 비율과 제2 컬러의 비율을 출력하는 단계; 상기 제1 컬러의 비율에 기초하여 상기 제1 지형으로 분류된 복수의 음원들 중에서 제1 음원을 선택하고, 상기 제2 컬러의 비율에 기초하여 상기 제2 지형으로 분류된 복수의 음원들 중에서 제2 음원을 선택하는 단계; 상기 제1 컬러의 비율과 상기 제2 컬러의 비율에 기초하여 제1 재생 기간 및 제2 재생 기간을 결정하는 단계; 스피커가 상기 제1 재생 기간 동안 상기 제1 음원에 기초하여 생성된 제1 사운드를 출력하고 상기 제2 재생 기간 동안 상기 제2 음원에 기초하여 생성된 제2 사운드를 출력하도록 제어하는 단계;를 포함할 수 있다.
또한, 상기 지도 이미지를 처리하여 상기 지도 이미지를 구성하는 제1 컬러의 비율과 제2 컬러의 비율을 출력하는 단계는, 상기 지도 이미지를 압축하고, K-평균 알고리즘(K-means algorithm)을 이용하여 상기 압축된 지도 이미지를 컬러 별로 클러스터링하는 단계;를 포함할 수 있다.
또한, 상기 제1 컬러의 비율에 기초하여 상기 제1 지형으로 분류된 복수의 음원들 중에서 제1 음원을 선택하고, 상기 제2 컬러의 비율에 기초하여 상기 제2 지형으로 분류된 복수의 음원들 중에서 제2 음원을 선택하는 단계는, 상기 제1 컬러를 상기 제1 지형에 매칭시키고, 상기 제2 컬러를 상기 제2 지형에 매칭시키는 단계;를 포함할 수 있다.
개시된 발명의 일 실시예에 따른 차량 및 그 제어방법에 따르면, 일률적인 주행 사운드를 출력하는 것이 아니라 네비게이션 시스템으로부터 수신한 정보에 기초하여 생성된 주행 사운드를 출력함으로써 사용자의 요구를 만족시킬 수 있다.
도 1은 일 실시예에 따른 차량의 내부를 도시한 도면이다.
도 2는 일 실시예에 따른 차량의 제어 블록도이다.
도 3은 일 실시예에 따른 차량의 제어 순서도이다.
도 4는 자연어 처리를 이용하여 경로 안내 문구에 포함된 랜드마크명을 출력하는 모습을 도시한 도면이다.
도 5는 인공 신경망 모델을 이용하여 랜드마크명에 대응되는 감정의 비율을 출력하는 과정을 나타낸 도면이다.
도 6은 감정의 비율에 기초하여 주행 사운드를 합성하는 과정을 나타낸 도면이다.
도 7은 다른 실시예에 따른 차량의 제어 순서도이다.
도 8은 특정 알고리즘을 이용하여 지도 이미지에 포함된 지형을 결정하는 모습을 도시한 도면이다.
도 9는 지형의 비율에 기초하여 주행 사운드를 합성하는 과정을 나타낸 도면이다.
명세서 전체에 걸쳐 동일 참조 부호는 동일 구성요소를 지칭한다. 본 명세서가 실시예들의 모든 요소들을 설명하는 것은 아니며, 본 발명이 속하는 기술분야에서 일반적인 내용 또는 실시예들 간에 중복되는 내용은 생략한다.
명세서 전체에서, 어떤 부분이 다른 부분과 "연결"되어 있다고 할 때, 이는 직접적으로 연결되어 있는 경우뿐 아니라, 간접적으로 연결되어 있는 경우를 포함하고, 간접적인 연결은 무선 통신망을 통해 연결되는 것을 포함한다.
또한, 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다.
단수의 표현은 문맥상 명백하게 예외가 있지 않는 한, 복수의 표현을 포함한다.
또한, "~부", "~기", "~블록", "~부재", "~모듈" 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미할 수 있다. 예를 들어, 상기 용어들은 FPGA(Field-Programmable Gate Array) / ASIC(Application Specific Integrated Circuit) 등 적어도 하나의 하드웨어, 메모리에 저장된 적어도 하나의 소프트웨어 또는 프로세서에 의하여 처리되는 적어도 하나의 프로세스를 의미할 수 있다.
각 단계들에 붙여지는 부호는 각 단계들을 식별하기 위해 사용되는 것으로 이들 부호는 각 단계들 상호 간의 순서를 나타내는 것이 아니며, 각 단계들은 문맥상 명백하게 특정 순서를 기재하지 않는 이상 명기된 순서와 다르게 실시될 수 있다.
이하에서는 첨부된 도면을 참조하여 일 측면에 따른 차량 및 그 제어방법에 관한 실시예를 상세하게 설명하도록 한다.
도 1은 일 실시예에 따른 차량의 내부를 도시한 도면이다.
도 1을 참조하면, 일 실시예에 따른 차량은 AVN 장치(110)와 스피커(140)를 포함할 수 있으며, 일 실시예에 따른 차량의 운전자는 네비게이션 단말(200)을 소유할 수 있다.
AVN(Audio Video Navigation) 장치(110)는 오디오(Audio), 비디오(Video), 네비게이션(Navigation), 텔레매틱스 단말 등이 하나로 통합된 멀티미디어 장치를 의미할 수 있다.
AVN 장치(110)는 사용자로부터 목적지를 설정 받고, 목적지와 차량의 현재 위치에 기초하여 주행 경로 정보를 산출하고, 산출된 주행 경로 정보를 표시함으로써 사용자에게 주행 경로를 안내할 수 있다.
구체적으로, AVN 장치(110)는 터치 입력 또는 음성 입력을 통해 사용자로부터 목적지의 명칭을 입력 받고 입력된 목적지의 명칭과 매칭되는 장소의 리스트를 표시함으로써, 사용자로 하여금 목적지의 선택을 요구할 수 있다.
또한, AVN 장치(110)는 사용자로부터 선택된 목적지에 따라 설정된 주행 경로에 기초하여 주행 경로 정보를 생성하고, 생성된 주행 경로 정보를 표시함으로써 차량의 주행 방향을 안내할 수 있다.
주행 경로 정보는 11시 방향, 1시 방향, 우회전, 5시 방향, 유턴, 8시 방향, 좌회전 등의 방향 정보를 의미하는 TBT 정보와, 주행 방향을 안내하기 위한 경로 안내 문구와, 차량이 주행 중인 현재 위치를 기준으로 한 지도 이미지를 포함할 수 있다. TBT 정보와 경로 안내 문구는 AVN 장치(110)의 오디오 시스템을 통해 음성으로 출력될 수도 있으며, TBT 정보와 경로 안내 문구와 지도 이미지는 AVN 장치(110)의 화면을 통해 시각적으로 출력될 수도 있다.
AVN 장치(110)는 차량의 센터페시아에 마련될 수 있으나, 이에 한정되는 것은 아니다.
운전자가 소유한 네비게이션 단말(200) 또한 AVN 장치(110)와 동일한 기능을 제공할 수 있다.
네비게이션 단말(200)은, 운전자의 스마트 폰, 태블릿 PC, 랩탑 등과 같은 사용자 단말을 의미할 수 있으며, 목적지까지의 경로를 안내하는 네비게이션 어플리케이션을 실행할 수 있는 모든 단말 장치를 의미할 수 있다.
차량과의 근거리 통신 및/또는 원거리 통신에 기초하여 네비게이션 단말(200)에 표시되는 화면은 차량의 AVN 장치(110)에 표시될 수도 있다.
이하에서는, 차량에 마련된 AVN 장치(110) 및/또는 운전자가 소유하고 있는 네비게이션 단말(200)을 네비게이션 시스템으로 총칭한다.
스피커(140)는 차량 내부에 각종 사운드를 출력할 수 있다. 이를 위한 스피커(140)는 차량의 양쪽 도어에 마련될 수 있으나, 차량 내부의 운전자가 출력되는 사운드를 청취할 수 있는 위치라면 제한 없이 마련될 수 있다.
스피커(140)는 전기 신호를 사운드로 변환하여 출력할 수 있는 모든 장치를 의미할 수 있다. 이를 위한 스피커(140)는 보이스 코일, 보이스 코일에 전류를 공급되는 전류의 크기를 조절하여 출력 사운드의 음량을 조절하는 앰프 등의 구성 요소를 포함할 수 있다.
도 2는 일 실시예에 따른 차량의 제어 블록도이다.
도 2를 참조하면, 일 실시예에 따른 차량은 주행 경로 정보를 산출하여 차량에 전달하는 네비게이션 시스템과, 복수의 음원들을 저장하는 데이터 베이스(120)와, 네비게이션 시스템으로부터 수신한 주행 경로 정보에 기초하여 데이터 베이스(120)로부터 음원을 선택하고, 선택된 음원에 기초하여 생성된 주행 사운드를 출력하도록 스피커(140)를 제어하는 제어부(130), 제어부(130)의 제어 신호에 기초하여 주행 사운드를 출력하는 스피커(140)를 포함할 수 있다.
네비게이션 시스템은 앞서 설명한 바와 같이 차량에 마련된 AVN 장치(110), 운전자가 소유하는 네비게이션 단말(200)을 포함할 수 있다.
네비게이션 시스템은 제어부(130)와 차량 내 통신 및/또는 근거리 통신 및/또는 원거리 통신을 수행하여 각종 정보를 전달할 수 있다.
예를 들어, 네비게이션 시스템에서 산출된 주행 경로 정보는 제어부(130)로 전달될 수 있다.
일 실시예에 따른 데이터 베이스(120)는 복수의 감정으로 분류된 복수의 음원들 및/또는 복수의 지형으로 분류된 복수의 음원들을 저장할 수 있다.
이 때, 복수의 감정은 행복, 기쁨, 슬픔, 활기, 공포, 분노, 평온 등의 감정을 포함할 수 있으며, 복수의 지형은 도시, 산, 강, 고속도로, 해변가, 터널 등의 지형을 포함할 수 있다.
예를 들어, 데이터 베이스(120)는 기쁨 상태로 분류된 복수의 음원들을 저장할 수 있으며, '기쁨' 상태로 분류된 복수의 음원들은 '기쁨' 상태의 비율에 따라 '기쁨' 상태의 카테고리 내에서 다시 한번 구별될 수 있다. 또한, 데이터 베이스(120)는 '도시' 지형으로 분류된 복수의 음원들을 저장할 수 있으며, 복수의 음원들은 '도시' 지형의 비율에 따라 '도시' 지형의 카테고리 내에서 다시 한번 구별될 수 있다.
구체적으로, 데이터 베이스(120)에는 운전자의 기쁨 상태의 비율이 75%이고, 슬픔 상태의 비율이 25%인 감정 상태에 대응되는 음원이 저장되어 있을 수 있다.
또한, 데이터 베이스(120)에는 지도 이미지의 도시 비율이 75%이고, 산 비율이 25%인 지형 비율에 대응되는 음원이 저장되어 있을 수 있다.
이를 위한 데이터 베이스(120)는 각종 정보를 저장하기 위해 캐쉬, ROM(Read Only Memory), PROM(Programmable ROM), EPROM(Erasable Programmable ROM), EEPROM(Electrically Erasable Programmable ROM) 및 플래쉬 메모리(Flash memory)와 같은 비휘발성 메모리 소자 또는 RAM(Random Access Memory)과 같은 휘발성 메모리 소자 또는 하드디스크 드라이브(Hard Disk Drive, HDD), CD-ROM과 같은 저장 매체 중 적어도 하나로 구현될 수 있으나, 이에 한정되지는 않는다. 데이터 베이스(120)는 별개의 칩으로 구현된 메모리일 수 있고, 제어부(130)에 대응하는 프로세서(131)와 단일 칩으로 구현될 수도 있다.
일 실시예에 따른 제어부(130)는 네비게이션 시스템으로부터 수신한 데이터에 기초하여 데이터 베이스(120)에 저장된 복수의 음원들 중에서 적어도 하나의 음원을 선택할 수 있다. 또한, 제어부(130)는 선택된 각각의 음원에 기초하여 주행 사운드를 합성하고, 합성된 주행 사운드가 출력되는 재생 기간을 결정할 수 있다.
예를 들어, 제어부(130)는 네비게이션 시스템에서 산출된 주행 경로 정보에 포함된 경로 안내 문구에 기초하여 랜드마크명을 출력하고, 랜드마크명에 기초하여 랜드마크명에 대응되는 제1 감정의 비율과 상기 제2 감정의 비율을 출력하고, 제1 감정의 비율에 기초하여 제1 감정으로 분류된 복수의 음원들 중에서 제1 음원을 선택하고, 제2 감정의 비율에 기초하여 제2 감정으로 분류된 복수의 음원들 중에서 제2 음원을 선택하고, 제1 감정의 비율과 제2 감정의 비율에 기초하여 제1 재생 기간 및 제2 재생 기간을 결정하고, 스피커(140)가 제1 재생 기간 동안 제1 음원에 기초하여 생성된 제1 사운드를 출력하고 제2 재생 기간 동안 제2 음원에 기초하여 생성된 제2 사운드를 출력하도록 제어할 수 있다.
다른 예로, 제어부(130)는 네비게이션 시스템에서 출력되는 지도 이미지를 수신하고, 지도 이미지를 처리하여 지도 이미지를 구성하는 제1 컬러의 비율과 제2 컬러의 비율을 출력하고, 제1 컬러의 비율에 기초하여 제1 지형으로 분류된 복수의 음원들 중에서 제1 음원을 선택하고, 제2 컬러의 비율에 기초하여 상기 제2 지형으로 분류된 복수의 음원들 중에서 제2 음원을 선택하고, 제1 컬러의 비율과 제2 컬러의 비율에 기초하여 제1 재생 기간 및 제2 재생 기간을 결정하고, 스피커(140)가 제1 재생 기간 동안 제1 음원에 기초하여 생성된 제1 사운드를 출력하고 제2 재생 기간 동안 제2 음원에 기초하여 생성된 제2 사운드를 출력하도록 제어할 수 있다.
이를 위한 제어부(130)는, 경로 안내 문구에 기초하여 랜드마크명을 출력하기 위한 프로그램과, 랜드마크명에 대응되는 감정들의 비율을 출력하는 프로그램과, 감정들의 비율에 기초하여 적어도 하나의 음원을 선택하는 프로그램과, 지도 이미지를 처리하여 지도 이미지를 구성하는 컬러의 비율을 출력하기 위한 프로그램과, 컬러의 비율에 대응되는 지형의 비율을 출력하기 위한 프로그램과, 지형의 비율에 기초하여 적어도 하나의 음원을 선택하는 프로그램과, 주행 사운드를 생성하기 위한 프로그램과, 스피커(140)를 제어하기 위한 프로그램 등의 다양한 프로그램을 저장하고 있는 적어도 하나의 메모리(132)와, 적어도 하나의 메모리(132)에 저장된 프로그램을 실행할 수 있는 적어도 하나의 프로세서(131)를 포함할 수 있다.
메모리(132)에 저장된 프로그램은, 자연어 처리(Natural Language Processing; NLP) 알고리즘, K-평균 알고리즘(K-means algorithm), CNN(Convolutional Neural Networks) 알고리즘, GAN(Generative Adversarial Networks) 알고리즘, RNN(Recurrent Neural Networks) 알고리즘, RNN 알고리즘의 일종인 LSTM(Long Short-Term Memory) 알고리즘, R-CNN(Region Based Convolutional Neural Networks) 알고리즘 등의 인공지능 알고리즘(인공 신경망 모델)을 포함할 수 있다.
일 실시예에 따른 스피커(140)는, 제어부(130)로부터 전달 받은 제어 신호(전기 신호)에 기초하여 주행 사운드로 출력할 수 있다.
이상으로 일 실시예에 따른 차량의 각종 구성 요소를 상세하게 설명하였다. 상술한 차량의 각종 구성 요소는 통상의 기술 범위 수준에서 자유롭게 변경될 수 있음은 물론이다. 이하에서는 상술한 차량의 각종 구성 요소를 이용한 차량의 제어방법을 상세하게 설명한다.
도 3은 일 실시예에 따른 차량의 제어 순서도이고, 도 4는 자연어 처리를 이용하여 경로 안내 문구에 포함된 랜드마크명을 출력하는 모습을 도시한 도면이고, 도 5는 인공 신경망 모델을 이용하여 랜드마크명에 대응되는 감정의 비율을 출력하는 과정을 나타낸 도면이고, 도 6은 감정의 비율에 기초하여 주행 사운드를 합성하는 과정을 나타낸 도면이다.
도 3을 참조하면, 일 실시예에 따른 제어부(130)는 내부 네비게이션 시스템(AVN 장치; 110) 및/또는 외부 네비게이션 시스템(네비게이션 단말; 200)으로부터 주행 경로 정보를 수신할 수 있다(1000).
제어부(130)는 주행 경로 정보에 포함된 경로 안내 문구에 기초하여 랜드마크명을 출력할 수 있다(1100). 이 때, 경로 안내 문구에 포함된 랜드마크명은 복수 개일 수 있다.
도 4를 참조하면, 주행 경로 정보에 포함된 경로 안내 문구는 '연신내역에서 좌회전'이라는 문구와, '숭례문 사거리에서 우회전'이라는 문구와 '남산공원 방면'이라는 문구를 포함할 수 있다.
제어부(130)는 자연어 처리(NLP)를 이용하여 경로 안내 문구에 포함된 랜드마크명을 출력할 수 있다. 예를 들어, '연신내역에서 좌회전'이라는 문구에서 '연신내역'이라는 랜드마크명만 추출할 수 있으며, '숭례문 사거리에서 우회전'이라는 문구에서 '숭례문'이라는 랜드마크명만 추출할 수 있으며, '남산공원 방면'이라는 문구에서 '남산공원'이라는 랜드마크명만 추출할 수 있다.
구체적으로, 제어부(130)는 목적지와 방향을 언급하는 조사 등에 대한 분리 규칙을 적용하여 주요 랜드마크명을 분리할 수 있다.
이후 제어부(130)는 랜드마크명에 대응되는 감정들의 비율을 출력할 수 있다(1200).
구체적으로, 도 5를 참조하면 제어부(130)는 랜드마크명을 LSTM의 입력 데이터로 이용하여 랜드마크명에 대응되는 감정들의 비율을 출력할 수 있다.
예를 들어, LSTM은 '연신내역'이라는 랜드마크명을 입력 데이터로 입력하였을 때, 기쁨 75%, 슬픔 20%의 감정 비율을 출력할 수 있으며, '숭례문'이라는 랜드마크명을 입력 데이터로 입력 하였을 때 평온 55%, 슬픔 18%의 감정 비율을 출력할 수 있으며, '남산공원'이라는 랜드마크명을 입력 데이터로 입력 하였을 때 기쁨 52%, 평온 4%의 감정 비율을 출력할 수 있다.
이를 위해, LSTM은 복수 개의 랜드마크명을 학습 데이터로 하여 미리 학습될 수 있다.
제어부(130)는 각각의 랜드마크명에 대응되는 감정 비율에 기초하여 랜드마크명에 대응되는 종합적인 감정 비율을 결정할 수 있다.
예를 들어, 제어부(130)는 '연신내역 - 숭례문 - 남산공원'으로 이어지는 경로에 대하여 기쁨(이하 '제1 감정') 60%, 평온(이하 '제2 감정') 30%, 슬픔(이하 '제3 감정') 10%의 감정 비율을 산출할 수 있다.
제어부(130)는 제1 감정의 비율에 기초하여 제1 음원을 선택할 수 있으며, 제2 감정의 비율에 기초하여 제2 음원을 선택할 수 있으며, 제3 감정의 비율에 기초하여 제3 음원을 선택할 수 있다(1300).
이 때, 제1 음원은 데이터 베이스(120)에서 제1 감정으로 분류되어 저장된 음원들 중 어느 하나를 의미할 수 있으며, 제2 음원은 데이터 베이스(120)에서 제2 감정으로 분류되어 저장된 음원들 중 어느 하나를 의미할 수 있으며, 제3 음원은 데이터 베이스(120)에서 제3 감정으로 분류되어 저장된 음원들 중 어느 하나를 의미할 수 있다.
이 때, 제어부(130)는 제1 감정의 비율, 제2 감정의 비율 및 제3 감정의 비율 각각에 기초하여 제1 재생 기간, 제2 재생 기간 및 제3 재생 기간을 결정할 수 있다.
예를 들어, '연신내역 - 숭례문 - 남산공원'으로 이어지는 경로의 예상 주행 시간이 20분이라고 가정하면, 제어부(130)는 제1 음원에 기초하여 생성되는 주행 사운드(이하 '제1 사운드')가 출력되는 제1 재생 기간을 12분으로, 제2 음원에 기초하여 생성되는 주행 사운드(이하 '제2 사운드')가 출력되는 제2 재생 기간을 6분으로, 제3 음원에 기초하여 생성되는 주행 사운드(이하 '제3 사운드')가 출력되는 제3 재생 기간을 2분으로 결정할 수 있다.
제어부(130)는 제1 음원, 제2 음원 및 제3 음원에 기초하여 제1 사운드, 제2 사운드 및 제3 사운드를 생성할 수 있다(1400).
도 5를 참조하면 제어부(130)는 데이터 베이스(120)에서 제1 감정으로 분류된 복수의 음원들(121a, 121b, 121c, 121d) 중에서 제1 감정의 비율에 대응되는 음원(121a)을 선택할 수 있다.
또한, 제어부(130)는 데이터 베이스(120)에서 제2 감정으로 분류된 복수의 음원들(125a, 125b, 125c, 125d) 중에서 제2 감정의 비율에 대응되는 음원(125c)을 선택할 수 있다.
또한, 제어부(130)는 데이터 베이스(120)에서 제3 감정으로 분류된 복수의 음원들(124a, 124b, 124c, 124d) 중에서 제3 감정의 비율에 대응되는 음원(124b)을 선택할 수 있다.
제어부(130)는 제1 재생 기간 동안 차량의 출력 토크, 속도 및 가속도 페달 답력 중 적어도 하나에 기초하여 복수의 제1 목표 엔진음 차수를 결정하고, 선택된 제1 음원(121a)과 복수의 제1 목표 엔진음 차수에 기초하여 제1 사운드를 합성할 수 있다.
마찬가지로, 제어부(130)는 제2 재생 기간 동안 차량의 출력 토크, 속도 및 가속도 페달 답력 중 적어도 하나에 기초하여 복수의 제2 목표 엔진음 차수를 결정하고, 선택된 제2 음원(125c)과 복수의 제2목표 엔진음 차수에 기초하여 제2 사운드를 합성할 수 있으며, 제3 재생 기간 동안 차량의 출력 토크, 속도 및 가속도 페달 답력 중 적어도 하나에 기초하여 복수의 제3 목표 엔진음 차수를 결정하고, 선택된 제3 음원(124b)과 복수의 제3 목표 엔진음 차수에 기초하여 제3 사운드를 합성할 수 있다.
전기 차량의 경우 엔진을 갖고 있지 않으므로, 엔진 RPM에 기초하여 목표 엔진음 차수를 선택할 수가 없다. 따라서, 제어부(130)는 차량의 출력 토크, 속도 및 가속도 페달 답력 중 적어도 하나에 기초하여 엔진이 있는 차량이라고 가정하였을 때의 RPM을 추정하고, 엔진 RPM에 기초하여 복수의 목표 엔진음 차수를 결정할 수 있다.
즉, 데이터 베이스(120) 또는 메모리(132)는 차량의 특정 출력 토크, 특정 속도 및 특정 가속도 페달 답력과 목표 엔진음 차수 사이의 관계를 나타내는 룩업 테이블을 저장할 수 있으며, 제어부(130)는 데이터 베이스(120) 또는 메모리(132)에 저장된 룩업 테이블에 기초하여 복수의 목표 엔진음 차수를 결정할 수 있다.
제어부(130)는 제1 감정의 비율, 제2 감정의 비율 및 제3 감정의 비율에 기초하여, 룩업 테이블에 따라 결정된 제1 목표 엔진음 차수들 중에서 일부의 제1 목표 엔진음 차수를 선택할 수 있다.
예를 들어, 차량의 출력 토크, 속도 및 가속도 페달 답력 중 적어도 하나에 기초하여 결정된 제1 목표 엔진음 차수가 1차, 2차, 6차, 7차인 경우에도 제1 감정의 비율, 제2 감정의 비율 및 제3 감정의 비율에 따라 제1 목표 엔진음 차수로서 1차와 2차만을 선택할 수 있다.
일 예로, 평온 상태에 해당하는 제2 감정의 비율이 높을 수록, 보다 평온한 주행 사운드을 생성하기 위해 목표 엔진음 차수로서 낮은 차수만을 선택할 수 있다.
제어부(130)는 위와 같은 방법으로 복수의 제2 목표 엔진음 차수와 복수의 제3 목표 엔진음 차수를 결정하고, 제1 감정의 비율, 제2 감정의 비율 및 제3 감정의 비율에 따라 제2 목표 엔진음 차수와 제3 목표 엔진음 차수를 선택할 수 있다.
제어부(130)는 데이터 베이스(120)에서 선택된 제1 음원(121a)과 선택된 제1 목표 엔진음 차수를 갖는 신호를 합성하여 제1 사운드를 생성할 수 있으며, 데이터 베이스(120)에서 선택된 제2 음원(125c)과 선택된 제2 목표 엔진음 차수를 갖는 신호를 합성하여 제2 사운드를 생성할 수 있으며, 데이터 베이스(120)에서 선택된 제3 음원(124b)과 선택된 제3 목표 엔진음 차수를 갖는 신호를 합성하여 제3 사운드를 생성할 수 있다.
합성에 사용되는 목표 엔진음 차수를 갖는 신호는 메모리(132) 또는 데이터 베이스(120)에 저장되어 있을 수 있다.
이후 제어부(130)는 스피커(140)를 제어하여 최종적으로 생성된 제1 사운드를 제1 재생 기간 동안 출력하고, 제2 사운드를 제2 재생 기간 동안 출력하고, 제3 사운드를 제3 재생 기간 동안 출력할 수 있다(1500).
이 때, 제어부(130)는 차량의 출력 토크, 속도 및 가속도 페달 답력 중 적어도 하나에 기초하여 제1 사운드, 제2 사운드 및 제3 사운드의 음량을 결정할 수 있다.
예를 들어, 제어부(130)는 차량의 출력 토크, 속도 및 가속도 페달 답력이 클수록 제1 사운드, 제2 사운드 및 제3 사운드의 음량을 크게 결정할 수 있다.
상술하여 설명한 일 실시예에 따른 차량 및 차량의 제어방법에 의하면, 차량 내에서 늘 동일한 주행 사운드가 아니라 주행 경로에 포함된 랜드마크명을 자동으로 반영한 다양한 주행 사운드를 제공할 수 있다.
이에 따라, 운전자에게 주행의 즐거움을 줌으로써 차량의 상품성을 높일 수 있다.
이하에서는 도 7 내지 도 9를 참조하여 다른 실시예에 따른 차량의 제어방법을 상세하게 설명한다.
도 7은 다른 실시예에 따른 차량의 제어 순서도이고, 도 8은 특정 알고리즘을 이용하여 지도 이미지에 포함된 지형을 결정하는 모습을 도시한 도면이고, 도 9는 지형의 비율에 기초하여 주행 사운드를 합성하는 과정을 나타낸 도면이다.
도 7을 참조하면, 일 실시예에 따른 제어부(130)는 내부 네비게이션 시스템(AVN 장치; 110) 및/또는 외부 네비게이션 시스템(네비게이션 단말; 200)으로부터 지도 이미지를 수신할 수 있다(2000). 이 때, 제어부(130)는 미리 설정된 간격마다 지도 이미지를 수신할 수 있다.
제어부(130)는 네비게이션 시스템으로부터 출력된 지도 이미지에 대해 압축/변경 등의 처리를 수행하고, 지도 이미지의 RGB 데이터에 기초하여 지도 이미지에 포함된 컬러들의 비율을 출력할 수 있다(2100).
구체적으로, 도 8을 참조하면, 제어부(130)는 지도 이미지의 컬러 정보를 RGB 형태로 변환하고, 이미지 크기를 미리 설정된 학습 데이터의 사이즈로 변환한 후, 각 픽셀의 RGB 정보를 추출하고, RGB의 3차원 데이터를 2차원 데이터로 변환시킨 후 K-평균 알고리즘을 적용하여 지도 이미지를 구성하는 제1 컬러의 비율과 제2 컬러의 비율과 제3 컬러의 비율을 출력할 수 있다.
즉, 제어부(130)는 지도 이미지를 압축하고 K-평균 알고리즘을 이용하여 압축된 지도 이미지를 컬러 별로 클러스터링할 수 있다.
지도 이미지가 제1 컬러. 제2 컬러 및 제3 컬러로 분류된 것을 가정하면, 제어부(130)는 각각의 컬러를 각각의 지형과 대응시킬 수 있다.
예를 들어, 제어부(130)는 회색(이하 '제1 컬러')을 도시(이하 '제1 지형')에 매칭시킬 수 있으며, 녹색(이하 '제2 컬러')을 산(이하 '제2 지형')에 매칭시킬 수 있으며, 검은색(이하 '제3 컬러')을 터널(이하 '제3 지형')에 매칭시킬 수 있다.
각각의 컬러와 대응되는 지형에 관한 정보는 데이터 베이스(120) 및/또는 메모리(132)에 저장되어 있을 수 있다.
이후, 제어부(130)는 제1 컬러로 클러스터링된 픽셀 개수의 비율, 제2 컬러로 클러스터링된 픽셀 개수의 비율 및 제3 컬러로 클러스터링된 픽셀 개수의 비율에 기초하여 제1 지형의 비율, 제2 지형의 비율 및 제3 지형의 비율을 결정할 수 있다.
예를 들어, 제어부(130)는 제1 지형의 비율을 60%로, 제2 지형의 비율을 30%로, 제3 지형의 비율을 10%로 결정할 수 있다.
이 때, 컬러의 종류와 지형은 1:1로 매칭하는 것이 아닐 수 있다. 예를 들어, 회색에 대응되는 지형도 도시이고, 베이지색에 대응되는 지형도 도시일 수 있다. 즉, 제1 컬러, 제2 컬러 및 제3 컬러 각각은 복수 개의 컬러를 포함할 수 있다.
도 9를 참조하면, 제어부(130)는 제1 컬러의 비율에 기초하여 제1 지형으로 분류된 복수의 음원들(126a, 126b, 126c, 126d) 중에서 제1 음원(126a)을 선택할 수 있으며, 제2 컬러의 비율에 기초하여 제2 지형으로 분류된 복수의 음원들(127a, 127b, 127c, 127d) 중에서 제2 음원(127c)을 선택할 수 있으며, 제3 컬러의 비율에 기초하여 제3 지형으로 분류된 복수의 음원들(128a, 128b, 128c, 128d) 중에서 제3 음원(128d)을 선택할 수 있다(2200).
이 때, 제어부(130)는 제1 컬러의 비율, 제2 컬러의 비율 및 제3 컬러의 비율 각각에 기초하여 제1 재생 기간, 제2 재생 기간 및 제3 재생 기간을 결정할 수 있다. 다시 말해서, 제어부(130)는 제1 지형의 비율, 제2 지형의 비율 및 제3 지형의 비율 각각에 기초하여 제1 재생 기간, 제2 재생 기간 및 제3 재생 기간을 결정할 수 있다.
예를 들어, 제어부(130)가 네비게이션 시스템으로부터 지도 이미지를 수신 받는 수신 주기가 20분이라고 가정하면, 제어부(130)는 제1 음원(126a)에 기초하여 생성되는 주행 사운드(이하 '제1 사운드')가 출력되는 제1 재생 기간을 12분으로, 제2 음원(127c)에 기초하여 생성되는 주행 사운드(이하 '제2 사운드')가 출력되는 제2 재생 기간을 6분으로, 제3 음원(128d)에 기초하여 생성되는 주행 사운드(이하 '제3 사운드')가 출력되는 제3 재생 기간을 2분으로 결정할 수 있다.
앞서 설명한 바와 같이, 제어부(130)는 제1 재생 기간 동안 차량의 출력 토크, 속도 및 가속도 페달 답력 중 적어도 하나에 기초하여 복수의 제1 목표 엔진음 차수를 결정하고, 선택된 제1 음원(126a)과 복수의 제1 목표 엔진음 차수에 기초하여 제1 사운드를 합성할 수 있다.
마찬가지로, 제어부(130)는 제2 재생 기간 동안 차량의 출력 토크, 속도 및 가속도 페달 답력 중 적어도 하나에 기초하여 복수의 제2 목표 엔진음 차수를 결정하고, 선택된 제2 음원(127c)과 복수의 제2목표 엔진음 차수에 기초하여 제2 사운드를 합성할 수 있으며, 제3 재생 기간 동안 차량의 출력 토크, 속도 및 가속도 페달 답력 중 적어도 하나에 기초하여 복수의 제3 목표 엔진음 차수를 결정하고, 선택된 제3 음원(128d)과 복수의 제3 목표 엔진음 차수에 기초하여 제3 사운드를 합성할 수 있다.
이 때, 제어부(130)는 제1 컬러의 비율(제1 지형의 비율), 제2 컬러의 비율(제2 지형의 비율) 및 제3 컬러의 비율(제3 지형의 비율)에 기초하여, 룩업 테이블에 따라 결정된 제1 목표 엔진음 차수들 중에서 일부의 제1 목표 엔진음 차수를 선택할 수 있다.
예를 들어, 차량의 출력 토크, 속도 및 가속도 페달 답력 중 적어도 하나에 기초하여 결정된 제1 목표 엔진음 차수가 1차, 2차, 6차, 7차인 경우에도 제1 컬러의 비율, 제2 컬러의 비율 및 제3 컬러의 비율에 따라 제1 목표 엔진음 차수로서 1차와 2차만을 선택할 수 있다.
일 예로, 산에 해당하는 제2 지형의 비율이 높을 수록, 보다 평온한 주행 사운드을 생성하기 위해 목표 엔진음 차수로서 낮은 차수만을 선택할 수 있다.
제어부(130)는 위와 같은 방법으로 복수의 제2 목표 엔진음 차수와 복수의 제3 목표 엔진음 차수를 결정하고, 제1 컬러의 비율, 제2 컬러의 비율 및 제3 컬러의 비율에 따라 일부의 제2 목표 엔진음 차수와 제3 목표 엔진음 차수를 선택할 수 있다.
제어부(130)는 데이터 베이스(120)에서 선택된 제1 음원(126a)과 선택된 제1 목표 엔진음 차수를 갖는 신호를 합성하여 제1 사운드를 생성할 수 있으며, 데이터 베이스(120)에서 선택된 제2 음원(127c)과 선택된 제2 목표 엔진음 차수를 갖는 신호를 합성하여 제2 사운드를 생성할 수 있으며, 데이터 베이스(120)에서 선택된 제3 음원(128d)과 선택된 제3 목표 엔진음 차수를 갖는 신호를 합성하여 제3 사운드를 생성할 수 있다(2300).
이후 제어부(130)는 스피커(140)를 제어하여 최종적으로 생성된 제1 사운드를 제1 재생 기간 동안 출력하고, 제2 사운드를 제2 재생 기간 동안 출력하고, 제3 사운드를 제3 재생 기간 동안 출력할 수 있다(2400).
이 때, 제어부(130)는 차량의 출력 토크, 속도 및 가속도 페달 답력 중 적어도 하나에 기초하여 제1 사운드, 제2 사운드 및 제3 사운드의 음량을 결정할 수 있다.
예를 들어, 제어부(130)는 차량의 출력 토크, 속도 및 가속도 페달 답력이 클수록 제1 사운드, 제2 사운드 및 제3 사운드의 음량을 크게 결정할 수 있다.
상술하여 설명한 일 실시예에 따른 차량 및 차량의 제어방법에 의하면, 차량 내에서 늘 동일한 주행 사운드가 아니라 현재 차량의 위치를 기반으로 한 지도 이미지를 자동으로 반영한 다양한 주행 사운드를 제공할 수 있다.
이에 따라, 운전자에게 주행의 즐거움을 줌으로써 차량의 상품성을 높일 수 있다.
한편, 개시된 실시예들은 컴퓨터에 의해 실행 가능한 명령어를 저장하는 기록매체의 형태로 구현될 수 있다. 명령어는 프로그램 코드의 형태로 저장될 수 있으며, 프로세서에 의해 실행되었을 때, 프로그램 모듈을 생성하여 개시된 실시예들의 동작을 수행할 수 있다. 기록매체는 컴퓨터로 읽을 수 있는 기록매체로 구현될 수 있다.
컴퓨터가 읽을 수 있는 기록매체로는 컴퓨터에 의하여 해독될 수 있는 명령어가 저장된 모든 종류의 기록 매체를 포함한다. 예를 들어, ROM(Read Only Memory), RAM(Random Access Memory), 자기 테이프, 자기 디스크, 플래쉬 메모리, 광 데이터 저장장치 등이 있을 수 있다.
이상에서와 같이 첨부된 도면을 참조하여 개시된 실시예들을 설명하였다. 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자는 본 발명의 기술적 사상이나 필수적인 특징을 변경하지 않고도, 개시된 실시예들과 다른 형태로 본 발명이 실시될 수 있음을 이해할 것이다. 개시된 실시예들은 예시적인 것이며, 한정적으로 해석되어서는 안 된다.
110: AVN 장치 120: 데이터 베이스
130: 제어부 140: 스피커
200: 네비게이션 단말

Claims (20)

  1. 제1 감정으로 분류된 복수의 음원들과 제2 감정으로 분류된 복수의 음원들을 저장하는 데이터 베이스;
    스피커; 및
    네비게이션 시스템에서 산출된 주행 경로 정보에 포함된 경로 안내 문구에 기초하여 랜드마크명을 출력하고, 상기 랜드마크명에 기초하여 상기 랜드마크명에 대응되는 상기 제1 감정의 비율과 상기 제2 감정의 비율을 출력하고, 상기 제1 감정의 비율에 기초하여 상기 제1 감정으로 분류된 복수의 음원들 중에서 제1 음원을 선택하고, 상기 제2 감정의 비율에 기초하여 상기 제2 감정으로 분류된 복수의 음원들 중에서 제2 음원을 선택하고, 상기 제1 감정의 비율과 상기 제2 감정의 비율에 기초하여 제1 재생 기간 및 제2 재생 기간을 결정하고, 상기 스피커가 상기 제1 재생 기간 동안 상기 제1 음원에 기초하여 생성된 제1 사운드를 출력하고 상기 제2 재생 기간 동안 상기 제2 음원에 기초하여 생성된 제2 사운드를 출력하도록 제어하는 제어부;를 포함하는 차량.
  2. 제1항에 있어서,
    상기 제어부는,
    자연어 처리(Natural Language Processing; NLP)를 이용하여 상기 경로 안내 문구에 포함된 상기 랜드마크명을 출력하는 차량.
  3. 제1항에 있어서,
    상기 제어부는,
    상기 랜드마크명을 LSTM(Long Short-Term Memory)의 입력 데이터로 이용하여 상기 랜드마크명에 대응되는 상기 제1 감정의 비율과 상기 제2 감정의 비율을 출력하는 차량.
  4. 제1항에 있어서,
    상기 제어부는,
    상기 제1 사운드가 출력되는 상기 제1 재생 기간 동안의 차량의 출력 토크, 속도 및 가속도 페달 답력 중 적어도 하나에 기초하여 복수의 제1 목표 엔진음 차수를 결정하고, 상기 제1 음원과 상기 복수의 제1 목표 엔진음 차수에 기초하여 상기 제1 사운드를 합성하고,
    상기 제2 사운드가 출력되는 상기 제2 재생 기간 동안의 상기 차량의 출력 토크, 속도 및 가속도 페달 답력 중 적어도 하나에 기초하여 복수의 제2목표 엔진음 차수를 결정하고, 상기 제2 음원과 상기 복수의 제2 목표 엔진음 차수에 기초하여 상기 제2 사운드를 합성하는 차량.
  5. 제4항에 있어서,
    상기 제어부는,
    상기 제1 감정의 비율과 상기 제2 감정의 비율에 기초하여 상기 복수의 제1 목표 엔진음 차수 중 일부의 제1 목표 엔진음 차수를 선택하고, 상기 제1 음원과 상기 선택된 일부의 제1 목표 엔진음 차수에 기초하여 상기 제1 사운드를 합성하고,
    상기 제1 감정의 비율과 상기 제2 감정의 비율에 기초하여 상기 복수의 제2 목표 엔진음 차수 중 일부의 제2 목표 엔진음 차수를 선택하고, 상기 제2 음원과 상기 선택된 일부의 제2 목표 엔진음 차수에 기초하여 상기 제2 사운드를 합성하는 차량.
  6. 제1항에 있어서,
    상기 제어부는,
    차량의 출력 토크, 속도 및 가속도 페달 답력 중 적어도 하나에 기초하여 상기 제1 사운드 및 상기 제2 사운드의 음량을 결정하는 차량.
  7. 제1항에 있어서,
    상기 제1 감정 및 상기 제2 감정은,
    행복, 기쁨, 슬픔, 활기, 공포, 분노, 평온 중 어느 하나인 차량.
  8. 제1 지형으로 분류된 복수의 음원들과 제2 지형으로 분류된 복수의 음원들을 저장하는 데이터 베이스;
    스피커; 및
    네비게이션 시스템에서 출력되는 지도 이미지를 수신하고, 상기 지도 이미지를 처리하여 상기 지도 이미지를 구성하는 제1 컬러의 비율과 제2 컬러의 비율을 출력하고, 상기 제1 컬러의 비율에 기초하여 상기 제1 지형으로 분류된 복수의 음원들 중에서 제1 음원을 선택하고, 상기 제2 컬러의 비율에 기초하여 상기 제2 지형으로 분류된 복수의 음원들 중에서 제2 음원을 선택하고, 상기 제1 컬러의 비율과 상기 제2 컬러의 비율에 기초하여 제1 재생 기간 및 제2 재생 기간을 결정하고, 상기 스피커가 상기 제1 재생 기간 동안 상기 제1 음원에 기초하여 생성된 제1 사운드를 출력하고 상기 제2 재생 기간 동안 상기 제2 음원에 기초하여 생성된 제2 사운드를 출력하도록 제어하는 제어부;를 포함하는 차량.
  9. 제8항에 있어서,
    상기 제어부는,
    상기 지도 이미지를 압축하고, K-평균 알고리즘(K-means algorithm)을 이용하여 상기 압축된 지도 이미지를 컬러 별로 클러스터링하는 차량.
  10. 제8항에 있어서,
    상기 제어부는,
    상기 제1 컬러를 상기 제1 지형에 매칭시키고, 상기 제2 컬러를 상기 제2 지형에 매칭시키는 차량.
  11. 제8항에 있어서,
    상기 제어부는,
    상기 제1 사운드가 출력되는 상기 제1 재생 기간 동안의 차량의 출력 토크, 속도 및 가속도 페달 답력 중 적어도 하나에 기초하여 복수의 제1 목표 엔진음 차수를 결정하고, 상기 제1 음원과 상기 복수의 제1 목표 엔진음 차수에 기초하여 상기 제1 사운드를 합성하고,
    상기 제2 사운드가 출력되는 상기 제2 재생 기간 동안의 상기 차량의 출력 토크, 속도 및 가속도 페달 답력 중 적어도 하나에 기초하여 복수의 제2목표 엔진음 차수를 결정하고, 상기 제2 음원과 상기 복수의 제2 목표 엔진음 차수에 기초하여 상기 제2 사운드를 합성하는 차량.
  12. 제11항에 있어서,
    상기 제어부는,
    상기 제1 컬러의 비율과 상기 제2 컬러의 비율에 기초하여 상기 복수의 제1 목표 엔진음 차수 중 일부의 제1 목표 엔진음 차수를 선택하고, 상기 제1 음원과 상기 선택된 일부의 제1 목표 엔진음 차수에 기초하여 상기 제1 사운드를 합성하고,
    상기 제1 컬러의 비율과 상기 제2 컬러의 비율에 기초하여 상기 복수의 제2 목표 엔진음 차수 중 일부의 제2 목표 엔진음 차수를 선택하고, 상기 제2 음원과 상기 선택된 일부의 제2 목표 엔진음 차수에 기초하여 상기 제2 사운드를 합성하는 차량.
  13. 제8항에 있어서,
    상기 제어부는,
    차량의 출력 토크, 속도 및 가속도 페달 답력 중 적어도 하나에 기초하여 상기 제1 사운드 및 상기 제2 사운드의 음량을 결정하는 차량.
  14. 제8항에 있어서,
    상기 제1 지형 및 상기 제2 지형은,
    도시, 산, 강, 고속도로, 해변가, 터널 중 어느 하나인 차량.
  15. 제1 감정으로 분류된 복수의 음원들과 제2 감정으로 분류된 복수의 음원들을 저장하는 데이터 베이스를 포함하는 차량의 제어방법에 있어서,
    네비게이션 시스템에서 산출된 주행 경로 정보에 포함된 경로 안내 문구에 기초하여 랜드마크명을 출력하는 단계;
    상기 랜드마크명에 기초하여 상기 랜드마크명에 대응되는 상기 제1 감정의 비율과 상기 제2 감정의 비율을 출력하는 단계;
    상기 제1 감정의 비율에 기초하여 상기 제1 감정으로 분류된 복수의 음원들 중에서 제1 음원을 선택하고, 상기 제2 감정의 비율에 기초하여 상기 제2 감정으로 분류된 복수의 음원들 중에서 제2 음원을 선택하는 단계;
    상기 제1 감정의 비율과 상기 제2 감정의 비율에 기초하여 제1 재생 기간 및 제2 재생 기간을 결정하는 단계;
    스피커가 상기 제1 재생 기간 동안 상기 제1 음원에 기초하여 생성된 제1 사운드를 출력하고 상기 제2 재생 기간 동안 상기 제2 음원에 기초하여 생성된 제2 사운드를 출력하도록 제어하는 단계;를 포함하는 차량의 제어방법.
  16. 제15항에 있어서,
    상기 랜드마크명에 기초하여 상기 랜드마크명에 대응되는 상기 제1 감정의 비율과 상기 제2 감정의 비율을 출력하는 단계는,
    자연어 처리(Natural Language Processing; NLP)를 이용하여 상기 경로 안내 문구에 포함된 상기 랜드마크명을 출력하는 단계;를 포함하는 차량의 제어방법.
  17. 제15항에 있어서,
    상기 랜드마크명에 기초하여 상기 랜드마크명에 대응되는 상기 제1 감정의 비율과 상기 제2 감정의 비율을 출력하는 단계는,
    상기 랜드마크명을 LSTM(Long Short-Term Memory)의 입력 데이터로 이용하여 상기 랜드마크명에 대응되는 상기 제1 감정의 비율과 상기 제2 감정의 비율을 출력하는 단계;를 포함하는 차량의 제어방법.
  18. 제1 지형으로 분류된 복수의 음원들과 제2 지형으로 분류된 복수의 음원들을 저장하는 데이터 베이스를 포함하는 차량의 제어방법에 있어서,
    네비게이션 시스템에서 출력되는 지도 이미지를 수신하는 단계;
    상기 지도 이미지를 처리하여 상기 지도 이미지를 구성하는 제1 컬러의 비율과 제2 컬러의 비율을 출력하는 단계;
    상기 제1 컬러의 비율에 기초하여 상기 제1 지형으로 분류된 복수의 음원들 중에서 제1 음원을 선택하고, 상기 제2 컬러의 비율에 기초하여 상기 제2 지형으로 분류된 복수의 음원들 중에서 제2 음원을 선택하는 단계;
    상기 제1 컬러의 비율과 상기 제2 컬러의 비율에 기초하여 제1 재생 기간 및 제2 재생 기간을 결정하는 단계;
    스피커가 상기 제1 재생 기간 동안 상기 제1 음원에 기초하여 생성된 제1 사운드를 출력하고 상기 제2 재생 기간 동안 상기 제2 음원에 기초하여 생성된 제2 사운드를 출력하도록 제어하는 단계;를 포함하는 차량의 제어방법.
  19. 제18항에 있어서,
    상기 지도 이미지를 처리하여 상기 지도 이미지를 구성하는 제1 컬러의 비율과 제2 컬러의 비율을 출력하는 단계는,
    상기 지도 이미지를 압축하고, K-평균 알고리즘(K-means algorithm)을 이용하여 상기 압축된 지도 이미지를 컬러 별로 클러스터링하는 단계;를 포함하는 차량의 제어방법.
  20. 제18항에 있어서,
    상기 제1 컬러의 비율에 기초하여 상기 제1 지형으로 분류된 복수의 음원들 중에서 제1 음원을 선택하고, 상기 제2 컬러의 비율에 기초하여 상기 제2 지형으로 분류된 복수의 음원들 중에서 제2 음원을 선택하는 단계는,
    상기 제1 컬러를 상기 제1 지형에 매칭시키고, 상기 제2 컬러를 상기 제2 지형에 매칭시키는 단계;를 포함하는 차량의 제어방법.
KR1020200077390A 2020-06-24 2020-06-24 차량 및 그 제어방법 KR20210158706A (ko)

Priority Applications (4)

Application Number Priority Date Filing Date Title
KR1020200077390A KR20210158706A (ko) 2020-06-24 2020-06-24 차량 및 그 제어방법
US17/082,592 US11671754B2 (en) 2020-06-24 2020-10-28 Vehicle and method for controlling thereof
CN202011254485.9A CN113829992A (zh) 2020-06-24 2020-11-11 车辆及其控制方法
US18/139,838 US20230262383A1 (en) 2020-06-24 2023-04-26 Vehicle and method for controlling thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200077390A KR20210158706A (ko) 2020-06-24 2020-06-24 차량 및 그 제어방법

Publications (1)

Publication Number Publication Date
KR20210158706A true KR20210158706A (ko) 2021-12-31

Family

ID=78962411

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200077390A KR20210158706A (ko) 2020-06-24 2020-06-24 차량 및 그 제어방법

Country Status (3)

Country Link
US (2) US11671754B2 (ko)
KR (1) KR20210158706A (ko)
CN (1) CN113829992A (ko)

Family Cites Families (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7317386B2 (en) * 2004-03-11 2008-01-08 Bayerische Motoren Werke Aktiengesellschaft Method and apparatus for the output of music information to an operator
WO2007055099A1 (ja) * 2005-11-09 2007-05-18 Pioneer Corporation 運転者精神状態情報提供システム
KR100922458B1 (ko) * 2006-12-06 2009-10-21 야마하 가부시키가이샤 차량용 악음 발생 장치, 악음 발생 방법 및 프로그램을기록한 컴퓨터로 판독가능한 기록 매체
US11067405B2 (en) * 2010-06-07 2021-07-20 Affectiva, Inc. Cognitive state vehicle navigation based on image processing
US10628741B2 (en) * 2010-06-07 2020-04-21 Affectiva, Inc. Multimodal machine learning for emotion metrics
TWI449410B (zh) * 2011-07-29 2014-08-11 Nat Univ Chung Cheng Personalized Sorting Method of Internet Audio and Video Data
KR20130065846A (ko) * 2011-12-02 2013-06-20 삼성전자주식회사 사용자 감정 공유 장치 및 방법
US10082401B2 (en) * 2013-10-25 2018-09-25 Mitsubishi Electric Corporation Movement support apparatus and movement support method
KR101867198B1 (ko) * 2013-12-05 2018-06-12 피에스티 가부시키가이샤 추정장치, 프로그램, 추정방법 및 추정시스템
CN107148636B (zh) * 2015-01-14 2020-08-14 索尼公司 导航系统、客户终端装置、控制方法和存储介质
US9860667B2 (en) * 2015-09-11 2018-01-02 GM Global Technology Operations LLC Vehicle sound enhancement
US9721551B2 (en) 2015-09-29 2017-08-01 Amper Music, Inc. Machines, systems, processes for automated music composition and generation employing linguistic and/or graphical icon based musical experience descriptions
US20170262256A1 (en) * 2016-03-10 2017-09-14 Panasonic Automotive Systems Company of America, Division of Panasonic Corporation of North Americ Environment based entertainment
CN105893460B (zh) 2016-03-22 2019-11-29 无锡五楼信息技术有限公司 一种基于人工智能技术的音乐自动创作方法及装置
KR101886534B1 (ko) 2016-12-16 2018-08-09 아주대학교산학협력단 인공지능을 이용한 작곡 시스템 및 작곡 방법
US10684136B2 (en) * 2017-02-28 2020-06-16 International Business Machines Corporation User-friendly navigation system
KR101982345B1 (ko) 2017-07-21 2019-05-24 주식회사 마인드셋 인공지능을 이용한 음악 생성 장치 및 방법
KR20190100543A (ko) 2018-02-09 2019-08-29 삼성전자주식회사 전자장치 및 이를 이용한 인공지능 알고리즘 기반의 음악 작곡 방법
CN110364140B (zh) 2019-06-11 2024-02-06 平安科技(深圳)有限公司 歌声合成模型的训练方法、装置、计算机设备以及存储介质
KR20190137727A (ko) 2019-10-08 2019-12-11 (주)오렌지디지트코리아 인공지능 뮤직박스 운용 시스템

Also Published As

Publication number Publication date
US20230262383A1 (en) 2023-08-17
US11671754B2 (en) 2023-06-06
US20210407491A1 (en) 2021-12-30
CN113829992A (zh) 2021-12-24

Similar Documents

Publication Publication Date Title
US7881934B2 (en) Method and system for adjusting the voice prompt of an interactive system based upon the user's state
CN111508482A (zh) 语义理解及语音交互方法、装置、设备及存储介质
CN111402925A (zh) 语音调节的方法、装置、电子设备、车载系统和可读介质
KR100922458B1 (ko) 차량용 악음 발생 장치, 악음 발생 방법 및 프로그램을기록한 컴퓨터로 판독가능한 기록 매체
CN108627176B (zh) 屏幕亮度调节方法及相关产品
US11514884B2 (en) Driving sound library, apparatus for generating driving sound library and vehicle comprising driving sound library
US20220299335A1 (en) Content-aware navigation instructions
US11188293B2 (en) Playback sound provision device
TW201939214A (zh) 車載音樂的匹配方法、裝置及車載智慧控制器
CN111402879A (zh) 车辆导航提示语音控制方法、装置、设备及介质
US10068620B1 (en) Affective sound augmentation for automotive applications
KR20210158706A (ko) 차량 및 그 제어방법
WO2021175735A1 (en) Electronic device, method and computer program
JP6499438B2 (ja) ナビゲーション装置、ナビゲーション方法、およびプログラム
US20190196780A1 (en) Sound outputting device, sound outputting method, and sound outputting program storage medium
CN117425586A (zh) 声音体验发生器
WO2009139022A1 (ja) 音声出力装置およびプログラム
CN112896177B (zh) 确定车辆行驶速度的方法、装置、存储介质及电子设备
CN115623146A (zh) 一种生成特效视频的方法、装置、电子设备及存储介质
WO2018234848A1 (en) AFFECTIVE SOUND AMPLIFICATION FOR AUTOMOTIVE APPLICATIONS
CN115079989A (zh) 车辆及其控制方法
US20040167781A1 (en) Voice output unit and navigation system
US20240025416A1 (en) In-vehicle soundscape and melody generation system and method using continuously interpreted spatial contextualized information
CN116168704B (zh) 语音交互的引导方法、装置、设备、介质及车辆
JP5109397B2 (ja) 車両用楽音発生装置及び楽音発生方法

Legal Events

Date Code Title Description
A201 Request for examination