KR20220000655A - 주행음 라이브러리, 주행음 라이브러리 생성 장치 및 주행음 라이브러리를 포함하는 차량 - Google Patents
주행음 라이브러리, 주행음 라이브러리 생성 장치 및 주행음 라이브러리를 포함하는 차량 Download PDFInfo
- Publication number
- KR20220000655A KR20220000655A KR1020200078536A KR20200078536A KR20220000655A KR 20220000655 A KR20220000655 A KR 20220000655A KR 1020200078536 A KR1020200078536 A KR 1020200078536A KR 20200078536 A KR20200078536 A KR 20200078536A KR 20220000655 A KR20220000655 A KR 20220000655A
- Authority
- KR
- South Korea
- Prior art keywords
- driving
- sound
- sound sources
- source
- theme
- Prior art date
Links
- 239000011295 pitch Substances 0.000 claims description 16
- 238000000034 method Methods 0.000 claims description 10
- 230000015654 memory Effects 0.000 description 14
- 238000010586 diagram Methods 0.000 description 7
- 238000013528 artificial neural network Methods 0.000 description 5
- 238000013527 convolutional neural network Methods 0.000 description 2
- 208000023514 Barrett esophagus Diseases 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000000306 recurrent effect Effects 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 230000006403 short-term memory Effects 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60Q—ARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
- B60Q5/00—Arrangement or adaptation of acoustic signal devices
- B60Q5/005—Arrangement or adaptation of acoustic signal devices automatically actuated
- B60Q5/008—Arrangement or adaptation of acoustic signal devices automatically actuated for signaling silent vehicles, e.g. for warning that a hybrid or electric vehicle is approaching
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04R—LOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
- H04R3/00—Circuits for transducers, loudspeakers or microphones
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/60—Information retrieval; Database structures therefor; File system structures therefor of audio data
- G06F16/61—Indexing; Data structures therefor; Storage structures
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60R—VEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
- B60R11/00—Arrangements for holding or mounting articles, not otherwise provided for
- B60R11/02—Arrangements for holding or mounting articles, not otherwise provided for for radio sets, television sets, telephones, or the like; Arrangement of controls thereof
- B60R11/0217—Arrangements for holding or mounting articles, not otherwise provided for for radio sets, television sets, telephones, or the like; Arrangement of controls thereof for loud-speakers
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/26—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
- G01C21/34—Route searching; Route guidance
- G01C21/36—Input/output arrangements for on-board computers
- G01C21/3626—Details of the output of route guidance instructions
- G01C21/3629—Guidance using speech or audio output, e.g. text-to-speech
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/60—Information retrieval; Database structures therefor; File system structures therefor of audio data
- G06F16/65—Clustering; Classification
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H1/00—Details of electrophonic musical instruments
- G10H1/36—Accompaniment arrangements
- G10H1/38—Chord
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10K—SOUND-PRODUCING DEVICES; METHODS OR DEVICES FOR PROTECTING AGAINST, OR FOR DAMPING, NOISE OR OTHER ACOUSTIC WAVES IN GENERAL; ACOUSTICS NOT OTHERWISE PROVIDED FOR
- G10K11/00—Methods or devices for transmitting, conducting or directing sound in general; Methods or devices for protecting against, or for damping, noise or other acoustic waves in general
- G10K11/16—Methods or devices for protecting against, or for damping, noise or other acoustic waves in general
- G10K11/175—Methods or devices for protecting against, or for damping, noise or other acoustic waves in general using interference effects; Masking sound
- G10K11/178—Methods or devices for protecting against, or for damping, noise or other acoustic waves in general using interference effects; Masking sound by electro-acoustically regenerating the original acoustic waves in anti-phase
- G10K11/1785—Methods, e.g. algorithms; Devices
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10K—SOUND-PRODUCING DEVICES; METHODS OR DEVICES FOR PROTECTING AGAINST, OR FOR DAMPING, NOISE OR OTHER ACOUSTIC WAVES IN GENERAL; ACOUSTICS NOT OTHERWISE PROVIDED FOR
- G10K15/00—Acoustics not otherwise provided for
- G10K15/02—Synthesis of acoustic waves
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10K—SOUND-PRODUCING DEVICES; METHODS OR DEVICES FOR PROTECTING AGAINST, OR FOR DAMPING, NOISE OR OTHER ACOUSTIC WAVES IN GENERAL; ACOUSTICS NOT OTHERWISE PROVIDED FOR
- G10K15/00—Acoustics not otherwise provided for
- G10K15/04—Sound-producing devices
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L17/00—Speaker identification or verification techniques
- G10L17/26—Recognition of special voice characteristics, e.g. for use in lie detectors; Recognition of animal voices
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/03—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
- G10L25/18—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters the extracted parameters being spectral information of each sub-band
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/48—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
- G10L25/51—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2210/00—Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
- G10H2210/031—Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal
- G10H2210/066—Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal for pitch analysis as part of wider processing for musical purposes, e.g. transcription, musical performance evaluation; Pitch recognition, e.g. in polyphonic sounds; Estimation or use of missing fundamental
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2210/00—Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
- G10H2210/571—Chords; Chord sequences
- G10H2210/616—Chord seventh, major or minor
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2210/00—Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
- G10H2210/571—Chords; Chord sequences
- G10H2210/621—Chord seventh dominant
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2220/00—Input/output interfacing specifically adapted for electrophonic musical tools or instruments
- G10H2220/155—User input interfaces for electrophonic musical instruments
- G10H2220/351—Environmental parameters, e.g. temperature, ambient light, atmospheric pressure, humidity, used as input for musical purposes
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2240/00—Data organisation or data communication aspects, specifically adapted for electrophonic musical tools or instruments
- G10H2240/121—Musical libraries, i.e. musical databases indexed by musical parameters, wavetables, indexing schemes using musical parameters, musical rule bases or knowledge bases, e.g. for automatic composing methods
- G10H2240/145—Sound library, i.e. involving the specific use of a musical database as a sound bank or wavetable; indexing, interfacing, protocols or processing therefor
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2250/00—Aspects of algorithms or signal processing methods without intrinsic musical character, yet specifically adapted for or used in electrophonic musical processing
- G10H2250/311—Neural networks for electrophonic musical instruments or musical processing, e.g. for musical recognition or control, automatic composition or improvisation
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2250/00—Aspects of algorithms or signal processing methods without intrinsic musical character, yet specifically adapted for or used in electrophonic musical processing
- G10H2250/315—Sound category-dependent sound synthesis processes [Gensound] for musical use; Sound category-specific synthesis-controlling parameters or control means therefor
- G10H2250/371—Gensound equipment, i.e. synthesizing sounds produced by man-made devices, e.g. machines
- G10H2250/381—Road, i.e. sounds which are part of a road, street or urban traffic soundscape, e.g. automobiles, bikes, trucks, traffic, vehicle horns, collisions
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2250/00—Aspects of algorithms or signal processing methods without intrinsic musical character, yet specifically adapted for or used in electrophonic musical processing
- G10H2250/541—Details of musical waveform synthesis, i.e. audio waveshape processing from individual wavetable samples, independently of their origin or of the sound they represent
- G10H2250/641—Waveform sampler, i.e. music samplers; Sampled music loop processing, wherein a loop is a sample of a performance that has been edited to repeat seamlessly without clicks or artifacts
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04R—LOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
- H04R1/00—Details of transducers, loudspeakers or microphones
- H04R1/02—Casings; Cabinets ; Supports therefor; Mountings therein
- H04R1/025—Arrangements for fixing loudspeaker transducers, e.g. in a box, furniture
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04R—LOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
- H04R1/00—Details of transducers, loudspeakers or microphones
- H04R1/02—Casings; Cabinets ; Supports therefor; Mountings therein
- H04R1/028—Casings; Cabinets ; Supports therefor; Mountings therein associated with devices performing functions other than acoustics, e.g. electric candles
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04R—LOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
- H04R2499/00—Aspects covered by H04R or H04S not otherwise provided for in their subgroups
- H04R2499/10—General applications
- H04R2499/13—Acoustic transducers and sound field adaptation in vehicles
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Multimedia (AREA)
- Acoustics & Sound (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Signal Processing (AREA)
- General Health & Medical Sciences (AREA)
- Automation & Control Theory (AREA)
- Human Computer Interaction (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computational Linguistics (AREA)
- Mechanical Engineering (AREA)
- Data Mining & Analysis (AREA)
- General Engineering & Computer Science (AREA)
- Databases & Information Systems (AREA)
- Software Systems (AREA)
- Spectroscopy & Molecular Physics (AREA)
- Fittings On The Vehicle Exterior For Carrying Loads, And Devices For Holding Or Mounting Articles (AREA)
Abstract
사용자에게 다양한 테마로 분류되는 주행음을 제공함으로써 사용자의 요구를 만족시킬 수 있는 주행음 라이브러리는, 복수의 카테고리로 분류된 복수의 소스 음원 각각의 주파수 특성과 시간 특성을 분석하는 단계; 상기 주파수 특성 및 시간 특성에 기초하여 상기 복수의 소스 음원 각각에 대응되는 화음을 결정하는 단계; 상기 복수의 소스 음원 각각에 대응되는 화음을 적용하여 상기 복수의 소스 음원 각각을 변조시킨 복수의 변조 음원을 생성하는 단계; 상기 복수의 소스 음원과 상기 복수의 변조 음원을 입력 데이터로 이용하여 복수의 주행음 음원을 생성하는 단계; 상기 복수의 주행음 음원과 미리 설정된 범위의 엔진 RPM에 대응되는 복수의 엔진음 차수에 기초하여 상기 복수의 주행음 음원의 피치를 변경하고 복수의 주행음을 생성하는 단계; 상기 복수의 주행음에 대한 테마별 스코어를 입력 받는 단계; 및 상기 복수의 주행음과 상기 복수의 주행음 각각의 테마를 연동하여 저장하는 단계;를 포함하는 방법으로 생성된다.
Description
본 발명은 다양한 테마의 주행음을 저장하는 주행음 라이브러리, 주행음 라이브러리 생성 장치 및 주행음 라이브러리를 포함하는 차량에 관한 것이다.
현대 사회에서 자동차는 사람들이 가장 많이 이용하는 이동 수단으로서, 그 수는 점점 증가하고 있다. 과거에는 자동차는 단순히 이동 수단 이상의 의미는 존재하지 않았으나 현대사회에 들어와서는 자동차는 단순히 이동 수단을 넘어 자신을 표현하거나 드라이브를 즐기는 수단으로 많이 이용되고 있다.
이에 따라, 모터바이크나 경주용 자동차처럼 스피드를 즐기는 사람들이 많아지고 있는데 이러한 스피드를 즐기는 사람들은 단순한 자동차의 속도에서 나오는 속도감뿐만 아니라 차량의 엔진에서 발생되는 작동음과 진동음으로부터도 많은 흥분을 느낀다. 이에 일부 운전자들은 자신이 원하는 주행음을 얻기 위해 엔진을 개조하여 사용하기도 한다.
특히, 전기 차량의 경우 차량의 엔진에서 발생되는 작동음과 진동음이 부재하기 때문에, 스피커를 통해 인위적으로 생성된 주행 사운드를 출력하기도 한다.
다만, 차량에 제공되는 주행음은 제조사가 미리 설계한 주행음이기 때문에 운전자의 수요를 만족시키기 어렵다.
다양한 테마로 분류되는 주행음을 저장하는 주행음 라이브러리, 주행음 라이브러리 생성 장치 및 주행음 라이브러리를 포함하는 차량을 제공한다.
일 실시예에 따른 주행음 라이브러리는, 복수의 카테고리로 분류된 복수의 소스 음원 각각의 주파수 특성과 시간 특성을 분석하는 단계; 상기 주파수 특성 및 시간 특성에 기초하여 상기 복수의 소스 음원 각각에 대응되는 화음을 결정하는 단계; 상기 복수의 소스 음원 각각에 대응되는 화음을 적용하여 상기 복수의 소스 음원 각각을 변조시킨 복수의 변조 음원을 생성하는 단계; 상기 복수의 소스 음원과 상기 복수의 변조 음원을 입력 데이터로 이용하여 복수의 주행음 음원을 생성하는 단계; 상기 복수의 주행음 음원과 미리 설정된 범위의 엔진 RPM에 대응되는 복수의 엔진음 차수에 기초하여 상기 복수의 주행음 음원의 피치를 변경하고 복수의 주행음을 생성하는 단계; 상기 복수의 주행음에 대한 테마별 스코어를 입력 받는 단계; 및 상기 복수의 주행음과 상기 복수의 주행음 각각의 테마를 연동하여 저장하는 단계;를 포함하는 방법으로 생성될 수 있다.
또한, 상기 복수의 카테고리로 분류된 복수의 소스 음원 각각의 주파수 특성과 시간 특성을 분석하는 단계는, 상기 복수의 소스 음원 각각을 주파수 대역 별로 분류하는 단계; 및 상기 복수의 소스 음원 각각을 연속성음을 갖는 제1 소스 음원과 단절성음을 갖는 제2 소스 음원으로 분류하는 단계;를 포함할 수 있다.
또한, 상기 복수의 소스 음원 각각에 대응되는 화음을 적용하여 상기 복수의 소스 음원 각각을 변조시킨 복수의 변조 음원을 생성하는 단계는, 상기 제1 소스 음원 또는 상기 제2 소스 음원 내에서 동일한 주파수 대역으로 분류되는 소스 음원들에 동일한 화음을 적용하는 단계;를 포함할 수 있다.
또한, 상기 복수의 소스 음원과 상기 복수의 변조 음원을 입력 데이터로 이용하여 복수의 주행음 음원을 생성하는 단계는, 상기 복수의 소스 음원을 시간 구간별로 분할한 소스 음원들을 WaveGAN의 입력 데이터로 이용하는 단계;를 포함할 수 있다.
또한, 상기 복수의 주행음 음원과 미리 설정된 범위의 엔진 RPM에 대응되는 복수의 엔진음 차수에 기초하여 상기 복수의 주행음 음원의 피치를 변경하고 복수의 주행음을 생성하는 단계는, 상기 복수의 주행음 음원의 주파수와 상기 복수의 엔진음 차수의 주파수 사이의 차이 값이 미리 설정된 값 이하가 되도록 상기 복수의 주행음 음원의 피치를 변경하는 단계;를 포함할 수 있다.
또한, 상기 복수의 주행음에 대한 테마별 스코어를 입력 받는 단계는, 상기 복수의 주행음 각각에 대한 제1 테마의 스코어 및 제2 테마의 스코어를 입력 받는 단계;를 포함하고, 상기 복수의 주행음과 상기 복수의 주행음 각각의 테마를 연동하여 주행음 라이브러리에 저장하는 단계는, 상기 복수의 주행음 중에서 상기 제1 테마의 스코어를 가장 높은 스코어로 갖는 주행음을 제1 테마로 분류하고, 상기 제2 테마의 스코어를 가장 높은 스코어로 갖는 주행음을 제2 테마로 분류하여 저장하는 단계;를 포함할 수 있다.
일 실시예에 따른 주행음 라이브러리 생성 장치는, 복수의 카테고리로 분류된 복수의 소스 음원을 저장하는 데이터 베이스;
상기 복수의 소스 음원 각각의 주파수 특성과 시간 특성을 분석하고, 상기 주파수 특성 및 시간 특성에 기초하여 상기 복수의 소스 음원 각각에 대응되는 화음을 결정하고, 상기 복수의 소스 음원 각각에 대응되는 화음을 적용하여 상기 복수의 소스 음원 각각을 변조시킨 복수의 변조 음원을 생성하고, 상기 복수의 소스 음원과 상기 복수의 변조 음원을 입력 데이터로 이용하여 복수의 주행음 음원을 생성하고, 상기 복수의 주행음 음원과 미리 설정된 범위의 엔진 RPM에 대응되는 복수의 엔진음 차수에 기초하여 상기 복수의 주행음 음원의 피치를 변경하고 복수의 주행음을 생성하는 적어도 하나의 프로세서; 상기 복수의 주행음에 대한 테마별 스코어를 입력 받는 입력부; 및 주행음 라이브러리;를 포함하고, 상기 적어도 하나의 프로세서는, 상기 복수의 주행음과 상기 복수의 주행음 각각의 테마를 연동하여 상기 주행음 라이브러리에 저장할 수 있다.
또한, 상기 적어도 하나의 프로세서는, 상기 복수의 소스 음원 각각을 주파수 대역 별로 분류하고, 상기 복수의 소스 음원 각각을 연속성음을 갖는 제1 소스 음원과 단절성음을 갖는 제2 소스 음원으로 분류할 수 있다.
또한, 상기 적어도 하나의 프로세서는, 상기 제1 소스 음원 또는 상기 제2 소스 음원 내에서 동일한 주파수 대역으로 분류되는 소스 음원들에 동일한 화음을 적용할 수 있다.
또한, 상기 적어도 하나의 프로세서는, 상기 복수의 소스 음원을 시간 구간별로 분할한 소스 음원들을 WaveGAN의 입력 데이터로 이용할 수 있다.
또한, 상기 적어도 하나의 프로세서는, 상기 복수의 주행음 음원의 주파수와 상기 복수의 엔진음 차수의 주파수 사이의 차이 값이 미리 설정된 값 이하가 되도록 상기 복수의 주행음 음원의 피치를 변경할 수 있다.
또한, 상기 입력부는, 상기 복수의 주행음 각각에 대한 제1 테마의 스코어 및 제2 테마의 스코어를 입력 받고, 상기 적어도 하나의 프로세서는, 상기 복수의 주행음 중에서 상기 제1 테마의 스코어를 가장 높은 스코어로 갖는 주행음을 제1 테마로 분류하고 상기 제2 테마의 스코어를 가장 높은 스코어로 갖는 주행음을 제2 테마로 분류하여 상기 주행음 라이브러리에 저장할 수 있다.
일 실시예에 따른 차량은, 일 실시예에 다른 주행음 라이브러리; 스피커; 및 네비게이션 시스템에 입력된 차량의 목적지 또는 상기 차량이 주행 중인 도로 정보에 기초하여 상기 주행음 라이브러리에 저장된 복수의 주행음의 테마 중에서 어느 하나의 테마를 선택하고, 상기 스피커가 상기 선택된 테마와 연동되어 저장된 복수의 주행음을 출력하도록 제어하는 제어부;를 포함할 수 있다.
또한, 상기 제어부는, 상기 차량의 출력 토크, 속도 및 가속도 페달 답력 중 적어도 하나에 기초하여 상기 선택된 테마와 연동되어 저장된 복수의 주행음 중 적어도 하나의 주행음을 선택할 수 있다.
또한, 상기 제어부는, 상기 차량의 출력 토크, 속도 및 가속도 페달 답력 중 적어도 하나에 기초하여 상기 선택된 테마와 연동되어 저장된 적어도 복수의 주행음의 음량을 결정할 수 있다.
본 개시에 따르면, 사용자에게 다양한 테마로 분류되는 주행음을 제공함으로써 사용자의 요구를 만족시킬 수 있다.
또한, 본 개시에 따르면, 목적지 또는 차량의 현재 위치에 기초하여 다양한 테마의 주행음을 출력함으로써 사용자에게 즐거움을 줄 수 있다.
도 1은 일 실시예에 따른 주행음 라이브러리 생성 장치의 제어 블록도이다.
도 2는 일 실시예에 따른 주행음 라이브러리 생성 장치의 제어 순서도이다.
도 3은 일 실시예에 따른 데이터 베이스에 저장된 복수의 소스 음원을 나타내는 도면이다.
도 4는 소스 음원들에 복수의 화음을 적용하여 복수의 변조 음원을 생성하는 단계를 도시한다.
도 5는 일 실시예에 따른 인공 신경망 모델을 통해 복수의 주행음을 생성하는 단계를 도시한다.
도 6은 일 실시예에 따른 차량의 제어 블록도이다.
도 7은 일 실시예에 따른 차량의 제어 순서도이다.
도 2는 일 실시예에 따른 주행음 라이브러리 생성 장치의 제어 순서도이다.
도 3은 일 실시예에 따른 데이터 베이스에 저장된 복수의 소스 음원을 나타내는 도면이다.
도 4는 소스 음원들에 복수의 화음을 적용하여 복수의 변조 음원을 생성하는 단계를 도시한다.
도 5는 일 실시예에 따른 인공 신경망 모델을 통해 복수의 주행음을 생성하는 단계를 도시한다.
도 6은 일 실시예에 따른 차량의 제어 블록도이다.
도 7은 일 실시예에 따른 차량의 제어 순서도이다.
명세서 전체에 걸쳐 동일 참조 부호는 동일 구성요소를 지칭한다. 본 명세서가 실시예들의 모든 요소들을 설명하는 것은 아니며, 본 발명이 속하는 기술분야에서 일반적인 내용 또는 실시예들 간에 중복되는 내용은 생략한다.
명세서 전체에서, 어떤 부분이 다른 부분과 "연결"되어 있다고 할 때, 이는 직접적으로 연결되어 있는 경우뿐 아니라, 간접적으로 연결되어 있는 경우를 포함하고, 간접적인 연결은 무선 통신망을 통해 연결되는 것을 포함한다.
또한, 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다.
단수의 표현은 문맥상 명백하게 예외가 있지 않는 한, 복수의 표현을 포함한다.
또한, "~부", "~기", "~블록", "~부재", "~모듈" 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미할 수 있다. 예를 들어, 상기 용어들은 FPGA(Field-Programmable Gate Array) / ASIC(Application Specific Integrated Circuit) 등 적어도 하나의 하드웨어, 메모리에 저장된 적어도 하나의 소프트웨어 또는 프로세서에 의하여 처리되는 적어도 하나의 프로세스를 의미할 수 있다.
각 단계들에 붙여지는 부호는 각 단계들을 식별하기 위해 사용되는 것으로 이들 부호는 각 단계들 상호 간의 순서를 나타내는 것이 아니며, 각 단계들은 문맥상 명백하게 특정 순서를 기재하지 않는 이상 명기된 순서와 다르게 실시될 수 있다.
도 1은 일 실시예에 따른 주행음 라이브러리 생성 장치의 제어 블록도이다.
도 1을 참조하면, 일 실시예에 따른 주행음 라이브러리 생성 장치(100)는 복수의 카테고리로 분류된 복수의 소스 음원을 저장하는 데이터 베이스(110), 복수의 주행음에 대한 테마별 스코어를 입력 받는 입력부(120), 데이터 베이스(110)에 저장된 소스 음원과 입력부(120)를 통한 입력에 기초하여 복수의 주행음을 생성하고, 복수의 주행음과 테마를 연동하여 주행음 라이브러리(140)에 저장하는 프로세서(130)를 포함할 수 있다.
일 실시예에 따른 데이터 베이스(110)는 복수의 카테고리로 분류된 복수의 소스 음원들을 저장할 수 있다.
이 때, 복수의 카테고리는 자연의 소리, 동물의 소리, 악기음 소리, ASMR 소리, 효과음 등의 카테고리를 의미할 수 있으나, 이에 한정되는 것은 아니다.
도 3은 일 실시예에 따른 데이터 베이스에 저장된 복수의 소스 음원을 나타내는 도면이다.
도 3을 참조하면, 복수의 카테고리 각각에는 복수의 소스 음원이 분류되어 있을 수 있다.
예를 들어, 악기음 소리로 분류된 복수의 소스 음원은 Bass, Bell, Cello 등의 음원을 포함할 수 있다.
이와 같이, 복수의 소스 음원은 운용자에 의해 수집 및 분류되어 데이터 베이스(110)에 저장될 수 있다.
복수의 소스 음원을 저장하기 위한 데이터 베이스(110)는 각종 정보를 저장하기 위해 캐쉬, ROM(Read Only Memory), PROM(Programmable ROM), EPROM(Erasable Programmable ROM), EEPROM(Electrically Erasable Programmable ROM) 및 플래쉬 메모리(Flash memory)와 같은 비휘발성 메모리 소자 또는 RAM(Random Access Memory)과 같은 휘발성 메모리 소자 또는 하드디스크 드라이브(Hard Disk Drive, HDD), CD-ROM과 같은 저장 매체 중 적어도 하나로 구현될 수 있으나, 이에 한정되지는 않는다. 데이터 베이스(110)는 별개의 칩으로 구현된 메모리일 수 있고, 적어도 하나의 프로세서(130)와 단일 칩으로 구현될 수도 있다.
일 실시예에 따른 입력부(120)는 사용자로부터 복수의 주행음에 대한 테마별 스코어를 입력 받을 수 있다. 구체적으로, 사용자는 특정 주행음을 청취한 후 주행음에 대한 테마별 스코어를 입력부(120)를 통해 입력할 수 있다.
이 때, 주행음에 대한 테마는 복수 개의 테마로 분류될 수 있다. 예를 들어, 주행음의 테마는 오락용, 비즈니스용, 휴식용, 여행용 등으로 구분될 수 있다.
예를 들어, 사용자는 특정 주행음을 청취한 후 청취한 주행음에 대해 '오락용:8점, 비즈니스용: 2점, 휴식용: 4점, 여행용: 6점'과 같은 테마별 스코어를 입력부(120)를 통해 입력할 수 있다.
이를 위한 입력부(120)는, 사용자로부터 테마별 스코어를 직접 입력을 받을 수 있는 키보드, 마우스, 터치 스크린, 노브 등의 구성을 포함할 수 있을 뿐 아니라, 외부 단말을 통해 입력된 테마별 스코어를 수신하여 간접적으로 테마별 스코어를 입력 받을 수 있는 통신 모듈을 포함할 수 있다.
일 실시예에 따른 주행음 라이브러리 생성 장치(100)는 복수의 소스 음원 주파수 특성과 시간 특성을 분석하기 위한 프로그램과, 복수의 소스 음원에 대응되는 화음을 선정하여 복수의 소스 음원을 변조시키기 위한 프로그램과, 인공 신경망 모델을 이용하여 소수의 소스 음원에 기초하여 다수의 주행음 음원을 생성하는 프로그램과, 복수의 주행음을 분류하여 저장하는 프로그램 등의 각종 프로그램을 저장하는 적어도 하나의 메모리(미도시)를 포함할 수 있다.
메모리에 저장된 프로그램은, GAN(Generative Adversarial Networks) 알고리즘, GAN 알고리즘의 일종인 WaveGAN 알고리즘, RNN(Recurrent Neural Networks) 알고리즘, RNN 알고리즘의 일종인 LSTM(Long Short-Term Memory) 알고리즘, R-CNN(Region Based Convolutional Neural Networks) 알고리즘 등의 인공지능 알고리즘(인공 신경망 모델)을 포함할 수 있다.
적어도 하나의 프로세서(130)는 앞서 설명한 메모리에 저장된 각종 프로그램을 실행할 수 있다.
구체적으로, 적어도 하나의 프로세서(130)는 메모리에 저장된 적어도 하나의 프로그램을 실행하여 복수의 주행음을 생성할 수 있으며, 복수의 주행음과 복수의 주행음 각각의 테마를 연동하여 주행음 라이브러리(140)에 저장시킬 수 있다.
이를 위한 주행음 라이브러리(140)는, 각종 정보를 저장하기 위해 캐쉬, ROM(Read Only Memory), PROM(Programmable ROM), EPROM(Erasable Programmable ROM), EEPROM(Electrically Erasable Programmable ROM) 및 플래쉬 메모리(Flash memory)와 같은 비휘발성 메모리 소자 또는 RAM(Random Access Memory)과 같은 휘발성 메모리 소자 또는 하드디스크 드라이브(Hard Disk Drive, HDD), CD-ROM과 같은 저장 매체 중 적어도 하나로 구현될 수 있으나, 이에 한정되지는 않는다. 주행음 라이브러리(140)는 별개의 칩으로 구현된 메모리일 수 있고, 적어도 하나의 프로세서(130) 또는 데이터 베이스(110)와 단일 칩으로 구현될 수도 있다.
이상으로 일 실시예에 따른 주행음 라이브러리 생성 장치(100)의 구성을 설명하였다.
이하에서는 도 2 내지 도 5를 참조하여 주행음 라이브러리(140)의 생성 방법을 상세하게 설명한다.
도 2는 일 실시예에 따른 주행음 라이브러리 생성 장치)의 제어 순서도이고, 도 3은 일 실시예에 따른 데이터 베이스에 저장된 복수의 소스 음원을 나타내는 도면이고, 도 4는 소스 음원들에 복수의 화음을 적용하여 복수의 변조 음원을 생성하는 단계를 도시하고, 도 5는 일 실시예에 따른 인공 신경망 모델을 통해 복수의 주행음을 생성하는 단계를 도시한다.
도 2를 참조하면, 적어도 하나의 프로세서(130)는 데이터 베이스(110)에 저장되어 있는 복수의 카테고리로 분류된 복수의 소스 음원 각각의 주파수 특성과 시간 특성을 분석할 수 있다(1000).
구체적으로, 적어도 하나의 프로세서(130)는 복수의 소스 음원을 주파수 대역 별로 분류할 수 있다.
예를 들어, 적어도 하나의 프로세서(130)는 복수의 소스 음원의 주파수 특성에 기초하여 1kHz 이하의 주파수 대역을 갖는 소스 음원을 제1 그룹으로, 1kHz 초과 5kHz 이하의 주파수 대역을 갖는 소스 음원을 제2 그룹으로, 5kHz 초과 10kHz 이하의 주파수 대역을 갖는 소스 음원을 제3 그룹으로 분류할 수 있다.
또한, 적어도 하나의 프로세서(130)는 복수의 소스 음원의 시간 특성에 기초하여 복수의 그룹으로 분류할 수 있다.
예를 들어, 적어도 하나의 프로세서(130)는 복수의 소스 음원의 시간 특성에 기초하여 연속성음을 갖는 소스 음원을 제1 그룹으로, 단절성음을 갖는 소스 음원을 제2 그룹으로, 변동성음을 갖는 소스 음원을 제3 그룹으로, 고정음을 갖는 소스 음원을 제4 그룹으로 분류할 수 있다.
이후 적어도 하나의 프로세서(130)는 복수의 소스 음원의 분류에 따라 복수의 소스 음원 각각에 대응되는 화음을 결정할 수 있다.
즉, 적어도 하나의 프로세서(130)는 복수의 소스 음원의 주파수 특성 및 시간 특성에 기초하여 복수의 소스 음원 각각에 대응되는 화음을 결정할 수 있다(1100).
구체적으로, 적어도 하나의 프로세서(130)는 주파수 특성 및 시간 특성에 기초하여 분류된 소스 음원들에 대해 분석을 위한 설정을 한 후, 설정에 따라 소스 음원들을 분석하여 가장 적합한 화음을 선정할 수 있다.
예를 들어, 적어도 하나의 프로세서(130)는 소스 음원들에 대해 분석 구간 및 길이, 윈도우 종류, 샘플링 주파수 등을 설정하고 FFT 분석을 수행할 수 있다.
이후 적어도 하나의 프로세서(130)는 복수의 소스 음원 각각에 대응되는 화음을 결정할 수 있다.
예를 들어, 적어도 하나의 프로세서(130)는 1kHz 초과 5kHz 이하의 주파수 대역을 갖고 연속성음을 갖는 소스 음원에 대하여 메이저 세븐스 화음을 적용할 수 있다.
즉, 적어도 하나의 프로세서(130)는 동일한 주파수 대역 별로 분류되고 동일한 시간 특성을 갖는 소스 음원들에 대하여 동일한 화음을 적용할 수 있다.
도 4를 참조하면, 적어도 하나의 프로세서(130)는 소스 음원에 대하여 단조 화음(Cm), 장조 화음(C) 및 세븐스 화음(CM7)을 각각 적용하여 세 개의 변조 음원을 생성할 수 있다.
즉, 적어도 하나의 프로세서(130)는 복수의 소스 음원 각각에 대응되는 화음을 적용하여 복수의 소스 음원 각각을 변조시킨 복수의 변조 음원을 생성할 수 있다(1200).
이후 적어도 하나의 프로세서(130)는 데이터 베이스(110)에 저장된 복수의 소스 음원과, 복수의 소스 음원에 기초하여 생성된 복수의 변조 음원을 WaveGAN의 입력 데이터로 이용하여 복수의 주행음 음원을 생성할 수 있다(1300).
더불어, 적어도 하나의 프로세서(130)는 복수의 소스 음원을 시간 구간 별로 분할하여 WaveGAN의 입력 데이터로 활용할 수 있다.
구체적으로, 적어도 하나의 프로세서(130)는 소스 음원, 소스 음원을 시간 구간 별로 분할 한 복수 개의 음원들, 소스 음원에 화음을 적용하여 변조시킨 변조 음원들을 WaveGAN의 입력 데이터로 할 수 있다.
예를 들어, 3개의 소스 음원을 각각 10개의 시간 구간 별로 분할하고, 이에 대해 4개의 화음을 적용하는 경우, WaveGAN의 입력 데이터로 활용될 수 있는 음원의 개수를 120개(3x10x4=120)로 증가시킬 수 있다.
즉, 일 실시예에 따른 주행음 라이브러리 생성 장치(100)는 적은 개수의 소스 음원을 통해 많은 개수의 주행음 음원을 생성할 수 있다.
도 5를 참조하면, 자연의 소리로 분류된 하나의 소스 음원을 WaveGAN의 입력 데이터로 이용하는 경우 무수히 많은 주행음 음원이 생성되는 것을 확인할 수 있다.
이후 적어도 하나의 프로세서(130)는 생성된 복수의 주행음 음원과 미리 설정된 범위의 엔진 RPM에 대응되는 복수의 엔진음 차수에 기초하여, 복수의 주행음 음원의 피치를 변경하고 복수의 주행음을 생성할 수 있다(1400).
예를 들어, 적어도 하나의 프로세서(130)는 WaveGAN을 통해 생성된 복수의 주행음 음원을 1000~6000rpm의 엔진 RPM에 연동하여 피치가 증가하도록 음원을 변조할 수 있다.
구체적으로, 적어도 하나의 프로세서(130)는 복수의 주행음 음원의 주파수와 복수의 엔진음 차수의 주파수 사이의 차이 값이 미리 설정된 값 이하가 되도록 복수의 주행음 음원의 피치를 변경함으로써 복수의 주행음을 생성할 수 있다.
예를 들어, 엔진음 차수가 높아질수록 주행음 음원이 고주파수 대역을 갖도록 주행음 음원의 피치를 변경하여 각 엔진음 차수에 해당하는 복수의 주행음을 생성할 수 있다.
이후 사용자는 생성된 복수의 주행음을 청취한 후 복수의 주행음에 대한 테마별 스코어를 입력부(120)를 통해 입력할 수 있다.
입력부(120)는 사용자로부터 복수의 주행음에 대한 테마별 스코어를 입력 받고, 복수의 주행음에 대한 테마별 스코어를 적어도 하나의 프로세서(130)로 전달할 수 있다.
적어도 하나의 프로세서(130)는 입력부(120)로부터 전달 받은 복수의 주행음에 대한 테마별 스코어에 기초하여 복수의 주행음을 분류하고, 분류된 복수의 주행음을 주행음 라이브러리(140)에 저장할 수 있다(1500).
구체적으로, 입력부(120)는 복수의 주행음 각각에 대하여 여행용 테마(이하 '제1 테마')의 스코어와 비즈니스용 테마(이하 '제2 테마')의 스코어를 입력 받을 수 있으며, 적어도 하나의 프로세서(130)는 복수의 주행음 중에서 제1 테마의 스코어를 가장 높은 스코어로 갖는 주행음을 제1 테마로 분류하고, 제2 테마의 스코어를 가장 높은 스코어로 갖는 주행음을 제2 테마로 분류하여 주행음 라이브러리(140)에 저장할 수 있다.
예를 들어, 특정 주행음에 대하여 제1 테마의 스코어가 9점, 제2 테마의 스코어가 7점인 경우, 적어도 하나의 프로세서(130)는 상기 특정 주행음을 제1 테마로 분류하여 주행음 라이브러리(140)에 저장할 수 있다. 또한, 특정 주행음에 대하여 제1 테마의 스코어가 5점, 제2 테마의 스코어가 7점인 경우, 적어도 하나의 프로세서(130)는 상기 주행음을 제2 테마로 분류하여 주행음 라이브러리(140)에 저장할 수 있다.
결과적으로, 주행음 라이브러리(140)는 복수 개의 테마로 분류된 복수 개의 주행음을 저장할 수 있다.
상술하여 설명한 주행음 라이브러리(140) 및 주행음 라이브러리 생성 장치(100)에 따르면, 소수 개의 소스 음원을 가지고도 다수 개의 주행음을 생성하여 다양한 주행음을 제공할 수 있는 장점이 있다.
이하에서는 도 6 내지 도 7을 참조하여 일 실시예에 따른 주행음 라이브러리(140)를 포함하는 차량(10)을 설명한다.
도 6은 일 실시예에 따른 차량의 제어 블록도이고, 도 7은 일 실시예에 따른 차량의 제어 순서도이다.
도 6을 참조하면, 일 실시예에 따른 차량(10)은 주행음 라이브러리(140)와, 주행음 라이브러리(140)에서 주행음을 선택하여 스피커(13)가 주행음을 출력하도록 제어하는 제어부(11)와, 네비게이션 시스템(12)과, 스피커(13)를 포함할 수 있다.
주행음 라이브러리(140)는 도 2의 각 단계를 거쳐서 생성될 수 있다.
네비게이션 시스템(12)은 사용자로부터 입력된 차량(10)의 목적지에 기초하여 주행 경로 정보를 생성할 수 있다.
또한, 네비게이션 시스템(12)은 차량(10)의 현재 위치에 기반하여 차량(10)이 주행 중인 도로 정보를 제공할 수 있다.
예를 들어, 네비게이션 시스템(12)은 차량(10)이 고속도로를 주행 중이라는 정보를 제어부(11)로 전달할 수 있다.
스피커(13)는 차량(10) 내부에 각종 사운드를 출력할 수 있다. 이를 위한 스피커(13)는 차량(10)의 양쪽 도어에 마련될 수 있으나, 차량(10) 내부의 운전자가 출력되는 사운드를 청취할 수 있는 위치라면 제한 없이 마련될 수 있다.
도 7을 참조하면, 제어부(11)는 네비게이션 시스템(12)으로부터 네비게이션 시스템(12)에 입력된 차량(10)의 목적지 또는 차량(10)이 주행 중인 도로 정보를 수신할 수 있다(2000).
이후 제어부(11)는 네비게이션 시스템(12)에 입력된 차량(10)의 목적지 또는 차량(10)이 주행 중인 도로 정보에 기초하여 주행음 라이브러리(140)에 저장된 복수의 주행음의 테마 중에서 어느 하나의 테마를 선택할 수 있으며(2100), 선택된 테마 내에서 주행음을 선택하고(2200), 스피커(13)가 선택된 적어도 하나의 주행음을 출력하도록 제어할 수 있다(2300).
예를 들어, 네비게이션 시스템(12)에 입력된 차량(10)의 목적지가 사무실인 경우, 제어부(11)는 "비지니스용 테마"로 분류되어 주행음 라이브러리(140)에 저장된 복수의 주행음 중에서 적어도 하나의 주행음을 선택할 수 있다.
또한, 차량(10)이 주행 중인 도로 정보가 고속도로인 경우, 제어부(11)는 "여행용 테마"로 분류되어 주행음 라이브러리(140)에 저장된 복수의 주행음 중에서 적어도 하나의 주행음을 선택할 수 있다.
즉, 제어부(11)는 네비게이션 시스템(12)에 입력된 차량(10)의 목적지와 가장 적합한 테마 또는 차량(10)이 주행 중인 도로 정보에 가장 적합한 테마를 선정할 수 있다. 이를 위해, 제어부(11)는 목적지와 테마간의 매칭 관계 및/또는 도로 정보와 테마간의 매칭 관계가 저장된 메모리를 포함할 수 있다.
제어부(11)는 차량 내 통신 네트워크(CAN)를 통해 각종 신호를 수신할 수 있으며, 차량(10)의 출력 토크, 속도 및 가속도 페달 답력 중 적어도 하나에 기초하여 선택된 테마와 연동되어 저장된 복수의 주행음 중 적어도 하나의 주행음을 선택할 수 있다.
예를 들어, 차량(10)의 출력 토크, 속도 및 가속도 페달 답력에 대응되는 엔진 RPM이 2000rpm으로 판단된 경우, 제어부(11)는 선택된 테마와 연동되어 저장된 복수의 주행음 중에서 2000rpm에 대응되는 엔진음 차수에 기초하여 피치가 변경된 주행음 음원을 선택할 수 있다.
또한, 제어부(11)는 차량(10)의 출력 토크, 속도 및 가속도 페달 답력에 기초하여 선택된 주행음의 음량을 결정할 수 있다.
예를 들어, 차량(10)의 출력 토크, 속도 및 가속도 페달 답력이 클수록 선택된 주행음의 음량을 크게 결정할 수 있다.
이와 같이, 일 실시예에 따른 차량(10)은 목적지 정보 및 도로 환경에 기초하여 테마를 선택하고 선택된 테마로 분류된 주행음을 출력함으로써, 사용자의 다양한 요구를 만족시킬 수 있다.
또한, 일 실시예에 따른 차량(10)은, 엔진음 차수에 기초하여 미리 변조되어 주행음 라이브러리(140)에 저장된 주행음을 선택함으로써, 차량(10)의 출력 토크, 속도 및 가속도 페달 답력 변화에 따른 주행음의 피치 변화를 신속하게 반영시킬 수 있다.
한편, 개시된 실시예들은 컴퓨터에 의해 실행 가능한 명령어를 저장하는 기록매체의 형태로 구현될 수 있다. 명령어는 프로그램 코드의 형태로 저장될 수 있으며, 프로세서에 의해 실행되었을 때, 프로그램 모듈을 생성하여 개시된 실시예들의 동작을 수행할 수 있다. 기록매체는 컴퓨터로 읽을 수 있는 기록매체로 구현될 수 있다.
컴퓨터가 읽을 수 있는 기록매체로는 컴퓨터에 의하여 해독될 수 있는 명령어가 저장된 모든 종류의 기록 매체를 포함한다. 예를 들어, ROM(Read Only Memory), RAM(Random Access Memory), 자기 테이프, 자기 디스크, 플래쉬 메모리, 광 데이터 저장장치 등이 있을 수 있다.
이상에서와 같이 첨부된 도면을 참조하여 개시된 실시예들을 설명하였다. 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자는 본 발명의 기술적 사상이나 필수적인 특징을 변경하지 않고도, 개시된 실시예들과 다른 형태로 본 발명이 실시될 수 있음을 이해할 것이다. 개시된 실시예들은 예시적인 것이며, 한정적으로 해석되어서는 안 된다.
10: 차량
11: 제어부
12: 네비게이션 시스템 13: 스피커
100: 주행음 라이브러리 생성 장치 110: 데이터 베이스
120: 입력부 130: 프로세서
140: 주행음 라이브러리
12: 네비게이션 시스템 13: 스피커
100: 주행음 라이브러리 생성 장치 110: 데이터 베이스
120: 입력부 130: 프로세서
140: 주행음 라이브러리
Claims (15)
- 복수의 카테고리로 분류된 복수의 소스 음원 각각의 주파수 특성과 시간 특성을 분석하는 단계;
상기 주파수 특성 및 시간 특성에 기초하여 상기 복수의 소스 음원 각각에 대응되는 화음을 결정하는 단계;
상기 복수의 소스 음원 각각에 대응되는 화음을 적용하여 상기 복수의 소스 음원 각각을 변조시킨 복수의 변조 음원을 생성하는 단계;
상기 복수의 소스 음원과 상기 복수의 변조 음원을 입력 데이터로 이용하여 복수의 주행음 음원을 생성하는 단계;
상기 복수의 주행음 음원과 미리 설정된 범위의 엔진 RPM에 대응되는 복수의 엔진음 차수에 기초하여 상기 복수의 주행음 음원의 피치를 변경하고 복수의 주행음을 생성하는 단계;
상기 복수의 주행음에 대한 테마별 스코어를 입력 받는 단계; 및
상기 복수의 주행음과 상기 복수의 주행음 각각의 테마를 연동하여 저장하는 단계;를 포함하는 방법으로 생성된 주행음 라이브러리. - 제1항에 있어서,
상기 복수의 카테고리로 분류된 복수의 소스 음원 각각의 주파수 특성과 시간 특성을 분석하는 단계는,
상기 복수의 소스 음원 각각을 주파수 대역 별로 분류하는 단계; 및
상기 복수의 소스 음원 각각을 연속성음을 갖는 제1 소스 음원과 단절성음을 갖는 제2 소스 음원으로 분류하는 단계;를 포함하는 주행음 라이브러리. - 제2항에 있어서,
상기 복수의 소스 음원 각각에 대응되는 화음을 적용하여 상기 복수의 소스 음원 각각을 변조시킨 복수의 변조 음원을 생성하는 단계는,
상기 제1 소스 음원 또는 상기 제2 소스 음원 내에서 동일한 주파수 대역으로 분류되는 소스 음원들에 동일한 화음을 적용하는 단계;를 포함하는 주행음 라이브러리. - 제1항에 있어서,
상기 복수의 소스 음원과 상기 복수의 변조 음원을 입력 데이터로 이용하여 복수의 주행음 음원을 생성하는 단계는,
상기 복수의 소스 음원을 시간 구간별로 분할한 소스 음원들을 WaveGAN의 입력 데이터로 이용하는 단계;를 포함하는 주행음 라이브러리. - 제1항에 있어서,
상기 복수의 주행음 음원과 미리 설정된 범위의 엔진 RPM에 대응되는 복수의 엔진음 차수에 기초하여 상기 복수의 주행음 음원의 피치를 변경하고 복수의 주행음을 생성하는 단계는,
상기 복수의 주행음 음원의 주파수와 상기 복수의 엔진음 차수의 주파수 사이의 차이 값이 미리 설정된 값 이하가 되도록 상기 복수의 주행음 음원의 피치를 변경하는 단계;를 포함하는 주행음 라이브러리. - 제1항에 있어서,
상기 복수의 주행음에 대한 테마별 스코어를 입력 받는 단계는,
상기 복수의 주행음 각각에 대한 제1 테마의 스코어 및 제2 테마의 스코어를 입력 받는 단계;를 포함하고,
상기 복수의 주행음과 상기 복수의 주행음 각각의 테마를 연동하여 주행음 라이브러리에 저장하는 단계는,
상기 복수의 주행음 중에서 상기 제1 테마의 스코어를 가장 높은 스코어로 갖는 주행음을 제1 테마로 분류하고, 상기 제2 테마의 스코어를 가장 높은 스코어로 갖는 주행음을 제2 테마로 분류하여 저장하는 단계;를 포함하는 주행음 라이브러리. - 복수의 카테고리로 분류된 복수의 소스 음원을 저장하는 데이터 베이스;
상기 복수의 소스 음원 각각의 주파수 특성과 시간 특성을 분석하고, 상기 주파수 특성 및 시간 특성에 기초하여 상기 복수의 소스 음원 각각에 대응되는 화음을 결정하고, 상기 복수의 소스 음원 각각에 대응되는 화음을 적용하여 상기 복수의 소스 음원 각각을 변조시킨 복수의 변조 음원을 생성하고, 상기 복수의 소스 음원과 상기 복수의 변조 음원을 입력 데이터로 이용하여 복수의 주행음 음원을 생성하고, 상기 복수의 주행음 음원과 미리 설정된 범위의 엔진 RPM에 대응되는 복수의 엔진음 차수에 기초하여 상기 복수의 주행음 음원의 피치를 변경하고 복수의 주행음을 생성하는 적어도 하나의 프로세서;
상기 복수의 주행음에 대한 테마별 스코어를 입력 받는 입력부; 및
주행음 라이브러리;를 포함하고,
상기 적어도 하나의 프로세서는, 상기 복수의 주행음과 상기 복수의 주행음 각각의 테마를 연동하여 상기 주행음 라이브러리에 저장하는 주행음 라이브러리 생성 장치. - 제7항에 있어서,
상기 적어도 하나의 프로세서는,
상기 복수의 소스 음원 각각을 주파수 대역 별로 분류하고, 상기 복수의 소스 음원 각각을 연속성음을 갖는 제1 소스 음원과 단절성음을 갖는 제2 소스 음원으로 분류하는 주행음 라이브러리 생성 장치. - 제8항에 있어서,
상기 적어도 하나의 프로세서는,
상기 제1 소스 음원 또는 상기 제2 소스 음원 내에서 동일한 주파수 대역으로 분류되는 소스 음원들에 동일한 화음을 적용하는 주행음 라이브러리 생성 장치. - 제7항에 있어서,
상기 적어도 하나의 프로세서는,
상기 복수의 소스 음원을 시간 구간별로 분할한 소스 음원들을 WaveGAN의 입력 데이터로 이용하는 주행음 라이브러리 생성 장치. - 제7항에 있어서,
상기 적어도 하나의 프로세서는,
상기 복수의 주행음 음원의 주파수와 상기 복수의 엔진음 차수의 주파수 사이의 차이 값이 미리 설정된 값 이하가 되도록 상기 복수의 주행음 음원의 피치를 변경하는 주행음 라이브러리 생성 장치. - 제7항에 있어서,
상기 입력부는,
상기 복수의 주행음 각각에 대한 제1 테마의 스코어 및 제2 테마의 스코어를 입력 받고,
상기 적어도 하나의 프로세서는,
상기 복수의 주행음 중에서 상기 제1 테마의 스코어를 가장 높은 스코어로 갖는 주행음을 제1 테마로 분류하고 상기 제2 테마의 스코어를 가장 높은 스코어로 갖는 주행음을 제2 테마로 분류하여 상기 주행음 라이브러리에 저장하는 주행음 라이브러리 생성 장치. - 제1항의 주행음 라이브러리;
스피커; 및
네비게이션 시스템에 입력된 차량의 목적지 또는 상기 차량이 주행 중인 도로 정보에 기초하여 상기 주행음 라이브러리에 저장된 복수의 주행음의 테마 중에서 어느 하나의 테마를 선택하고, 상기 스피커가 상기 선택된 테마와 연동되어 저장된 복수의 주행음을 출력하도록 제어하는 제어부;를 포함하는 차량. - 제13항에 있어서,
상기 제어부는,
상기 차량의 출력 토크, 속도 및 가속도 페달 답력 중 적어도 하나에 기초하여 상기 선택된 테마와 연동되어 저장된 복수의 주행음 중 적어도 하나의 주행음을 선택하는 차량. - 제13항에 있어서,
상기 제어부는,
상기 차량의 출력 토크, 속도 및 가속도 페달 답력 중 적어도 하나에 기초하여 상기 선택된 테마와 연동되어 저장된 적어도 복수의 주행음의 음량을 결정하는 차량.
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020200078536A KR20220000655A (ko) | 2020-06-26 | 2020-06-26 | 주행음 라이브러리, 주행음 라이브러리 생성 장치 및 주행음 라이브러리를 포함하는 차량 |
US17/091,312 US11514884B2 (en) | 2020-06-26 | 2020-11-06 | Driving sound library, apparatus for generating driving sound library and vehicle comprising driving sound library |
CN202011313355.8A CN113849680A (zh) | 2020-06-26 | 2020-11-20 | 行驶声音库、用于生成行驶声音库的装置以及包括行驶声音库的车辆 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020200078536A KR20220000655A (ko) | 2020-06-26 | 2020-06-26 | 주행음 라이브러리, 주행음 라이브러리 생성 장치 및 주행음 라이브러리를 포함하는 차량 |
Publications (1)
Publication Number | Publication Date |
---|---|
KR20220000655A true KR20220000655A (ko) | 2022-01-04 |
Family
ID=78972956
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020200078536A KR20220000655A (ko) | 2020-06-26 | 2020-06-26 | 주행음 라이브러리, 주행음 라이브러리 생성 장치 및 주행음 라이브러리를 포함하는 차량 |
Country Status (3)
Country | Link |
---|---|
US (1) | US11514884B2 (ko) |
KR (1) | KR20220000655A (ko) |
CN (1) | CN113849680A (ko) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11538461B1 (en) * | 2021-03-18 | 2022-12-27 | Amazon Technologies, Inc. | Language agnostic missing subtitle detection |
US11537358B1 (en) * | 2021-08-05 | 2022-12-27 | Bayerische Motoren Werke Aktiengesellschaft | Sound experience generator |
KR20230090058A (ko) * | 2021-12-14 | 2023-06-21 | 현대자동차주식회사 | 차량 사운드 발생 장치 및 방법 |
US11691632B1 (en) * | 2022-12-06 | 2023-07-04 | Mercedes-Benz Group AG | Vehicle simulating method and system |
US11707987B1 (en) * | 2022-12-06 | 2023-07-25 | Mercedes-Benz Group AG | Vehicle simulating method and system |
Family Cites Families (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8155343B2 (en) * | 2005-03-11 | 2012-04-10 | Yamaha Corporation | Engine sound processing system |
EP2685448B1 (en) * | 2012-07-12 | 2018-09-05 | Harman Becker Automotive Systems GmbH | Engine sound synthesis |
US9721551B2 (en) | 2015-09-29 | 2017-08-01 | Amper Music, Inc. | Machines, systems, processes for automated music composition and generation employing linguistic and/or graphical icon based musical experience descriptions |
CN105893460B (zh) | 2016-03-22 | 2019-11-29 | 无锡五楼信息技术有限公司 | 一种基于人工智能技术的音乐自动创作方法及装置 |
KR101886534B1 (ko) | 2016-12-16 | 2018-08-09 | 아주대학교산학협력단 | 인공지능을 이용한 작곡 시스템 및 작곡 방법 |
KR101982345B1 (ko) | 2017-07-21 | 2019-05-24 | 주식회사 마인드셋 | 인공지능을 이용한 음악 생성 장치 및 방법 |
KR102383461B1 (ko) * | 2017-10-17 | 2022-04-06 | 현대자동차주식회사 | 인공지능을 활용한 엔진동력특성 기반 엔진음색 제어방법 및 차량 |
KR20190100543A (ko) | 2018-02-09 | 2019-08-29 | 삼성전자주식회사 | 전자장치 및 이를 이용한 인공지능 알고리즘 기반의 음악 작곡 방법 |
DE112018002986T5 (de) * | 2018-04-13 | 2020-02-20 | Sound Design Lab Llc | Schalldrucksignalausgabevorrichtung, schalldrucksignalausgabeverfahren und programm zur schalldrucksignalausgabe |
CN110364140B (zh) | 2019-06-11 | 2024-02-06 | 平安科技(深圳)有限公司 | 歌声合成模型的训练方法、装置、计算机设备以及存储介质 |
KR20190137727A (ko) | 2019-10-08 | 2019-12-11 | (주)오렌지디지트코리아 | 인공지능 뮤직박스 운용 시스템 |
-
2020
- 2020-06-26 KR KR1020200078536A patent/KR20220000655A/ko active Search and Examination
- 2020-11-06 US US17/091,312 patent/US11514884B2/en active Active
- 2020-11-20 CN CN202011313355.8A patent/CN113849680A/zh active Pending
Also Published As
Publication number | Publication date |
---|---|
US11514884B2 (en) | 2022-11-29 |
CN113849680A (zh) | 2021-12-28 |
US20210407492A1 (en) | 2021-12-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR20220000655A (ko) | 주행음 라이브러리, 주행음 라이브러리 생성 장치 및 주행음 라이브러리를 포함하는 차량 | |
US11842730B2 (en) | Modification of electronic system operation based on acoustic ambience classification | |
US10481858B2 (en) | Generating personalized audio content based on mood | |
US7881934B2 (en) | Method and system for adjusting the voice prompt of an interactive system based upon the user's state | |
JP2008203338A (ja) | 楽音発生装置及び楽音発生方法 | |
WO2021033607A1 (ja) | 車両用音生成装置 | |
US11842719B2 (en) | Sound processing method, sound processing apparatus, and recording medium | |
KR20080052404A (ko) | 차량용 악음 발생 장치, 악음 발생 방법 및 프로그램을기록한 컴퓨터로 판독가능한 기록 매체 | |
CN114339546A (zh) | 一种车辆声音播放方法、装置、存储介质及设备 | |
CN116368353A (zh) | 内容感知导航指令 | |
US10884700B2 (en) | Sound outputting device, sound outputting method, and sound outputting program storage medium | |
KR101804772B1 (ko) | 사운드 제어장치, 차량 및 그 제어방법 | |
CN115938340A (zh) | 基于车载语音ai的语音数据处理方法及相关设备 | |
JP5109397B2 (ja) | 車両用楽音発生装置及び楽音発生方法 | |
KR102702773B1 (ko) | 차량 및 그 제어방법 | |
US20240096309A1 (en) | Virtual engine sound generating system and method of vehicle with shepard tone | |
EP3821427B1 (en) | Method for generating an audio signal, in particular for active control of the sound of the engine of a land vehicle, and corresponding apparatus | |
US20230421125A1 (en) | Adaptive sound control system and method of active sound design system | |
US20230043956A1 (en) | Voice assistant system with audio effects related to voice commands | |
US20240265902A1 (en) | Sound processing method, sound processing system, and recording medium | |
US20230395052A1 (en) | Audio analysis method, audio analysis system and program | |
CN117565808A (zh) | 一种基于唱歌的车载人机交互方法、系统、介质及设备 | |
CN118245011A (zh) | 基于多层级音乐信息的车载方法、系统及相关设备 | |
KR20210158706A (ko) | 차량 및 그 제어방법 | |
CN116403549A (zh) | 音乐生成方法、装置、电子设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination |