KR20220000655A - 주행음 라이브러리, 주행음 라이브러리 생성 장치 및 주행음 라이브러리를 포함하는 차량 - Google Patents

주행음 라이브러리, 주행음 라이브러리 생성 장치 및 주행음 라이브러리를 포함하는 차량 Download PDF

Info

Publication number
KR20220000655A
KR20220000655A KR1020200078536A KR20200078536A KR20220000655A KR 20220000655 A KR20220000655 A KR 20220000655A KR 1020200078536 A KR1020200078536 A KR 1020200078536A KR 20200078536 A KR20200078536 A KR 20200078536A KR 20220000655 A KR20220000655 A KR 20220000655A
Authority
KR
South Korea
Prior art keywords
driving
sound
sound sources
source
theme
Prior art date
Application number
KR1020200078536A
Other languages
English (en)
Inventor
장경진
Original Assignee
현대자동차주식회사
기아 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 현대자동차주식회사, 기아 주식회사 filed Critical 현대자동차주식회사
Priority to KR1020200078536A priority Critical patent/KR20220000655A/ko
Priority to US17/091,312 priority patent/US11514884B2/en
Priority to CN202011313355.8A priority patent/CN113849680A/zh
Publication of KR20220000655A publication Critical patent/KR20220000655A/ko

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60QARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
    • B60Q5/00Arrangement or adaptation of acoustic signal devices
    • B60Q5/005Arrangement or adaptation of acoustic signal devices automatically actuated
    • B60Q5/008Arrangement or adaptation of acoustic signal devices automatically actuated for signaling silent vehicles, e.g. for warning that a hybrid or electric vehicle is approaching
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R3/00Circuits for transducers, loudspeakers or microphones
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/60Information retrieval; Database structures therefor; File system structures therefor of audio data
    • G06F16/61Indexing; Data structures therefor; Storage structures
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R11/00Arrangements for holding or mounting articles, not otherwise provided for
    • B60R11/02Arrangements for holding or mounting articles, not otherwise provided for for radio sets, television sets, telephones, or the like; Arrangement of controls thereof
    • B60R11/0217Arrangements for holding or mounting articles, not otherwise provided for for radio sets, television sets, telephones, or the like; Arrangement of controls thereof for loud-speakers
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3626Details of the output of route guidance instructions
    • G01C21/3629Guidance using speech or audio output, e.g. text-to-speech
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/60Information retrieval; Database structures therefor; File system structures therefor of audio data
    • G06F16/65Clustering; Classification
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/36Accompaniment arrangements
    • G10H1/38Chord
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10KSOUND-PRODUCING DEVICES; METHODS OR DEVICES FOR PROTECTING AGAINST, OR FOR DAMPING, NOISE OR OTHER ACOUSTIC WAVES IN GENERAL; ACOUSTICS NOT OTHERWISE PROVIDED FOR
    • G10K11/00Methods or devices for transmitting, conducting or directing sound in general; Methods or devices for protecting against, or for damping, noise or other acoustic waves in general
    • G10K11/16Methods or devices for protecting against, or for damping, noise or other acoustic waves in general
    • G10K11/175Methods or devices for protecting against, or for damping, noise or other acoustic waves in general using interference effects; Masking sound
    • G10K11/178Methods or devices for protecting against, or for damping, noise or other acoustic waves in general using interference effects; Masking sound by electro-acoustically regenerating the original acoustic waves in anti-phase
    • G10K11/1785Methods, e.g. algorithms; Devices
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10KSOUND-PRODUCING DEVICES; METHODS OR DEVICES FOR PROTECTING AGAINST, OR FOR DAMPING, NOISE OR OTHER ACOUSTIC WAVES IN GENERAL; ACOUSTICS NOT OTHERWISE PROVIDED FOR
    • G10K15/00Acoustics not otherwise provided for
    • G10K15/02Synthesis of acoustic waves
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10KSOUND-PRODUCING DEVICES; METHODS OR DEVICES FOR PROTECTING AGAINST, OR FOR DAMPING, NOISE OR OTHER ACOUSTIC WAVES IN GENERAL; ACOUSTICS NOT OTHERWISE PROVIDED FOR
    • G10K15/00Acoustics not otherwise provided for
    • G10K15/04Sound-producing devices
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L17/00Speaker identification or verification techniques
    • G10L17/26Recognition of special voice characteristics, e.g. for use in lie detectors; Recognition of animal voices
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/03Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
    • G10L25/18Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters the extracted parameters being spectral information of each sub-band
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/51Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/031Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal
    • G10H2210/066Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal for pitch analysis as part of wider processing for musical purposes, e.g. transcription, musical performance evaluation; Pitch recognition, e.g. in polyphonic sounds; Estimation or use of missing fundamental
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/571Chords; Chord sequences
    • G10H2210/616Chord seventh, major or minor
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/571Chords; Chord sequences
    • G10H2210/621Chord seventh dominant
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2220/00Input/output interfacing specifically adapted for electrophonic musical tools or instruments
    • G10H2220/155User input interfaces for electrophonic musical instruments
    • G10H2220/351Environmental parameters, e.g. temperature, ambient light, atmospheric pressure, humidity, used as input for musical purposes
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2240/00Data organisation or data communication aspects, specifically adapted for electrophonic musical tools or instruments
    • G10H2240/121Musical libraries, i.e. musical databases indexed by musical parameters, wavetables, indexing schemes using musical parameters, musical rule bases or knowledge bases, e.g. for automatic composing methods
    • G10H2240/145Sound library, i.e. involving the specific use of a musical database as a sound bank or wavetable; indexing, interfacing, protocols or processing therefor
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2250/00Aspects of algorithms or signal processing methods without intrinsic musical character, yet specifically adapted for or used in electrophonic musical processing
    • G10H2250/311Neural networks for electrophonic musical instruments or musical processing, e.g. for musical recognition or control, automatic composition or improvisation
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2250/00Aspects of algorithms or signal processing methods without intrinsic musical character, yet specifically adapted for or used in electrophonic musical processing
    • G10H2250/315Sound category-dependent sound synthesis processes [Gensound] for musical use; Sound category-specific synthesis-controlling parameters or control means therefor
    • G10H2250/371Gensound equipment, i.e. synthesizing sounds produced by man-made devices, e.g. machines
    • G10H2250/381Road, i.e. sounds which are part of a road, street or urban traffic soundscape, e.g. automobiles, bikes, trucks, traffic, vehicle horns, collisions
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2250/00Aspects of algorithms or signal processing methods without intrinsic musical character, yet specifically adapted for or used in electrophonic musical processing
    • G10H2250/541Details of musical waveform synthesis, i.e. audio waveshape processing from individual wavetable samples, independently of their origin or of the sound they represent
    • G10H2250/641Waveform sampler, i.e. music samplers; Sampled music loop processing, wherein a loop is a sample of a performance that has been edited to repeat seamlessly without clicks or artifacts
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R1/00Details of transducers, loudspeakers or microphones
    • H04R1/02Casings; Cabinets ; Supports therefor; Mountings therein
    • H04R1/025Arrangements for fixing loudspeaker transducers, e.g. in a box, furniture
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R1/00Details of transducers, loudspeakers or microphones
    • H04R1/02Casings; Cabinets ; Supports therefor; Mountings therein
    • H04R1/028Casings; Cabinets ; Supports therefor; Mountings therein associated with devices performing functions other than acoustics, e.g. electric candles
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R2499/00Aspects covered by H04R or H04S not otherwise provided for in their subgroups
    • H04R2499/10General applications
    • H04R2499/13Acoustic transducers and sound field adaptation in vehicles

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Acoustics & Sound (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Signal Processing (AREA)
  • Automation & Control Theory (AREA)
  • General Health & Medical Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Theoretical Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Mechanical Engineering (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Fittings On The Vehicle Exterior For Carrying Loads, And Devices For Holding Or Mounting Articles (AREA)

Abstract

사용자에게 다양한 테마로 분류되는 주행음을 제공함으로써 사용자의 요구를 만족시킬 수 있는 주행음 라이브러리는, 복수의 카테고리로 분류된 복수의 소스 음원 각각의 주파수 특성과 시간 특성을 분석하는 단계; 상기 주파수 특성 및 시간 특성에 기초하여 상기 복수의 소스 음원 각각에 대응되는 화음을 결정하는 단계; 상기 복수의 소스 음원 각각에 대응되는 화음을 적용하여 상기 복수의 소스 음원 각각을 변조시킨 복수의 변조 음원을 생성하는 단계; 상기 복수의 소스 음원과 상기 복수의 변조 음원을 입력 데이터로 이용하여 복수의 주행음 음원을 생성하는 단계; 상기 복수의 주행음 음원과 미리 설정된 범위의 엔진 RPM에 대응되는 복수의 엔진음 차수에 기초하여 상기 복수의 주행음 음원의 피치를 변경하고 복수의 주행음을 생성하는 단계; 상기 복수의 주행음에 대한 테마별 스코어를 입력 받는 단계; 및 상기 복수의 주행음과 상기 복수의 주행음 각각의 테마를 연동하여 저장하는 단계;를 포함하는 방법으로 생성된다.

Description

주행음 라이브러리, 주행음 라이브러리 생성 장치 및 주행음 라이브러리를 포함하는 차량{DRIVING SOUND LIBRARY, APPARATUS FOR GENERATING DRIVING SOUND LIBRARY AND VEHICLE COMPRISING DRIVING SOUND LIBRARY}
본 발명은 다양한 테마의 주행음을 저장하는 주행음 라이브러리, 주행음 라이브러리 생성 장치 및 주행음 라이브러리를 포함하는 차량에 관한 것이다.
현대 사회에서 자동차는 사람들이 가장 많이 이용하는 이동 수단으로서, 그 수는 점점 증가하고 있다. 과거에는 자동차는 단순히 이동 수단 이상의 의미는 존재하지 않았으나 현대사회에 들어와서는 자동차는 단순히 이동 수단을 넘어 자신을 표현하거나 드라이브를 즐기는 수단으로 많이 이용되고 있다.
이에 따라, 모터바이크나 경주용 자동차처럼 스피드를 즐기는 사람들이 많아지고 있는데 이러한 스피드를 즐기는 사람들은 단순한 자동차의 속도에서 나오는 속도감뿐만 아니라 차량의 엔진에서 발생되는 작동음과 진동음으로부터도 많은 흥분을 느낀다. 이에 일부 운전자들은 자신이 원하는 주행음을 얻기 위해 엔진을 개조하여 사용하기도 한다.
특히, 전기 차량의 경우 차량의 엔진에서 발생되는 작동음과 진동음이 부재하기 때문에, 스피커를 통해 인위적으로 생성된 주행 사운드를 출력하기도 한다.
다만, 차량에 제공되는 주행음은 제조사가 미리 설계한 주행음이기 때문에 운전자의 수요를 만족시키기 어렵다.
다양한 테마로 분류되는 주행음을 저장하는 주행음 라이브러리, 주행음 라이브러리 생성 장치 및 주행음 라이브러리를 포함하는 차량을 제공한다.
일 실시예에 따른 주행음 라이브러리는, 복수의 카테고리로 분류된 복수의 소스 음원 각각의 주파수 특성과 시간 특성을 분석하는 단계; 상기 주파수 특성 및 시간 특성에 기초하여 상기 복수의 소스 음원 각각에 대응되는 화음을 결정하는 단계; 상기 복수의 소스 음원 각각에 대응되는 화음을 적용하여 상기 복수의 소스 음원 각각을 변조시킨 복수의 변조 음원을 생성하는 단계; 상기 복수의 소스 음원과 상기 복수의 변조 음원을 입력 데이터로 이용하여 복수의 주행음 음원을 생성하는 단계; 상기 복수의 주행음 음원과 미리 설정된 범위의 엔진 RPM에 대응되는 복수의 엔진음 차수에 기초하여 상기 복수의 주행음 음원의 피치를 변경하고 복수의 주행음을 생성하는 단계; 상기 복수의 주행음에 대한 테마별 스코어를 입력 받는 단계; 및 상기 복수의 주행음과 상기 복수의 주행음 각각의 테마를 연동하여 저장하는 단계;를 포함하는 방법으로 생성될 수 있다.
또한, 상기 복수의 카테고리로 분류된 복수의 소스 음원 각각의 주파수 특성과 시간 특성을 분석하는 단계는, 상기 복수의 소스 음원 각각을 주파수 대역 별로 분류하는 단계; 및 상기 복수의 소스 음원 각각을 연속성음을 갖는 제1 소스 음원과 단절성음을 갖는 제2 소스 음원으로 분류하는 단계;를 포함할 수 있다.
또한, 상기 복수의 소스 음원 각각에 대응되는 화음을 적용하여 상기 복수의 소스 음원 각각을 변조시킨 복수의 변조 음원을 생성하는 단계는, 상기 제1 소스 음원 또는 상기 제2 소스 음원 내에서 동일한 주파수 대역으로 분류되는 소스 음원들에 동일한 화음을 적용하는 단계;를 포함할 수 있다.
또한, 상기 복수의 소스 음원과 상기 복수의 변조 음원을 입력 데이터로 이용하여 복수의 주행음 음원을 생성하는 단계는, 상기 복수의 소스 음원을 시간 구간별로 분할한 소스 음원들을 WaveGAN의 입력 데이터로 이용하는 단계;를 포함할 수 있다.
또한, 상기 복수의 주행음 음원과 미리 설정된 범위의 엔진 RPM에 대응되는 복수의 엔진음 차수에 기초하여 상기 복수의 주행음 음원의 피치를 변경하고 복수의 주행음을 생성하는 단계는, 상기 복수의 주행음 음원의 주파수와 상기 복수의 엔진음 차수의 주파수 사이의 차이 값이 미리 설정된 값 이하가 되도록 상기 복수의 주행음 음원의 피치를 변경하는 단계;를 포함할 수 있다.
또한, 상기 복수의 주행음에 대한 테마별 스코어를 입력 받는 단계는, 상기 복수의 주행음 각각에 대한 제1 테마의 스코어 및 제2 테마의 스코어를 입력 받는 단계;를 포함하고, 상기 복수의 주행음과 상기 복수의 주행음 각각의 테마를 연동하여 주행음 라이브러리에 저장하는 단계는, 상기 복수의 주행음 중에서 상기 제1 테마의 스코어를 가장 높은 스코어로 갖는 주행음을 제1 테마로 분류하고, 상기 제2 테마의 스코어를 가장 높은 스코어로 갖는 주행음을 제2 테마로 분류하여 저장하는 단계;를 포함할 수 있다.
일 실시예에 따른 주행음 라이브러리 생성 장치는, 복수의 카테고리로 분류된 복수의 소스 음원을 저장하는 데이터 베이스;
상기 복수의 소스 음원 각각의 주파수 특성과 시간 특성을 분석하고, 상기 주파수 특성 및 시간 특성에 기초하여 상기 복수의 소스 음원 각각에 대응되는 화음을 결정하고, 상기 복수의 소스 음원 각각에 대응되는 화음을 적용하여 상기 복수의 소스 음원 각각을 변조시킨 복수의 변조 음원을 생성하고, 상기 복수의 소스 음원과 상기 복수의 변조 음원을 입력 데이터로 이용하여 복수의 주행음 음원을 생성하고, 상기 복수의 주행음 음원과 미리 설정된 범위의 엔진 RPM에 대응되는 복수의 엔진음 차수에 기초하여 상기 복수의 주행음 음원의 피치를 변경하고 복수의 주행음을 생성하는 적어도 하나의 프로세서; 상기 복수의 주행음에 대한 테마별 스코어를 입력 받는 입력부; 및 주행음 라이브러리;를 포함하고, 상기 적어도 하나의 프로세서는, 상기 복수의 주행음과 상기 복수의 주행음 각각의 테마를 연동하여 상기 주행음 라이브러리에 저장할 수 있다.
또한, 상기 적어도 하나의 프로세서는, 상기 복수의 소스 음원 각각을 주파수 대역 별로 분류하고, 상기 복수의 소스 음원 각각을 연속성음을 갖는 제1 소스 음원과 단절성음을 갖는 제2 소스 음원으로 분류할 수 있다.
또한, 상기 적어도 하나의 프로세서는, 상기 제1 소스 음원 또는 상기 제2 소스 음원 내에서 동일한 주파수 대역으로 분류되는 소스 음원들에 동일한 화음을 적용할 수 있다.
또한, 상기 적어도 하나의 프로세서는, 상기 복수의 소스 음원을 시간 구간별로 분할한 소스 음원들을 WaveGAN의 입력 데이터로 이용할 수 있다.
또한, 상기 적어도 하나의 프로세서는, 상기 복수의 주행음 음원의 주파수와 상기 복수의 엔진음 차수의 주파수 사이의 차이 값이 미리 설정된 값 이하가 되도록 상기 복수의 주행음 음원의 피치를 변경할 수 있다.
또한, 상기 입력부는, 상기 복수의 주행음 각각에 대한 제1 테마의 스코어 및 제2 테마의 스코어를 입력 받고, 상기 적어도 하나의 프로세서는, 상기 복수의 주행음 중에서 상기 제1 테마의 스코어를 가장 높은 스코어로 갖는 주행음을 제1 테마로 분류하고 상기 제2 테마의 스코어를 가장 높은 스코어로 갖는 주행음을 제2 테마로 분류하여 상기 주행음 라이브러리에 저장할 수 있다.
일 실시예에 따른 차량은, 일 실시예에 다른 주행음 라이브러리; 스피커; 및 네비게이션 시스템에 입력된 차량의 목적지 또는 상기 차량이 주행 중인 도로 정보에 기초하여 상기 주행음 라이브러리에 저장된 복수의 주행음의 테마 중에서 어느 하나의 테마를 선택하고, 상기 스피커가 상기 선택된 테마와 연동되어 저장된 복수의 주행음을 출력하도록 제어하는 제어부;를 포함할 수 있다.
또한, 상기 제어부는, 상기 차량의 출력 토크, 속도 및 가속도 페달 답력 중 적어도 하나에 기초하여 상기 선택된 테마와 연동되어 저장된 복수의 주행음 중 적어도 하나의 주행음을 선택할 수 있다.
또한, 상기 제어부는, 상기 차량의 출력 토크, 속도 및 가속도 페달 답력 중 적어도 하나에 기초하여 상기 선택된 테마와 연동되어 저장된 적어도 복수의 주행음의 음량을 결정할 수 있다.
본 개시에 따르면, 사용자에게 다양한 테마로 분류되는 주행음을 제공함으로써 사용자의 요구를 만족시킬 수 있다.
또한, 본 개시에 따르면, 목적지 또는 차량의 현재 위치에 기초하여 다양한 테마의 주행음을 출력함으로써 사용자에게 즐거움을 줄 수 있다.
도 1은 일 실시예에 따른 주행음 라이브러리 생성 장치의 제어 블록도이다.
도 2는 일 실시예에 따른 주행음 라이브러리 생성 장치의 제어 순서도이다.
도 3은 일 실시예에 따른 데이터 베이스에 저장된 복수의 소스 음원을 나타내는 도면이다.
도 4는 소스 음원들에 복수의 화음을 적용하여 복수의 변조 음원을 생성하는 단계를 도시한다.
도 5는 일 실시예에 따른 인공 신경망 모델을 통해 복수의 주행음을 생성하는 단계를 도시한다.
도 6은 일 실시예에 따른 차량의 제어 블록도이다.
도 7은 일 실시예에 따른 차량의 제어 순서도이다.
명세서 전체에 걸쳐 동일 참조 부호는 동일 구성요소를 지칭한다. 본 명세서가 실시예들의 모든 요소들을 설명하는 것은 아니며, 본 발명이 속하는 기술분야에서 일반적인 내용 또는 실시예들 간에 중복되는 내용은 생략한다.
명세서 전체에서, 어떤 부분이 다른 부분과 "연결"되어 있다고 할 때, 이는 직접적으로 연결되어 있는 경우뿐 아니라, 간접적으로 연결되어 있는 경우를 포함하고, 간접적인 연결은 무선 통신망을 통해 연결되는 것을 포함한다.
또한, 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다.
단수의 표현은 문맥상 명백하게 예외가 있지 않는 한, 복수의 표현을 포함한다.
또한, "~부", "~기", "~블록", "~부재", "~모듈" 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미할 수 있다. 예를 들어, 상기 용어들은 FPGA(Field-Programmable Gate Array) / ASIC(Application Specific Integrated Circuit) 등 적어도 하나의 하드웨어, 메모리에 저장된 적어도 하나의 소프트웨어 또는 프로세서에 의하여 처리되는 적어도 하나의 프로세스를 의미할 수 있다.
각 단계들에 붙여지는 부호는 각 단계들을 식별하기 위해 사용되는 것으로 이들 부호는 각 단계들 상호 간의 순서를 나타내는 것이 아니며, 각 단계들은 문맥상 명백하게 특정 순서를 기재하지 않는 이상 명기된 순서와 다르게 실시될 수 있다.
도 1은 일 실시예에 따른 주행음 라이브러리 생성 장치의 제어 블록도이다.
도 1을 참조하면, 일 실시예에 따른 주행음 라이브러리 생성 장치(100)는 복수의 카테고리로 분류된 복수의 소스 음원을 저장하는 데이터 베이스(110), 복수의 주행음에 대한 테마별 스코어를 입력 받는 입력부(120), 데이터 베이스(110)에 저장된 소스 음원과 입력부(120)를 통한 입력에 기초하여 복수의 주행음을 생성하고, 복수의 주행음과 테마를 연동하여 주행음 라이브러리(140)에 저장하는 프로세서(130)를 포함할 수 있다.
일 실시예에 따른 데이터 베이스(110)는 복수의 카테고리로 분류된 복수의 소스 음원들을 저장할 수 있다.
이 때, 복수의 카테고리는 자연의 소리, 동물의 소리, 악기음 소리, ASMR 소리, 효과음 등의 카테고리를 의미할 수 있으나, 이에 한정되는 것은 아니다.
도 3은 일 실시예에 따른 데이터 베이스에 저장된 복수의 소스 음원을 나타내는 도면이다.
도 3을 참조하면, 복수의 카테고리 각각에는 복수의 소스 음원이 분류되어 있을 수 있다.
예를 들어, 악기음 소리로 분류된 복수의 소스 음원은 Bass, Bell, Cello 등의 음원을 포함할 수 있다.
이와 같이, 복수의 소스 음원은 운용자에 의해 수집 및 분류되어 데이터 베이스(110)에 저장될 수 있다.
복수의 소스 음원을 저장하기 위한 데이터 베이스(110)는 각종 정보를 저장하기 위해 캐쉬, ROM(Read Only Memory), PROM(Programmable ROM), EPROM(Erasable Programmable ROM), EEPROM(Electrically Erasable Programmable ROM) 및 플래쉬 메모리(Flash memory)와 같은 비휘발성 메모리 소자 또는 RAM(Random Access Memory)과 같은 휘발성 메모리 소자 또는 하드디스크 드라이브(Hard Disk Drive, HDD), CD-ROM과 같은 저장 매체 중 적어도 하나로 구현될 수 있으나, 이에 한정되지는 않는다. 데이터 베이스(110)는 별개의 칩으로 구현된 메모리일 수 있고, 적어도 하나의 프로세서(130)와 단일 칩으로 구현될 수도 있다.
일 실시예에 따른 입력부(120)는 사용자로부터 복수의 주행음에 대한 테마별 스코어를 입력 받을 수 있다. 구체적으로, 사용자는 특정 주행음을 청취한 후 주행음에 대한 테마별 스코어를 입력부(120)를 통해 입력할 수 있다.
이 때, 주행음에 대한 테마는 복수 개의 테마로 분류될 수 있다. 예를 들어, 주행음의 테마는 오락용, 비즈니스용, 휴식용, 여행용 등으로 구분될 수 있다.
예를 들어, 사용자는 특정 주행음을 청취한 후 청취한 주행음에 대해 '오락용:8점, 비즈니스용: 2점, 휴식용: 4점, 여행용: 6점'과 같은 테마별 스코어를 입력부(120)를 통해 입력할 수 있다.
이를 위한 입력부(120)는, 사용자로부터 테마별 스코어를 직접 입력을 받을 수 있는 키보드, 마우스, 터치 스크린, 노브 등의 구성을 포함할 수 있을 뿐 아니라, 외부 단말을 통해 입력된 테마별 스코어를 수신하여 간접적으로 테마별 스코어를 입력 받을 수 있는 통신 모듈을 포함할 수 있다.
일 실시예에 따른 주행음 라이브러리 생성 장치(100)는 복수의 소스 음원 주파수 특성과 시간 특성을 분석하기 위한 프로그램과, 복수의 소스 음원에 대응되는 화음을 선정하여 복수의 소스 음원을 변조시키기 위한 프로그램과, 인공 신경망 모델을 이용하여 소수의 소스 음원에 기초하여 다수의 주행음 음원을 생성하는 프로그램과, 복수의 주행음을 분류하여 저장하는 프로그램 등의 각종 프로그램을 저장하는 적어도 하나의 메모리(미도시)를 포함할 수 있다.
메모리에 저장된 프로그램은, GAN(Generative Adversarial Networks) 알고리즘, GAN 알고리즘의 일종인 WaveGAN 알고리즘, RNN(Recurrent Neural Networks) 알고리즘, RNN 알고리즘의 일종인 LSTM(Long Short-Term Memory) 알고리즘, R-CNN(Region Based Convolutional Neural Networks) 알고리즘 등의 인공지능 알고리즘(인공 신경망 모델)을 포함할 수 있다.
적어도 하나의 프로세서(130)는 앞서 설명한 메모리에 저장된 각종 프로그램을 실행할 수 있다.
구체적으로, 적어도 하나의 프로세서(130)는 메모리에 저장된 적어도 하나의 프로그램을 실행하여 복수의 주행음을 생성할 수 있으며, 복수의 주행음과 복수의 주행음 각각의 테마를 연동하여 주행음 라이브러리(140)에 저장시킬 수 있다.
이를 위한 주행음 라이브러리(140)는, 각종 정보를 저장하기 위해 캐쉬, ROM(Read Only Memory), PROM(Programmable ROM), EPROM(Erasable Programmable ROM), EEPROM(Electrically Erasable Programmable ROM) 및 플래쉬 메모리(Flash memory)와 같은 비휘발성 메모리 소자 또는 RAM(Random Access Memory)과 같은 휘발성 메모리 소자 또는 하드디스크 드라이브(Hard Disk Drive, HDD), CD-ROM과 같은 저장 매체 중 적어도 하나로 구현될 수 있으나, 이에 한정되지는 않는다. 주행음 라이브러리(140)는 별개의 칩으로 구현된 메모리일 수 있고, 적어도 하나의 프로세서(130) 또는 데이터 베이스(110)와 단일 칩으로 구현될 수도 있다.
이상으로 일 실시예에 따른 주행음 라이브러리 생성 장치(100)의 구성을 설명하였다.
이하에서는 도 2 내지 도 5를 참조하여 주행음 라이브러리(140)의 생성 방법을 상세하게 설명한다.
도 2는 일 실시예에 따른 주행음 라이브러리 생성 장치)의 제어 순서도이고, 도 3은 일 실시예에 따른 데이터 베이스에 저장된 복수의 소스 음원을 나타내는 도면이고, 도 4는 소스 음원들에 복수의 화음을 적용하여 복수의 변조 음원을 생성하는 단계를 도시하고, 도 5는 일 실시예에 따른 인공 신경망 모델을 통해 복수의 주행음을 생성하는 단계를 도시한다.
도 2를 참조하면, 적어도 하나의 프로세서(130)는 데이터 베이스(110)에 저장되어 있는 복수의 카테고리로 분류된 복수의 소스 음원 각각의 주파수 특성과 시간 특성을 분석할 수 있다(1000).
구체적으로, 적어도 하나의 프로세서(130)는 복수의 소스 음원을 주파수 대역 별로 분류할 수 있다.
예를 들어, 적어도 하나의 프로세서(130)는 복수의 소스 음원의 주파수 특성에 기초하여 1kHz 이하의 주파수 대역을 갖는 소스 음원을 제1 그룹으로, 1kHz 초과 5kHz 이하의 주파수 대역을 갖는 소스 음원을 제2 그룹으로, 5kHz 초과 10kHz 이하의 주파수 대역을 갖는 소스 음원을 제3 그룹으로 분류할 수 있다.
또한, 적어도 하나의 프로세서(130)는 복수의 소스 음원의 시간 특성에 기초하여 복수의 그룹으로 분류할 수 있다.
예를 들어, 적어도 하나의 프로세서(130)는 복수의 소스 음원의 시간 특성에 기초하여 연속성음을 갖는 소스 음원을 제1 그룹으로, 단절성음을 갖는 소스 음원을 제2 그룹으로, 변동성음을 갖는 소스 음원을 제3 그룹으로, 고정음을 갖는 소스 음원을 제4 그룹으로 분류할 수 있다.
이후 적어도 하나의 프로세서(130)는 복수의 소스 음원의 분류에 따라 복수의 소스 음원 각각에 대응되는 화음을 결정할 수 있다.
즉, 적어도 하나의 프로세서(130)는 복수의 소스 음원의 주파수 특성 및 시간 특성에 기초하여 복수의 소스 음원 각각에 대응되는 화음을 결정할 수 있다(1100).
구체적으로, 적어도 하나의 프로세서(130)는 주파수 특성 및 시간 특성에 기초하여 분류된 소스 음원들에 대해 분석을 위한 설정을 한 후, 설정에 따라 소스 음원들을 분석하여 가장 적합한 화음을 선정할 수 있다.
예를 들어, 적어도 하나의 프로세서(130)는 소스 음원들에 대해 분석 구간 및 길이, 윈도우 종류, 샘플링 주파수 등을 설정하고 FFT 분석을 수행할 수 있다.
이후 적어도 하나의 프로세서(130)는 복수의 소스 음원 각각에 대응되는 화음을 결정할 수 있다.
예를 들어, 적어도 하나의 프로세서(130)는 1kHz 초과 5kHz 이하의 주파수 대역을 갖고 연속성음을 갖는 소스 음원에 대하여 메이저 세븐스 화음을 적용할 수 있다.
즉, 적어도 하나의 프로세서(130)는 동일한 주파수 대역 별로 분류되고 동일한 시간 특성을 갖는 소스 음원들에 대하여 동일한 화음을 적용할 수 있다.
도 4를 참조하면, 적어도 하나의 프로세서(130)는 소스 음원에 대하여 단조 화음(Cm), 장조 화음(C) 및 세븐스 화음(CM7)을 각각 적용하여 세 개의 변조 음원을 생성할 수 있다.
즉, 적어도 하나의 프로세서(130)는 복수의 소스 음원 각각에 대응되는 화음을 적용하여 복수의 소스 음원 각각을 변조시킨 복수의 변조 음원을 생성할 수 있다(1200).
이후 적어도 하나의 프로세서(130)는 데이터 베이스(110)에 저장된 복수의 소스 음원과, 복수의 소스 음원에 기초하여 생성된 복수의 변조 음원을 WaveGAN의 입력 데이터로 이용하여 복수의 주행음 음원을 생성할 수 있다(1300).
더불어, 적어도 하나의 프로세서(130)는 복수의 소스 음원을 시간 구간 별로 분할하여 WaveGAN의 입력 데이터로 활용할 수 있다.
구체적으로, 적어도 하나의 프로세서(130)는 소스 음원, 소스 음원을 시간 구간 별로 분할 한 복수 개의 음원들, 소스 음원에 화음을 적용하여 변조시킨 변조 음원들을 WaveGAN의 입력 데이터로 할 수 있다.
예를 들어, 3개의 소스 음원을 각각 10개의 시간 구간 별로 분할하고, 이에 대해 4개의 화음을 적용하는 경우, WaveGAN의 입력 데이터로 활용될 수 있는 음원의 개수를 120개(3x10x4=120)로 증가시킬 수 있다.
즉, 일 실시예에 따른 주행음 라이브러리 생성 장치(100)는 적은 개수의 소스 음원을 통해 많은 개수의 주행음 음원을 생성할 수 있다.
도 5를 참조하면, 자연의 소리로 분류된 하나의 소스 음원을 WaveGAN의 입력 데이터로 이용하는 경우 무수히 많은 주행음 음원이 생성되는 것을 확인할 수 있다.
이후 적어도 하나의 프로세서(130)는 생성된 복수의 주행음 음원과 미리 설정된 범위의 엔진 RPM에 대응되는 복수의 엔진음 차수에 기초하여, 복수의 주행음 음원의 피치를 변경하고 복수의 주행음을 생성할 수 있다(1400).
예를 들어, 적어도 하나의 프로세서(130)는 WaveGAN을 통해 생성된 복수의 주행음 음원을 1000~6000rpm의 엔진 RPM에 연동하여 피치가 증가하도록 음원을 변조할 수 있다.
구체적으로, 적어도 하나의 프로세서(130)는 복수의 주행음 음원의 주파수와 복수의 엔진음 차수의 주파수 사이의 차이 값이 미리 설정된 값 이하가 되도록 복수의 주행음 음원의 피치를 변경함으로써 복수의 주행음을 생성할 수 있다.
예를 들어, 엔진음 차수가 높아질수록 주행음 음원이 고주파수 대역을 갖도록 주행음 음원의 피치를 변경하여 각 엔진음 차수에 해당하는 복수의 주행음을 생성할 수 있다.
이후 사용자는 생성된 복수의 주행음을 청취한 후 복수의 주행음에 대한 테마별 스코어를 입력부(120)를 통해 입력할 수 있다.
입력부(120)는 사용자로부터 복수의 주행음에 대한 테마별 스코어를 입력 받고, 복수의 주행음에 대한 테마별 스코어를 적어도 하나의 프로세서(130)로 전달할 수 있다.
적어도 하나의 프로세서(130)는 입력부(120)로부터 전달 받은 복수의 주행음에 대한 테마별 스코어에 기초하여 복수의 주행음을 분류하고, 분류된 복수의 주행음을 주행음 라이브러리(140)에 저장할 수 있다(1500).
구체적으로, 입력부(120)는 복수의 주행음 각각에 대하여 여행용 테마(이하 '제1 테마')의 스코어와 비즈니스용 테마(이하 '제2 테마')의 스코어를 입력 받을 수 있으며, 적어도 하나의 프로세서(130)는 복수의 주행음 중에서 제1 테마의 스코어를 가장 높은 스코어로 갖는 주행음을 제1 테마로 분류하고, 제2 테마의 스코어를 가장 높은 스코어로 갖는 주행음을 제2 테마로 분류하여 주행음 라이브러리(140)에 저장할 수 있다.
예를 들어, 특정 주행음에 대하여 제1 테마의 스코어가 9점, 제2 테마의 스코어가 7점인 경우, 적어도 하나의 프로세서(130)는 상기 특정 주행음을 제1 테마로 분류하여 주행음 라이브러리(140)에 저장할 수 있다. 또한, 특정 주행음에 대하여 제1 테마의 스코어가 5점, 제2 테마의 스코어가 7점인 경우, 적어도 하나의 프로세서(130)는 상기 주행음을 제2 테마로 분류하여 주행음 라이브러리(140)에 저장할 수 있다.
결과적으로, 주행음 라이브러리(140)는 복수 개의 테마로 분류된 복수 개의 주행음을 저장할 수 있다.
상술하여 설명한 주행음 라이브러리(140) 및 주행음 라이브러리 생성 장치(100)에 따르면, 소수 개의 소스 음원을 가지고도 다수 개의 주행음을 생성하여 다양한 주행음을 제공할 수 있는 장점이 있다.
이하에서는 도 6 내지 도 7을 참조하여 일 실시예에 따른 주행음 라이브러리(140)를 포함하는 차량(10)을 설명한다.
도 6은 일 실시예에 따른 차량의 제어 블록도이고, 도 7은 일 실시예에 따른 차량의 제어 순서도이다.
도 6을 참조하면, 일 실시예에 따른 차량(10)은 주행음 라이브러리(140)와, 주행음 라이브러리(140)에서 주행음을 선택하여 스피커(13)가 주행음을 출력하도록 제어하는 제어부(11)와, 네비게이션 시스템(12)과, 스피커(13)를 포함할 수 있다.
주행음 라이브러리(140)는 도 2의 각 단계를 거쳐서 생성될 수 있다.
네비게이션 시스템(12)은 사용자로부터 입력된 차량(10)의 목적지에 기초하여 주행 경로 정보를 생성할 수 있다.
또한, 네비게이션 시스템(12)은 차량(10)의 현재 위치에 기반하여 차량(10)이 주행 중인 도로 정보를 제공할 수 있다.
예를 들어, 네비게이션 시스템(12)은 차량(10)이 고속도로를 주행 중이라는 정보를 제어부(11)로 전달할 수 있다.
스피커(13)는 차량(10) 내부에 각종 사운드를 출력할 수 있다. 이를 위한 스피커(13)는 차량(10)의 양쪽 도어에 마련될 수 있으나, 차량(10) 내부의 운전자가 출력되는 사운드를 청취할 수 있는 위치라면 제한 없이 마련될 수 있다.
도 7을 참조하면, 제어부(11)는 네비게이션 시스템(12)으로부터 네비게이션 시스템(12)에 입력된 차량(10)의 목적지 또는 차량(10)이 주행 중인 도로 정보를 수신할 수 있다(2000).
이후 제어부(11)는 네비게이션 시스템(12)에 입력된 차량(10)의 목적지 또는 차량(10)이 주행 중인 도로 정보에 기초하여 주행음 라이브러리(140)에 저장된 복수의 주행음의 테마 중에서 어느 하나의 테마를 선택할 수 있으며(2100), 선택된 테마 내에서 주행음을 선택하고(2200), 스피커(13)가 선택된 적어도 하나의 주행음을 출력하도록 제어할 수 있다(2300).
예를 들어, 네비게이션 시스템(12)에 입력된 차량(10)의 목적지가 사무실인 경우, 제어부(11)는 "비지니스용 테마"로 분류되어 주행음 라이브러리(140)에 저장된 복수의 주행음 중에서 적어도 하나의 주행음을 선택할 수 있다.
또한, 차량(10)이 주행 중인 도로 정보가 고속도로인 경우, 제어부(11)는 "여행용 테마"로 분류되어 주행음 라이브러리(140)에 저장된 복수의 주행음 중에서 적어도 하나의 주행음을 선택할 수 있다.
즉, 제어부(11)는 네비게이션 시스템(12)에 입력된 차량(10)의 목적지와 가장 적합한 테마 또는 차량(10)이 주행 중인 도로 정보에 가장 적합한 테마를 선정할 수 있다. 이를 위해, 제어부(11)는 목적지와 테마간의 매칭 관계 및/또는 도로 정보와 테마간의 매칭 관계가 저장된 메모리를 포함할 수 있다.
제어부(11)는 차량 내 통신 네트워크(CAN)를 통해 각종 신호를 수신할 수 있으며, 차량(10)의 출력 토크, 속도 및 가속도 페달 답력 중 적어도 하나에 기초하여 선택된 테마와 연동되어 저장된 복수의 주행음 중 적어도 하나의 주행음을 선택할 수 있다.
예를 들어, 차량(10)의 출력 토크, 속도 및 가속도 페달 답력에 대응되는 엔진 RPM이 2000rpm으로 판단된 경우, 제어부(11)는 선택된 테마와 연동되어 저장된 복수의 주행음 중에서 2000rpm에 대응되는 엔진음 차수에 기초하여 피치가 변경된 주행음 음원을 선택할 수 있다.
또한, 제어부(11)는 차량(10)의 출력 토크, 속도 및 가속도 페달 답력에 기초하여 선택된 주행음의 음량을 결정할 수 있다.
예를 들어, 차량(10)의 출력 토크, 속도 및 가속도 페달 답력이 클수록 선택된 주행음의 음량을 크게 결정할 수 있다.
이와 같이, 일 실시예에 따른 차량(10)은 목적지 정보 및 도로 환경에 기초하여 테마를 선택하고 선택된 테마로 분류된 주행음을 출력함으로써, 사용자의 다양한 요구를 만족시킬 수 있다.
또한, 일 실시예에 따른 차량(10)은, 엔진음 차수에 기초하여 미리 변조되어 주행음 라이브러리(140)에 저장된 주행음을 선택함으로써, 차량(10)의 출력 토크, 속도 및 가속도 페달 답력 변화에 따른 주행음의 피치 변화를 신속하게 반영시킬 수 있다.
한편, 개시된 실시예들은 컴퓨터에 의해 실행 가능한 명령어를 저장하는 기록매체의 형태로 구현될 수 있다. 명령어는 프로그램 코드의 형태로 저장될 수 있으며, 프로세서에 의해 실행되었을 때, 프로그램 모듈을 생성하여 개시된 실시예들의 동작을 수행할 수 있다. 기록매체는 컴퓨터로 읽을 수 있는 기록매체로 구현될 수 있다.
컴퓨터가 읽을 수 있는 기록매체로는 컴퓨터에 의하여 해독될 수 있는 명령어가 저장된 모든 종류의 기록 매체를 포함한다. 예를 들어, ROM(Read Only Memory), RAM(Random Access Memory), 자기 테이프, 자기 디스크, 플래쉬 메모리, 광 데이터 저장장치 등이 있을 수 있다.
이상에서와 같이 첨부된 도면을 참조하여 개시된 실시예들을 설명하였다. 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자는 본 발명의 기술적 사상이나 필수적인 특징을 변경하지 않고도, 개시된 실시예들과 다른 형태로 본 발명이 실시될 수 있음을 이해할 것이다. 개시된 실시예들은 예시적인 것이며, 한정적으로 해석되어서는 안 된다.
10: 차량 11: 제어부
12: 네비게이션 시스템 13: 스피커
100: 주행음 라이브러리 생성 장치 110: 데이터 베이스
120: 입력부 130: 프로세서
140: 주행음 라이브러리

Claims (15)

  1. 복수의 카테고리로 분류된 복수의 소스 음원 각각의 주파수 특성과 시간 특성을 분석하는 단계;
    상기 주파수 특성 및 시간 특성에 기초하여 상기 복수의 소스 음원 각각에 대응되는 화음을 결정하는 단계;
    상기 복수의 소스 음원 각각에 대응되는 화음을 적용하여 상기 복수의 소스 음원 각각을 변조시킨 복수의 변조 음원을 생성하는 단계;
    상기 복수의 소스 음원과 상기 복수의 변조 음원을 입력 데이터로 이용하여 복수의 주행음 음원을 생성하는 단계;
    상기 복수의 주행음 음원과 미리 설정된 범위의 엔진 RPM에 대응되는 복수의 엔진음 차수에 기초하여 상기 복수의 주행음 음원의 피치를 변경하고 복수의 주행음을 생성하는 단계;
    상기 복수의 주행음에 대한 테마별 스코어를 입력 받는 단계; 및
    상기 복수의 주행음과 상기 복수의 주행음 각각의 테마를 연동하여 저장하는 단계;를 포함하는 방법으로 생성된 주행음 라이브러리.
  2. 제1항에 있어서,
    상기 복수의 카테고리로 분류된 복수의 소스 음원 각각의 주파수 특성과 시간 특성을 분석하는 단계는,
    상기 복수의 소스 음원 각각을 주파수 대역 별로 분류하는 단계; 및
    상기 복수의 소스 음원 각각을 연속성음을 갖는 제1 소스 음원과 단절성음을 갖는 제2 소스 음원으로 분류하는 단계;를 포함하는 주행음 라이브러리.
  3. 제2항에 있어서,
    상기 복수의 소스 음원 각각에 대응되는 화음을 적용하여 상기 복수의 소스 음원 각각을 변조시킨 복수의 변조 음원을 생성하는 단계는,
    상기 제1 소스 음원 또는 상기 제2 소스 음원 내에서 동일한 주파수 대역으로 분류되는 소스 음원들에 동일한 화음을 적용하는 단계;를 포함하는 주행음 라이브러리.
  4. 제1항에 있어서,
    상기 복수의 소스 음원과 상기 복수의 변조 음원을 입력 데이터로 이용하여 복수의 주행음 음원을 생성하는 단계는,
    상기 복수의 소스 음원을 시간 구간별로 분할한 소스 음원들을 WaveGAN의 입력 데이터로 이용하는 단계;를 포함하는 주행음 라이브러리.
  5. 제1항에 있어서,
    상기 복수의 주행음 음원과 미리 설정된 범위의 엔진 RPM에 대응되는 복수의 엔진음 차수에 기초하여 상기 복수의 주행음 음원의 피치를 변경하고 복수의 주행음을 생성하는 단계는,
    상기 복수의 주행음 음원의 주파수와 상기 복수의 엔진음 차수의 주파수 사이의 차이 값이 미리 설정된 값 이하가 되도록 상기 복수의 주행음 음원의 피치를 변경하는 단계;를 포함하는 주행음 라이브러리.
  6. 제1항에 있어서,
    상기 복수의 주행음에 대한 테마별 스코어를 입력 받는 단계는,
    상기 복수의 주행음 각각에 대한 제1 테마의 스코어 및 제2 테마의 스코어를 입력 받는 단계;를 포함하고,
    상기 복수의 주행음과 상기 복수의 주행음 각각의 테마를 연동하여 주행음 라이브러리에 저장하는 단계는,
    상기 복수의 주행음 중에서 상기 제1 테마의 스코어를 가장 높은 스코어로 갖는 주행음을 제1 테마로 분류하고, 상기 제2 테마의 스코어를 가장 높은 스코어로 갖는 주행음을 제2 테마로 분류하여 저장하는 단계;를 포함하는 주행음 라이브러리.
  7. 복수의 카테고리로 분류된 복수의 소스 음원을 저장하는 데이터 베이스;
    상기 복수의 소스 음원 각각의 주파수 특성과 시간 특성을 분석하고, 상기 주파수 특성 및 시간 특성에 기초하여 상기 복수의 소스 음원 각각에 대응되는 화음을 결정하고, 상기 복수의 소스 음원 각각에 대응되는 화음을 적용하여 상기 복수의 소스 음원 각각을 변조시킨 복수의 변조 음원을 생성하고, 상기 복수의 소스 음원과 상기 복수의 변조 음원을 입력 데이터로 이용하여 복수의 주행음 음원을 생성하고, 상기 복수의 주행음 음원과 미리 설정된 범위의 엔진 RPM에 대응되는 복수의 엔진음 차수에 기초하여 상기 복수의 주행음 음원의 피치를 변경하고 복수의 주행음을 생성하는 적어도 하나의 프로세서;
    상기 복수의 주행음에 대한 테마별 스코어를 입력 받는 입력부; 및
    주행음 라이브러리;를 포함하고,
    상기 적어도 하나의 프로세서는, 상기 복수의 주행음과 상기 복수의 주행음 각각의 테마를 연동하여 상기 주행음 라이브러리에 저장하는 주행음 라이브러리 생성 장치.
  8. 제7항에 있어서,
    상기 적어도 하나의 프로세서는,
    상기 복수의 소스 음원 각각을 주파수 대역 별로 분류하고, 상기 복수의 소스 음원 각각을 연속성음을 갖는 제1 소스 음원과 단절성음을 갖는 제2 소스 음원으로 분류하는 주행음 라이브러리 생성 장치.
  9. 제8항에 있어서,
    상기 적어도 하나의 프로세서는,
    상기 제1 소스 음원 또는 상기 제2 소스 음원 내에서 동일한 주파수 대역으로 분류되는 소스 음원들에 동일한 화음을 적용하는 주행음 라이브러리 생성 장치.
  10. 제7항에 있어서,
    상기 적어도 하나의 프로세서는,
    상기 복수의 소스 음원을 시간 구간별로 분할한 소스 음원들을 WaveGAN의 입력 데이터로 이용하는 주행음 라이브러리 생성 장치.
  11. 제7항에 있어서,
    상기 적어도 하나의 프로세서는,
    상기 복수의 주행음 음원의 주파수와 상기 복수의 엔진음 차수의 주파수 사이의 차이 값이 미리 설정된 값 이하가 되도록 상기 복수의 주행음 음원의 피치를 변경하는 주행음 라이브러리 생성 장치.
  12. 제7항에 있어서,
    상기 입력부는,
    상기 복수의 주행음 각각에 대한 제1 테마의 스코어 및 제2 테마의 스코어를 입력 받고,
    상기 적어도 하나의 프로세서는,
    상기 복수의 주행음 중에서 상기 제1 테마의 스코어를 가장 높은 스코어로 갖는 주행음을 제1 테마로 분류하고 상기 제2 테마의 스코어를 가장 높은 스코어로 갖는 주행음을 제2 테마로 분류하여 상기 주행음 라이브러리에 저장하는 주행음 라이브러리 생성 장치.
  13. 제1항의 주행음 라이브러리;
    스피커; 및
    네비게이션 시스템에 입력된 차량의 목적지 또는 상기 차량이 주행 중인 도로 정보에 기초하여 상기 주행음 라이브러리에 저장된 복수의 주행음의 테마 중에서 어느 하나의 테마를 선택하고, 상기 스피커가 상기 선택된 테마와 연동되어 저장된 복수의 주행음을 출력하도록 제어하는 제어부;를 포함하는 차량.
  14. 제13항에 있어서,
    상기 제어부는,
    상기 차량의 출력 토크, 속도 및 가속도 페달 답력 중 적어도 하나에 기초하여 상기 선택된 테마와 연동되어 저장된 복수의 주행음 중 적어도 하나의 주행음을 선택하는 차량.
  15. 제13항에 있어서,
    상기 제어부는,
    상기 차량의 출력 토크, 속도 및 가속도 페달 답력 중 적어도 하나에 기초하여 상기 선택된 테마와 연동되어 저장된 적어도 복수의 주행음의 음량을 결정하는 차량.
KR1020200078536A 2020-06-26 2020-06-26 주행음 라이브러리, 주행음 라이브러리 생성 장치 및 주행음 라이브러리를 포함하는 차량 KR20220000655A (ko)

Priority Applications (3)

Application Number Priority Date Filing Date Title
KR1020200078536A KR20220000655A (ko) 2020-06-26 2020-06-26 주행음 라이브러리, 주행음 라이브러리 생성 장치 및 주행음 라이브러리를 포함하는 차량
US17/091,312 US11514884B2 (en) 2020-06-26 2020-11-06 Driving sound library, apparatus for generating driving sound library and vehicle comprising driving sound library
CN202011313355.8A CN113849680A (zh) 2020-06-26 2020-11-20 行驶声音库、用于生成行驶声音库的装置以及包括行驶声音库的车辆

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200078536A KR20220000655A (ko) 2020-06-26 2020-06-26 주행음 라이브러리, 주행음 라이브러리 생성 장치 및 주행음 라이브러리를 포함하는 차량

Publications (1)

Publication Number Publication Date
KR20220000655A true KR20220000655A (ko) 2022-01-04

Family

ID=78972956

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200078536A KR20220000655A (ko) 2020-06-26 2020-06-26 주행음 라이브러리, 주행음 라이브러리 생성 장치 및 주행음 라이브러리를 포함하는 차량

Country Status (3)

Country Link
US (1) US11514884B2 (ko)
KR (1) KR20220000655A (ko)
CN (1) CN113849680A (ko)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11538461B1 (en) * 2021-03-18 2022-12-27 Amazon Technologies, Inc. Language agnostic missing subtitle detection
US11537358B1 (en) * 2021-08-05 2022-12-27 Bayerische Motoren Werke Aktiengesellschaft Sound experience generator
KR20230090058A (ko) * 2021-12-14 2023-06-21 현대자동차주식회사 차량 사운드 발생 장치 및 방법

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4888386B2 (ja) * 2005-03-11 2012-02-29 ヤマハ株式会社 エンジン音加工装置
EP2685448B1 (en) * 2012-07-12 2018-09-05 Harman Becker Automotive Systems GmbH Engine sound synthesis
US9721551B2 (en) 2015-09-29 2017-08-01 Amper Music, Inc. Machines, systems, processes for automated music composition and generation employing linguistic and/or graphical icon based musical experience descriptions
CN105893460B (zh) 2016-03-22 2019-11-29 无锡五楼信息技术有限公司 一种基于人工智能技术的音乐自动创作方法及装置
KR101886534B1 (ko) 2016-12-16 2018-08-09 아주대학교산학협력단 인공지능을 이용한 작곡 시스템 및 작곡 방법
KR101982345B1 (ko) 2017-07-21 2019-05-24 주식회사 마인드셋 인공지능을 이용한 음악 생성 장치 및 방법
KR102383461B1 (ko) * 2017-10-17 2022-04-06 현대자동차주식회사 인공지능을 활용한 엔진동력특성 기반 엔진음색 제어방법 및 차량
KR20190100543A (ko) 2018-02-09 2019-08-29 삼성전자주식회사 전자장치 및 이를 이용한 인공지능 알고리즘 기반의 음악 작곡 방법
US10803849B2 (en) * 2018-04-13 2020-10-13 Sound Design Lab Llc Sound pressure signal output apparatus, sound pressure signal output method, and program for sound pressure signal output
CN110364140B (zh) 2019-06-11 2024-02-06 平安科技(深圳)有限公司 歌声合成模型的训练方法、装置、计算机设备以及存储介质
KR20190137727A (ko) 2019-10-08 2019-12-11 (주)오렌지디지트코리아 인공지능 뮤직박스 운용 시스템

Also Published As

Publication number Publication date
US11514884B2 (en) 2022-11-29
CN113849680A (zh) 2021-12-28
US20210407492A1 (en) 2021-12-30

Similar Documents

Publication Publication Date Title
KR20220000655A (ko) 주행음 라이브러리, 주행음 라이브러리 생성 장치 및 주행음 라이브러리를 포함하는 차량
US11842730B2 (en) Modification of electronic system operation based on acoustic ambience classification
US10481858B2 (en) Generating personalized audio content based on mood
US7529676B2 (en) Audio device control device, audio device control method, and program
US7881934B2 (en) Method and system for adjusting the voice prompt of an interactive system based upon the user's state
CN103597543A (zh) 语义音轨混合器
JP2008203338A (ja) 楽音発生装置及び楽音発生方法
KR100922458B1 (ko) 차량용 악음 발생 장치, 악음 발생 방법 및 프로그램을기록한 컴퓨터로 판독가능한 기록 매체
WO2021033607A1 (ja) 車両用音生成装置
US11842719B2 (en) Sound processing method, sound processing apparatus, and recording medium
CN116368353A (zh) 内容感知导航指令
KR101804772B1 (ko) 사운드 제어장치, 차량 및 그 제어방법
US10884700B2 (en) Sound outputting device, sound outputting method, and sound outputting program storage medium
JP5157383B2 (ja) 走行案内装置、走行案内方法および走行案内プログラム
CN115938340A (zh) 基于车载语音ai的语音数据处理方法及相关设备
CN114339546A (zh) 一种车辆声音播放方法、装置、存储介质及设备
JP5109397B2 (ja) 車両用楽音発生装置及び楽音発生方法
US20240096309A1 (en) Virtual engine sound generating system and method of vehicle with shepard tone
EP3821427B1 (en) Method for generating an audio signal, in particular for active control of the sound of the engine of a land vehicle, and corresponding apparatus
US20230421125A1 (en) Adaptive sound control system and method of active sound design system
US20230043956A1 (en) Voice assistant system with audio effects related to voice commands
US20230395052A1 (en) Audio analysis method, audio analysis system and program
CN117565808A (zh) 一种基于唱歌的车载人机交互方法、系统、介质及设备
Allman-Ward et al. Designing and delivering the right sound for quiet vehicles
KR20210158706A (ko) 차량 및 그 제어방법

Legal Events

Date Code Title Description
A201 Request for examination