KR100275799B1 - 음향구성장치 - Google Patents

음향구성장치 Download PDF

Info

Publication number
KR100275799B1
KR100275799B1 KR1019930018345A KR930018345A KR100275799B1 KR 100275799 B1 KR100275799 B1 KR 100275799B1 KR 1019930018345 A KR1019930018345 A KR 1019930018345A KR 930018345 A KR930018345 A KR 930018345A KR 100275799 B1 KR100275799 B1 KR 100275799B1
Authority
KR
South Korea
Prior art keywords
sound
data
signal
sound source
midi
Prior art date
Application number
KR1019930018345A
Other languages
English (en)
Other versions
KR940007766A (ko
Inventor
오바하루오
나가하라준니치
Original Assignee
이데이 노부유끼
소니 가부시끼 가이샤
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 이데이 노부유끼, 소니 가부시끼 가이샤 filed Critical 이데이 노부유끼
Publication of KR940007766A publication Critical patent/KR940007766A/ko
Application granted granted Critical
Publication of KR100275799B1 publication Critical patent/KR100275799B1/ko

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H3/00Instruments in which the tones are generated by electromechanical means
    • G10H3/12Instruments in which the tones are generated by electromechanical means using mechanical resonant generators, e.g. strings or percussive instruments, the tones of which are picked up by electromechanical transducers, the electrical signals being further manipulated or amplified and subsequently converted to sound by a loudspeaker or equivalent instrument
    • G10H3/125Extracting or recognising the pitch or fundamental frequency of the picked up signal
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/32Constructional details
    • G10H1/34Switch arrangements, e.g. keyboards or mechanical switches specially adapted for electrophonic musical instruments
    • G10H1/344Structural association with individual keys
    • G10H1/348Switches actuated by parts of the body other than fingers
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B20/00Signal processing not specific to the method of recording or reproducing; Circuits therefor
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/031Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal
    • G10H2210/066Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal for pitch analysis as part of wider processing for musical purposes, e.g. transcription, musical performance evaluation; Pitch recognition, e.g. in polyphonic sounds; Estimation or use of missing fundamental
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2220/00Input/output interfacing specifically adapted for electrophonic musical tools or instruments
    • G10H2220/155User input interfaces for electrophonic musical instruments
    • G10H2220/351Environmental parameters, e.g. temperature, ambient light, atmospheric pressure, humidity, used as input for musical purposes
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2220/00Input/output interfacing specifically adapted for electrophonic musical tools or instruments
    • G10H2220/155User input interfaces for electrophonic musical instruments
    • G10H2220/371Vital parameter control, i.e. musical instrument control based on body signals, e.g. brainwaves, pulsation, temperature, perspiration; biometric information
    • G10H2220/376Vital parameter control, i.e. musical instrument control based on body signals, e.g. brainwaves, pulsation, temperature, perspiration; biometric information using brain waves, e.g. EEG
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2240/00Data organisation or data communication aspects, specifically adapted for electrophonic musical tools or instruments
    • G10H2240/011Files or data streams containing coded musical information, e.g. for transmission
    • G10H2240/046File format, i.e. specific or non-standard musical file format used in or adapted for electrophonic musical instruments, e.g. in wavetables
    • G10H2240/056MIDI or other note-oriented file format
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2250/00Aspects of algorithms or signal processing methods without intrinsic musical character, yet specifically adapted for or used in electrophonic musical processing
    • G10H2250/315Sound category-dependent sound synthesis processes [Gensound] for musical use; Sound category-specific synthesis-controlling parameters or control means therefor
    • G10H2250/321Gensound animals, i.e. generating animal voices or sounds
    • G10H2250/325Birds
    • G10H2250/335Sea birds, e.g. seagulls
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2250/00Aspects of algorithms or signal processing methods without intrinsic musical character, yet specifically adapted for or used in electrophonic musical processing
    • G10H2250/315Sound category-dependent sound synthesis processes [Gensound] for musical use; Sound category-specific synthesis-controlling parameters or control means therefor
    • G10H2250/391Gensound footsteps, i.e. footsteps, kicks or tap-dancing sounds
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2250/00Aspects of algorithms or signal processing methods without intrinsic musical character, yet specifically adapted for or used in electrophonic musical processing
    • G10H2250/315Sound category-dependent sound synthesis processes [Gensound] for musical use; Sound category-specific synthesis-controlling parameters or control means therefor
    • G10H2250/395Gensound nature
    • G10H2250/411Water, e.g. seashore, waves, brook, waterfall, dripping faucet
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2250/00Aspects of algorithms or signal processing methods without intrinsic musical character, yet specifically adapted for or used in electrophonic musical processing
    • G10H2250/315Sound category-dependent sound synthesis processes [Gensound] for musical use; Sound category-specific synthesis-controlling parameters or control means therefor
    • G10H2250/395Gensound nature
    • G10H2250/415Weather
    • G10H2250/431Natural aerodynamic noises, e.g. wind gust sounds, rustling leaves, beating sails
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2250/00Aspects of algorithms or signal processing methods without intrinsic musical character, yet specifically adapted for or used in electrophonic musical processing
    • G10H2250/315Sound category-dependent sound synthesis processes [Gensound] for musical use; Sound category-specific synthesis-controlling parameters or control means therefor
    • G10H2250/455Gensound singing voices, i.e. generation of human voices for musical applications, vocal singing sounds or intelligible words at a desired pitch or with desired vocal effects, e.g. by phoneme synthesis
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2250/00Aspects of algorithms or signal processing methods without intrinsic musical character, yet specifically adapted for or used in electrophonic musical processing
    • G10H2250/541Details of musical waveform synthesis, i.e. audio waveshape processing from individual wavetable samples, independently of their origin or of the sound they represent
    • G10H2250/641Waveform sampler, i.e. music samplers; Sampled music loop processing, wherein a loop is a sample of a performance that has been edited to repeat seamlessly without clicks or artifacts

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Electrophonic Musical Instruments (AREA)

Abstract

본 발명은 재생시간의 제약을 받지아니하고, 외부환경의 상태, 혹은 상태의 변화에 대응하는 청취자의 요구에 맞는 음을 발생시켜서 유효한 음향 효과를 얻을 수 있는 음향구성장치의 제공을 목적으로 한다.
그 구성을 보면, 입력신호 변환회로부(10)로 부터의 출력신호를 데이터 추출회로부(12)에 공급하고 신호를 해석하고 데이터를 추출하여 MIDI신호변환회로부(13)에 공급한다.
MIDI신호변환회로부(13)는 이 데이터 추출회로부(12)에 추출한 음원데이터에 의거하여 음원제어데이터를 음원발생회로부(14)에 출력한다. 음원발생회로부(14)는 MIDI신호변환회로부(13)로 부터의 제어데이터에 따른 음신호를 발음회로부(15)에 출력한다. 최종적으로 발음회로부(15)는 공급되는 출력신호를 변환하여 발음시키는 구성으로 되어있다.

Description

음향구성장치
제1도는 본 발명의 음향구성장치에 있어서의 기본적인 블록구성을 표시하는 회로도이다.
제2도는 제1도에 표시한 음향구성장치의 센서로서 마이트로폰을 회의실에 설치한 제 1실시예에 있어서의 설치상황을 표시하는 모식도이다.
제3도는 본 발명의 음향구성장치에 있어서의 보다 구체적인 제 1실시예의 블록구성을 표시하는 회로도이다.
제4도는 음의 요소가 되는 샘플링한 음의 기본 주파수(즉 음정)의 재생속도를 그대로 음의 높이를 바꾸는 피치시프트기능을 설명하는 파형도이다.
제5도는 음의 요소가 되는 샘플링한 음에 대하여 음의 높이를 그대로 음의 재생속도의 단축화를 도모하는 타임콤플렉스기능을 설명하는 파형도이다.
제6도는 음의 요소가 되는 샘플링한 음에 대하여 음의 높이를 그대로 음의 재생속도의 연장화를 도모하는 타임엑스펀도 기능을 설명하는 파형도이다.
제7도는 음의 요소가 되는 샘플링한 음에 대하여 음의 크기를 가지런하게 하기위해 계산으로 파형의 고쳐쓰기를 하는 진폭의 변경기능을 설명하는 파형도이다.
제8도는 음의 요소가 되는 샘플링한 음에 대하여 음의 일어서는 설정을 하는 엔벌로프기능을 설명하는 파형도이다.
제9도는 음의 요소가 되는 샘플링한 음에 대하여 음의 감쇠경향의 설정을 하는 엔벌로프기능을 설명하는 파형도이다.
제10도는 음의 데이터해석과 소프트웨어와의 대응관계의 취하는 방법을 설명하는 도면이며, 제10a도는 입력한 음의 주파수 분석하였을 때의 일예를 표시하는 그래프이며, 제10b도는 제10a도에 대응하는 기조음과 장식음과의 분류방법을 설명하는 도면이며, 제10c도는 제10b도에 있어서 분류한 기조음과 장식음과를 MIDI기기에 할당할 때의 한 방법을 표시하고, 제10d도는 MIDI기기에 할당한 음소편의 대응을 설명하기 위한 도면이다.
제11도는 파음의 음, 해조의 울음소리 및 바람의 음 등의 자연음을 보다 실제의 음에 가까운 음으로 들리도록 설정하는 음의 각 요소로서 각각(a)루프, (b)엔벌로프 및 (c) 음량비의 설정예를 표시하는 도면이다.
제12도는 본 발명의 음향구성장치에 있어서의 샘플라의 구성을 설명하는 블록 회로도이다.
제13a도에 표시하는 종래의 DSP에 의한 음의 변환에 의한 출력음과 제13b도에 표시하는 본 발명의 음향구성장치에 의한 음의 변환에 의한 출력음과의 틀림을 설명하기 위한 모식도이다.
제14도는 본 발명의 음향구성장치에 있어서의 보다 구체적인 제 2실시예의 블록구성을 표시하는 회로도이다.
제15도는 본 발명의 음향장치에 있어서의 보다 구체적인 제 3실시예의 블록구성을 표시하는 회로도이다.
제16도는 본 발명의 음향구성장치에 있어서의 보다 구체적인 제 4실시예의 블록구성을 표시하는 회로도이다.
제17도는 본 발명의 음향구성장치에 있어서의 보다 구체적인 제 5실시예의 블록구성을 표시하는 회로도이다.
제18도는 본 발명의 음향구성장치를 개인적인 사용의 기기로서 구성하였을때의 한 형태를 표시하는 도면이다.
* 도면의 주요부분에 대한 부호의 설명
10a : 센서부 10b, 15a : 증폭기
11 : 데이터해석부 12a : A/D변환기
12b : 피치추출회로부 12c : 음향추출회로부
13 : MIDI변환기 14 : 음원발생회로부
14a : 음소편발생부 14b : 에펙터부
14c : D/A변환기 15 : 발음회로부
15b : 스피커
본 발명은 미리 입력하고 발생시키기 위한 음을 구성하는 음소편의 제요소를 외부환경 상태의 변화를 검출한 입력신호에서 추출되는 트리거가 정보와 상호작용시켜 리얼타임으로 연주시간의 제약을 받지 않고 발음시킬 수 있는 음향구성장치에 관한 것이다.
종래로 부터의 음향재생장치는 예를들면 레코드플레이어나, 광디스크를 사용한 재생장치, 카세트테이프레코더 등이 있다. 이들은 어느것이나 미리 기록매체에 기록되어 있는 음데이터를 재생하여 음악등을 즐기는 것이다.
또 하드웨어와 소프트웨어를 사용하여, 예를들면 컴퓨터, 오디오기기 및 기록매체를 구사하여 음악을 작곡한다던지, 사용자가 연주한 음을 악보로 그치는 등의 소위 컴퓨터·음악이 성행되어 오고 있다. 이 컴퓨터·음악은 악보를 자동연주시켜서 음악을 듣는 경우가 있다. 이 악기의 자동연주는 미리 기록되어 있는 음행재생용의 MIDI시켄스데이터를 음원장치에 공급하여 음을 발생시키고 있다. 실제 생악기를 연주하여 상술한 MIDI시켄스데이터를 음원인 샘플러등의 오디오기기에 공급하여 연주나 작곡을 하는데도 컴퓨터·음악에 의한 시스템을 이용할 수도 있다.
상술한 기록매체에는 기록용량에 한계가 존재하는데서 예를들면 기록내용에 따른 연주등이 일정시간에 한하여 시간에 관해 고정적으로 재생되게 된다. 그래서 이 재생되는 시간의 연장을 도모하기 위해 상술한 음향 재생장치는 미리 루프기능도 가진 프로그램으로 반복 재생되는 범위 및 반복회수를 설정하여 재생시간의 연장이 도모되고 있다.
한편 최근 음악의 경향은, 이와같은 하드웨어면의 문제뿐 아니라, 연주되는 음악, 즉 소프트웨어도 크게 모양이 바뀌고 있다. 이와같은 음악 소프트웨어의 모양변화는 사외의 영향에 의하는 바가크다.
현재의 사회는 21세기로 향해서 생활시간도 크게변화 하고 있다. 이것에 수반하여 사람의 생활시간에 대한 의식도 변화하고 있다. 현재의 사람의 요구는 종래까지의 물질적인 풍요를 만족시키고저 하는 요구나 마음에 여유가 없는 바쁜 매일에서 이들에 대한 탈일상적인 감각으로서 정신적인 마음의 풍요나 마음의 평온함을 구하는 음악에로 요구가 변화하여 오고 있다. 또 음악에 대한 자세도 단순히 음악을 듣는 수동적인 태도에서 능동적으로 자기의 감각을 표현하고, 연주하는 경향이 강하게 되어오고 있다.
이와같은 사회동향의 변화에 따라서 사람의 지향은 실제로 외부환경으로서, 예를들면 자연과 자기의 관계를 주목하도록 되어있다. 사람의 취향을 반영하는 것으로서, 예를들면 삼림이나 바다속의 환경음을 테마로 한다던지 느긋한 음악을 들음으로써 일상상황에서 해방된 탈일상감이 용이하게 얻어지는 장치의 요구가 높아져 오고있다.
그런데 상술한 종래의 음향재생장치는 기록매체의 미리기록 되어있는 음향데이터를 재생하여 음장을 구성하는 것이었다. 따라서 이 음향재생장치는 기록매체의 용량 및 기록매체에서 꺼낸 데이터를 음으로 재생하기 위한 재생기술의 특성에서 소프트웨어에 의한 연속반복 재생모드를 사용하지 않고 1회만의 재생으로는 각각의 장치마다에 재생가능한 시간이 제한되어 있었다. 역으로 상술한 재생가능한 시간의 연장은 음악의 재생에 사용하는 기록매체에 기록하는 음향데이터의 증대를 의미하게 된다. 따라서 재생시간연장은 재생시간에 비례하여 기록용량의 증가, 혹은 미리 목수의 기록매체를 설치할 필요가 생긴다.
따라서 상술한 바와같이 반복재생을 하지않고, 혹은 복수의 기록매체를 사용하지 않고 장시간의 재생을 하는것은 현재의 음향재생장치에서는 불가능하다. 또 현재의 음향재생장치는 미리 기록되어 있는 음향데이터를 사용하고 있기 때문에 청취자나 청취공간 등의 상황에 대응하여 연주상태를 자동적이고 즉각적을 변화시킬 수 없다.
또 일반적으로 음악의 연주·작곡을 하기위한 기술·복잡한 컴퓨터에 관한 지식이나 기술이 필요하게 된다. 이때문에 이들의 활동이 행하여지는 사람은 기술등의 수득에 다대한 시간을 요하는데서 제한되게 된다. 따라서 통상 상술한 범주이외의 사람은 재생되는 음악을 수동적으로 듣기만 하게 된다. 또 종래의 음향 재생장치에서는 청취자는 예를들면 라이브콘서트에서 들을때와 같은 연주상태 그자체, 혹은 청취공간에 영향을 미칠수는 없다.
그래서 본 발명은 이와같은 실정을 감안하여 이룩한 것이며, 재생시간의 제약을 받지않고 외부환경의 상태 혹은 상태의 변화에 대응하여 청취자의 요구에 맞은 음을 발생시켜서 유효한 음향효과를 얻을 수 있는 음향구성장치의 제공을 목적으로 한다.
본 발명에 관계되는 음향구성장치는 외부환경상태의 변화를 신호로 변환하여 입력하는 입력수단과 이 입력수단으로 부터의 출력신호를 해석하여 데이터를 추출하는 데이터 추출수단과 이 데이터 추출수단으로 추출한 음원데이터에 의거해서 음원제어데이터를 출력하는 음원제어수단과, 이 음원제어수단으로 부터의 제어데이터에 따른 음신호를 출력하는 음원수단과, 이 음원수단으로 부터의 출력신호를 변환하여 발음시키는 발음수단과를 가지고 이룩함으로써 상술의 과제를 해결한다.
여기서 상기 입력수단은 상기 외부환경으로서, 음으로서 특히, 외부 환경잡음과 진동과, 빛과, 온도와, 습도와, 기압과, 시각, 날, 계절, 등의 시간에 관한 정보와 뇌파, 체온, 맥박, 발한, 호흡수, 피부전위 등의 생체정보와 촬상장치를 통하여 공급되는 정보등 중 적어도 하나의 상태 및 상태의 변화를 검출하고 전기신호로 변환하여 사용한다.
상기 데이터 추출수단은 상기 입력수단으로 외부환경정보에서 변환한 전기신호에서 피치의 추출이나 변화량적 정보등을 데이터로서 추출하고 있다. 예를들면, 음의피치나 음량의 레벨치나 촬상된 화상의 변화량을 데이터로서 추출하여도 좋다.
상기 음원제어수단은 상기 데이터 추출수단으로 부터의 데이터를 MIDI 정보로 변환하고, 다시 MIDI정보를 음향효과의 제어정보로 변환한다던지 하고 있다.
상기 음원수단은 상기 음원제어수단으로 부터의 MIDI정보의 피치데이터에 따라서 음소편의 신호를 출력하고 이 출력신호를 MIDI정보의 음량데이터에 따른 신호를 발생시키는 음원신호 발생수단에서 출력한다던지, 공급되는 MIDI정보에 따라서 음원신호 발생수단으로 부터의 발음에 음향효과를 부여하는 음향효과 발생수단을 가짐으로써 상술의 과제를 해결한다.
본 발명의 음향구성장치는 입력수단을 통하여 외부환경상태의 변화를 신호로 변환하여 신호를 출력하고, 데이터 추출수단에서는 이 출력신호를 해석하여 데이터추출을 하고 음원제어 수단에서는 데이터추출수단에서 추출한 음원데이터에 의거해어 음원제어 데이터를 출력하고 이 제어데이터에 따른 음신호를 음원수단으로 출력하고 이 출력신호를 변환하여 발음수단을 통하여 발음시켜서 시간의 제약을 제거하고 있다.
이 발음에 있어서 상기 입력수단에서 상기 외부환경으로서, 음으로서 특히 외부환경잡음과 진동과, 빛과, 온도와, 습도와, 기압과, 시각, 날, 계절등의 시간의 정보와, 뇌파, 체온, 맥박, 발한, 호흡수, 비부전위등의 생체정보나 촬상장치로 부터의 정보등중 적어도 하나의 상태 및 상태의 변화를 검출하여 전기신호를 변환함으로써 이들의 외부환경의 정보를 장치에 거둬들여서 청취자에 음을 공급할 수 있다.
상기 데이터 추출수단은 상기 입력수단으로 변환한 전기신호에서 피처를 추출한다던지 변화량정보를 레벨치로서 추출한 데이터음을 작성하는 위에서의 트리거정보를 생성하고 있다.
또 상기 음원제어수단은 공급된 트리거가 정보를 발음이나 음향효과에 대응하는 MIDI규격의 데이터로 변환하여 발음되는 음의 자유도를 높이고 있다.
상기 음원수단은 상기 음원제어수단으로 부터의 MIDI정보의 피치데이터에 따라서 음소편의 신호를 출력하고, 이 출력신호를 MIDI정보의 음량데이터에 따른 신호를 출력하여 대응하는 음의 품질을 높은것으로 하고 있다.
단 음원기기의 콘트롤이 트리거 정보의 전기신호에 의해 직접할 수 있는 경우는 반드시 MIDI정보로 변환하지 않아도 좋다.
[실시예]
이하 본 발명에 관계되는 음향구성장치의 일 실시예에 대하여 도면을 참조하면서 설명한다.
여기서 실제 이미 정의되어 있는 음악은 음에의한 예술이며, 박자, 음절, 음색, 화성등에 의거하여 여러가지 형식으로 조립된 곡을 인성이나 악기로 연주하는것, 혹은 음을 소재로 하여 그 강약, 장단, 고저, 음색등을 조합하여 만들고, 미적인 감정을 일으키게하는 예술로 정의 되어 있다.
그런데 본 발명의 음향구성장치에 의한 대응하는 가상현실음, 자연음의 재현등의 일반의 음악소프트웨어로서 취급되는 음향도 음악으로서 취급하는 것으로 한다. 이와같이 정의한 음을 취급할 수 있는 음향구성장치의 기본적인 블록구성에 대하여 설명한다.
본 발명에 관계되는 음향구성장치는 제1도에 표시하는 기본적인 회로구성을 외부환경상태의 변화를 신호로 변환하여 입력하는 입력수단인 입력신호변환회로부(10)와, 이 입력신호변환회로부(10)로 부터의 출력신호를 해석하여 데이터를 추출하는 데이터추출수단인 데이터추출회로부(12)와, 이 데이터추출회로부(12)에서 추출한 음원데이터에 의거하여 음원제어데이터를 출력하는 음원제어수단인 MIDI신호변환회로부(13)와, 이 MIDI신호변환회로부(13)로 부터의 제어데이터에 따른 음신호를 출력하는 음원수단인 음원발생회로부(14)와, 이 음원발생회로부(14)로 부터의 출력신호를 변환하여 발음시키는 발음수단인 발음회로부(15)로 구성하고 있다.
또한 이 데이터추출회로부(12)와 MIDI신호변환회로부(13)와는 일체적으로 구성한 데이터해석회로부(11)로 간주하여도 좋다.
이들의 각회로부에 대하여 설명하면, 제1도에 표시하는 입력신호변환회로부(10)는 외부환경상태의 변화를 거둬들이고, 전기신호로 변환하는 센서부(10a)와, 센서부(10a)로부터의 출력신호를 증폭하는 증폭기(10b)로 구성하고 있다. 상기 센서부(10a)는 후술하는 바와 같이 각종의 센서가 본 발명의 음향구성장치에 대응시킬 수 있다.
거둬들인 외부환경에 관한 정보는 디지탈신호로 변환되어서 데이터 추출회로부(12)에 공급된다. 이 데이터 추출회로부(12)는 상기 증폭기(10b)를 통하여 출력되는 아날로그 신호레벨을 디지탈신호로 변환하는 A/D변환기(12a)와, 전기신호에서 음의 피치를 추출하는 피치추출회로부(12b)와 전지신호에서 음량정보를 레벨치로서 추출하는 음량추출회로부(12c)로 구성하고 있다. 상기 음량정보는 공급된 음의 각 피크치의 평균치로서 얻어진다. 피치추출회로부(12b)는 추출한 피치정보를 MIDI신호변환회로부(13)에 공급한다. 또 음량추출회로부(12c)는 추출한 음량정보를 MIDI신호로 변환하여 후술하는 발음회로부(15)의 증폭기(15a)의 증폭되는 출력치를 제어하여도 좋다.
MIDI신호변환회로부(13)는, 공급된 음정보를 디지탈신호로 통신하기 위한 국제규격인 소위 음악기기 디지탈 인터페이스(Music Instrument Digital Interface)기기를 통하여 MIDI규격의 신호로 변환하고 있다. 상기 MIDI 규격에는 디지털데이터의 하드웨어포메트에서 소프트포메트에 이르는 각종의 통신방법이 규정되어 있다. MIDI규격의 디지털데이터는 음정보를 스테이스바이트와 데이터바이트로 표시되고 있다.
상기 스테이터스바이트는, 최상의 비트를 "1"로 하는 것으로 표시하는 이후의 3비트로 예를들면 노오트오프, 노오트온 등이 각종 스테이터스 종류의 지정과 하위 4비트로 MIDI채널을 정의하고 있다.또 데이터바이트는 최상의 비트를 "0"으로 하는 것으로 이 영역을 지정하고 하위 7비트를 데이터 영역으로 하고 있다. 이와같이 지정된 규격에 대응하도록 변환하여 공급된 디지탈 신호를 MIDI신호변환회로부(13)는, 예를들면 MIDI 케이블을 통하여 음원발생회로부(14)에 제어하는 신호를 출력하고 있다.
음원발생회로부(14)는 음소편발생부(14a), 에펙터부(14b) 및 D/A변환기(14c)로 구성하고 있다. 상기 음소편발생부(14a)는 공급되는 MIDI신호의 디지탈데이터에대응하는 예를들면 파도의 음, 괭이갈매기의 울름소리나 도요새무리의 소리등의 음소편의 대응시키는 것을 행하고 에펙터부(14b)에 출력한다. 이 음소편의 신호파형에 대하여는 후술한다. 에펙터부(14b)는 공급된 신호에 대하여 예를들면 비브라트, 모쥴레이션 및 리바이브레이션등의 음향효과를 갖도록 가공하고 있다. 이들 일련의 처리가 실시된 신호가 D/A변환기(14c)에 공급된다.
또한 상술한 구성은 디지탈처리로 에펙터를 바꾸는 경우의 구성을 나타내는 것이나, D/A변환기(14c)의 후에 에펙터부(14b)를 설치하여도 좋다.
D/A변화닉(14c)에서는 디지탈신호를 아날로그신호를 변환하여 발음회로부(15)에 공급하고 있다. 발음회로부(15)는 증폭기(15a)와 스피커(15b)로 구성하고 있다. 이 증폭기(15a)는 상술한 음량추출회로부(12b)에서 추출된 디지탈데이터에 의거해서 신호를 증폭하고 있다. 이 증폭된 신호는 스피커(15b)를 통하여 음신호로 변환된다.
이와같이 구성하여 입력된 외부환경변화에 대응한 정보를 트리거로서 MIDI규격의 데이터와 음소편을 소프트웨어적으로 선택하여 대응시킨 음을 발음됨으로써 같은 기록매체에 기록되어 있는 정보를 반복재생하는 음향재생장치와 다르고 재생에 있어서의 시간적인 제약을 받지않는 자유도 및 품질이 높은 음의 재생을 할 수 있는 전혀 새로운 개념에 의거한 음향기기를 제공할 수 있다.
본 발명의 음향구성장치에 있어서의 보다 구체적인 제 1실시예를 제2도 및 제3도에 표시하는 회로구성과 소프트웨어의 제작에 관하여 제4도∼제12도를 참조하면서 설명한다.
여기서 제1도에 상술한 기본구성회로와 공통하는 부분에는 같은 참조번호를 붙이고 있다.
또 본 실시예는 어느공간, 예를들면 제2도에 표시하는 회의실(16)등에 있어서 트리거에 대응한 파도의 음, 새의소리등을 발생시키는 동시에 다시 이 공간(16)에 있는 개개의 인간의 이야기소리를 마이크로폰(10A)으로 샘플하고, 이 샘플한 음성, 혹은 잡음의 환경에 맞추어서 음향구성장치에 의한 음의 발생정도를 변화시키는 경우를 제3도에 표시하는 블록도를 참조하면서 설명한다.
본 발명의 음향구성장치에 있어서 상술한 센서부(10a)는 제3도에 표시하는 외부환경을 음향구성장치에 거둬들이는 입력수단의 센서로서 마이크로폰(10A)를 사용하고 있다. 마이크로폰(10A)은, 외부환경의 음을 거둬들인다. 상기 입력수단으로서 음향-전기변환수단인 마이크로폰(10A)을 사용하여 외부환경잡음을 집음하여 입력하고 전기신호를 변환하고 있다.
또 이 전기신호는 음향구성장치에 있어서의 음향발생의 스위칭용 트리거로서 사용하고 있다. 상기 마이크로폰음 예를들면 통상의 콘덴서형, 또는 다이나믹형의 것을 사용한다.
외부환경의 전기신호로 변환된 음은 라인레벨에 증폭기(10b)를 통하여 증폭되고, 데이터해석부(11)의 예를들면 전기신호 중에서 음의 피치를 추출하고 MIDI규격의 디지탈데이터로 변환되는 Pitch to MIDI변환기(이하 피치MIDI변환기라고 한다)(12A)에 공급된다.
피치-MIDI변환기(12A)는 공급되는 아날로그신호를 제1도에 표시한 A/D변환기(12a)에 상당하는 A/D변환기(도시생략)로 디지탈신호로 변환한다. 이 디지탈 신호는 제1도에 표시한 피치추출회로부(12a)에 상당하는 피치-MIDI변환기(12A)내에서 입력신호에서 음의 기본주파수, 음압레벨, 시간변화등에 관한 음향정보를 수치화하고 음의 피치신호를 검출하고 있다.
따라서, 이 피치-MIDI변환기(12A)는 음압레벨에서 상기 음의 평균레벨로서의 음량에 관한 정보도 추출하는 것에서 음량추출회로부(12b)에 상당하는 기능도 가지고 있다. 또한 이 피치-MIDI변환기(12A)는 상술한 정보를 MIDI규격의 신호로 변환하여 음원발생 회로부(14)인 샘플러(14A)에 MIDI신호를 공급한다. 또한 이들의 일련의 음향정보를 해석하고, 변환제어하기 위해 내장하는 CPU를 사용하여 행하고 있다.
실제로 상기 음향정보는 MIDI규격의 정보로서 각각음의 기본진동수를 노오트번호, 음압레벨을 벨로시티레벨, 시간변화를 노오트온이나 노오트오프로 또, 발음후의 변화에 대한 정보를 아프터터치로서 각각 변환하고 있다.
이들 음향정보인 MIDI규격의 디지탈데이터는 이 MIDI규격에 의해 제어되는 음원발생회로부(14)는 이들의 음향정보에 의해 발생시키는 음소편의 대응을 하고 있다.
본 발명에서는 상술한 바와 같이 음의 각정보에 대한 대응은 도시하고 있지않은 MIDI인터페이스를 통하여 공급된 MIDI신호와 PROM(14B)에 기입되어 있는 소프트웨어를 내장하는 CPU(14C)에 의해 예를들면 대응하는 건반과 대응시켜 이 대응하는 재생신호로서 사용하는 미리 기억시켜놓은 음소편을 RAM(14D)에서 출력한다. 이음의 각정보에 대한 대응을 표시하는 소프트웨어의 수법에 대하여는 후단에 있어서 상술한다.
상기 음원발생회로부(14)에 상당하는 음향기기로서 예를들면 샘플러를 사용한다. 샘플러(14A)는 원래 악기용으로 개발된 음향기기이다.
이때문에 각 음원에 대응하는 속성의 결정은 신서사이저와 비슷한방법으로 결정하고 있다. 상기 신서사이저는 음을 복수로 되는 요소로 나누어서 소망의 음색을 창작하고 있다.
여기서, 간단히 음과 샘플러에 대하여 설명한다. 샘플러는 예를들면 음을 샘플링(표본화)하여 디지탈데이터로 변환하여 기록하여 놓고, 재생시에는 기록되어있는 디지탈데이터를 음의 높이등의 파라미터를 소망의 수치로 설치하여 재생하는 장치라고 말할 수 있다.
이와같은 기능을 가지는 샘플러는 실제로 예를들면 미리 동물의 울음소나 생악기의 음등을 디지탈데이터로 변환하여 장치에 기억시켜 놓고, 키보드를 연주하는 것으로 이들의 기억한 음에 음의높이를 변화시켜 자유로히 멜로디를 붙여서 연주시킬 수 있다. 따라서, 이 샘플러는 하나에서 음색을 합성하여 음을 구성하는 소위 신서사이저와 다르고, 음색을 악기외의 실제로 이미 존재하고 있는 음에서 구하여 이 음색을 소재로서 여러모양으로 가공, 합성하여 가는것이다.
샘플링한 디지탈 음성데이터는, 그대로 사용하기 어렵기 때문에 상기 디지탈음성데이터를 다소 가공할 필요가 있다. 이 가공조작이 소위 「편집」이다. 이 「편집」조작은 소프트웨어 소위 샘플·에디팅·소프트로 행하고 있다. 이 편집용의 소프트웨어에는 루핑기능, 등화기기능, 필터기능, 피치시프트기능, 타임콤프레스, 타임엑스펀드기능, 진폭의 변경기능등을 가지고 있다.
상기 루핑기능은 샘플링한 파형의 일부분을 반복하여 효율좋게 재생하여 지속음을 표현하는 것이다. 등화기기능은 음의 특정주파수 성분에 대하여 변경을 가하여서 파형을 고쳐써서 표현하는 기능이다. 필터기능은 음의 주파수를 선발적으로 꺼내는 기능이다.
일반적으로 음의 피치는 예를들면 테이프등의 재생에 있어서 재생속도가 빠를때 음정이 올라가고, 재생속도를 느리게 할때 음정이 내려간다. 한편, 샘플러에는 샘플링한 음의 재생속도를 그대로 음의 높이만을 변화시킬 수 있고, 이와같이 음의 높이(피치)만을 변화시키는 기능을 피치시프트기능이라고 부르고 있다(제4도 참조).
타임콤프레스, 타임엑스펀드기능은 상기 피치시프트기능과 역으로 음의 높이를 그대로 재생속도를 가변하여 음의 재생속도의 단축화(제5도 참조)와 연장화(제6도 참조)를 도모하는 기능이다. 이 음의 재생속도의 단축화와 연장화는 제5도 및 제5도에 표시하는 바와 같이 예를들면 100ms정도의 단시간내에서의 재생음을 감쇠시키는 기능에 대하여 처음시간에 비해 예를들면 400ms정도의 긴시간에서 감쇠 시킨다는 서로 재생시간의 변화가 대의 관계에 있는 것을 알 수 있다.
또 진폭의 변경기능은 음의 크기를 가지런히 하기위해 계산으로 파형의 고쳐쓰기를 하는 기능이다.(제7도 참조) 이 기능을 발전시켜서 파형 각 부분에 대하여 자유로히 변경을 가하면 음의 일어섬이나 감쇠등의 소위 「엔벌로프」의 설정을 할 수도 있다(제8도 및 제9도 참조).
음원으로서 사용하는 샘플러는 먼저 음색을 규정하는 음의파형을 미리 RAM이나 ROM등의 메모리에 PCM디지탈데이터로서 기록하여 둔다. 그리고 이 디지탈데이터는 상술한 「엔벌로프」를 규정하여서 녹음된 음원의 재생으로서 어떻게 재생되느냐를 결정할 수 있다.
다음에 이 소프트웨어에 의한 각 작업은 MIDI규격의 노오트번호에 대응시켜서 각 음원의 음량을 결정하여 음의 높이 및 음량을 결정한다. 바꾸어 말하면 어느 주파수의 음에 대하여 어느 음원(즉, 음의 파형)을 대응시켜서 어느정도의 음량으로 어떻게 음을 변화시키느냐(즉 에벌로프의 변화)라는 기종의 속성이 결정되었는 것으로 된다.
이와같이 재생음을 규정하기 위해 샘플러(14A)는 음의 높이, 음량, 음색으로서 음의 파형 및 엔벌로프의 각 속성을 결정한 속성에 따라서 변화시키고, 복합제어된 재생신호를 D/A변환기(14E)에 공급한다. D/A변환기(14E)는 아날로그신호로 변환하여 발음회로부(15)에 출력한다.
또한 샘플러는 음원 및 그 음의 각속성을 외부기록 매체인 플로피디스크(17)등의 기록매체에 기록하여 둘 수가 있다. 이 기록매체에 기억하고 있는 각종의 디지탈데이터를 샘플러의 메모리상에 읽어 넣는 방법을 채용하면, 상술한 바다의 정경뿐만 아니라, 상이한 음원으로서 샘플러를 사용할 수 있고 상이한 환경음의 재생을 하는데 있어서 상당히 편리하다.
아날로그 신호로 변환된 재생신호가 증폭기(15a)를 통하여 증폭되고 회의실(16)에 설치한 스피커(15b)에 의해 재생된다. 이와같이 본 발명의 음향구성장치는 마이크로폰(10A)으로 채취한 환경음을 트리거신호로서 자연음을 재생하고 있다. 또 상기 증폭기(15a)는 MIDI규격의 신호에 따라서 재생신호의 진폭, 즉 음량을 제어시켜도 좋고, 음향구성장치가 발한 음을 피드백 시켜서 음향상태를 상기 제어하는 방법을 취하여도 좋다.
또 상술한 환경음을 트리거로서 사용할때에 피치-MIDI변환기로 MIDI규격으로 변환하는 방법을 채용하고 있으나, 본 발명의 구성에 있어서 트리거의 변환방법은 상술의 방법으로 한정되는 것은 아니다. 본 실시예의 경우, 제1도에 표시한 데이터해석부(11)와 음원발생회로부(14)가 분리 되어 있기 때문에 신호의 전달의 한 수단으로서 사용하고 있다. 음의 변환부제 있어서의 MIDI규격의 사용은 어디까지나 편의적인 것에 불과하다.
다음에 음의 대응관계를 가져오기 위한 소프트웨어 제작에 대하여 설명한다.
여기서 구체적인 소프트웨어로서 상술한 바다의 정경을 참고로 하면서 설명한다. 이 소프트웨어프로그램은 적어도 창작코저하는 음악의 구성요소가 되는 음소편이나 트리거로서 입력한 입력신호의 데이터해석 결과 및 이 해석결과의 수치화한 수치에 대하여 음소편을 어떻게 대응시키느냐라는 대응정보를 포함하고 있다.
먼저 소프트웨어의 제작에 있어서 어느환경에 있어서의 음향의 구성을 음악적, 사운드스케이프디자인적인 관점에서 분석한다. 이 생각하는 방법은 일본, 해이혼사의 R, 마리·쉐이파 저서 「세계의 조율」에 상기 사운드스케이프 디자인에 대한 기재가 되어 있다. 사운드스케이프디자인 음향의 구성음은 대별하여 기조음과 장식음으로 나눌 수 있다.
상기 기조음이란, 어느 환경중에서 그 음향의 이미지를 형을 만드는데 있어서 근간을 이루는 음 이라고 정의하고 있다. 또 장식음이란 상기 기조음에 의해 형이 만들어진 음향중에서 그 음향을 보다 특징을 붙이는 것으로 하고 있는 음 이라고 정의 하고 있다.
음향구성장치의 소프트웨어의 제작에 있어서 집음된 음향 및 재생되는 음 중에서 상기 2개의 음을 끝까지 지켜보는 것이 필요하게 된다. 이 정의된 2개의 음을 끝까지 지켜보는 하나의 방법으로서 각 주파수의 포인트에 있어서의 음의 빈출정도를 조사하는 방법이 있다.
제 1실시예의 경우 마이크로폰(10A)에 의해 집음된 회의실의 음향을 피치-MIDI변환기(12A)를 통하는 것으로 MIDI규격의 신호로 변환할 수 있는것은 상술한 바와같다. 피치-MIDI변환기(12A)는 예를들면, 이 MIDI규격의 신호를 MIDI모니터등을 통함으로서 입력한 음 중에 어느주파수의 음이 어느정도의 빈도로 존재하고 있는가를 조사할 수 있다. 이 검출한 주파수마다의 각 빈도를 주파수에 대한 빈도로서 그래프에 표시하면 제1a도에 도시하는 그래프가 얻어진다.
제10a도에 표시하는 회의실에서 샘플링한 입력음의 각 주파수에 대한 빈도는 100Hz 부근의 음의 가장 빈도가 높고, 다음에 10KHz 부근의 음의 빈도가 높았다고 한다. 제10a도에 표시하는 상기 입력음은 정의에서 이경우 100Hz 부근의 음이 기조음으로서의 음역에 있어서, 10KHz부근의 음이 장식적인 음역에 닿고 있다고 생각된다.
회의실에 있어서 주파수를 분석한 결과에서 상기 기조음의 주파수의 실제의 음은, 기조음이 제10b도에 표시하는 사람의 회화음에 상당하고 장식음은 제10b도에 표시하는 문의 개폐음, 공조노이즈, 발음등이 이 주파수에 해당하고 있는 것을 알았다.
제1도 이들의 음에 대응하여 발음시키는 음소편을 음원으로서 각각 할당한다. 이 할당한 음소편을 재생하면 입력음과 재생음의 대응관계가 생기고 입력음을 트리거로 하는 음악적, 사운드스케이프디자인적인 관점에 의거 소프트웨어의 제작이 가능하게 된다. 상술한 제 1실시예에 있어서 사용하는 MIDI규격의 음원기기는 원칙적으로 MIDI규격으로 송부된 노오트번호에 대응한 음원을 재생하는데 있다.
여기서 할당하는 노오트번호 0∼127의 128개는 88건이 있는 피아노에서 말하는 중앙의 "C", 즉 C3을 60으로서 음계 C2∼C8에 할당되고 있다.
상기 기조음에 대해 할당하는 노오트번호는 제10c도에 표시하는 바와같이 예를들면 No.30∼40부근을 할당해서 재생음을 제10d도에서 파도음에 대응시켜서 설정하고 있다.
또 장식음에 대해 노오트번호는 제10c도에 표시하는 바와같이 예를들면 No.90∼100부근을 할당해서 재생음을 제10d도에서 상기 파도음 이외의 해조의 울음소리(1, 2), 바람음등의 자연음을 각각 설정하고 있다.
실제 파도음은 피치를 가변으로 설정하여 각종주기의 파도를 표현하고 있다. 또 해조의 울음소리로서 예를들면 괭이갈매기를 표현하는 경우 피치를 일정하게 하고 부자연한 소리가 발하여 지지 않도록 설정하는 음소편과 피치를 가변으로 하여 복수음의 높이로 울고 있는것 같이 표현할 수 있도록 소프트웨어로 설정하고 있다.
또 제10c도에 표시한 각 음소편의 할당은 소프트웨어로 실제에 각 음역에 맞추어서 오버랩하도록 음을 할당하고 있다. 이 음의 할당에 의해 입력되는 음은 높거나 낮거나 대략 균등하게 발음시킬 수 있다.
또한 상술한 대응관계에 있는 음에 대하여 음의 각종속성을 변경하여 재생시키면 재생음의 표현에 넓어짐을 가져오게 한다. 음원에 부수하는 표현에 관한 파라미터는 각종 존재한다. 이들의 파라미터의 주된것을 들어보면 파라미터에는 파형데이터의 어느범위를 반복재생하는 루프음원의 시간변화를 나타내는 엔벌로프 각 음원의 음량변화의 설정, 음의 선명도의 변화를 컷오프주파수의 설정에 의해 행하는 필터의 설정, 음상정위, 음의강약을 표시하는 베로시티 및 동시에 발음시키는 음원의 선택등이 있다.
실제로 제10도에 표시한 3개의 음소편에 대하여 파라미터를 설정하는 예를 제11도에 표시한다. 여기서 파도의 음은 파형에서 명백한 바와같이음의 일어섬(즉 어택)을 완만하게 하여 음소편의 강도를 일어섬을 변화시켜서 분위기를 내고 있다. 또 괭이갈매기의 울음소리나 입력음의 강도로 음량을 변화시키는 것으로 멀리서 운다던지, 가까이서 우는 분위기를 내도록 설정하고 있다.
제11a도는 파도의 음, 괭이갈매기의 울음소리 및 바람음등의 자연음의 각 음소편의 파형을 나타내고 있다. 루프를 설정할때에 파도의 음을 기본 주파수의 파형전부의 구간(A1)을 반복재생한다. 괭이갈매기의 울음소리 및 바람음등의 자연음에 대하여 설정하는 루프 시키는 각각 A2, A3을 반복하는 처리를 설정하고 있다.
또 제11b도에 표시하는 파형은 음의 진폭파형의 포락선에 상당하는 엔벌로프이다. 예를들면 건반(키)을 놓는다던지 혹은 입력신호의 음정이 변화하는 포인트를 음의 릴리스포인트로서 나타낼 수 있다. 소프트웨어제작에 있어서 이 음의 릴리스포인트에서 릴리스를 길게하는 것으로 순간적으로 음이 들어와서 바로 끊어졌을 경우라도 음향구성장치에서 발음되는 음은 한동안 들리도록 설정하고 있다. 파도음 이외의 2개의 파형은 대략 같은 파형으로 설정하고 있다. 이와같이 엔벌로프를 세밀히 설정하는 것으로 음의 특징이나 연결을 자연스러운 것으로 할 수 있다.
제11c도에 표시하는 수치는 규격한 음의 레벨에 대한 음의 크기를 음향비로서 나타내고 있다. 파도음의 음량비는 10으로 설정하고 있다. 또 괭이갈매기의 울음소리의 음량비는 5로 설정하고 있다. 제 3의 음인 바람등의 자연음의 음량비는 3으로 설정하고 있다. 전체적인 음량비를 정하는 주는 것으로, 재생음향에 있어서의 공간감 등을 표현할 수 있다.
음악의 제작에 사용되는 각 음의 요소를 가지고 있기 때문에 단일음원만이라도 상당한 표현은 가능하나 이와같이 각 파라미터를 설정하여 재생음을 구성하고, 복잡하여 사용함으로서 보다 한층의 결정된 세밀한 음의 표현을 행할 수 있도록 된다.
소프트웨어는 상술한 이들의 음의구성을 제어하는 음악용어의 소프트웨어(18)를 격납하는 것만으로 제3도에 표시하는 샘플러(14A)의 PROM(14C)에는 제12도에 표시하는 제어용 소프트웨어(19)도 포함되어 있다. 이 제어용 소프트웨어(19)에 의해 샘플러(14A)의 동작제어하는 동작제어 블록부(14F)를 통하여 상술한 각종 음소편을 재생하는 블록부(19G)에서 재생신호를 발음회로부(15)에 출력하고 있다.
이와같이 샘플러의 하드웨어제어용 소프트웨어 및 음소편을 설정하는 음악용 소프트웨어를 나누어서 구성함으로서 음향재생되는 음에 표현의 폭을 가지게 할 수 있는 것에서 대응하여 재생하는 음향을 자유로히 설정하는 것도 하드웨어의 변경등을 요하지 않고 용이하게 행할 수 있다.
이와같이 구성하므로써 음향구성장치는 이 장치로 부터의 출력하는 음을 원음과 변환후 전혀 틀리는 음의 구성으로 하여 출력할 수 있다. 이것에 대하여 종래의 디지탈 신호처리장치(Digital Signal Processor)에서는 단순히 원음에 대하여 부가적인 요소로서 예를들면 에코처리나 피치의 변경등을 하여 제13a도에 표시하는 파형변환은 용이하게 행할 수 있는 것의 본 발명의 음향구성장치와 같이 각종 신호처리를 행한후에 제13b도에 표시하는 바와같이 입력신호와 전혀 다른음, 약음을 출력하는것은 상당히 곤란하고 혹은 불가능하다.
본 발명의 음성구성장치는 상술한 복잡한 이론을 구사한 신호처리를 행하지 않고 용이하게 음소편을 트리거로서 각음의 요소를 편집설정함으로서 원음을 전혀 다른 음의 구성으로 변환할 수 있다. 특히 주위환경의 잡음을 상황에 맞춰서 즉시적으로 변화시킬 수 있다.
또 이 음향구성장치는 청취자나 청취환경등과 상호 영향 하여서 우연성, 의외성 및 인터럭티이브성이 풍부한 음향재생을 가능하게 하고 있다.
음향구성장치는 기록매체를 재생하는 음향기기가 아니고 재생가능시간 등의 시간의존성을 배제할 수 있다. 이 재생되는 음의 구성이나 음악에 대하여 음향구성장치가 필요로하는 데이터는 외부환경으로 부터의 입력정보가 트리거데이터에 대응시킴으로서 시간에 대해 독립시킬 수 있고 장치내에 내장하는 데이터를 최소한으로 억제할 수 있다.
음향구성장치는 복잡한 디지탈기기를 사용하지 않고 장치내에 미리 기억된 프로그램에 따른 예를들면 가상현실음, 혹은 음악등의 작성도 용이하게 할 수 있고 청취자도 어느정도 연주에 참가할 수 있다.
음향구성장치에 사용되는 프로그램 소프트웨어는 상술한 바와같이 한정한 데이터를 기본으로 시산에 의존하지 않는 새로운 음악소프트웨어를 시장에 제공할 수 있도록 된다.
또한 음향구성장치는 상술한 바와같이 단일체구성으로 발음할 수 있으나, 예를들면 MIDI아웃단자에서 외부에 별개로 준비한 동일한 시스템을 제어하도록 설정하면 보다 많은 연주결과의 편차를 얻는것도 가능하다.
다음에 본 발명의 음향구성장치에 있어서의 제 2실시예에 대하여 제14도를 참조하면서 설명한다. 여기서 공통하는 부분에는 같은 참조번호를 붙여서 설명을 생략한다.
본 실시예는 제1도에 표시한 센서부(10a)에 사용하는 센서를 제 1실시예의 마이크로폰(10A)과 다른 뇌파검출장치를 사용하고 있다.
이 뇌파검출장치(10B)는 헤드밴드(20)와 전극(21), 증폭기(22) 및 송신기(23)가 일체적으로 구성되어 있는 것이다. 검출된 뇌파데이터는 텔레미터방식으로 음향구성장치내에 설치되어있는 전파수신기를 가지는 수신용 인터페이스(24)를 통하여 공급되어 최종적으로 발음용의 트리거신호로서 사용된다.
또한 이 뇌파데이터를 MIDI인터페이스를 통하여 MIDI규격의 신호로 변환하여도 좋다.
전파의 수신용 인터페이스(24)에서 공급되는 뇌파의 전기신호는 데이터해석부(11)에서 전기신호의 파형에서 피치추출, 음향추출을 하여 샘플러(14A)에 MIDI신호로 변환되어서 공급된다. 샘플러(14A)는 이 MIDI신호를 소프트웨어의 동작에 따른 음의 음소편이나 음의 각종요소에 대응시킨 발음용의 신호를 발음회로부(15)에 공급한다. 발음회로부(15)는 공급된 신호를 증폭기(15a)로 증폭하고 스피커(15b)에서 입력한 전기신호와 전혀 다른음을 발음시킨다.
뇌파는 검출되는 주파수에 의해 분류된다. 뇌파의 분류는 낮은 주파수에서 4Hz까지의 뇌파를 δ파, 4Hz∼8Hz까지의 뇌파를 θ파, 8Hz∼13Hz까지의 뇌파를 α파, 13Hz이상의 주파수의 β파로 4개로 나누어져 있다.
뇌파는 뇌의기능을 반영하고 다시 피검자의 정신상태도 반영하는 것이다. 상기 α파는 안정시 눈을 감고 있을때 후두부에 많이 발생한다.
β파는 긴장한다던지, 정신집중을 하고 있을때에 발생한다. δ파나 θ파는 자고 있을때에 발생한다. 검출되는 뇌파에는 기체자가 보여지는 것의 상술한 일반적인 경향이 존재하는 것을 명백하다.
이 경향을 이용하여 개개의 정신상태를 조정하는 기기로서 사용할 수 있다. 예를들면 정신을 안정코저 할 경우 음향구성장치는 뇌파의 검출에 따라서 발하여지는 음을 α파의 검출을 촉구하는것 같은 음으로 설정하면 피검자는 음을 듣고 α파를 유발시키는 것이 용이하게 할 수 있게 된다.
음향구성장치는 소망의 뇌파를 음에의해 피드백 시킴으로서 자기 콘트롤을 하기위한 트에이닝 기기가 된다.
또 뇌파를 검출하는 방법은 상술한 방법으로 한정되는 것이 아니며, 뇌의 활동에 따라서 흐르는 신경전류에 의해 자계가 발생한다. 두피상의 자속밀도를 측정하여 뇌에 흐르는 신경전류량을 계산에서 산출할 수 있다. 이 신경전류나 검출되는 자계의 변화를 음향구성장치의 입력신호로서 사용할 수도 있다. 예를들면 순음, 크릭음, 노이즈, 약음, 음절, 단어머리의 여러가지 음에 의해 청각자극을 받음으로써 청각 유발뇌자계가 변화한다. 또 스포트 및 정현파그레이팅패턴, 첵커보드패턴, 혹은 랜덤도트패턴 등의 시각자극에 의해서도 시가유발뇌자계가 변화한다. 이와같은 신호를 입력신호로 이용하면 음향구성은 청각이나 시각에 대응한 음을 발생시킬 수 있다.
트리거신호에 사용하는 센서에 입력하는 정보는 상기 뇌파에 한정되는 것이 아니며, 예를들면 체온, 맥박, 발한, 호습수 등의 생체정보를 센서로 포촉하여 음향구성장치에 공급한다던지, 이것외에 3개의 성분으로 표시되는 바이오리듬의 변화에 대응하여 발음시킬 수 있다.
다음에 본 발명의 음향구성장치에 있어서의 제 3실시예에 대하여 제15도를 참조하면서 설명한다. 여기서 상술한 실시예와 공통하는 부분에는 같은 참조번호를 붙이고 설명을 생략한다.
본 실시예는 제1도에 표시한 센서부(10a)에 사용하는 센서를 제 1실시예의 마이크로폰(10A)과 다른 촬상장치(10C)를 사용하고 있다.
이 제 3실시예의 데이터해석부(11)에 촬상장치(10C)에서 촬상된 화상정보가 화상의 변화량을 데이터로서 추출하는 이동체 추출부(12B)에 공급된다.
이 이동체 추출부(12B)는 예를들면 단안시에 의한 동화상의 시켄스에서 이동체의 이동량을 자동적으로 추출하고 있다. 추출한 이동량에 의거해서 얻어지는 전기신호는 최종적으로 음향구성장치에서 트리거신호로서 사용한다. 이 이동량에 대응한 전기신호의 추출방법은 후단에서 설명한다. 이동체 추출부(12B)는 예를들면 제1도에 표시한 MIDI변환기(13)를 내장하고 있고, 추출된 전기신호의 파형을 MIDI규격의 신호로 변환하고 있다. 이동체 추출부(12B)는 디지탈화된 MIDI신호를 샘플러(14A)에 공급한다. 샘플러(14A)는 상술한 실시예와 동일하게 공급되는 MIDI신호를 음소편에 대응시켜서 각종의 에펙트처리도 실시하여 발음회로부(15)에 공급한다. 발음회로부(15)는 공급된 발음용의 신호를 증폭기(15a)로 증폭하고 스피커(15b)에서 입력한 전기신호와 전혀 다른음을 발음시킨다.
여기서 상술한 이동체 추출부(12B)에 있어서의 이동체의 이동량에 대응하는 전기신호의 추출하는 방법은 벡터적으로 이동을 취급하고 복수의 협조된 움직임에 대하여 동일그룹에서 간주하고 있다. 이 추출방법의 알고리듬은 예를들면 이동체의 하나인 보행자를 비강체로 취급하고, 실화상의 잡음에 대하여 로버스트적으로 취급하고 촬상한 화상중에서 움직이는 추출과 보행자 추출을 한다.
이 알고리듬은 움직이는 추출에 있어서 입력화상에서 이동체를 포함하지 않는 배경화상을 차감한 역치처리에 의해 얻어지는 영역화상을 구한다.
다음에 시간평활화를 행함으로써 수속시켜서 개개의 물체 상당하는 보행자 전체의 평균운동벡터를 구한다.
이 시간 평활화로 검출된 영역을 서부영역으로 재분할한다. 이 재분할한 임의의 2개의 영역의 통합가설에 의거해서 반복하여 병합한다. 상기 통합가설은 예를들면 동일인물에 속하는 각부가 협조하여 움직이는 것을 이용하여 보행자화상의 확율적인 모델에서 부여되는 적합도로 평가한다.
이들의 처리에 의해 동화상중의 이동체, 이경우 보행자를 확율적인 모델로 추출할 수 있다. 이 처리는 인간의 운동시에 있어서의 지각적 통합에 대응하고 있다. 이와같은 움직임 검출에 관한 정보도 생체활동에 의거한 정보의 하나로 간주할 수 있다. 이 외부환경으로 부터의 정보를 음향구성장치에 공급하여 트리거신호에 사용하면, 시간의 제약을 받지않고 환경과 상호영향하고 맞추는 우연성, 의외성이 풍부한 음향재생을 행할 수 있게 할 수 있다.
다음에 본 발명의 음향구성장치에 있어서의 제 4실시예에 대하여 제16도를 참조하면서 설명한다. 여기서 상술한 실시예와 공통하는 부분에는 같은 참조번호를 붙여서 설명을 생략한다.
본 실시예는 제1도에 표시한 센서부(10a)에 사용하는 센서를 제 1실시예의 마이트로폰(10A)과 다른 기상관측장치(10D)를 사용하고 있다.
기상관측장치(10D)는 적어도 관측시각을 기재하기 위해 시간정보를 공급할 수 있다. 또 각 기상요소인 온도, 습도, 기압, 밝음에 관한 정보로서 운량, 일조시간등을 각각 타이머(30), 온도계(31), 습도계(32), 기압계(33), 운량계(34), 일조시간산출계(35)로 검출한다. 이 각 요소의 검출한 신호를 전기신호로 예를들면 피치-MIDI변환기(12A)에 공급한다.
이 피치-MIDI변환기(12A)로 상기 각종의 전기신호를 각각 MIDI신호 입력 변환하여 샘플러(14A)에 공급한다. 샘플러(14A)는 공급된 MIDI신호에 따른 예를들면 외부환경에 대응한 음소편을 미리 공급하여 놓고, 이들의 음소편 중에서 소프트웨어로 선택하고 각종의 펙터처리를 실시한 신호를 발음회로(15)에 공급한다.
발음회로(15)는 공급된 발음용의 신호를 증폭기(15a)로 증복하여 스피커(15b)에서 입력한 전기신호와 전혀 다른음을 발음시킨다.
이와같이 구성함으로써 음향구성장치를 계절이나 기후의 변화에 맞춘 발음제어도 가능하게 된다. 또 음의 변화에 의해 시간이나 계절의 변화를 알릴수도 있다. 이것의 시간에 관하여 최근 인간의 활동리듬과 깊은 관계에 있는 것이 알려져 있는 조석의 정보에 따른 음향효과도 가져오게 하는것도 가능하다. 또 이 음향구성장치를 사용함으로써 보다 환경과의 상호의 영향을 우위하는 발음제어를 할 수 있다.
또한 상술한 실시예에 있어서 센서로서 사용한 기상간칙장치는 상술한 각 요소 모두를 모아서 공급할 필요는 없고 적어도 하나를 선택하여 사용하여도 좋다. 또 상술한 제 1∼제 4실시예를 합쳐서 사용하여도 외부환경과의 상호관련을 한층 높일 수 있도록 되는것은 명백하다.
다음에 본 발명의 음향구성장치에 있어서의 제 5실시예에 대하여 제17도를 참조하면서 설명한다. 여기서 상술한 실시예와 공통하는 부분에는 같은 참조번호를 붙이고 설명을 생략한다. 이 실시예에 사용하는 센서는 상술한 제 1∼4실시예의 센서를 음향구성장치에 단일체, 혹은 복합적으로 사용하고 있다.
제1도에 표시한 음원발생회로부(14)는 데이터해석부(11)중의 MIDI신호변환회로부(13)에서 공급되는 MIDI정보에 따른 음신호를 발생시키는 음소편 발생부(14a)와 상기 음소편 발생부(14a)에서 공급되는 MIDI정보에 따라서 발생하는 음에 음향효과를 부여하는 에펙터부(14b)를 가지고 구성하고 있다.
상술한 실시예까지 음원발생회로부(14)는 샘플러(14A)를 사용하고 있었으나 이외에도 통상의 신서사이저(14B)를 음원으로서 사용하여도 좋다.
신서사이저(14B)는 엔벌로프제어의 충실이나 예를들어 다른파형의 합성(믹스), 연결(링크)등의 음원파형의 편집 및 복수의 음원의 동시발음기능 등을 가지고 있다. 이때문에 단순한 파형에서 복잡한 음색의 변화를 용이하게 만들 수 있도록 되어있다. 이와같이 음원의 충실에 의해 음의 표현력을 한층 높일 수 있고, 메모리의 절약에도 기여할 수 있다.
또 음원발생회로부(14)의 제어에 있어서 상술하여온 샘플러(14A)의 사용은 비교적 긴 프레이즈라도 사용가능한 이점을 가지고 있는데에 있다. 그러나 센서부(10a)에서 입력신호의 변화를 공급하는 MIDI규격의 MIDI신호를 송체인지 정보나, 예를들면 스타트·스톱등의 시켄서의 콘트롤정보를 MIDI 신호회로부(13)에서 공급하여 주면, 음원발생회로부(14)는 공급되는 상기 송체인지정보나 콘트롤정보의 시켄스데이터로 음의 상태에 맞춰서 제어할 수 있다. 이 시켄스데이터의 제어에 의해서도 음의표현력을 높이고, 사용하는 메모리를 절약할 수 있다.
또한 음원의 편차는 상술한 샘플러(14A)나 신서사이저(14B)에 한정되는 것이 아니며 상기 콘트롤정보를 예를들면 연주로보트(14c)를 동작시키는것 같은 기계적인 운동의 제어에 사용함으로써 연주로보트(14c)가 연주하는 아코스틱한 악기(15c)를 제어시켜 악기(15c)에서 발음시킬수도 있다.
최후에 본 발명의 음향구성장치는 제18도에 표시하는 바와같이 소형의 퍼스널기기로서도 사용할 수 있다.
음향구성장치에 있어서의 케이스체(21)의 크기는 예를들면 제18도에 표시하는 편수로 조작하기 쉬웁게 한다. 음향구성장치에 사용되는 트리거인 주위의 잡음등은 한쌍의 이어폰(22, 23)과 각각 반대측 방향으로 마이크(10A, 10A)를 설치하여 장치 본체에 공급된다.
또 음향구성장치는 외부에서 디지탈정보를 내장하는 메모리나 IC로 구성된 카드를 예를들면 장치 하부측에서 삽입시킨다. 상기 디지탈 정보는 음소편이나 이 음소편을 어떻게 음처리하느냐 등의 소프트웨어로 구성하고 있다. 음향구성장치는 전원이 온시에 현재 화살표 A방향으로 삽입된 카드(23)가 어떻게 음을 발생시키는가 표시창(24)에 액정등을 이용하여 표시한다.
상기 표시창(24)에 표시되는 정보는 예를들면 "Relaxation", "Nature" 및 "Music" 등의 사운드모드를 사운드모드 선택스위치(25)로 선택한다.
상기 "Relaxation" 모드는, 마음의 안정감을 가져오게하는 완만한 음을 발생시킨다. 또, "Nature" 모드는, 예를들면 「해안」, 「강」 및 「산」 등의 장소에 따른 사운드를 공급할 수 있다. 이 장소의 선택을 선택스위치(26)로 선택한다. "Music" 모드의 경우도 선택스위치(26)을 사용하여 음향구성장치는 예를들면 「째즈」, 「록」, 「소올」, 「클래식」, 「라틴」, 「레게」, 「블루스」, 「컨트리」및 「인도」풍등의 음악을 낳는 모드에서 하나를 선택한다. 이들의 각 모드에서 선택된 모드에 대응한 음이 트리거에 따라서 이어폰(22)을 통해 발음시킨다. 또, 표시창(24)에는 발음의 음량레벨을 표시시킬 수도 있다.
이 발음은 상술한 모드에 한정되는 것이 아니며, 장치에 삽입하는 카드(23)을 바꿈으로써 이외의 모드의 음악을 공급할 수 있다.
이와같이 카드를 사용함으로써, 음을 만드는데 있어서의 폭을 넓힐 수도 있다.
음성구성장치는 각종 모드의 음악을 연속하여 공급할 수 있는 스테레오 세트의 하나로서 또 아이들의 완구등으로서 제공할 수 있다.
본 발명의 음향구성장치는 이와같이 구성함으로써, 원음에 대한 파형변환을 상당히 용이하게되는 종래의 디지탈 신호처리장치(Digital Signal Processor)에 비하여 이 음향구성장치를 통하여 발음을 원음과 전혀 틀림음의 구성으로 하여 출력할 수가 있다. 이 원음을 전혀 틀린 음의 구성으로 변환할때에 필요로 되는 고도한 레벨에서의 퍼지이론을 사용하여 퍼지제어나 비선형 이론의 하나인 카오스이론을 사용한 비선형제어등을 사용하지않고, 용이하게 트리거에 대한 음소편의 발음의 요소를 편집설정함으로써 원음을 전혀 다른 음의 구성으로 변환할 수 있다. 특히 주위환경의 잡음을 상황에 맞춰서 즉시적으로 변화시킬 수 있다.
또 이 음향구성장치는 청취자나 청취환경등과 상호영향하여서 우연성, 의외성 및 인터럭티이브성이 풍부한 음향재생을 가능하게하고 있다.
음향구성장치는 기록매체를 재생하는 음향기기가 아니며, 재생기능시간등의 시간의존성을 배제할 수 있다. 이 재생되는 음의 구성이나 음악에 대하여 음향구성장치가 필요로 하는 데이터는 시간에 대하여 독립하여 있고, 최소한으로 억제할 수 있다.
음향구성장치는 복잡한 디지탈기기를 사용하지 않고, 장치내에 미리 기억된 프로그램에 따른 예를들면 가상현실음 혹은 음악등의 작성도 용이하게 할 수 있다.
음향구성장치에 사용하는 프로그램 소프트웨어는 상술한 바와같이 한정한 데이터를 기본으로 시간에 의존하지않는 새로운 음악소프트웨어를 시장에 제공하는 것도 할 수 있게 된다.
또한 센서는 상술한 실시예에 한정되는 것이 아니며 외부환경과의 상호의 영향을 도모할 수 있는 센서를 사용하면 입력신호에 따른 발음을 시킬 수 있다. 현재 발매되고 있는 집적회로를 사용하면 상술의 실시예와 같이 대규모한 시스템구성으로 하지않고 간단한 구성으로 음향구성장치를 용이하게 실현할 수 있다.
이상의 설명에서 명백한 바와같이 본 발명의 음향구성장치에 의하면 입력수단을 통하여 외부환경상태의 변화를 신호로 변환하여 신호를 출력하고, 데이터 추출수단에서는 이 출력신호를 해석하여 데이터추출을 하고, 음원 제어수단에서는 데이터추출수단에서 추출한 음원데이터에 의거해서 음워제어데이터를 출력하고, 이 제어데이터에 따른 음신호를 음원수단에서 출력하고, 이 출력신호를 변환하여 발음수단을 통하여 발음시킴으로써 원음과 전혀 틀린 음의 구성으로 하여 출력할 수 있다.
이 원음을 전혀 틀린 음의 구성으로 변환할때에 필요하게되는 고도한 레벨에서의 복잡한 각종의 이론을 이용하지않고 용이하게 음소편을 트리거로서 각음의 요소를 편집설정함으로써 원음을 전혀 다른음의 구성으로 변환할 수 있다. 특히 주위환경의 잡음을 상황에 맞춰서 즉시적으로 변화시킬 수 있다.
또, 이 음향구성장치는 청취자나 청취환경등과 상호영향하여서 우연성, 의외성 및 인터럭티이브성 풍부한 음향재생을 가능하게 할 수 있다.
음향구성장치는 기록매체를 재생하는 음향기기가 아니며, 외부환경으로 부터의 입력정보가 트리거데이터에 대응시킴으로써, 재생가능시간등의 시간의존성을 배제할 수 있고, 장치내에 내장하는 데이터를 최소한으로 억제할 수 있다.
음향구성장치는 복잡한 디지탈기기를 사용하지않고 장치내에 미리 기억된 프로그램에 따른 예를들면 가상현실음 혹은 음악등의 작성도 용이하게 할 수 있고, 청취자도 어느정도 연주에 참가하는 혹은 영향을 부여할 수 있다.
상기 입력수단으로서는 상기 외부환경으로서 존재하는 전반, 예를들면 음과, 진동과, 빛과, 온도와, 습도와, 기압과, 시각, 날, 계절등의 시간과, 뇌파, 체온, 맥박, 발한, 호흡수등의 생체정보의 적어도 하나의 상태 및 상태의 변화를 검출한다던지, 음향-전기변환수단을 사용하여 외부환경잡음을 입력하여 전기신호로 변환함으로써 외부환경과의 상호의 영향을 높이고 환경과 음과의 의존성을 높게할 수 있다.
상기 데이터 추출수단에서는 상기 입력수단에서 변환한 전기신호에서 음의 피치를 추출한다던지 상기 입력수단에서 변환한 전기신호에서 음량정보를 레벨치로서 추출함으로써 이 재생되는 음의 구성이나 음악에 대하여 음향구성장치가 필요로 하는 데이터는 상술한 바와같이 시간에 대해 독립하고 있고 데이터량을 최소한으로 억제할 수 있다.
또 상기 입력수단으로서 촬상장치를 사용하여 전기신호로 변환하고 상기 데이터 추출수단에 있어서 촬상된 화상의 변화량을 데이터로서 추출하여도 청취자나 청취환경등과 상호영향하여서 우연성, 의외성 및 인터럭티브성에 풍부한 음향재생을 가능하게 할 수 있고, 기록매체를 재생하는 음향기기가 아니고 재생가능시간등의 시간의존성을 배제할 수 있다.
상기 음원제어수단은 상기 데이터수단으로 부터의 데이터를 MIDI정보로 변환하고, 또 상기 음원수단은 상기 음원제어수단으로 부터의 MIDI정보의 피치데이터에 따라 음소편의 신호를 출력하고, 이 출력신호를 MIDI정보의 음량데이터에 따른 신호를 출력함으로써, 데이터의 제어를 용이하게 할 수 있다.
상기 음원제어수단은 상기 데이터 추출수단으로 부터의 데이터를 MIDI정보를 음향효과의 제어정보로 변환함으로써 음의 어펙트제어를 용이하게 하는 동시에 음의 질을 높은것으로 할 수가 있다.
상기 음원수단은 상기 음원제어수단에서 공급되는 MIDI정보에 따른 음신호를 음원신호 발생수단에서 발생시켜서 상기 음원제어수단에서 공급되는 MIDI정보에 따라서 발생하는 음에 대하여 음향효과 발생수단으로 음향효과를 부여하는 음신호를 발생함으로써 예를들면 가상현실음이라도 실제에 가까운음을 청취자에 공급할 수 있다. 이 음향효과가 보다 한층 청취자의 심리적인 효과를 높일 수 있다.
음향구성장치의 정보 및 사용하는 소프트웨어를 내장한 카드등의 기록매체를 사용함으로써 음을 만드는데 있어서의 폭을 넓힐 수 있다.

Claims (11)

  1. 외부환경의 상태의 변화를 신호로 변환하여 입력하는 입력수단과, 이 입력수단으로 부터의 출력신호를 해석하여 데이터를 추출하는 데이터 추출수단과, 이 데이터 추출수단으로 추출한 음원데이터에 의거해서 음원제어 데이터를 출력하는 음원제어수단과, 이 음원제어수단으로 부터의 제어데이터에 따른 음신호를 출력하는 음원수단과, 이 음원수단으로 부터의 출력신호를 변환하여 발음시키는 발음수단을 가지고 이루는 것을 특징으로 하는 음향구성장치.
  2. 제1항에 있어서, 상기 입력수단은 상기 외부환경으로 존재하는것 전반, 예를들면 음과, 진동과, 빛과, 온도와, 습도와, 기압과, 시각, 날, 계절등의 시간과, 뇌파, 체온, 맥박, 발한, 호흡수, 피부전위등의 생체정보등중, 적어도 하나의 상태 및 상태의 변화를 검출하여 전기신호로 변환하는 것을 특징으로 하는 음향구성장치.
  3. 제1항에 있어서, 상기 입력수단으로서 외부환경잡음을 입력하여 전기신호로 변환하는 음향-전기변환수단을 사용하는 것을 특징으로 하는 음향구성장치.
  4. 제3항에 있어서, 상기 데이터 추출수단은 상기 입력수단에서 변환한 전기신호에서 음의 피치를 추출하는 것을 특징으로 하는 음향구성장치.
  5. 제3항에 있어서, 상기 데이터 추출수단은 상기 입력수단에서 변환된 전기신호에서 음량정보를 레벨치로서 추출하는 것을 특징으로 하는 음향구성장치.
  6. 제1항에 있어서, 상기 입력수단으로서 촬상장치를 사용하는 것을 특징으로 하는 음향구성장치.
  7. 제6항에 있어서, 상기 데이터 추출수단은 촬상된 화상의 변화량을 데이터로서 추출하는 것을 특징으로 하는 음향구성장치.
  8. 제1항에 있어서, 상기 음원제어수단은 상기 데이터 추출수단으로 부터의 데이터를 MIDI정보로 변환하는 것을 특징으로 하는 음향구성장치.
  9. 제1항에 있어서, 상기 음원수단은 상기 음원제어수단으로 부터의 MIDI정보의 피치데이터에 따라서 음소편의 신호를 출력하고, 이 출력신호를 MIDI정보의 음량데이터에 따라서 신호를 출력하는 것을 특징으로 하는 음향구성장치.
  10. 제1항에 있어서, 상기 음원제어수단은 상기 데이터 추출수단으로 부터의 데이터를 MIDI정보를 음향효과의 제어정보로 변환하는 것을 특징으로 하는 음향구성장치.
  11. 제10항에 있어서, 상기 음원수단은 상기 음원제어수단에서 공급되는 MIDI정보에 따른 음신호를 발생시키는 음원신호 발생수단과, 상기 음원제어수단에서 공급되는 MIDI정보에 따라서 발생하는 음에 음향효과를 부여하는 음향효과 발생수단을 가지고 이루는 것을 특징으로 하는 음향구성장치.
KR1019930018345A 1992-09-21 1993-09-13 음향구성장치 KR100275799B1 (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP92-274795 1992-09-21
JP27479592A JP3381074B2 (ja) 1992-09-21 1992-09-21 音響構成装置

Publications (2)

Publication Number Publication Date
KR940007766A KR940007766A (ko) 1994-04-28
KR100275799B1 true KR100275799B1 (ko) 2000-12-15

Family

ID=17546674

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1019930018345A KR100275799B1 (ko) 1992-09-21 1993-09-13 음향구성장치

Country Status (3)

Country Link
US (1) US5471009A (ko)
JP (1) JP3381074B2 (ko)
KR (1) KR100275799B1 (ko)

Families Citing this family (54)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TW279219B (ko) * 1994-03-31 1996-06-21 Yamaha Corp
TW314614B (ko) * 1995-10-23 1997-09-01 Yamaha Corp
WO1998009373A1 (en) * 1996-08-30 1998-03-05 Headwaters Research And Development Inc. Digital sound relaxation system
JP3910702B2 (ja) * 1997-01-20 2007-04-25 ローランド株式会社 波形発生装置
US6304846B1 (en) * 1997-10-22 2001-10-16 Texas Instruments Incorporated Singing voice synthesis
JP3768347B2 (ja) * 1998-02-06 2006-04-19 パイオニア株式会社 音響装置
US6226422B1 (en) * 1998-02-19 2001-05-01 Hewlett-Packard Company Voice annotation of scanned images for portable scanning applications
US6104998A (en) 1998-03-12 2000-08-15 International Business Machines Corporation System for coding voice signals to optimize bandwidth occupation in high speed packet switching networks
JP4305971B2 (ja) 1998-06-30 2009-07-29 ソニー株式会社 情報処理装置および方法、並びに記録媒体
JP4170458B2 (ja) 1998-08-27 2008-10-22 ローランド株式会社 波形信号の時間軸圧縮伸長装置
US6323797B1 (en) 1998-10-06 2001-11-27 Roland Corporation Waveform reproduction apparatus
EP1017039B1 (en) * 1998-12-29 2006-08-16 International Business Machines Corporation Musical instrument digital interface with speech capability
JP2001075565A (ja) 1999-09-07 2001-03-23 Roland Corp 電子楽器
JP2001084000A (ja) 1999-09-08 2001-03-30 Roland Corp 波形再生装置
JP4293712B2 (ja) 1999-10-18 2009-07-08 ローランド株式会社 オーディオ波形再生装置
JP2001125568A (ja) 1999-10-28 2001-05-11 Roland Corp 電子楽器
US6757573B1 (en) * 1999-11-02 2004-06-29 Microsoft Corporation Method and system for authoring a soundscape for a media application
US7010491B1 (en) 1999-12-09 2006-03-07 Roland Corporation Method and system for waveform compression and expansion with time axis
EP1837858B1 (en) * 2000-01-11 2013-07-10 Yamaha Corporation Apparatus and method for detecting performer´s motion to interactively control performance of music or the like
EP1128358A1 (en) * 2000-02-21 2001-08-29 In2Sports B.V. Method of generating an audio program on a portable device
EP1156610A3 (de) * 2000-05-19 2005-01-26 Martin Lotze Verfahren und Vorrichtung zur automatischen Auswahl von Musikstücken und/oder Tonaufnahmen
JP4626087B2 (ja) * 2001-05-15 2011-02-02 ヤマハ株式会社 楽音制御システムおよび楽音制御装置
US6703550B2 (en) * 2001-10-10 2004-03-09 Immersion Corporation Sound data output and manipulation using haptic feedback
JP4487616B2 (ja) * 2003-05-02 2010-06-23 ソニー株式会社 データ再生装置並びにデータ記録再生装置
JP2005021255A (ja) * 2003-06-30 2005-01-27 Sony Corp 制御装置及び制御方法
US7655856B2 (en) 2004-06-09 2010-02-02 Toyota Motor Kyushu Inc. Musical sounding producing apparatus, musical sound producing method, musical sound producing program, and recording medium
US7525034B2 (en) * 2004-12-17 2009-04-28 Nease Joseph L Method and apparatus for image interpretation into sound
JP2006304167A (ja) * 2005-04-25 2006-11-02 Sony Corp キー生成方法およびキー生成装置
KR100658869B1 (ko) * 2005-12-21 2006-12-15 엘지전자 주식회사 음악생성장치 및 그 운용방법
US8652040B2 (en) 2006-12-19 2014-02-18 Valencell, Inc. Telemetric apparatus for health and environmental monitoring
JP5130809B2 (ja) * 2007-07-13 2013-01-30 ヤマハ株式会社 楽曲を制作するための装置およびプログラム
US8409006B2 (en) * 2007-09-28 2013-04-02 Activision Publishing, Inc. Handheld device wireless music streaming for gameplay
ES2399847T3 (es) * 2007-12-20 2013-04-03 Koninklijke Philips Electronics N.V. Sistema y método para crear automáticamente un sonido relacionado con una atmósfera de iluminación
JP4623124B2 (ja) * 2008-04-07 2011-02-02 ソニー株式会社 楽曲再生装置、楽曲再生方法および楽曲再生プログラム
US9767817B2 (en) * 2008-05-14 2017-09-19 Sony Corporation Adaptively filtering a microphone signal responsive to vibration sensed in a user's face while speaking
JP4640463B2 (ja) * 2008-07-11 2011-03-02 ソニー株式会社 再生装置、表示方法および表示プログラム
EP2163284A1 (en) * 2008-09-02 2010-03-17 Zero Point Holding A/S Integration of audio input to a software application
US7977560B2 (en) * 2008-12-29 2011-07-12 International Business Machines Corporation Automated generation of a song for process learning
JP2010169925A (ja) * 2009-01-23 2010-08-05 Konami Digital Entertainment Co Ltd 音声処理装置、チャットシステム、音声処理方法、ならびに、プログラム
JP4936479B2 (ja) 2009-03-26 2012-05-23 任天堂株式会社 情報処理プログラム、情報処理装置、情報処理システム、および情報処理方法
GB201020138D0 (en) * 2010-11-29 2011-01-12 Third Sight Ltd A memory aid device
EP2497670B1 (en) * 2011-03-11 2015-07-01 Johnson Controls Automotive Electronics GmbH Method and apparatus for monitoring the alertness of the driver of a vehicle
WO2013103103A1 (ja) * 2012-01-04 2013-07-11 株式会社ニコン 電子機器、及び音楽コード出力方法
US9084042B2 (en) * 2012-05-16 2015-07-14 Elli&Nooli, llc Apparatus and method for long playback of short recordings
KR102333704B1 (ko) * 2013-09-30 2021-12-01 삼성전자주식회사 생체 신호에 기초하여 컨텐츠를 처리하는 방법, 및 그에 따른 디바이스
JP6575101B2 (ja) * 2015-03-25 2019-09-18 株式会社豊田中央研究所 音楽生成装置
KR102460393B1 (ko) 2015-04-30 2022-11-01 삼성전자주식회사 사운드 출력 기기, 전자 장치 및 그 제어 방법
WO2016175622A1 (en) 2015-04-30 2016-11-03 Samsung Electronics Co., Ltd. Sound outputting apparatus, electronic apparatus, and control method thereof
FR3065366B1 (fr) 2017-04-25 2022-01-14 Centre Nat Rech Scient Procede et dispositif de transduction physio-sensorielle
JP7484118B2 (ja) * 2019-09-27 2024-05-16 ヤマハ株式会社 音響処理方法、音響処理装置およびプログラム
JP7439433B2 (ja) * 2019-09-27 2024-02-28 ヤマハ株式会社 表示制御方法、表示制御装置およびプログラム
JP7439432B2 (ja) * 2019-09-27 2024-02-28 ヤマハ株式会社 音響処理方法、音響処理装置およびプログラム
CN113223483A (zh) * 2021-04-09 2021-08-06 凌晓军 音乐演奏方法、电子设备及计算机可读存储介质
AT525615A1 (de) 2021-11-04 2023-05-15 Peter Graber Oliver Vorrichtung und verfahren zur ausgabe eines akustischen signals basierend auf physiologischen daten

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4441399A (en) * 1981-09-11 1984-04-10 Texas Instruments Incorporated Interactive device for teaching musical tones or melodies
US4731847A (en) * 1982-04-26 1988-03-15 Texas Instruments Incorporated Electronic apparatus for simulating singing of song
JPH05341793A (ja) * 1991-04-19 1993-12-24 Pioneer Electron Corp カラオケ演奏装置

Also Published As

Publication number Publication date
US5471009A (en) 1995-11-28
KR940007766A (ko) 1994-04-28
JPH06102877A (ja) 1994-04-15
JP3381074B2 (ja) 2003-02-24

Similar Documents

Publication Publication Date Title
KR100275799B1 (ko) 음향구성장치
Heidemann A System for Describing Vocal Timbre in Popular Song.
Campbell et al. The musician's guide to acoustics
Goodwin An acoustical study of individual voices in choral blend
JP4771647B2 (ja) 環境を音響的に向上させるための装置
US6358055B1 (en) Method and apparatus for teaching prosodic features of speech
JP2008146094A (ja) 音声イントネーション較正方法
Moore Interpretation: So What? 1
CN105185366A (zh) 电子乐器、发音控制方法
Collins Studying Sound: A Theory and Practice of Sound Design
JP6728843B2 (ja) 電子楽器、楽音発生装置、楽音発生方法及びプログラム
JPH07433A (ja) 電気人工喉頭
CN110910895B (zh) 一种声音处理的方法、装置、设备和介质
JP6300328B2 (ja) 環境音生成装置及びそれを用いた環境音生成システム、環境音生成プログラム、音環境形成方法及び記録媒体
JPH10268895A (ja) 音声信号処理装置
Burtner Sounding art climate change
Grigorev et al. An Electroglottographic Method for Assessing the Emotional State of the Speaker
Howard The vocal tract organ and the vox humana organ stop
Himonides Mapping a beautiful voice: Theoretical considerations
Bergsland Experiencing voices in electroacoustic music
Spreadborough et al. Voices within voices: Developing a new analytical approach to vocal timbre by examining the interplay of emotionally valenced vocal timbres and emotionally valenced lyrics
Accornero Shocking Intimacy: Techniques, Technologies, and Aesthetics of Amplification in Clara Iannotta’s “Intent on Resurrection”
RU2177648C2 (ru) Способ коррекции эмоционального состояния, речевой, слуховой и мыслительной деятельности человека с помощью специального, звуковоспроизводящего, радиоэлектронного устройства индивидуального пользования
Schwär et al. A Dataset of Larynx Microphone Recordings for Singing Voice Reconstruction.
Wees Reverberation as Mimetic Replication: Urban Space, Metro Buskers and Acoustic Experience

Legal Events

Date Code Title Description
A201 Request for examination
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20110920

Year of fee payment: 12

LAPS Lapse due to unpaid annual fee