KR100875720B1 - 환경을 음향적으로 개선하기 위한 장치 - Google Patents

환경을 음향적으로 개선하기 위한 장치 Download PDF

Info

Publication number
KR100875720B1
KR100875720B1 KR1020037004096A KR20037004096A KR100875720B1 KR 100875720 B1 KR100875720 B1 KR 100875720B1 KR 1020037004096 A KR1020037004096 A KR 1020037004096A KR 20037004096 A KR20037004096 A KR 20037004096A KR 100875720 B1 KR100875720 B1 KR 100875720B1
Authority
KR
South Korea
Prior art keywords
sound
signal
tone
output
tonal
Prior art date
Application number
KR1020037004096A
Other languages
English (en)
Other versions
KR20030059147A (ko
Inventor
안드레아스 랍토파울로스
클리엔볼크마
롭손도미닉
스카보우티스유진
웰터제레미휴
Original Assignee
로얄 칼리지 오브 아트
안드레아스 랍토파울로스
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 로얄 칼리지 오브 아트, 안드레아스 랍토파울로스 filed Critical 로얄 칼리지 오브 아트
Publication of KR20030059147A publication Critical patent/KR20030059147A/ko
Application granted granted Critical
Publication of KR100875720B1 publication Critical patent/KR100875720B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10KSOUND-PRODUCING DEVICES; METHODS OR DEVICES FOR PROTECTING AGAINST, OR FOR DAMPING, NOISE OR OTHER ACOUSTIC WAVES IN GENERAL; ACOUSTICS NOT OTHERWISE PROVIDED FOR
    • G10K11/00Methods or devices for transmitting, conducting or directing sound in general; Methods or devices for protecting against, or for damping, noise or other acoustic waves in general
    • G10K11/16Methods or devices for protecting against, or for damping, noise or other acoustic waves in general
    • G10K11/175Methods or devices for protecting against, or for damping, noise or other acoustic waves in general using interference effects; Masking sound
    • G10K11/1752Masking
    • HELECTRICITY
    • H03ELECTRONIC CIRCUITRY
    • H03BGENERATION OF OSCILLATIONS, DIRECTLY OR BY FREQUENCY-CHANGING, BY CIRCUITS EMPLOYING ACTIVE ELEMENTS WHICH OPERATE IN A NON-SWITCHING MANNER; GENERATION OF NOISE BY SUCH CIRCUITS
    • H03B29/00Generation of noise currents and voltages

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Soundproofing, Sound Blocking, And Sound Damping (AREA)
  • Measurement Of Mechanical Vibrations Or Ultrasonic Waves (AREA)
  • Paper (AREA)
  • Surgical Instruments (AREA)
  • Developing For Electrophotography (AREA)
  • Fittings On The Vehicle Exterior For Carrying Loads, And Devices For Holding Or Mounting Articles (AREA)
  • Piezo-Electric Transducers For Audible Bands (AREA)
  • Electrophonic Musical Instruments (AREA)

Abstract

본 발명은, 음향 에너지를 수신하고 그 음향 에너지를 전기 신호로 변환하는 수단(12), 상기 전기 신호의 분석을 실행하고 데이터 분석 신호를 발생하는 수단(20), 상기 데이터 분석 신호에 응답하여, 음을 나타내는 음 신호를 발생하는 수단(22, 24, 26), 및 상기 음 신호를 음으로 변환하는 출력 수단(16)을 포함하는 전자식 음 차단 시스템을 제공한다.
Figure R1020037004096
음 차단 시스템, 음향 에너지, 전기 신호 변환, 신호 분석, 데이터 분석

Description

환경을 음향적으로 개선하기 위한 장치{APPARATUS FOR ACOUSTICALLY IMPROVING AN ENVIRONMENT}
본 발명은 환경을 음향적으로 개선하기 위한 장치에 관한 것이고, 특히 이러한 목적을 위한 전자식 음 차단 시스템(sound screening system)에 관한 것이다.
본 발명을 이해하기 위해, 먼저 인간의 청각계에 대하여 어느 정도 인식할 필요가 있고, 이하의 설명은 실험적 청각 심리학에 관한 핸드북, 특히 미국 매사추세츠주의 MIT 출판국 발행, Albert S. Bergman의 "Auditory Scene Analysis, The Perceptual Organizaton of Sound"에서 얻어지는 공지의 연구 결과 및 데이터에 의거한 것이다.
인간의 청각계는 구조와 기능 양면에서 매우 복잡하다. 청각계는 복잡한 신경망에 의해 뇌의 청각 피질에 연결된 수천개의 수용 기관으로 이루어져 있다. 입사 음의 상이한 성분들이 수용 기관들을 자극하고, 이어서, 수용 기관들은 상이한 신경망 경로를 통해 청각 피질에 정보를 전달한다.
개개의 수용 기관이 음의 성분에 대하여 나타내는 응답은 항상 같은 것은 아니다. 즉, 이들 수용 기관이 상이한 주파수 및 강도에 응답하도록 조정될 수 있기 때문에, 그 응답은 음 신호의 스팩트럼 구성 및 선행 음과 같은 여러 요인에 좌우된다. 더욱이, 음 정보에 대한 신경망 경로가 변경될 수 있고, 그 목적지도 변경될 가능성이 있다. 상기한 것 모두가 다수의 수용 기관 및 그들을 청각 피질에 연결하는 뉴런(neuron)과 조합하여, 청각계는 단순한 압력 변동을 해석하여 매우 복잡한 3차원 청각 공간도를 생성할 수 있다.
마스킹(masking) 원리
마스킹은, 중요하고 깊게 연구된 청각 현상이다. 마스킹은 어떤 음에 대한 가청 임계치가 다른 (마스킹) 음의 존재에 의해 상승하는 양(또는 과정)으로 정의된다. 마스킹 원리는 귀가 스펙트럼 분석을 행하는 방법에 기초를 둔 것이다. 주파수-장소 변환은 기저막을 따라 내이(內耳)에서 일어난다. 각각 한 세트의 신경 수용 기관을 가지는 와우(蝸牛) 내의 개별 영역이, 임계 대역이라 불리는 상이한 주파수 대역으로 조정된다. 인간의 청각의 스펙트럼은 동일하지 않은 여러 개의 임계 대역으로 분할될 수 있다.
동시 마스킹에서는 마스커(masker)와 타깃 음(target sound)이 공존한다. 타깃 음은 임계 대역을 특정한다. 청각계는 그 영역에 음이 존재하는 것을 "추측"하고, 그것을 검출하고자 시도한다. 마스커가 충분히 넓고 음이 크면, 타깃 음은 들릴 수 없다. 이 현상은, 강한 소음(noise) 또는 음조(tone) 마스커의 존재가 내이의 임계 대역 위치에서 기저막에 충분한 강도의 여진(勵振)을 생성하여 보다 약한 신호의 전송을 효과적으로 차단한다는 것에 의거하여 간단히 설명될 수 있다.
평균적인 청취자에 대하여, 임계 대역폭은 아래의 식에 의해 근사될 수 있다.
Figure 112003009860527-pct00001
여기서, BWc는 Hz로 표시되는 임계 대역폭이고, f는 Hz로 표시되는 주파수이다.
또한, 바크(Bark)는 아래의 식을 통해 주파수 f와 연관된다.
Figure 112003009860527-pct00002
Figure 112003009860527-pct00003
임계 대역 내의 마스커 음은 다른 임계 대역 내에 있는 음을 감지하여 검출하는 것에 대하여 예상 가능한 효과를 가진다. 마스킹의 확산으로도 알려져 있는 이러한 효과는, 첨부 도면 도 23에 도시된 바와 같이, 1바크(1 임계 대역의 거리) 당 +25 dB 및 -10 dB의 기울기를 가지는 삼각함수에 의해 근사될 수 있다.
음의 지각(知覺)적 체제화의 원리
청각계는 복잡한 작업을 수행한다. 즉, 청취자 주위의 다수의 음원으로부터 오는 음압 파가 융합하여, 청취자의 귀로 들어가기 전에 단일의 압력 변동으로 되고, 주위 상황의 실제 상을 형성하기 위해 청취자의 청각계는 이 신호를 구성부분으로 분해하여, 음을 발생하는 각각의 상황을 식별한다. 이러한 프로세스는, 큐(cue), 즉, 그룹화 또는 청각 대상 형성이라 불리는 과정에서, 청각계가 신호의 상이한 부분들을 상이한 음윈에 할당하는 것을 돕는 정보에 의거한다. 복잡한 음 환경에는, 청취자가 들은 것을 의미가 있는 것으로 하는 다수의 상이한 큐가 존재한다.
이들 큐는 청각 및/또는 시각일 수 있고, 또는 지식이나 지금까지의 경험에 기초하는 것일 수도 있다. 청각 큐는 혼합 신호의 스펙트럼 및 시간적 특징과 관련된다. 상이한 동시 음원은, 예를 들어, 그들의 스펙트럼 품질 및 강도 특징이 다르거나 또는 그들의 주기성이 다르거나 하면, 식별 가능하다. 또힌, 음원으로부터의 시각적 증거에 의존하는 시각 큐 역시 음의 지각(知覺)에 영향을 줄 수 있다.
청각의 정경(情景) 분석이란, 청각계가 복잡한 자연 환경으로부터 오는 음의 혼합음을 취하고, 그것을, 각각이 단일의 음원으로부터 일어날 수 있는 음향 증거의 패키지(package)들로 분류하는 과정이다. 인간의 청각계는, 청각 그룹화의 원시적 과정을 사용하는 방법과, 친숙한 음의 지식을 통합하는 스키마(schema)에 의해 청취 과정을 제어하는 방법의 2가지 방법으로 작용하는 것으로 알려져 있다.
그룹화의 원시적 과정은 다수의 별도의 분석을 행하도록 입사 에너지 어레이를 분해하는 방법을 이용하는 것으로 보인다. 이것은 음향 스펙트럼의 특정 시간 모멘트 및 특정 주파수 영역에 국한된다. 각각의 영역은 강도, 변동 패턴, 영역 내에서의 주파수 변화 방향, 공간으로부터 음이 오는 장소의 예측, 및 다른 특징에 관하여 설명된다. 이들 다수의 개별 분석이 수행된 후, 청각계는 각 그룹이 동일 환경 상황 또는 음원으로부터 도출되도록 결과들을 어떻게 그룹화할 것인지를 결정하는 문제를 가진다.
그룹화는 적어도 2차원으로 행해져야 한다. 즉, 스펙트럼(동시 통합 또는 체제화)의 차원과, 시간(시간 그룹화 또는 시퀀스 통합)의 차원이다. 스펙트럼 통합 또는 융합이라고도 불리는 전자(前者)의 차원은 복합 스펙트럼의 동시 성분을 각각이 단일의 음원으로부터 생기는 그룹들로 체제화하는 것에 관한 것이고, 후자의 차원(시간 그룹화 또는 시퀀스 체제화)은 시간적으로 그들 성분을 따르고, 다시 각각이 단일의 음원으로부터 생기는 지각 스트림(stream)으로 그룹화한다. 시간의 경과와 함께 정확한 주파수 성분 세트를 모으는 것만으로, 상이한 동시 신호의 정체를 확인할 수 있다.
그룹화의 원시적 과정은, 과거의 학습 및 경험과 함께 주의를 고려함으로써 고차의 프로세스와 연계되는, 스키마에 기초한 체제화와 협동힌다. 원시적 분리는 과거의 학습도 자발적 주의도 사용하지 않는다. 그것이 생성하는 관계는 음향 상황의 광범위한 클래스에 유효한 실마리로 되는 경향이 있다. 대조적으로, 스키마는 특정 음 클래스와 관련된다. 이들은 특정의 학습된 지식을 사용하여 선천적인 발견적 방법에 통합되는 일반적 지식을 보충한다.
그룹화
다수의 청각 현상은 음을 청각 스트림으로 그룹화하는 것과 관련되고, 특히 음성 지각, 음 시퀀스의 차원 및 다른 시간적 특성의 지각, 양쪽 귀로부터의 증거의 조합, 다른 음에 삽입된 패턴의 검출, 음(예를 들어, 음악)의 동시에 존재하는 "층들"의 지각, 방해 소음을 통한 음의 지각 연속성, 지각된 음색 및 리듬, 음조 시퀀스의 지각과 관련된 것을 포함한다.
스펙트럼 통합은 혼합음에 동시에 존재하는 성분들을 이들이 동일 음원으로부터 생기는 것으로 취급되도록 그룹화하는 것과 관련된다. 청각계는 우연히 일어난 것으로 생각되지 않는 스펙트럼의 부분들 중에서 상관성 또는 일치성을 찾는다. 동시 성분들 사이의 어떤 유형의 관계가 이들을 그룹화하기 위한 실마리로서 사용될 수 있다. 이러한 그룹화의 효과는 음의 높이, 음색, 음의 크기, 공간적 기원과 같은 요인에 관한 포괄적 분석을 동일 환경 상황으로부터 오는 한 세트의 감각 증거에 대해 실행할 수 있게 한다.
청각 입력의 시퀀스의 그룹화를 조장하는 요인들 중 많은 것은 연속한 음의 유사성 및 연속성을 규정하는 특징들이다. 이들은 기본 주파수, 시간적 근접, 스펙트럼 형상, 강도 및 명백한 공간적 기원을 포함한다. 이들 특징은 정경 분석의 연속한 양태, 다시 말하면, 음의 시간적 구조의 사용에 영향을 미친다.
일반적으로, 스트림 형성 프로세스는 근접에 의한 그룹화의 원리와 유사한 원리를 따르는 것으로 생각된다. 높은 음조는 다른 높은 음조와 시간적으로 충분히 근접하면 그것과 함께 그룹화되는 경향이 있다. 연속적인 음의 경우, 음의 불연속성, 특히 급격한 강도 상승에 민감하고, 그러한 불연속성이 일어날 때 유닛 경계를 생성하는 유닛 형성 프로세스가 있는 것으로 생각된다. 유닛은 상이한 시간 스케일로 일어날 수 있고, 보다 작은 유닛이 보다 큰 유닛에 끼워질 수 있다.
다수의 주파수 성분이 존재하는 복잡한 음조에서는, 청각계가, 음의 높이를 결정하기 위해, 음에 존재하는 화성(和聲)의 기본 주파수를 예측하기 때문에, 상황은 보다 복잡해 진다. 지각 그룹화는 기본 주파수의 차(음의 높이) 및/또는 음의 부분 음의 평균의 차(선명성)에 의해 영향을 받는다. 이들 모두는 지각 그룹화에 영향을 미치고, 그 효과는 부가적인 것이다.
순수한 음조는 복합 음조와는 상이한 스펙트럼 내용을 가지기 때문에, 2개의 음의 높이가 같아도 그들의 음조는 서로 상이한 그룹으로 분리되는 경향이 있다. 그러나, 다른 유형의 그룹화가 영향을 미칠 수 있다. 즉, 순수한 음조는 그것에 후속하는 복합 음조 전체와 그룹화되지 않고, 후자의 주파수 성분 중 하나와 그룹된다.
공간 위치는 음조의 시간적 그룹화에 영향을 미치는 다른 유효한 유사성일 수도 있다. 원시적 정경 분석은 공간의 동일 지점으로부터 도래하는 음을 그룹화하고, 다른 장소로부터 도래하는 음을 분리하는 경향이 있다. 주파수 분리, 속도, 및 공간적 분리가 조합하여 분리에 영향을 미친다. 공간적 차이는 음들 사이의 다른 차이들과 조합되면 분리에 가장 강한 영향을 미치는 것으로 생각된다.
혼란시키는 음이 수평 면의 임의의 방향으로부터 도래할 수도 있는 복합 청각 환경에서는, 혼란시키는 음의 음원의 위치 추정을 혼란시키는 것이 특정 스트림의 정체를 약화시킬 수 있으므로, 위치 추정은 매우 중요한 것으로 간주된다.
음색은 음조들의 유사성 및 스트림으로의 음조의 그룹화에 영향을 미치는 또 다른 요인이다. 곤란한 것은, 음색이 음의 단순한 1차원의 특성이 아니라는 것이다. 그러나, 한가지 명확한 차원은 선명성이다. 선명한 음조는 그의 고주파수 쪽에 집중되는 에너지가, 선명하지 않은 음조보다 많은데, 그 이유는, 모든 주파수 성분이 그들 음의 크기에 따라 가중되는 경우에 얻어지는 평균 주파수에 의해 선명성이 측정되기 때문이다. 같은 선명성을 가지는 음은 같은 스트림에 할당되는 경향이 있다. 음색은 2가지 방법으로 변경될 수 있는 음질이다. 즉, 한가지는 합성 음 성분을 기존의 성분과 용합하여 되는 혼합음에 부여하는 방법이고, 다른 하나는 그룹화되는 양호한 성분을 제공함으로써 혼합음으로부터 성분을 포착하는 방법이다.
일반적으로 말하면, 음의 스펙트럼에서의 피크(peak)와 골(valley)의 패턴은 그들의 그룹화에 영향을 준다. 그러나, 2개의 음조가 정확히 같은 주파수에서 피크로 되는 화성(和聲)을 가지는 경우와, 대응하는 화성이 비례한 강도의 것인 경우(제2 음조의 기본 주파수가 제1 음조의 것의 2배이면, 스펙트럼의 모든 피크는 주파수의 2배가 된다). 2가지 타입의 스펙트럼을 유사성이 있다. 입수 가능한 증거는, 연속한 음조들을 그룹화하기 위해 청각 정경 분석에 두가지 형태의 스펙트럼 유사성이 사용된다는 것을 보여준다.
연속 음은 단일 스트림으로서 불연속 음보다 더 양호한 상태를 유지하는 것으로 간주된다. 이것은, 음향 연속성을 보여주는 임의의 시퀀스가 하나의 환경 상황으로부터 일어난 것임을 청각계가 추정하는 경향이 있기 때문에 일어난다.
상이한 요인들 사이에서 경합하면, 상이한 체제화가 야기된다. 즉, 주파수 근접이 경합하고, 청각계가 서로 가장 우사점을 가진 요소들을 그룹화함으로써 스트림을 형성하는 것으로 생각된다. 경합 때문에, 그룹화하기 위한 양호한 음을 줌으로써 연속 그룹화으로부터 요소가 포착될 수 있다.
경합은 또한, 그룹화에 호의를 보이는 상이한 요소들 사이에서 발생한다. 예를 들어, 4개의 음조 시퀀스 ABXY에서, 기본 주파수의 유사성이 그룹화 AB 및 XY를 선호하는 한편 스펙트럼 피크의 유사성이 그룹화 AX 및 BY를 선호하면, 실제의 그룹화는 그들 차이의 상대적 크기에 의존하게 된다.
또한, 경합 뿐만 아니라 협조도 존재한다. 다수의 요인이 모두 동일한 방법으로 음의 그룹화에 호의를 보이면, 그룹화는 매우 강한 것으로 되고, 음은 항상 동일 스트림의 일부로서 들리게 된다. 협조 및 경합 프로세스는 개념화하기가 쉽다. 그것은 각 음향 차원이 그룹화에 찬성 투표하는 것과 같고, 투표수는 그 차원과의 유사성의 정도 및 그 차원의 중요도에 의해 결정된다. 그 다음, 대부분의 투표에 의해 요소가 그룹화된 스트림이 형성된다. 그러한 투표 시스템은 자연 환경을 평가하는데 가치가 있고, 자연 환경에서는, 하나 또는 두가지 방법에서 서로 닮은 음이 항상 동일한 음원으로부터 생기는 것이 보장되지 않는다.
스키마
정경 분석의 원시적 프로세스는 감각 증거 중에서 기본 그룹화를 확립하는 것으로 고려되기 때문에, 최종적으로 감지되는 음의 수 및 음질은 이들 그룹화에 의거한다. 이들 그룹화는, 대부분의 음이 연속성이 있고, 위치를 서서히 변경하고, 함께 개시 및 종료하는 성분을 가지는 경향이 있다는 것과 같은, 음향 세계의 매우 일정한 특성을 이용하는 법칙에 의거한다, 그러나, 청각적 체제화는 거기서 끝나면 완전하지 않다. 청취자의 경험은, 음성, 음악, 동물 소리, 기계 잡음, 및 우리 환경에 있는 다른 친숙한 소리와 같은 특정의 신호 클래스의 보다 더 깊은 지식에 의해서도 구조화된다.
이 지식은 스키마라고 불리는 정신 제어의 단위로 포착된다. 각각의 스키마는 우리 환경에 있는 특정의 규칙성에 관한 정보를 포합한다. 규칙성은 상이한 레벨의 사이즈 및 시간 간격으로 일어날 수 있다. 따라서, 우리의 언어 지식에서, 우리는 음 "a"에 대한 하나의 스키마, 단어 "apple"에 대한 하나의 스키마, 수동문의 문법 구조에 대한 하나의 스키마, 대화에서 주고 받는 패턴에 대한 하나의 스키마 등을 가진다.
스키마는, 도래하는 감각 데이터 중에서, 처리하는 특정의 데이터를 검출하면 활성화 상태로 된다고 생각된다. 증거의 일부가 존재하고, 스키마가 활성화되면, 스키마가 구하는 패턴의 많은 것이 시간 경과와 함께 연장하기 때문에, 나머지 패턴에 대하여 지각 프로세스를 준비할 수 있다. 이 프로세스는, 청각 감지, 특히 음성과 같은 복합 또는 반복되는 신호에 대하여 매우 중요하다. 그룹화된 음에 의미를 부여하는 과정에서, 스키마는 뇌 내에서의 중요한 처리 능력을 차지한다. 이것은 개입하는 음성의 혼란시키는 강도에 대한 한가지 설명이 될 수 있고, 이 경우, 입사 신호를 처리하기 위해 스키마가 자발적으로 활성화된다. 그들 스키마의 활성화를, 그들을 활성화시키는 원시적 그룹화에 영향을 주는 것에 의해, 또는 뇌에 대한 "계산적 부담"이 적은 다른 경합 스키마를 활성화시키는 것에 의해 제한함으로써, 혼란이 저감된다.
원시적 그룹화 프로세스가 지각 그룹화에 책임을 지지 않는 것을 보이는 경우가 있다. 이들 경우, 스키마는 원시적 분석에 의해 세분화되지 않은 증거를 선택한다. 또한, 다른 능력, 예를 들어, 원시적 프로세스에 의해 이미 그룹화된 증거를 재그룹화하는 능력을 나타내는 예도 있다.
우리의 자발적 주의도 마찬가지로 스키마를 사용한다. 예를 들어, 우리가 리스트에 있는 많은 다른 이름 중에서 자신의 이름이 불려지는 것을 주의깊게 들을 때, 우리는 자신의 이름에 대한 스키마를 사용하다. 들리고 있는 것이 스키마의 일부이기 때문에, 주의가 기울어질 때마다, 스키마가 관여한다.
종래 기술
인간 청각계가 주위 환경에 밀접하게 동조되고, 원치않는 음 또는 소음이 지금까지 오랜 동안 산업 환경, 사무실 환경 및 가정 환경에서 주요한 문제로서 인식되어 왔다는 것이 상기한 것으로부터 이해될 것이다. 재료 기술의 진보로 인해, 몇 가지 해결책이 제공되어 왔다. 그러나, 이들 해결책은 모두 동일한 방법으로 문제를 다루어 왔다. 즉 제어된 공간에서 소음 레벨을 감소시키거나 마스킹함으로써 음 환경을 개선시켰다.
종래의 마스킹 시스템은 일반적으로, 우세한 배경 음의 레벨을 올림으로써 환경 내의 혼란 음 신호의 신호 대 잡음비를 감소시키는 것에 의존한다. 주파수 크기와 진폭 모두의 일정 성분이 환경에 도입되어, 음성과 같은 신호의 피크가 낮은 신호 대 잡음비를 발생하도록 한다. 사용자 허용도에 의해 규정되는 그러한 착실한 기여의 진폭 레벨에는 제한이 있다. 즉, 보다 높은 개입 음성 신호에서도 마스크하는 소음의 레벨은 연장된 기간에는 견딜수 없게 될 것이다. 또한, 이 성분은 대부분의 가능성 있는 혼란 음을 스펙트럼적으로 커버하기에 충분히 넓을 필요가 있다.
이러한 비교적 유연성이 없는 방식은 소음 혼란이 관련하는 한 공간 및/또는 시스템 설계에 있어서의 주요한 지침으로서 이제까지 간주되어 왔다.
본 발명은 환경을 음향학적으로 개선하기 위한 보다 유연성 있는 장치 및 방법을 제공하고자 하는 것이다.
넓은 의미에서, 본 발명은, 음향 에너지를 수신하고 그 음향 에너지를 전기 신호로 변환하는 수단, 상기 전기 신호의 분석을 실행하고 데이터 분석 신호를 발생하는 수단, 상기 데이터 분석 신호에 응답하여, 음을 나타내는 음 신호를 발생하는 수단, 및 상기 음 신호를 음으로 변환하는 출력 수단을 포함하는 전자식 음 차단 시스템을 제공한다.
음은 인간 뇌에 의해 유쾌한 음 또는 불쾌한 음, 즉, 원하는 음 또는 원치않는 음으로 해석된다. 간단히 하기 위해, 이하, 원치않는 음을 "소음"(noise)이라 한다.
더 상세하게는, 본 발명은, 소음에 다양하게 의존하는 출력에 의해, 그러한 소음의 효과적인 전달을 저지 및/또는 금지할 수 있는 반응 시스템을 제공하기 위해, 상기한 인간 청각계의 원리에 의거한 전자 프로세스 및/또는 회로를 유리하게 사용한다.
분석을 실행하고 음 신호를 발생하는 수단은 마이크로프로세서 또는 디지털 신호 프로세서(DSP)를 포함할 수 있다. 테스크탑 또는 랩탑 컴퓨터가 사용될 수도 있다. 어느 경우에도, 감지된 소음에 대한 장치의 응답을 규정하기 위해 알고리즘을 사용하는 것이 바람직하다. 음 발생은 프로세서 또는 컴퓨터 칩 내에 포함되는 그러한 알고리즘에 의거하는 것이 바람직하다.
이 알고리즘은 보다 쾌적한 음 환경을 만들기 위해 주위 소음의 분석을 실행하는 것을 기본으로 하여 작용하는 것이 바람직하다. 이 알고리즘은 주위 소음의 구성요소를 분석하고, 이 분석 결과를 사용하여 음조 시퀀스(tonal sequence)를 나타내는 출력을 발생하여, 쾌적한 음 환경을 만든다.
음/소음 환경이 다른 여러 상황/장소에서 여러 실험적 사례 연구를 행하였다. 디지털 녹음을 행한 후, 다른 장소에서 음 신호를 재생하였다. 또한, 음 신호는 스펙트로그램(spectrogram)으로 분석되고, 그 결과를, 음악 및 자연 음의 녹음의 스펙트로그램과 비교하였다. 그 다음, 데이터를 분석함으로써, 알고리즘에 포함되는 설계 기준을 얻었다. 알고리즘은 들어오는 소음을 실시간으로 분석함으로써 음 신호를 조정하고, 상이한 환경, 활동 또는 감각적 선호도에 부합하도록 사용자에 의해 조정될 수 있는 음 출력을 발생시키는 것이 바람직하다.
장치는 유연한 커튼 형태의 칸막이 장치를 구비할 수도 있다. 그러나, 그러한 칸막이 장치는 단단한 것이어도 좋다는 것이 이해될 것이다. 이 커튼은 영국 특허출원 제9927131.4 및 국제 특허출원 제PCT/GB00/02360호에 기재된 것과 같은 것일 수도 있다. 이들 출원의 내용이 본원 명세서에 참조로서 포함된다.
본 발명의 전자식 음 차단 시스템은 소음을 분석하여 비(非)방해 음을 발생시킴으로써 쾌적한 음 환경을 제공한다.
이하에서 설명되는 바와 같은 바람직한 실시형태에서의 칸막이 장치는, 수동 소자 및 능동 소자가 결합된 단정한 직물로서 보일 수 있다. 수동 소자는 소음 레벨을 수 dB만큼 낮추는 흡음기로서 작용한다. 능동 소자는 나머지 소음에 의거하여 쾌적한 음을 발생시킨다. 후자는 전자식 시스템을 사용하여 원래의 소음 신호를 녹음하여 처리함으로써 달성된다. 그 후, 생성된 음 신호는 칸막이 장치에 연결된 스피커를 통해 재생될 수 있다.
바람직한 실시형태에서, 알고리즘은 인간의 청각지각계에 맞추어 모델화된다.
특히, 인간의 청각지각의 상기한 구조에 따르면, 본 발명의 전자식 음 시스템은 마스커(masker)와 음조 엔진(tonal engine)을 포함하는 것이 바람직하다. 이 마스커는 감지된 소음의 스펙트럼의 일정 부분을 들리지 않게 함으로써 인간 청각계의 생리적 프로세스에 간섭하도록 설계된다.
음조 엔진은, 청각 스트림 격리 또는 분리를 사용하고 기억 및 지식의 스키마(schema)와 잠재적으로 상호작용하는 음의 지각적 체제화와 간섭하도록 설계된다. 따라서, 한 레벨에서는, 음조 엔진은 "혼란시키는" 정보를 주위 음에 부가하고, 기존의 큐(cue)와 함께 그룹화하여 새로운 청각 스트림(stream)을 형성하는 것을 목표로 하고, 다른 레벨에서는, 관여하는 청취자에게 바람직한 음 신호를 제공함으로써, 원치않는 신호로부터 멀리 주위를 돌리도록 하는 것을 목표로 한다.
마스커와 음조 엔진 모두의 경우, 청취자가 제어를 행함으로써 특정 선호도에 따라 어떤 기본 특징을 변경할 수 있도록 제어 입력이 제공되는 것이 바람직하다.
몇몇 바람직한 실시형태에서는, 예를 들어, 마스커의 출력이 보다 우수한 음악 품질을 가지도록 선택되는 경우, 마스커는 스키마를 이용할 수도 있다. 따라서, 음 성분은, 예를 들어, 랜덤한 매끄러운 선율이 음소를 마스크하거나 변경시키는 경우 그룹화의 원시적인 프로세스와 간섭한다.
전자식 음향 시스템의 마스킹 성분의 동작 원리는, 감지된 소음의 스펙트럼의 크기에 대하여 출력의 스펙트럼 크기 및 진폭 레벨을 자동 조절하는 것에 의존하는 것이 바람직하다. 보다 상세하게는, 마스커는 감지된 소음의 현저한 주파수를 추적하고, 마스킹된 신호와의 최적의 주파수 및 진폭 관계를 가지는 주파수에 마스킹 신호를 할당한다. 이것은, 임계 대역을 초과하는 마스킹의 확산도 고려되는 경우 소음으로부터의 음 및 음으로부터의 소음의 동시 마스킹에 적응 가능한 분석 표현에 의거하여 계산된다.
이 실시간 조절 시스템은, 마스커 출력이 에너지 요구를 최소로 하면서 음향 혼란을 구성하는 현저한 주파수를 효율적으로 마스크하는 것을 가능하게 한다.
적어도 아래에 설명하는 바람직한 형태에서의 본 발명의 이점은, 마스커가 최대 활동 시에 종래의 시스템에 의해 통상 제공되는 것보다 현저히 높은 순간 진폭 레벨에 도달할 수 있고, 역으로, 거의 활동하지 않을 때는, 기여율이 떨어질 수 있으나, 여전히 충분히 낮은 신호 대 잡음비를 확보할 수 있다는 것이다.
또한, 설명된 실시형태들에서의 마스커 음은 음악 구조를 포함하고, 이것에 의해, 마스커 음에 대한 사용자 허용 레벨이 더욱 증가한다. 마스커의 출력은, 충분히 입증된 마스킹 원리를 기본으로 하여 정확한 주파수 및 진폭이 추적된 현저한 주파수를 마스킹하도록 조정된 일련의 음(note)으로서 음조 엔진으로부터의 제시된 코드 기음(基音)에 조립되는 것이 바람직하다.
마스커는 가상적으로 안정된 음 환경 또는 매우 반응성이 있는 환경을 제공하도록 조정될 수 있다. 후자는, 마스커가 매우 많은 수의 현저한 주파수를 추적하도록 설정되고 그의 출력을 코드 기음에 조립하지 않은 때 달성될 수 있다. 이 경우, 모든 음성 신호를 효율적으로 마스킹할 수 있는 출력이 달성될 수 있다.
바람직한 실시형태에서의 여러 사용자 설정에 의해, 청취자가 자신의 특정 선호도 및 취향에 맞추어 시스템을 조정할 수 있다. 이들 설정은, 예를 들어, 최소 및 최대 진폭 레벨, 입력의 급격한 증대에 대한 출력의 감수성, 마스커 음(바람, 바다 또는 오르간)의 특색 등을 포함할 수도 있다.
그리고, 이들 사용자 설정은, 필요에 따라, 언제라도 후속 재이용을 위해 포착될 수 있다.
음조 엔진은 청각 스트림 격리 또는 분리를 이용하는 보다 고차의 프로세서와 간섭하고 기억 및 지식의 스키마와 상호작용하도록 설계된 출력을 제공하도록 배치되는 것이 바람직하다.
아래에 설명되는 바람직한 실시형태에서, 음조 엔진 출력은 상이한 목적에 사용되는 여러 가지, 예를 들어, 8개의 상이한 "음성", 즉, 음조 시퀀스의 선택적 혼합을 포함한다.
이들 다수, 예를 들어, 2개가 페이스(pace) 및 리듬을 음 환경에 도입하기 위해 사용되는 것이 바람직하다. 이들 음조 시퀀스는 음 환경에 현저한 청각 큐와는 명백히 별개의 청각 큐를 발생하도록 설계되어 있다. 바람직하게는, 이들 음조 시퀀스는 감지된 음에 응답하지 않지만, 화성 특징의 설정에 의해 사용자 선호도에 직접 응답한다.
음조 시퀀스의 다른 서브세트(subset), 예를 들어, 2개는 감지된 입력 및 출력 음에 응답하고, 청각 피질에서의 대상 형성 프로세스에 간섭하도록 설계되는 것이 바람직하다. 이들 음조 시퀀스는 두 가지 방식으로 사용될 수 있다.
첫째로, 이들 음조 시퀀스는 현저한 음향 스트림, 통상, 음성과 같은 풍부한 정보 내용이 시간 경과에 따라 변화하는 스트림과 그룹화되도록 조정될 수 있다. 이렇게 하여, 정보 내용이 적거나, 또는 혼란이 적게 지각되도록 음 정체가 보다 제어된 "새로운" 스트림이 생성될 수 있다.
그러한 음조 시퀀스는 명료성을 붕괴시키기 위해 음성과 같은 현저한 신호와 직접 상호작용할 수 있다. 복합 음 또는 이들 음의 성분과 그룹화할 수 있는 주파수 성분을 부가함으로써, 음조 시퀀스는 주파수 그룹화가 불완전하도록 원시적 그룹화 프로세스와 간섭할 수도 있다. 이것에 의해, 인지 가능하지 않은 음(예를 들어, 음성이 타깃 스트림인 경우) 또는 덜 자극적인 음(예를 들어, 개개의 혼란 음의 경우)이 얻어진다.
본 발명에 따른 음 차단 시스템은 혼란 지각 신호 및 스트림에 영향을 미치고, 그러한 신호의 분리를 돕는 기구를 방해함으로써 이들의 명료성을 감소시킨다. 그러한 스트림의 강인성을 "약화"시킴으로써, 이들의 내용을 인식할 수 있는 정도가 낮게 되어 혼란이 적게 된다.
둘째로, 이들 음조 시퀀스는, 인식 가능하고 명확히 별개의 음향 스트림을 출력하도록 설계될 수 있고, 이 스트림은 감지된 소음 환경의 음향 스트림이 보다 현저하게 될 때 보다 두드러지게 되도록 설계된다. 이것은, 예를 들어, 청각 활동이 현저한 스펙트럼의 특정 부분에서 출력 스트림의 진폭을 감지된 소음의 진폭에 연결시킴으로써 달성될 수도 있다. 감지된 음의 활동이 증가하면, 음조 엔진의 출력 음 스트림도 보다 현저하게 되도록 배치되어, 주의를 다시 끌거나 또는 청취자가 그것에 지각적으로 연결된 상태를 유지할 수 있게 한다.
음조 시퀀스의 추가 서브세트, 예를 들어, 4개는 음향 환경에서의 현저한 음 상황에 의해 트리거되는 모티브 음성(motive voice)이다. 각 음조 시퀀스는, 단독으로 주의를 끌도록 시도하고 스키마 활성화를 수반하는 청각 큐로서 지각될 수 있다. 이 음조 출력은, 혼란 음 스트림과 혼합하고, 청취자의 주의가 잠재의식적으로 집중하는 별개의 청각 큐를 유지하도록 조정될 수 있다. 그러한 출력은 주의를 다시 끌기 위해 사용된다.
각 모티브 음성은 청각 스펙트럼의 상이한 주파수 대역의 음 스트림을 발생하도록 조정될 수 있고, 이 특정 대역에 있는 활동에 대하여 의사결정 프로세서에 의해 활성화된다. 의사결정 프로세스는 단순한 시간적 및 스펙트럼 모델링에 의존할 수도 있고, 이 모델링은 인간 청각계의 프로세스와 유사하지만, 그보다 훨씬 더 단순하다. 이 프로세스는 청각 세계의 음 상황을 음조 엔진의 음조 출력에 매핑시키는 것이 편리하다. 또한, 이것은, 주의를 혼란시키는 다른 소음원으로부터 음성을, 다른 음성으로부터 말하는 사람의 음성을, 문 닫는 소리로부터 전화 벨 소리를 구별하는 등을 행하기 위해 사용될 수 있는 질적 결정을 행하기 위한 복잡한 인공 지능 기술을 수반할 수도 있다.
이들 4개의 모티브 음성 또는 음조 시퀀스는 음 환경에 미적 제어, 취향 및 감정을 도입하기 위한 매우 고가의 도구이다. 사용자는 언제라도 자신의 필요성에 최량으로 응답하는 음 출력을 선택할 수 있고, 자신이 제어할 수 없는 환경에 있는 현저한, 일반적으로 불쾌한 음 상황을 자신이 선택한 쾌적한 음 상황과 연결시킴으로써 음향 환경을 제어할 수 있다.
따라서, 인간 청각 지각의 기구에 대한 연구에 의해, 혼란 음을 구성하지 않도록 본 발명에 따른 음조 시퀀스를 생성하기 위한 지침이 얻어진다.
또한, 본 발명에 따르면, 감지된 소음에 대한 분석 데이터의 사용 뿐만 아니라 출력의 음악적 구조에도 관계하는 상이한 파라미터들을 조정하기 위한 광범위에 걸친 인터페이스가 생성된다.
또한, 모티브 음성은, 사용자와 무관한 가청(可聽) 또는 비가청 환경과 사용자에 의해 지각되는 중간 음향 환경과의 사이에 충분한 인터페이스를 제공할 수도 있다. 별개의 음 상황의 트리거링(triggering)을 통해, 그것이 개시한 때, 사용자는 바로 근처의 환경 또는 떨어져 있는 환경에서의 변화를 알게 될 수 있고, 자신의 작업 프로세스 활동을 중단할 필요 없이 이것과 통신할 수 있다.
또한, 본 발명에 따른 음 차단 시스템은 현장에 설치된 로컬 스테이션에 의해 전송되는 파라미터를 수신하기 위해 RF(즉, 무선 주파수) 또는 다른 무선 접속을 구비할 수도 있다. 그러한 파라미터는 가청 또는 비가청 파라미터일 수 있다. 그리고, 이 시스템은 사용자 또는 사용자의 체제화에 중요한 것으로 간주되는 전송된 정보에 응답하도록 구성될 수 있다. 이 목적을 위해 시스템을 주문제작하도록 소프트웨어가 사용될 수도 있다.
본 발명에 따른 음 차단 시스템은 또한, 인터넷으로부터 정보를 수신하도록 배치될 수도 있다. 서비스 제공자는, 시스템(개인 또는 공동, 소규모 또는 대규모)의 거동에 영향을 미치도록 선택될 수 있는 여러 정보 파라미터를 포함하는 웹(web) 사이트의 호스트로 작용할 수 있다. 이들은 지리적 위치, 작업 환경에서의 작업 성질, 나이, 성격, 날짜(절대적 및 상대적, 즉, 평일, 주말, 휴일, 여름, 겨울), 날씨, 심지어는 주식시장 지수일 수도 있다. 사용자는 이들 파라미터 중, 자신이 시스템의 거동을 결정하기를 원하는 파라미터를 선택할 수 있고, 시스템의 거동에 이들 파라미터가 어떻게 매핑되는지를 규정할 수도 있다.
그 다음, 파라미터 세트가 시스템에 다운로드되고, 시스템의 응답을 결정하기 위해 로컬 스테이션으로부터 RF를 통하여 장치에 전송되거나 또는 인터넷으로부터 얻어질 수 있다.
본 발명에 따른 음 차단 시스템은 또한, 그의 응답에 영향을 미치는 파라미터(기청 및 비가청)를 실시간으로 감지하여, 사용자가 자신의 환경의 변화를 알 수 있게 하도록 배치될 수도 있다. 시스템의 응답을 규정하기 위해 환경으로부터 정보를 도출하기 위해 사용될 수 있는 센서 및/또는 데이터 제공자의 예에는, 시스템과 통신할 수 있고 그의 가청 거동을 규정할 수 있는 근접 센서, 압력 센서, 기압계 및 다른 감지 장치가 포함된다.
그러한 파라미터는 음 차단 시스템의 다른 상호작용 품질도 높이기 위해 사용될 수 있다. 예를 들어, 근접 위치에서 근접 센서를 사용함으로써, 시스템은 누군가가 서서히 접근할 때 점진적으로 조용하게 되도록 프로그램될 수 있다.
본 명세서에서 "프리세트"(preset)라는 용어는 본 발명에 따른 전자식 음 시스템의 거동을 규정하는 파라미터 세트를 나타내기 위해 사용된다. 따라서, 프리세트는 시스템의 거동을 규정하는 정보의 캐리어이다. 프리세트는 매우 다양한 방법으로 사용될 수 있다. 예를 들어, 프리세트는 어떤 음 출력을 통해 전송되는 무드(mood)까지도 결정할 수 있다.
사용자가 알고리즘의 전체 기능 및 조정에 액세스하고, 후에 사용될 수 있는 프리세트를 발생할 수 있게 하기 위해, 특별하게 설계된 소프트웨어가 시스템 PC로 다운로드될 수 있다. 시스템의 전문 지식을 가지는 청각분야 전문가에 의해 개발된 프리세트를 판매하기 위해, 웹 사이트가 설정될 수 있다. 프리세트를 다운로드하거나 교환하기 위한, 중앙 처리 유닛 또는 전자식 음 시스템의 제어기에의 접속이, 예를 들어, 무선(RF 또는 적외선) 또는 와이어 접속(USB 등)을 사용하거나 기존의 또는 주문 제작된 메모리 카드와 같은 주변기기를 사용하거는 많은 방법으로 확립될 수 있다.
특히, 시스템 PC로 또는 시스템 PC로부터 정보를 다운로드하기 위해 메모리 카드가 사용될 수 있다. 그러한 메모리 카드는, 메모리 카드용 리셉터(receptor)를 수용하고 부속품으로서 판매되는 장치(PC의 주변기기)를 통해 PC와 인터페이스될 수 있다. 메모리 카드는 프리세트의 물리적 표시로서 보여질 수 있다.
메모리 카드는 최대 제어와 제한된 제어 가능성 사이의 선택 범위를 제공하는 피드백 제어 링크를 제공할 수도 있다. 사용자는 상이한 레벨의 알고리즘을 제어하여 시스템에 프리세트를 생성할 뿐만 아니라 시스템의 응답에 이들 파라미터를 매핑하는 것도 규정할 수 있다. 최종적으로, 시스템의 거동 및 그의 제어는 메모리 카드를 통해 특별히 작성될 수 있다.
또한, 마스커를 완전히 생략하는 것도 가능하고, 따라서, 본 발명의 다른 양태는, 음 파라미터를 나타내는 제어 입력을 수신하는 수단, 그 제어 입력에 응답하여, 대응하는 제어 신호를 제공하는 수단, 그 제어 신호에 응답하여, 음조 시퀀스를 나타내는 음조 시퀀스 신호를 발생하는 다수의 음 생성기, 및 그 음조 시퀀스 신호를 음으로 변환하는 출력 수단을 포함하는 전자식 음 차단 시스템을 특징으로 한다.
삭제
삭제
삭제
삭제
삭제
본 발명은 다수의 응용을 가진다. 예를 들어, 본 발명은 능동형 소음 처리 시스템으로서, 상점, 사무실, 병원 또는 학교에서 사용될 수 있다.
이하, 첨부 도면을 참조하여 본 발명을 예로서 설명한다.
도 1은 본 발명의 동작을 설명하는 개략도.
도 2는 본 발명의 일 실시형태를 나타내는 개략도.
도 3은 본 발명에 따른 알고리즘을 실행하기 위한 도 1 또는 도 2의 신호 프로세서의 개략적 블록도.
도 4는 도 3의 프로세서의 해석기(interpreter)의 블록도.
도 5는 도 3의 프로세서의 마스킹(masking) 장치의 블록도.
도 6은 도 5의 마스킹 장치의 코드 선택 기구의 블록도.
도 7(A)∼도 7(C)는 도 5의 마스킹 장치의 동작을 나타내는 신호도.
도 8은 도 3의 프로세서의 음조 엔진의 매핑(mapping) 장치의 블록도.
도 9 및 도 10은 도 8의 매핑 장치의 음 활성화 및 음 제어 장치를 각각 나타내는 블록도.
도 11은 도 3의 프로세서의 음조 엔진의 조화 음 생성기의 블록도.
도 12 및 도 13은 도 11의 조화 음 생성기의 보다 상세한 블록도.
도 14는 도 5의 마스킹 장치에 제어 함수를 입력하기 위한 PC 스크린상의 사용자 조정 가능한 디스플레이를 나타내는 도면.
도 15는 도 8의 매핑 장치에 제어 함수를 입력하기 위한 사용자 조정 가능한 디스플레이를 나타내는 도면.
도 16∼도 18은 도 11의 조화 음 생성기에 제어 함수를 입력하기 위한 사용자 조정 가능한 디스플레이를 나타내는 도면.
도 19 및 도 20은 도 3의 신호 프로세서의 실시형태를 나타내는 블록도.
도 21은 도 19 및 도 20의 프로세서에 사용하기 위한 바람직한 마이크로폰 장치를 나타내는 도면.
도 22는 도 19 및 도 20의 프로세서의 음향 에코 소거기(echo canceller)를 나타내는 도면.
도 23은 마스킹 기능을 나타내는 그래프.
먼저, 도 1을 참조하면, 환경을 음향적으로 개선하기 위한 장치가 개략적으로 도시되어 있고, 이 장치는 커튼(10) 형태의 칸막이 장치를 포함한다. 이 장치는 또한, 다수의 마이크로폰(12)을 포함하고, 이 마이크로폰은 커튼(10)으로부터 거리를 두고 배치되거나 또는 커튼(10)의 표면에 설치되거나 그 표면에 일체로 형성될 수도 있다. 마이크로폰(12)은 디지털 신호 프로세서(DSP)(14) 및 다수의 확성기(16)에 전기적으로 접속되어 있고, 이 확성기(16)도 커튼으로부터 거리를 두고 배치되거나 또는 커튼(10)의 표면에 설치되거나 그 표면에 일체로 형성될 수도 있다. 커튼(10)은 공기와 같은 음 전달 매체에 불연속성을 제공하고, 주로 흡음 장치로서 작용한다.
마이크로폰(12)은 주위 환경으로부터 주위 소음을 받고, 그러한 소음을 DSP(14)에 공급하기 위한 전기 신호로 변환한다. 그러한 소음을 나타내는 스펙트로그램(17)이 도 1에 나타내어져 있다. DSP(14)는, 먼저, 그러한 전기 신호의 분석을 실행하여 데이터 분석 신호를 발생시킨 후, 그러한 데이터 분석 신호에 응답하여 확성기(16)에 공급하기 위한 음 신호를 발생시키는 알고리즘을 사용한다. 그러한 음 신호를 나타내는 스펙트로그램(19)이 도 1에 나타내어져 있다. 확성기(16)로부터 나오는 음은 원래의 주위 소음의 분석에 의거한 음향 신호인 것이 바람직하고, 예를 들어, 그 소음으로부터 어떤 주파수가 선택되어, 쾌적한 음질을 가지는 음을 발생시킨다.
이하, 본 발명의 일 실시형태를 도 2∼도 18을 참조하여 설명한다. 도 2에 도시된 바와 같이, 이 실시형태에서는, 마이크로폰(12)과 확성기(16) 모두가 커튼(10) 자체에 설치되어 있다. 그 밖의 점에서는, 이 실시형태는 도 1과 관련하여 설명된 것과 같고, 동일한 부분에 동일한 참조번호가 부여되어 있다.
DSP(14)는 마이크로폰(12)으로부터 공급되는 전기 신호를 분석하고, 그 분석된 신호에 응답하여 확성기(16)를 구동하기 위한 음 신호를 발생하도록 작용한다. 이 목적을 위해, DSP(14)는 도 3∼도 18을 참조하여 이하에 설명하는 알고리즘을 사용한다.
도 3은 DSP(14)내의 프로세서의 개략 블록도이고, DSP(14)는 실질적으로, 각 블록이 알고리즘의 각 서브루틴 또는 다수의 서브루틴을 실행하는 3개의 블록을 포함한다. 더 구체적으로는, DSP(14)는, 마이크로폰(12)으로부터의 소음 신호를 입력으로서 수신하고 이들 신호의 특성을 분석하여 데이터 분석 신호를 출력으로서 발생하도록 된 해석기(interpreter)(20)를 포함한다. 이들 데이터 분석 신호는 한편으로는 마스킹(masking) 장치(22)에 공급되고, 다른 한편으로는 음조 엔진(tonal engine)(24)에 공급된다. 마스킹 장치(22)는, 마스커(masker) 출력을 공급하기 위해 혼합되는 상이한 주파수의 한 세트의 관련된 음 신호를 발생함으로써 데이터 분석 신호에 응답한다. 음조 엔진(24)은, 음조 시퀀스(tonal sequence) 신호를 출력으로 발생함으로써 데이터 분석 신호에 응답한다. 그 다음, 마스킹 장치(22) 및 음조 엔진(24)의 출력들이 혼합기(mixer)(26)에서 혼합되어, 확성기(16)에 공급하기 위한 출력 음 신호를 발생한다.
도 3에 도시된 바와 같이, 해석기(20)는 마이크로폰(12)으로부터 입력 신호를 수신하기 위한 고속 퓨리에(Fourier) 변환 프로세서(28)와, 그 고속 퓨리에 변환 프로세서(28)로부터의 출력에 응답하여 해석기(20)로부터의 출력을 위한 데이터 분석 신호를 발생하는 적분 장치(30)를 포함한다. 고속 퓨리에 변환 프로세서(28) 및 적분 장치(30)가 도 4에 더 상세히 도시되어 있다.
보다 상세하게는, 퓨리에 변환 프로세서(28)는, 입력 신호의 주파수 및 진폭을 검출하고 대응하는 주파수-진폭 데이터를 발생함으로써 마이크로폰(12)으로부터의 입력 신호에 응답하는 검출 회로(29)를 포함한다. 이들 신호는 한편으로는 가중되지 않은 퓨리에 변환 신호로서 직접 퓨리에 변환 프로세서(28)의 출력(28a)으로 송신된다. 이들 신호는 또한, 가중된 퓨리에 변환 신호를 퓨리에 변환 프로세서(28)의 다른 출력(28b)에 제공하도록 가중(weighting) 장치(32)를 통과한다. 가중 장치(32)는 인간 청각계의 비선형성을 고려하기 위해 입력 주파수를 조정하도록 설계되어 있다. 예를 들어, 가중 장치(32)는 각각의 청각 지각 모델에 가깝게 하기 위해 A-가중 또는 다른 기능을 사용할 수도 있다.
적분 장치(30)에서, 가중되지 않은 퓨리에 변환 신호는, 첫째로는 스펙트럼 적분기(34)를 통해 적분 장치(30)의 제1 출력(30a)으로 송신되고, 둘째로는 적분 장치(30)의 제2 출력(30b)으로 직접 송신된다. 스펙트럼 적분기(34)는 들어오는 퓨리에 변환 신호의 주파수 범위를 4개의 대역(A, B, C, D)으로 분할한 다음, 이들 4개의 대역 각각 내의 신호의 진폭을 평균화한다. 4개의 대역은 후에 설명되는 음조 엔진(24)으로부터의 출력에 의해 선택된다. 가중된 퓨리에 변환 신호는 적분 장치(30)에서 첫째로는 제3 출력(30c)으로 직접 송신되고, 둘째로는 시간 적분기(36)를 통해 제4 출력(30d)으로 송신된다. 시간 적분기(36)는 다수(N개)의 퓨리에 변환 시간 프레임을 구성하는 시간 창을 설정한 다음, 각각의 연속한 세트의 N개 시간 프레임 중에 수신된 퓨리에 변환 신호들을 평균화한다. 적분 장치(30)의 제1 및 제2 출력(30a, 30b)으로부터의 신호는 음조 엔진(24)에 공급되고, 제3 및 제4 출력(30c, 30d)으로부터의 신호는 마스킹 장치(22)에 공급된다.
도 5를 참조하면, 마스킹 장치(22)는 코드 선택 기구(38)를 특징으로 한다. 이 코드 선택 기구(38)가 도 6에 더 상세히 도시되어 있다. 이 코드 선택 기구(38)는 적분 장치(30)의 제4 출력(30d)으로부터 수신되는 시간 평균화된 신호를 모니터하고, 마스커 출력의 발생에서 사용하기 위한 최종 N개, 예를 들어, 100개의 시간 프레임의 시간 평균화된 신호에서 나타나는 S개, 예를 들어, 6개의 가장 현저한 주파수를 출력한다. 도 7(A)는 코드 선택 기구(38)에 의해 수신되는 시간 평균화된 신호의 일 예를 나타내고, 여기서, 6개의 가장 현저한 주파수가 검은색의 정사각형으로 나타내어져 있다. 그 다음, 리스트 A로 불리는 이들 6개의 가장 현저한 주파수는 리스트 B로 불리는 12개의 가능한 주파수와 선택 장치(40)에서 비교된다. 상기 12개의 가능한 주파수는, 후에 설명되는 음조 엔진(24)으로부터의 신호에 응답하여 발생되고, 예를 들어, 옥타브 기음(基音) 및 5도(度)에 대응한다. 도 7(B)는 리스트 A의 6개의 주파수에 대하여 리스트 B의 12개의 가능한 주파수를 백색 원으로 나타내고 있다. 선택 장치(40)는 추가 처리를 위한 중심 주파수로서, 리스트 A의 6개의 주파수에 가장 가깝게 대응하는 6개의 주파수를 리스트 B 중에서 선택하고, 이들 6개의 중심 주파수에 대응하는 출력 신호를 공급한다. 그 다음, 코드 선택 기구(38)는 6개의 중심 주파수와, 가중되지 않은 퓨리에 변환 신호로부터 결정된 대응하는 실시간 진폭 레벨을 정합하고, 6개의 중심 주파수의 리스트를 나타내는 신호를 제1 출력(38a)에서 발생시키고, 대응하는 진폭의 리스트를 나타내는 신호를 제2 출력(38b)에서 발생시킨다.
도 5를 다시 참조하면, 6개의 진폭의 리스트를 나타내는 신호는 사용자에 의해 설정되는 시간 프레임 기간에 걸쳐 6개의 진폭 각각에 대해 진폭 평균화를 실행하는 진폭 평균화기(averager)(42)에 공급된다. 이 진폭 평균화기(42)는 6개의 음조 생성기(tone generator)(44a∼44f)에 각각 공급하기 위한 6개의 출력을 발생시킨다. 이 음조 생성기(44a∼44f) 각각은 또한, 코드 선택 기구(38)에 의해 공급되는 6개의 중심 주파수를 나타내는 신호 각각을 입력으로서 수신한다.
음조 생성기들은 사용자에 의해 결정되는 제어 입력에 따라 각각의 중심 주파수 신호 및 대응하는 평균화된 진폭 신호를 각각 처리하여, 대응하는 출력을 발생한다. 이하의 것에 각각 대응하도록 각 음조 생성기로부터의 출력을 설정하는 4개의 가능한 제어 입력(45a∼45d)이 있다.
(i) 소음 대역(45a)
(ii) 소정 샘플에 의거한 음(45b)
(iii) 필터링된 소음(45c)
(iv) 음악적 음의 라이브러리(library)에 의해 생성된 음(45d)
사용자는 4개의 제어 입력(45a∼45d)으로부터 하나만을 선택하거나 4개의 제어 입력의 임의의 조합을 선택하여, 이것을 음조 생성기(44a∼44f) 모두에 부여한다. 여기서의 "소음"은, 랜덤하게 발생한 음을 의미한다는 것을 이해하여야 한다. 그 다음, 진폭 평균화기(42) 및 코드 선택 기구(38)로부터의 출력과 함께 사용자로부터의 제어 입력은 각 음조 생성기로부터의 출력을 결정한다. 도 7(C)는 소음 대역 및 필터링된 소음의 예를 나타내는 것과 함께, 필터링된 소음에 대한 제어 입력이 선택된 때의 음조 생성기들의 출력을 나타낸다. 샘플에 의거한 음이나 또는 음악적 음의 라이브러리에 의해 생성된 음의 경우, 신호 파형은 훨씬 더 복잡하다는 것이 이해될 것이다.
도 14는 DSP(14)의 스크린상에 얻어질 수 있는 디스플레이를 예로서 나타낸 것이고, 가능한 제어 입력(45a∼45d)이 도시되어 있고, 예를 들어, 마우스에 의해 선택되고 가변적으로 설정될 수 있다.
음조 생성기(44a∼44f) 모두로부터의 출력은 마스킹 장치(22)로부터 마스커 출력을 발생하기 위한 혼합기(46)에 공급된다.
도 3, 도 8, 도 11∼도 13 및 도 15∼도 18을 참조하면, 음조 엔진(24)은 해석기(20)의 제1 출력(30a)으로부터의 신호에 응답하여 제어 신호를 발생하는 매핑(mapping) 장치(48)와, 이 매핑 장치(48)로부터의 제어 신호에 응답하여 음조 엔진(24)으로부터의 출력을 공급하는 음조 시퀀스 생성기(50)를 포함한다. 매핑 장치(48)가 도 8에 더 상세히 도시되어 있고, 음조 시퀀스 생성기(50)가 도 11∼도 13에 더 상세히 도시되어 있다. 음조 시퀀스 생성기(50)에 대해 먼저 설명한다.
도 11에 도시된 바와 같이, 음조 시퀀스 생성기(50)는, 첫째로 사용자 입력(51a∼51d, 61a∼61d) 각각에 의존하고, 둘째로 매핑 장치(48)로부터 수신된 입력에 의존하여 음조 시퀀스를 나타내는 신호를 발생하기 위한 8개의 음성 생성기(voice generator)(52, 54, 56, 58, 60, 62, 64, 66)를 포함한다. 이 음성 생성기(52, 54)는 음악 코드 및 아르페지오(arpeggio)를 나타내는 신호들을 각각 발생하도록 되어 있다. 이들 음성 생성기는 사용자 입력(51a, 51b)에만 응답하고, 매핑 장치(48)로부터의 신호에는 응답하지 않는다. 음성 생성기(56, 58)도 음악 코드 및 아르페지오를 나타내는 신호들을 발생하도록 되어 있지만, 이 경우, 이들은 사용자 입력(51c, 51d)과 매핑 장치(48)로부터의 신호 모두에 응답한다. 음성 생성기(60, 62, 64, 66) 각각은 매핑 장치(48)로부터 수신된 입력에 의해 수정되는 사용자 입력(61a∼61d)에 따라 결정되는 음조의 시퀀스를 나타내는 신호들을 발생한다.
더 상세하게는, 사용자는 8개의 음성 생성기(52, 54, 56, 58, 60, 62, 64, 66) 모두에 입력을 인가하여, 예를 들어, 플루트 음인지 피아노 음인지의 음의 종류, 리듬 및 요구되는 음속을 결정한다. 사용자는 또한, 코드 및 아르페지오 음성 생성기(52, 54, 56, 58) 각각에 요구되는 음악 주음(主音) 및 화성(和聲) 진행을 결정하기 위한 프로그램 설정 회로(70, 72)를 위한 입력을 선택할 수 있다. 또한, 사용자는, 음성 생성기(60, 62) 각각에 요구되는 화성 진행 및 연속한 음의 선택에서의 전개 또는 제한을 결정하기 위한 입력 설정(74, 76)을 선택할 수 있다. 최종적으로, 사용자는, 입력 설정(74, 76)에 각각 대응하지만 음성 생성기(64, 66)를 제어하기 위한 입력 설정(78, 80)을 선택할 수 있다.
설정 회로(70, 72, 74, 76, 78, 80) 및 음성 생성기(52, 54, 56, 58, 60, 62, 64, 66)가 도 12 및 도 13에 추가로 나타내어져 있다. 도 12에 도시된 바와 같이, 먼저, 설정 회로(70, 72)를 참조하면, 이들 회로는 클록 회로(82)로부터 타이밍 신호를 수신한다. 화성 진행을 위한 설정 회로(72)는, 선택되는 경우, 음성이 어떤 피치 클래스(pitch class)에 머무는 비트(beat)의 최소 및 최대 지속시간을 나타내는 입력(73)을 수신하도록 되어 있다. 또한, 설정 회로(72)는, "화성 베이스(harmonic base)" 설정을 나타내는 확률 스케일 또는 테이블 형태의 사용자 입력(75)을 수신하도록 되어 있다. 이 설정 회로(72)는 이들 입력(73, 75)으로부터 다음과 같은 3개의 출력(72a, 72b, 72c)을 계산한다. 출력(72a)은 코드의 베이스의 피치 클래스를 나타내는 숫자 형태의 "gpresentchord"로 지정된 신호이다. 출력(72b)은 코드 선택을 초기화하는 "mchordchange"로 지정된 신호이다. 출력(72c)은 사용자 입력 주음에 의한 피치 클래스 오프셋을 나타내는 "gbasepitchclass"로 지정된 신호이다. 이들 3개의 신호 모두는 설정 회로(70)의 마스터 코드 선택 회로(70')에 공급되고, 신호 "gpresentchord"는 음성 생성기(52, 54, 56, 58) 각각에도 공급된다.
설정 회로(70)는 출력하기 위한 가능한 음의 리스트를 발생하기 위한 마스터 코드 선택 회로(70')와, 출력(70a)에서 제어 신호를 발생하기 위한 마스터 코드 처리 회로(70")를 포함한다. 마스터 코드 선택 회로(70')는, 이 마스터 코드 선택 회로를 활성화하기 위한 활성화 신호 형태의 사용자 입력(77)과, 전체 출력을 위한 가능한 음을 선택하는 기준을 제공하기 위한 확률 스케일 또는 테이블 형태의 입력(77b)을 수신하도록 되어 있다. 그리고, 마스터 코드 선택 회로(70')는 음조 엔진(50)에 의한 출력을 고려하기 위한 가능한 음의 리스트를 계산하고, 이들을 마스터 코드 처리 회로(70")에 공급한다. 이 마스터 코드 처리 회로(70")는, 예를 들어, 이 음의 조합 모두가 장조 또는 단조 중 하나에만 관련이 있는지를 결정함으로써 그 조합의 음악적 실현 가능성을 평가하고, 출력(70a)에서 이 음의 조합을 나타내는 신호를 공급하거나, 또는 고려되는 가능한 음의 새로운 리스트를 마스터 코드 선택 회로(70')가 발생할 수 있게 하도록 이 마스터 코드 선택 회로에 피드백 신호를 제공한다. 출력(70a)에서 마스터 코드 처리 회로(70")에 의해 공급되는 출력은 음성 생성기(52, 54, 56, 58) 모두에 공급되는 마스터 코드 설정을 나타내는 "mpresentchord"로 지정된 신호이다.
다음에, 도 13을 참조하면, 사용자 입력(51a∼51d)뿐만 아니라, 설정 회로(72)로부터의 입력 신호"gpresentchord"와, 설정 회로(70)로부터의 신호 "mpresentchord"를 나타내는, 음성 생성기(52, 54, 56, 58)에의 각종 입력이 나타나 있다. 또한, 음성 생성기(52, 54, 56, 58)는 사용자 입력 주음을 나타내는 신호 "gtonic"을 수신하고, 음성 생성기(56, 58)는 매핑 장치(48)로부터의 스케일링 입력 신호를 수신한다.
도 16 및 도 17은, DSP(14)의 스크린상에 얻어질 수 있는 디스플레이를 예로서 나타내고 있고, 가능한 사용자 입력(51a∼51d; 73, 75, 77a, 77b)이 도시되어 있고, 예를 들어, 마우스에 의해 선택되고 가변적으로 설정될 수 있다.
도 16은 이하와 같이, 사용자 입력(51a∼51d)을 표시하는 스크린 윈도를 나타낸다.
패턴(PATTERN): 사용할 패턴 유형을 선택. 이용 가능한 설정은 '매우 규칙적", '규칙적', "무질서', '상투적(常套的)' 및 "치밀'이다.
패턴 속도(PATTERN SPEED): 1 소절(小節)당의 음수인 패턴의 밀도(1 = 최소, 6 = 최대 밀도)를 결정.
최소 피치(MIN. PITCH): 출력되는 최소 피치를 선택.
지속시간 스케일(DURATION-SCALE)(0.1∼2.0): 음의 지속시간을 스케일링(2.0에서는 1.0에서의 음 길이의 2배인 음이 얻어진다. 1.0보다 큰 값의 경우, 후속 음과 중복한다. 가능한 값: 0.1∼2.0)
속도(VEL): MIDI 출력의 속도를 선택.
채널(CH): MIDI 출력의 채널을 선택.
뱅크(BANK): 사용할 음 합성장치(synthesizer)의 뱅크를 선택.
프로그램(PRG.): 사용할 프로그램을 선택.
도 16은 또한, 사용자 입력(73, 75, 77a, 77b)을 제공하기 위한 도 17에 도시된 스크린 윈도에 액세스하기 위한 선택 인디케이터(indicator)(71a, 71b)도 나타낸다. 도 17에 도시된 바와 같이, 최소/최대 사용자 설정(73)은, 선택되는 경우, 발생된 음성이 어떤 피치 클래스에 머무르게 하기 위한 가능한 지속시간(비트수)의 범위를 결정하는 수로서 설정될 수 있다. 설정(75)은 일련의 멀티-슬라이더로서 도시되어 있고, 이 슬라이더 각각에서, 확률 스케일(도시된 바와 같이, 1, 2b, 2 등)가 사용자에 의해 선택될 수 있다. 동일 높이의 바(bar)는 1, 2b 등 중 어느 하나의 선택을 위한 동일한 확률을 나타낸다. 설정(77a)은 미리 프로그램된 음 조합의 리스트(장 3화음(major-triad), 단 3화음, 장조, 단조, 5음 음계, 반음 등)로부터 음 출력 가능성을 선택하고, 설정(77b)은 다른 일련의 멀티-슬라이더를 포함하고, 이 슬라이더 각각에서, 사용자는 상기와 같은 확률 스케일(도시된 바와 같이, 1, 2b, 2 등)을 설정할 수 있다. 사용자는 설정(77a)과 설정(77b) 중 하나만을 선택한다.
다음에, 도 11, 도 13(A) 및 도 13(B)를 참조하여, 설정(74, 76, 78, 80), 사용자 입력(61a∼61d) 및 음성 생성기(60, 62, 64, 66) 각각의 회로 구성에 대하여 설명한다.
도 13(A) 및 도 13(B)에 도시된 바와 같이, 일반 목적의 화성(和聲)을 나타내는 설정(74, 78)과, 모티브 음성(motive voice) 파라미터를 나타내는 설정(76, 80)은, 사용자 입력(61a∼61d) 및 신호 "gtonic", 마스터 코드 처리 회로(70")로부터의 신호 "mpresentchord" 및 매핑 장치(48)로부터의 입력과 함께 음성 생성기(60, 62, 64, 66)에 공급된다.
음성 생성기(60, 62, 64, 66) 각각은, 설정(76, 80) 및 사용자 입력(61a∼61d)을 사용하여 멜로디 진행에 의거하여 음 제안을 생성하는 선형 진행(linear progression) 생성기(100)를 사용한다. 그 다음, 제안된 음을 나타내는 출력이 선형 진행 생성기(100)에 의해 화성(和聲) 필터(102)에 공급되고, 이 화성 필터(102)는 설정(74, 78)에 따라 음을 필터링할지 여부를 결정한다. 그렇치 않으면, 화성 필터는 출력을 스냅(snap) 기구(104)에 공급하고, 이 스냅 기구(104)는 특정 시퀀스의 최종 음을 공급하면 선형 진행 생성기(100)로부터의 신호에 의해 활성화되고, 신호 "mpresentchord"로 나타내어지는 마스터 코드에 음을 스냅함으로써 응답하여, 음악 조화성을 확보한다.
선형 진행 생성기(100) 및 화성 필터(102)를 제어하기 위한 설정이 도 16 및 도 18에 나타내어져 있다. 이들 도면은 DSP(14)의 스크린상에 얻어지는 디스플레이를 예시적으로 나타내고, 이 스크린상에, 가능한 사용자 입력(61a∼61d)이 표시되고. 예를 들어, 마우스에 의해 선택되고 가변적으로 설정될 수 있으며, 또한, 설정(76, 80)을 나타내는 일련의 입력(87)이 스크린 상의 윈도 설정(81)을 통해 액세스되고, 설정(74, 78)을 나타내는 다른 일련의 입력(83)이 스크린 상의 윈도 설정(85)을 통해 액세스된다. 도시된 바와 같이, 입력(87)은 일련의 멀티 슬라이더를 포함하고, 이 슬라이더에서, 사용자는 현재의 코드를 선택하기 위한 확률 스케일 또는 테이블을 설정할 수 있고, 각각의 입력(83)은 아래에서 나타내는 바와 같은 모티브 음성의 전개를 설정하기 위한 부가적인 멀티 슬라이더를 포함한다.
상기한 바와 같이, 각각의 선형 진행 생성기(100)는 확률 스케일(87)을 사용하여 멜로디 진행에 의거한 가능한 음에 대한 제안을 생성하고, 화성 필터(102)는 2 종류의 파라미터를 조절함으로써 사용자에 의해 설정되는 입력(83)에 의거한 가중된 음정(音程) 확률 설정을 사용하여 이 음을 재생할지 여부를 결정한다. 한편으로는, 사용자는 음정 확률 테이블(83a)(동일한 음에 머무르거나 보다 높은 여러 음조까지 이동하는 높거나 낮은 확률), 한 방향의 음정의 최대 수(83b), 연속한 작은 음정 수(83c), 연속한 큰 음정 수(83d), 및 모티브 음성 생성기에 의해 출력될 수 있는 임의의 일 방향의 음정의 최대 합(83e)을 규정한다. 다른 한편으로는, 사용자는 최소, 최대, 최초 및 중심 피치(83f)를 설정하고, 이렇게 하여, 음조 시퀀스의 주파수 범위를 규정한다. 제안된 음이 현재의 피치 클래스에 대한 일반 목적의 화성에 의해 사용 가능하면, 이 음은 모티브 음성 생성기에 의해 출력된다. 만일 그렇치 않으면, 다른 음이 제안된다.
도 16에 도시된 바와 같이, 모티브-음성을 위한 설정 파라미터를 포함하는 사용자 입력(61a∼61d)은 이하의 것을 포함할 수도 있다.
양자화 온/오프(QUANTIZE ON/OFF): 양자화가 각각의 모티브 음성의 활성화를 위한 도래하는 트리거를 리듬 그리드에 스냅하는지를 선택.
양자화 유닛(QUANT.UNIT): 제어 패널에서 템포 설정에 따라 양자화 그리드의 유닛을 선택.
사이클 지속시간(CYCLE-DUR): 모티브 음성의 페이드-인/페이드-아웃(fade-in/fade-out) 사이클의 지속시간을 초 단위로 설정. 페이드-인/페이드-아웃 사이클은 테이블 "voicecycle"에 포함된 포락선을 따름으로써 음성의 속도를 스케일한다. 테이블을 다시 드로잉함으로써, 페이드-인/페이드-아웃 사이클의 궤도가 변경될 수 있다.
사이클 온/오프(CYCLE ON/OFF): 모티브 음성의 사이클 함수를 활성화하고, 바활성화되면, 음성은 설정된 속도로 재생한다.
설정 개방(OPEN SETTINGS): 모티브 음성 생성기 A 및 B 또는 C 및 D 각각에 대한 모티브 음성 파라미터(76 또는 80)을 개방.
다음에, 도 18을 참조하여, 선형 음성 설정(87)(즉, 모티브 음성 파라미터) 및 디스플레이 특징(83a∼83f)에 대하여 설명한다.
일 열에 있는 크거나 작은 음정의 최대 수(MAXIMUM NUMBER OF BIG OR SMALL INTERVALS IN A ROW) [소 (디폴트 = 5, 대 (디폴트 = 2)]
이들 2개의 숫자는 선형 음성 멜로디에서의 음정 사이즈를 결정한다. 작은 음정이 재생되면, 후속하는 음정이 작은 것으로 될 가능성이 낮게 되고, 다음 음적이 큰 것으로 될 가능성이 높게 된다.
최대 4개까지의 모든 음정이 작은 음정으로 간주되는데 대하여, 그보다 큰 음정 모두가 큰 음정으로 간주된다.
일 방향에서의 음정의 최대 수(MAX NO OF INTERVALS IN ONE DIRECTION) : 큰 음정 및 작은 음정 설정과 마찬가지로 동작한다. 음정이 올라가면, 하향 음정이 생성되는 확률이 증가한다. 음정이 내려가면, 음정이 상승하는 확률이 증가한다. 다른 방향으로 진행하는 확률의 증감 속도는 일 방향에서의 음정의 최대 수에 의해 설정된다.
최초 피치(FIRST PITCH) : 음성의 최초 피치를 설정.
중심 피치(CENTER PITCH) : 음성의 중심 피치를 설정. 이것은 음성의 멜로디 중심이다.
최소 피치(MIN PITCH) : 이 임계치보다 낮은 음은 모두 1옥타브 상향으로 이조(移調)된다.
최대 피치(MAX PITCH) : 이 임계치보다 높은 음은 모두 1옥타브 하향으로 이조된다.
음정 확률(INTERVAL PROBABILITY) : 각 음정이 다른 것에 대하여 선택되는 확률을 설정.
이들 값은 가중된 확률에 의해 음조 출력에 영향을 미친다. 일부 값이 이 프로세스에 제한을 가하는 한편, 다른 것은 의사 결정 프로세스에 가중된 영향을 가진다. 전체 기구에 의해, 몇몇 제어된 특징을 가지지만 항상 변화하여 전개하는 음조 출력이 얻어진다.
다음에, 도 8을 참조하여, 매핑 장치(48)에 대하여 설명한다. 이 매핑 장치는, 먼저, 4개의 상이한 주파수 대역(A, B, C, D)의 평균화된 진폭 신호를 나타내는 적분기(20)의 제1 출력(30a)으로부터 신호를 수신한다. 이러한 신호는 승산기(82)에 공급되고, 이 승산기는 4개의 사용자 설정 승산 인자(41)를 이들 신호의 대응하는 에너지 레벨 또는 진폭에 인가하여, 4개의 조절된 대역 신호를 출력으로서 발생한다. 이러한 승산 인자는 상이한 소음 환경의 분석을 행한 후 전문가에 의해 미리 설정될 수도 있다. 이들 4개의 조절된 대역 신호는 활성화 장치(84) 및 패턴 인식 장치(86)에 각각 인가된다.
활성화 장치(84)가 도 9에 추가로 도시되어 있고, 일련의 비교기(88)를 포함하고 있다. 이들 비교기(80) 각각은 조절된 대역 신호의 진폭을 사용자에 의해 설정된 단일 임계 레벨(43)과 비교하도록 설정된다. 각 경우에서 임계 레벨(43)이 초과되자 마자, 각 비교기(88)는 음성 생성기(60, 62, 64, 66)중 관련된 하나의 생성기를 활성화하기 위한 트리거 신호를 출력한다. 이것에 의해, 4개의 모티브 음성이 생성될 수 있다. 모티브 음성 A는 대역 A와 관련되고, 모티브 음성 B, C, D는 각각 대역 B, C, D와 관련된다.
패턴 인식 장치(86)가 도 10에 추가로 도시되어 있고, 일련의 비교기(90)를 포함하고 있다. 이들 비교기(90) 각각은 4개의 사용자 설정 임계 레벨(47)을 규정한다. 대역 조절 신호가 비교기(90) 각각에 인가되고, 여기서 각 대역 조절 신호는 4개의 임계 레벨 각각과 비교된다. 일련의 4개의 타이머(92)가, 임계 레벨이 초과되는 각 경우에 대한 타이밍을 모니터하고, 기억장치(94)가 각 경우에 각 조절된 대역 신호를에 대하여, 초과된 임계 렙ㄹ 및 관련된 타이밍을 기억한다. 패턴 인식 장치(96)가 기억 장치(94)에 포함된 정보를 모니터하고, 그러한 정보를 처리하여, 음성 생성기(60, 62, 64, 66) 각각을 조절하는 4개 세트의 출력을 제공한다.
패턴 인식 장치(86)는, 어떤 주파수 대역에서 에너지 레벨 대 시간 패턴을 비교함으로써 소음 환경간을 구별하고 적절한 응답을 발생하도록 간단한 패턴 인식 기술에 의거하여 동작한다.
다시 도 8을 참조하면, 매핑 장치(48)는 또한, 해석기(20)의 출력(30c)으로부터 가중된 퓨리에 변환 신호를 수신하고, 이들을, 사용자에 의해 설정된 시간 프레임(49)의 기간에 걸쳐 평균화를 실행하기 위한 진폭 평균화 장치(98)에 인가한다. 이 진폭 평균화 장치(98)는 음성 생성기(56, 58)로부터의 신호를 진폭 조절하기 위해 음조 시퀀스 생성기(50)에 공급하기 위한 매핑 장치(48)의 출력으로서 진폭 평균화된 신호를 발생한다. 또한, 매핑 장치(48)는 적분 장치(30)에 설정된 4개의 상이한 주파수 대역을 결정하기 위한 적분 장치(30)에의 피드백으로서 패턴 인식 장치(96)의 매핑에 의거한 출력을 공급한다.
도 15는 DSP(14)의 스크린상에 얻어지는 디스플레이를 예시적으로 나타내고 있고, 이 스크린상에 가능한 입력(41∼47)이 표시되고, 예를 들어, 마우스에 의해 선택되고 가변적으로 설정될 수 있다.
상기한 바와 같이 조절되는 음성 생성기(52∼66)는 혼합기(26)에 공급하기 위한 음조 출력을 나타내는 신호를 발생한다. 마찬가지로, 음조 시퀀스 생성기(50)는 설정 회로(70)를 통하여, 마스킹 장치(22)의 코드 선택 기구에 출력하기 위한 코드 기음(基音) 신호를 발생하여, 상기한 리스트 B를 구성하는 12개의 가능한 주파수를 결정한다.
DSP(14)의 출력은 확성기(16)에 공급하기 위한 혼합기(26)로부터 출력된 음 신호를 구성한다. 이들 음 신호는, 입력 소음 및 사용자 입력에 의거하지만 귀를 즐겁게 하는 복합 음조 시퀀스를 나타낸다는 것이 이해될 것이다.
바람직한 실시형태에서, 음조 출력 각각과 마스커 출력을 위해 하나 이상의 스피커 장치가 제공된다. 예를 들어, 음조 출력에 대해 4개의 확성기가 사용되어, 음조 출력의 상이한 성분이 각각의 확성기로 보내질 수도 있다. 이 구성은 보다 풍부한 음 환경을 조성하는데 유용하다.
다음에, 도 19∼도 22를 참조하면, 도 3∼도 18을 참조하여 앞에서 설명한 디지털 신호 처리기의 실제 실시형태가 도시되어 있다. 동일한 부품에는 동일한 참조 부호가 부여되어 있고, 다른 점에 대해서만 설명한다.
도 19 및 도 20에 도시된 바와 같이, 이 경우, DSP(14)는 해석기(20)와 부분적으로 대응하는 디지털 신호 처리 유닛(120)과, 이하의 회로, 즉, 적분 장치(30), 마스킹 장치(22) 및 음조 엔진(24)을 포함하는 프로세서(122)를 포함한다. 디지털 신호 처리 유닛(120)은 마이크로폰(12)에 의해 픽업되는 음 환경의 정확한 스펙트럼 표시를 생성하도록 설계되고, 음향 에코 소거기(124)와, 내부 또는 외부 ROM 또는 EPROM을 구비한 고속 퓨리에 변환 프로세서(28)를 포함한다. 프로세서(122)는 상기한 바와 같은 알고리즘의 메인 서브루틴에 의해 규정되는 산술 연산을 실행하기 위한 마이크로프로세서 유닛을 포함한다. 이 목적을 위해, 프로세서(122)는 RAM(125) 및 ROM(126)을 사용하고, 이들은 내부에 있는 것일 수도 있고 또는 외부에 있는 것일 수도 있으나, 여기서는 외부에 있는 것으로 도시되어 있다. DSP(14)는 또한, 악기 디지털 인터페이스 유닛(MIDI)(130)과, 상기한 혼합기(26)도 포함한다. 예를 들어, 도 14∼도 18을 참조하여 앞에서 설명한 바와 같이, 사용자 입력을 제공하기 위해 DSP(14)에 제어기(132)가 접속되어 있다.
도 21을 참조하면, 마이크로폰(12)은 그들 각각이 음 환경의 소음원(136)과 상이한 방향 관계를 가지도록 어레이(array)(134)에 배치되어 있다. 이것에 의해, 시스템은 입력 소음 신호를 보다 정확하게 스펙트럼 분석하기 위해, 입력 소음이 도래하는 장소를 평가할 수 있음으로써, 이 시스템은 특정 장소에서 발생하는 소음에 대하여 선택적으로 응답할 수 있다.
도 22를 참조하여, 디지털 신호 처리 유닛(120)의 음향 에코 소거기(124)의 기능에 대하여 설명한다. 도시된 바와 같이, DSP(14)는 각 마이크로폰(12)으로부터 수신된 입력 신호에 의거하여 확성기(16)에 공급하기 위한 출력을 제공한다. 확성기(16)에 의해 발생된 음은, 예를 들어, 선 A 및/또는 선 B를 따라 마이크로폰(12)으로 반사될 수 있다. 이러한 음향 에코를 없애기 위해, 음향 에코 소거기(124)는 DSP(14)로부터 피드백 루프에 제공되고, DSP(14)로부터의 출력 신호는 확성기(16)로부터의 음향 에코의 효과를 없애기 위한 음향 에코 소거기(124)로 피드백된다.
MID1(130)는 음조 엔진(24)에 의해 출력된 신호를, 이들 신호가 혼합기(26)에 공급되기 전에 합성하도록 작용한다. MIDI(130)는 음 샘플의 라이브러리를 포함하는 ROM 및 RAM과, 확성기(16)에 공급하기 위한 음 신호를 발생하기 위한 합성 엔진을 포함한다. 더 상세하게는, MIDI(130)는 음조 출력으로부터 혼합기(26)에의 출력을 수신하도록 되어 있고, 마스킹 장치(22)는 혼합기(26)에 직접 접속된다.
마이크로폰 어레이(134), 음향 에코 소거기(124) 및 MIDI(130)는 모두 시판되고 있는 제품이다.
다음에, 도 19에 도시된 제어기(132)를 참조하면, 이것은 도 3∼도 15에 도시된 바와 같은 본 발명의 제1 실시형태와 관련하여 앞에서 설명된 사용자 설정을 입력하기 위해 사용될 수 있다. 그러나, 제어기(132)는 본 발명에 따른 전자 음 시스템의 거동을 규정하는 다른 파라미터 세트의 입력을 위해 사용될 수도 있다. 이들 파라미터 세트는 "프리세트(preset)"로 불리고, 이러한 프리세트는 인터넷 또는 웹(web)으로부터 모뎀 접속에 의해 또는 메모리 카드 또는 다른 소프트웨어 보유 장치 등의 주변 기기를 사용하여 제어기(132) 또는 DSP(14)로 다운로드될 수도 있다.
따라서, 도 19∼도 22에 도시된 본 발명의 실시형태는 실질적으로는 도 3∼도 18을 참조하여 개략적으로 설명된 바와 같이 동작한다.
상기한 DSP가 본 발명을 실시하기 위해 필요한 하드웨어의 관점에서 주로 설명되었다는 것이 이해될 것이다. 물론, 본 발명은 상기한 시퀀스로 기능들을 실행하기 위한 적절한 소프트웨어에 의해 실행될 수도 있다는 것이 이해될 것이다.
본 발명은 모듈 구조의 것으로 하여도 좋고, 이것은 업그레이드 가능성 및 호환 가능성의 관점에서 많은 이점이 있다. 하드웨어 및 소프트웨어 성분들의 매트릭스가 생성될 수 있고, 이들의 조합에 의해, 상이한 성능을 구비한 상이한 제품을 얻을 수 있다.
또한, 이하와 같은 다양한 변형도 가능하다.
예를 들어, 마이크로폰이 생략될 수도 있고, 또는 이들이 포함될 수 있지만, DSP(14)는 음조 시퀀스 발생 능력을 가지지 않을 수도 있다. 첫번째의 경우에는, 시스템은 감지된 소음에 응답하지 않고 그 대신 사용자 설정 또는 미리 프로그램된 프리세트에만 응답하여 마스커 음 및 음조 시퀀스를 발생하여, 풍부하고 자극적인 음 환경을 생성한다. 두번째의 경우에는, 시스템은, MIDI 칩셋이 없고 저능력 프로세서 및 저용량 RAM/ROM을 특징으로 할 수도 있는 저성능의 DSP(14)를 가질 수도 있다.
마찬가지로, 완전히 음조 엔진이 없거나 또는 덜 정교한 매핑 기구에 의존하는 최저한으로 필요한 것만을 가지는 상이한 알고리즘 버젼이 이용될 수 있는 여지가 있을 수도 있다. 이것은, 모든 알고리즘 서브루틴이 다양한 소프트웨어 모듈을 개별로 사용할 수 있게 하는 주요 구조와 관련되도록 설계된 알고리즘 소프트웨어용 모듈 설계를 가짐으로써 달성될 수도 있다.
시스템이 주위 소음/음 환경과의 상호작용 모드로 동작하기 위한 다른 가능성이 있다. 코드 선택 기구(38) 및 진폭 평균화 기구(42)를 위한 상이한 기능을 이용함으로써 마스커 출력의 변경을 통해, 또는 매핑 장치(48)로부터 음조 엔진(50), 특히 4개의 모티브 음성 생성기(60, 62, 64, 66)에 제어 데이터를 공급하기 위한 매핑 서브루틴 및 상이한 구성에서 상이한 설정을 이용함으로써 음조 엔진 출력의 변경을 통해 다양한 선택이 가능하다.
음조 출력에 의거한 그러한 상호작용 모델의 한가지 가능성은, 각각의 주파수 대역에 각각 할당되는 4개의 선형 음성 활성화를 특징으로 한다. 음성과 주파수 대역과의 사이에는 이중 관계가 있다. 즉, 각각의 음성은, 주파수 대역의 평균 에너지가 소정의 임계값에 들어가면 트리거되고, 그의 음조 출력은 주파수 대역의 활동과 동일한 주파수 범위 내에 있다. 이 모델은 감지된 입력에 따라 출력의 진폭의 동적 조절을 제공할 수 있다. 증가된 활동이 현저한 청각 큐(cue)에 응답하기 위한 기구(86)에 의해 감지되면, 모티브 음성의 어떤 특징(패턴, 패턴 속도)은 감지된 소음과 양호하게 상호작용하기 위해 변경된다. 최종적으로, 반응적인 음성의 모든 파라미터는 자동적으로 조정될 수 있다.
이 경우, 혼란을 구성하는 스펙트럼 폭이 넓게 될 수록, 이것과 상호작용하여야 하는 출력 스트림이 많아진다. 이 구성의 주요 목적은, 혼란 음이 그룹화되는 인접 주파수 성분을 제공함으로써 스펙트럼 통합을 달성하는 것이다. 또한, "우발적 마스킹"을 달성할 가능성을 증대시킬 수도 있다. 즉, 음조 출력이 음성 활동의 주파수 범위 내에 있으면, 동일 범위 내의 출력 음이 음성을 부분적으로 마스킹할 수 있다.
그러한 상호작용 모델의 또 다른 가능성은 동일한 주파수 대역에 모두 할당되는 4개의 선형 음성을 이용한다. 예를 들어, 이 모델은 대부분의 음성이 생기는 200 내지 4000 Hz 범위에 초점을 맞출 수 있다. 이 예에서는, 4개의 각각의 음성을 트리거하는 4개의 임계값이 존재한다. 선형 음성은, 각 임계값을 넘으면 차례로 연속하여 트리거되도록 배치된다.
스펙트럼 통합을 위해 음성들 중 2개가 사용될 수 있고, 주의를 끌기 위해서는 감지된 신호로부터 명확하게 분리된 2개가 사용될 수 있다.
이 경우, 감지된 소음 환경에 있는 에너지가 많을 수록, 청취자가 관여하는 다른 스트림을 제공하기 위해 음조 엔진이 생성하는 출력 스트림이 많아진다. 이 경우의 주요 목적은 "우발적 마스킹"을 달성할 가능성을 증대시키는 것이다. 즉, 음조 출력이 음성 활동의 주파수 범위 내에 있으면, 동일한 범위 내에 있는 출력 음은 음성을 부분적으로 마스킹할 수 있다. 다른 목적은 스키마의 트리거에 의존하고, 청취자가 소음 레벨/활동이 증가한 때를 추종하기 위한 충분한 큐가 항상 음 환경에 존재하도록 하는 것이다.

Claims (26)

  1. 환경 공간 내의 음을 조절하기 위한 전자식 음 차단 시스템으로서,
    환경 공간으로부터 주위 음을 나타내는 음향 에너지를 수신하고 그 음향 에너지를 전기 신호로 변환하는 수단;
    상기 음향 에너지의 주파수 및 진폭 특성을 검출하기 위해 상기 전기 신호의 분석을 실행하고, 대응하는 데이터 분석 신호를 발생하는 수단;
    상기 데이터 분석 신호를 수신하고 그 데이터 분석 신호에 의거하여 상기 전기 신호의 소정의 주파수 및 진폭 특성을 모니터하고, 음 제어 출력을 발생하는 수단;
    상기 음 제어 출력에 응답하여, 음을 나타내는 음 신호를 발생하고 상기 음 제어 출력에 따라 상기 음 신호를 조절하기 위한 음 생성 수단으로서, 상기 소정의 주파수 및 진폭 특성과 선택된 관계를 가지는 마스킹 음(masking sound)을 나타내는 마스킹 신호를 발생하기 위한 마스킹 장치와, 음조 시퀀스(tonal sequence)를 나타내는 음조 시퀀스 신호를 발새하기 위한 음조 엔진(tonal engine) 중 어느 하나 또는 모두를 포함하는 음 생성 수단; 및
    상기 음 신호를 음으로 변환하고, 그 음을 상기 환경 공간에 출력하는 출력 수단을 포함하고,
    상기 환경 공간 내의 주위 음 특성을 실시간으로 조절하는 것을 특징으로 하는 전자식 음 차단 시스템.
  2. 제 1 항에 있어서, 전기 신호의 분석을 실행하고, 대응하는 데이터 분석 신호를 발생하는 상기 수단은 퓨리에(Fourier) 변환 처리를 실행하도록 되어 있는 것을 특징으로 하는 전자식 음 차단 시스템.
  3. 제 1 항에 있어서, 상기 마스킹 장치는 입력된 음향 에너지에서의 혼란을 검출하도록 되어 있는 것을 특징으로 하는 전자식 음 차단 시스템.
  4. 제 1 항에 있어서, 상기 마스킹 장치는 출력되는 음 신호의 스펙트럼 내용과 진폭 레벨 중 어느 하나 또는 양쪽 모두를 조절하도록 되어 있는 것을 특징으로 하는 전자식 음 차단 시스템.
  5. 제 1 항에 있어서, 전기 신호의 소정의 주파수 및 진폭 특성을 모니터하고, 음 제어 출력을 발생하는 상기 수단은 입력 신호에서의 각각의 큐(cue)를 알아내기 위한 선택 장치를 포함하고, 상기 음 생성 수단은 상기 각각의 큐에 의거하여 상기 음 신호에 음 구조를 부여하도록 되어 있는 것을 특징으로 하는 전자식 음 차단 시스템.
  6. 삭제
  7. 제 5 항에 있어서, 상기 각각의 큐는 음 상황을 포함하는 것을 특징으로 하는 전자식 음 차단 시스템.
  8. 제 5 항에 있어서, 상기 음 생성 수단은 상기 각각의 큐에 의거하여 상기 음 신호에 음조(音調) 구조를 부여하도록 되어 있는 것을 특징으로 하는 전자식 음 차단 시스템.
  9. 삭제
  10. 제 1 항에 있어서, 상기 음조 엔진은, 상기 데이터 분석 신호에 응답하여, 패턴 인식을 실행하고, 상기 음조 시퀀스 신호를 제어하기 위한 대응하는 제어 신호를 발생하기 위한 매핑(mapping) 장치를 포함하는 것을 특징으로 하는 전자식 음 차단 시스템.
  11. 제 8 항에 있어서, 상기 음조 구조는 페이스(pace) 및 리듬 시퀀스를 포함하는 것을 특징으로 하는 전자식 음 차단 시스템.
  12. 제 8 항에 있어서, 상기 음조 구조는, 청각 응답의 스펙트럼과 시간 그룹화(temporal grouping) 중 어느 하나 또는 양쪽 모두를 나타내는 시퀀스를 포함하는 것을 특징으로 하는 전자식 음 차단 시스템.
  13. 제 8 항에 있어서, 상기 음조 구조는, 음의 화성(和聲) 진행, 코드 음(chord voice) 및 아르페지오 음(arpeggio voice) 중 하나를 나타내는 시퀀스를 포함하는 것을 특징으로 하는 전자식 음 차단 시스템.
  14. 제 8 항에 있어서, 상기 음조 구조는 확률 가중에 의거하여 결정되는 것을 특징으로 하는 전자식 음 차단 시스템.
  15. 제 14 항에 있어서, 상기 음조 구조는 선택된 확률 테이블로부터 결정되는 것을 특징으로 하는 전자식 음 차단 시스템.
  16. 제 1 항에 있어서, 음향 에너지를 수신하고 그 음향 에너지를 전기 신호로 변환하는 상기 수단은, 상기 음향 에너지의 방향성 입력을 나타내는 다수의 전기 신호를 발생하도록 배치된 마이크로폰을 가지는 마이크로폰 시스템을 포함하는 것을 특징으로 하는 전자식 음 차단 시스템.
  17. 제 1 항에 있어서, 제어 입력을 제공하기 위한 제어기를 더 포함하는 것을 특징으로 하는 전자식 음 차단 시스템.
  18. 제 17 항에 있어서, 상기 제어기는 수동으로 설정 가능한 사용자 입력에 응답하도록 된 것을 특징으로 하는 전자식 음 차단 시스템.
  19. 제 17 항에 있어서, 상기 제어기는 상기 제어 입력을 제공하기 위한 인터넷 접속, 모뎀, 무선 접속, 케이블 접속 및 메모리 장치 중 하나에 의해 수신되는 명령에 응답하도록 된 것을 특징으로 하는 전자식 음 차단 시스템.
  20. 제 17 항에 있어서, 상기 제어 입력을 기록하기 위한 메모리 저장장치를 더 포함하는 것을 특징으로 하는 전자식 음 차단 시스템.
  21. 제 1 항에 있어서, 제어 입력을 제공하기 위한 미리 프로그램된 메모리 장치를 더 포함하는 것을 특징으로 하는 전자식 음 차단 시스템.
  22. 제 1 항에 있어서, 상기 전자식 음 차단 시스템이,
    선택된 음 파라미터를 나타내는 제어 입력을 수신하는 수단과;
    상기 제어 입력에 응답하여, 그 제어 입력에 대응하는 제어 신호를 제공하는 수단을 더 포함하고,
    상기 음조 엔진은, 상기 선택된 음 파라미터에 의거하여 음조 시퀀스를 나타내는 음조 시퀀스 신호를 발생하기 위해 상기 제어 신호에 응답하는 다수의 음 생성기를 포함하는 것을 특징으로 하는 전자식 음 차단 시스템.
  23. 제 22 항에 있어서, 상기 제어 입력은 확률 함수도 또한 포함하고, 상기 음 생성기들은 확률 가중에 의거하여 상기 음조 시퀀스 신호를 발생하도록 되어 있는 것을 특징으로 하는 전자식 음 차단 시스템.
  24. 제 22 항에 있어서, 상기 음 차단 시스템의 사용자 설정을 가능하게 하는 수동 조정 가능한 입력 수단을 가지는, 상기 제어 입력을 제공하는 수단을 더 포함하는 것을 특징으로 하는 전자식 음 차단 시스템.
  25. 제 24 항에 있어서, 제어 입력을 제공하는 상기 수단은 메모리 장치를 포함하는 것을 특징으로 하는 전자식 음 차단 시스템.
  26. 삭제
KR1020037004096A 2000-09-21 2001-09-21 환경을 음향적으로 개선하기 위한 장치 KR100875720B1 (ko)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
GB0023207.4 2000-09-21
GBGB0023207.4A GB0023207D0 (en) 2000-09-21 2000-09-21 Apparatus for acoustically improving an environment
PCT/GB2001/004234 WO2002025631A1 (en) 2000-09-21 2001-09-21 Apparatus for acoustically improving an environment

Publications (2)

Publication Number Publication Date
KR20030059147A KR20030059147A (ko) 2003-07-07
KR100875720B1 true KR100875720B1 (ko) 2008-12-26

Family

ID=9899891

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020037004096A KR100875720B1 (ko) 2000-09-21 2001-09-21 환경을 음향적으로 개선하기 위한 장치

Country Status (14)

Country Link
US (1) US7181021B2 (ko)
EP (2) EP1319225B1 (ko)
JP (1) JP4771647B2 (ko)
KR (1) KR100875720B1 (ko)
CN (1) CN100392722C (ko)
AT (1) ATE477570T1 (ko)
AU (2) AU8791901A (ko)
BR (1) BR0114086A (ko)
CA (1) CA2422802A1 (ko)
DE (1) DE60142787D1 (ko)
GB (1) GB0023207D0 (ko)
HK (1) HK1085834A1 (ko)
MX (1) MXPA03002484A (ko)
WO (1) WO2002025631A1 (ko)

Families Citing this family (41)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20050254663A1 (en) 1999-11-16 2005-11-17 Andreas Raptopoulos Electronic sound screening system and method of accoustically impoving the environment
GB0202386D0 (en) * 2002-02-01 2002-03-20 Cedar Audio Ltd Method and apparatus for audio signal processing
US20040114770A1 (en) * 2002-10-30 2004-06-17 Pompei Frank Joseph Directed acoustic sound system
CA2471674A1 (en) 2004-06-21 2005-12-21 Soft Db Inc. Auto-adjusting sound masking system and method
JP4734627B2 (ja) * 2005-03-22 2011-07-27 国立大学法人山口大学 スピーチプライバシー保護装置
WO2007010637A1 (ja) * 2005-07-19 2007-01-25 Kabushiki Kaisha Kawai Gakki Seisakusho テンポ検出装置、コード名検出装置及びプログラム
CN100530350C (zh) * 2005-09-30 2009-08-19 中国科学院声学研究所 一种面向目标的声辐射生成方法
EP2022041A1 (en) * 2006-04-14 2009-02-11 Koninklijke Philips Electronics N.V. Selection of tonal components in an audio spectrum for harmonic and key analysis
TWI410958B (zh) * 2006-04-14 2013-10-01 Koninkl Philips Electronics Nv 用於處理音訊信號之方法與裝置及相關軟體程式
JP4823804B2 (ja) * 2006-08-09 2011-11-24 株式会社河合楽器製作所 コード名検出装置及びコード名検出用プログラム
US8116461B2 (en) 2006-12-18 2012-02-14 Soft Db Inc. Sound volume automatic adjustment method and system
EP1953735B1 (en) * 2007-02-02 2010-01-06 Harman Becker Automotive Systems GmbH Voice control system and method for voice control
US20100266138A1 (en) * 2007-03-13 2010-10-21 Airbus Deutschland GmbH, Device and method for active sound damping in a closed interior space
DE102007012611A1 (de) * 2007-03-13 2009-01-08 Airbus Deutschland Gmbh Vorrichtung und Verfahren zur aktiven Schalldämpfung in einem geschlossenen Innenraum
WO2009156928A1 (en) * 2008-06-25 2009-12-30 Koninklijke Philips Electronics N.V. Sound masking system and method of operation therefor
WO2010007563A2 (en) * 2008-07-18 2010-01-21 Koninklijke Philips Electronics N.V. Method and system for preventing overhearing of private conversations in public places
JP2011530371A (ja) * 2008-08-14 2011-12-22 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ Mriノイズ美化
US8280068B2 (en) * 2008-10-03 2012-10-02 Adaptive Sound Technologies, Inc. Ambient audio transformation using transformation audio
US8379870B2 (en) * 2008-10-03 2013-02-19 Adaptive Sound Technologies, Inc. Ambient audio transformation modes
US8243937B2 (en) * 2008-10-03 2012-08-14 Adaptive Sound Technologies, Inc. Adaptive ambient audio transformation
US8280067B2 (en) * 2008-10-03 2012-10-02 Adaptive Sound Technologies, Inc. Integrated ambient audio transformation device
US20100239110A1 (en) * 2009-03-17 2010-09-23 Temic Automotive Of North America, Inc. Systems and Methods for Optimizing an Audio Communication System
JP5691180B2 (ja) * 2010-01-26 2015-04-01 ヤマハ株式会社 マスカ音生成装置およびプログラム
US8309834B2 (en) 2010-04-12 2012-11-13 Apple Inc. Polyphonic note detection
JP5605062B2 (ja) * 2010-08-03 2014-10-15 大日本印刷株式会社 騒音源の快音化方法および快音化装置
JP5849411B2 (ja) * 2010-09-28 2016-01-27 ヤマハ株式会社 マスカ音出力装置
JP5644359B2 (ja) * 2010-10-21 2014-12-24 ヤマハ株式会社 音声処理装置
US9264840B2 (en) * 2012-05-24 2016-02-16 International Business Machines Corporation Multi-dimensional audio transformations and crossfading
EP2896901B1 (en) * 2012-09-06 2019-10-23 Mitsubishi Electric Corporation Device for increasing audio pleasantness of construction equipment sound
US9053710B1 (en) * 2012-09-10 2015-06-09 Amazon Technologies, Inc. Audio content presentation using a presentation profile in a content header
CN103886863A (zh) 2012-12-20 2014-06-25 杜比实验室特许公司 音频处理设备及音频处理方法
WO2015087490A1 (ja) * 2013-12-12 2015-06-18 株式会社ソシオネクスト オーディオ再生装置及び遊技装置
CN104856718B (zh) * 2015-04-29 2017-09-15 成都陌云科技有限公司 一种主动式降噪可穿戴设备
US10129659B2 (en) * 2015-05-08 2018-11-13 Doly International AB Dialog enhancement complemented with frequency transposition
WO2017201269A1 (en) 2016-05-20 2017-11-23 Cambridge Sound Management, Inc. Self-powered loudspeaker for sound masking
JP2019045811A (ja) * 2017-09-07 2019-03-22 国立大学法人千葉大学 プライバシーシステム、プライバシー向上方法、マスキング音生成システム、マスキング音生成方法
KR20200075144A (ko) * 2018-12-13 2020-06-26 현대자동차주식회사 차량 사운드 인덱스 기반 인공지능 엔진음색 제어시스템 및 방법
CN110111773B (zh) * 2019-04-01 2021-03-30 华南理工大学 基于卷积神经网络的音乐信号多乐器识别方法
WO2021129908A1 (en) * 2019-12-23 2021-07-01 Vestas Wind Systems A/S Masking tonal noise from a wind turbine
TWI813307B (zh) * 2022-05-24 2023-08-21 聆感智能科技有限公司 聽覺環境感知健康促進系統
CN117746828B (zh) * 2024-02-20 2024-04-30 华侨大学 开放式办公室的噪声掩蔽控制方法、装置、设备及介质

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5105377A (en) 1990-02-09 1992-04-14 Noise Cancellation Technologies, Inc. Digital virtual earth active cancellation system
US5315661A (en) 1992-08-12 1994-05-24 Noise Cancellation Technologies, Inc. Active high transmission loss panel
US5355418A (en) 1992-10-07 1994-10-11 Westinghouse Electric Corporation Frequency selective sound blocking system for hearing protection
WO2001037256A1 (en) 1999-11-16 2001-05-25 Royal College Of Art Apparatus for acoustically improving an environment and related method

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4052720A (en) * 1976-03-16 1977-10-04 Mcgregor Howard Norman Dynamic sound controller and method therefor
JPS57136811A (en) * 1981-02-18 1982-08-24 Nissan Motor Co Ltd Automatic controller of sound volume
US4438526A (en) * 1982-04-26 1984-03-20 Conwed Corporation Automatic volume and frequency controlled sound masking system
NL8300671A (nl) * 1983-02-23 1984-09-17 Philips Nv Automatisch egalisatiesysteem met dtf of fft.
US4686693A (en) * 1985-05-17 1987-08-11 Sound Mist, Inc. Remotely controlled sound mask
JPH067114Y2 (ja) 1988-12-09 1994-02-23 株式会社トーキン 岩石破砕器
JPH03276998A (ja) 1990-03-27 1991-12-09 Matsushita Electric Works Ltd 環境音制御装置
JP3306600B2 (ja) * 1992-08-05 2002-07-24 三菱電機株式会社 自動音量調整装置
GB9222103D0 (en) * 1992-10-21 1992-12-02 Lotus Car Adaptive control system
US5506910A (en) * 1994-01-13 1996-04-09 Sabine Musical Manufacturing Company, Inc. Automatic equalizer
GB9414484D0 (en) * 1994-07-18 1994-09-21 Marconi Gec Ltd An apparatus for cancelling vibrations
US5781640A (en) * 1995-06-07 1998-07-14 Nicolino, Jr.; Sam J. Adaptive noise transformation system
JP3099870B2 (ja) * 1996-07-23 2000-10-16 日本電気株式会社 音響エコーキャンセラ
FR2762467B1 (fr) * 1997-04-16 1999-07-02 France Telecom Procede d'annulation d'echo acoustique multi-voies et annuleur d'echo acoustique multi-voies
US5970154A (en) * 1997-06-16 1999-10-19 Industrial Technology Research Institute Apparatus and method for echo cancellation
US6594365B1 (en) * 1998-11-18 2003-07-15 Tenneco Automotive Operating Company Inc. Acoustic system identification using acoustic masking
GB2364492B (en) * 1999-12-15 2002-07-24 Graeme John Proudler Audio processing, e.g. for discouraging vocalisation or the production of complex sounds
US6816599B2 (en) * 2000-11-14 2004-11-09 Topholm & Westermann Aps Ear level device for synthesizing music

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5105377A (en) 1990-02-09 1992-04-14 Noise Cancellation Technologies, Inc. Digital virtual earth active cancellation system
US5315661A (en) 1992-08-12 1994-05-24 Noise Cancellation Technologies, Inc. Active high transmission loss panel
US5355418A (en) 1992-10-07 1994-10-11 Westinghouse Electric Corporation Frequency selective sound blocking system for hearing protection
WO2001037256A1 (en) 1999-11-16 2001-05-25 Royal College Of Art Apparatus for acoustically improving an environment and related method

Also Published As

Publication number Publication date
AU2001287919B2 (en) 2006-09-28
BR0114086A (pt) 2003-07-22
US7181021B2 (en) 2007-02-20
MXPA03002484A (es) 2004-09-10
JP2004510191A (ja) 2004-04-02
AU8791901A (en) 2002-04-02
ATE477570T1 (de) 2010-08-15
EP1983511A3 (en) 2008-10-29
JP4771647B2 (ja) 2011-09-14
WO2002025631A1 (en) 2002-03-28
CN1705977A (zh) 2005-12-07
US20030026436A1 (en) 2003-02-06
KR20030059147A (ko) 2003-07-07
EP1983511A2 (en) 2008-10-22
GB0023207D0 (en) 2000-11-01
HK1085834A1 (en) 2006-09-01
EP1319225A1 (en) 2003-06-18
EP1319225B1 (en) 2010-08-11
DE60142787D1 (de) 2010-09-23
CN100392722C (zh) 2008-06-04
CA2422802A1 (en) 2002-03-28

Similar Documents

Publication Publication Date Title
KR100875720B1 (ko) 환경을 음향적으로 개선하기 위한 장치
AU2001287919A1 (en) Apparatus for acoustically improving an environment
Neuhoff Ecological psychoacoustics
US4883067A (en) Method and apparatus for translating the EEG into music to induce and control various psychological and physiological states and to control a musical instrument
Ando et al. Auditory and visual sensations
Bregman Auditory scene analysis
JP3381074B2 (ja) 音響構成装置
EP1995720A2 (en) Electronic sound screening system and method of accoustically improving the environment
Trainor et al. Explaining the high voice superiority effect in polyphonic music: Evidence from cortical evoked potentials and peripheral auditory models
Büchler Algorithms for sound classification in hearing instruments
Oxenham The perception of musical tones
Yost Auditory perception
Cooke et al. Computational auditory scene analysis: Listening to several things at once
JP2008508542A (ja) 構造化信号の非線形周波数解析方法及び装置
Cusack et al. Auditory perceptual organization inside and outside the laboratory
KR20210020314A (ko) 비교 소리의 인지 반응 평가 장치 및 방법
EP0432152B1 (en) Apparatus for translating the eeg into music
Ziemer et al. Psychoacoustics
JP2735592B2 (ja) 音楽に脳波を変換する装置
JP2565758B2 (ja) 音環境制御方法
WO1990001897A1 (en) Apparatus for translating the eeg into music
AU636287B2 (en) Apparatus for translating the eeg into music
Schneider et al. Perception of musical intervals at very low frequencies: Some experimental findings
Hermes Interpretative Summary
Hermann et al. Polyrhythm in the Human Brain.

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E90F Notification of reason for final refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20121122

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20131119

Year of fee payment: 6

LAPS Lapse due to unpaid annual fee