KR100436362B1 - 음성 회의 장치에 공간성 가청환경을 창출하는 방법 및 장치 - Google Patents

음성 회의 장치에 공간성 가청환경을 창출하는 방법 및 장치 Download PDF

Info

Publication number
KR100436362B1
KR100436362B1 KR10-1998-0706943A KR19980706943A KR100436362B1 KR 100436362 B1 KR100436362 B1 KR 100436362B1 KR 19980706943 A KR19980706943 A KR 19980706943A KR 100436362 B1 KR100436362 B1 KR 100436362B1
Authority
KR
South Korea
Prior art keywords
space
audible
location
metaphorical
voice
Prior art date
Application number
KR10-1998-0706943A
Other languages
English (en)
Other versions
KR19990087511A (ko
Inventor
앤드루 제이. 싱어
신 마이클 화이트
글렌 티. 에덴즈
로저 시. 마이크
돈 샨리
데비 힌더스
웨인 버딕
리사 스티플먼
Original Assignee
인터벌 리서치 코포레이션
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 인터벌 리서치 코포레이션 filed Critical 인터벌 리서치 코포레이션
Publication of KR19990087511A publication Critical patent/KR19990087511A/ko
Application granted granted Critical
Publication of KR100436362B1 publication Critical patent/KR100436362B1/ko

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04QSELECTING
    • H04Q11/00Selecting arrangements for multiplex systems
    • H04Q11/04Selecting arrangements for multiplex systems for time-division multiplexing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R27/00Public address systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M3/00Automatic or semi-automatic exchanges
    • H04M3/42Systems providing special services or facilities to subscribers
    • H04M3/56Arrangements for connecting several subscribers to a common circuit, i.e. affording conference facilities
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M3/00Automatic or semi-automatic exchanges
    • H04M3/42Systems providing special services or facilities to subscribers
    • H04M3/56Arrangements for connecting several subscribers to a common circuit, i.e. affording conference facilities
    • H04M3/568Arrangements for connecting several subscribers to a common circuit, i.e. affording conference facilities audio processing specific to telephonic conferencing, e.g. spatial distribution, mixing of participants

Abstract

복수의 장소(12, 14, 16)의 복수의 이용자들 간의 음성 통신을 위한 방법과 장치가 각 장소(12, 14, 16)에 한세트의 음성 입력 센서(22, 24, 26)를 활용한다. 각 세트의 음성 입력 센서(22, 24, 26)은 인접의 가청공간을 입체음향으로 감지한다(54). 각각의 장소(12, 14, 16)의 은유적 표현이 제공된다(52). 각 은유적 표현은 은유적 공간 내에서 변할 수 있는 위치를 가지고 있다. 그 은유적 표현은, 예를 들어 물리적 은유, 시각적 은유, 가청 은유, 또는 구조상의 은유에 의거할 수 있다. 각 장소(12, 14, 16)에 감지된 가청공간이 적어도 하나의 종합적인 가청공간을 형성하기 위해 통합된다(56). 입체음향으로 지각가능한 가청환경이 적어도 하나의 종합적인 가청공간에 기초한 일 이상의 장소(12, 14, 16)에 산출된다(56).

Description

음성 회의 장치에 공간성 가청환경을 창출하는 방법 및 장치
전기적 통신수단에 의한 회의 방식은, 다른 위치에 있는 사람들로 하여금 마치 같은 방에 있는 것 처럼 만나게 하여 회화시킨다. 이는, 사업 응용에 대해 향상된 생산성 및 감소된 여행 시간과 비용을 산출한다는 점에서 특히 유익하다. 전기적 통신수단에 의한 회의 방식은 사업회의, 세일즈 회의, 및 기술정보 교환 따의의 적용에 널리 이용되고 있다.
총칭적 원격지간 회의 장치는 한 사용자가 복수의 외부 송수신기들의 각각과 상응하는 쌍방향성 음성통신 링크를 제공한다. 원격지간 회의 장치는, 외부의 송수신기들로부터 수신한 음성 신호에 기초하여 음파를 산출할 능력이 있는, 스피커 따위의, 음성 출력 장치를 내포한다. 원격지간 회의 장치는, 복수의 외부 송수신기에의 전송을 위해, 수신한 음파를 음성 신호로 산출할 능력이 있는 마이크로폰 따위의, 음성 입력 장치를 또한 포함한다.
몇몇 원격지간 회의 장치가 기술분야에 알려져 있다. 패브리스 및 그외에의 미국특허 제4,516,156호에는, 원격위치의 카메라에서 발생되는 비디오 화상을 제어하기 위해 접촉 감응성 스크린을 이용하는, 음성/영상 회의 장치가 기재돼 있다. 하이덴 및 그외에의 미국특허 제4,953,159호에는 상호접속을 설정하여 제어하는 컴퓨터 인터페이스를 포함하고 있는, 오디오 그래픽스 회의 장치가 기재돼 있다. 프레스먼 및 그외에의 미국특허 제4,645,872호는 한 장소의 이용자가 상호의 장소와 선택적으로 상호접속하는 제어장치를 가지는 원격지간 회의 장치를 개시하고 있다.
본 발명은 음성 회의 장치로 사용하는 방법 및 장치에 관한 것이다.
도 1은 복수의 장소의 복수의 이용자들 간의 음성통신용 장치의 실시양태의 블록도;
도 2는 복수의 장소의 복수의 이용자들 간의 음성통신의 방법의 플로 차트;
도 3은 본 발명에서 사용하는 인터페이스의 제1의 실시양태의 도해;
도 4는 본 발명에서 사용하는 인터페이스의 대체 실시양태의 예증;
도 5는 본 발명에서 사용하는 인터페이스의 또 하나의 실시양태의 블록도;
도 6은 본 발명의 실시양태의 블록도;
도 7은 본 발명의 실시양태의, 그림으로 나타낸 예증;
도 8 (a-b)는 그래픽 이용자 인터페이스에 의한 표시장치, 및 상응하는 실제상의 가청환경의 사시 도해;
도 9는 실제상의 가청환경을 창출하는 방법의 플로 차트;
도 10은 본 발명에 따른 음성회의 장치의 실시양태의 블록도; 그히고
도 11은 본 발명에 따른 음성 회의 장치의 대체 실시양태의 블록도이다.
외부 송수신기로부터 수신한 음성 신호를 토대로 한, 이용자제어가능의 공간성화 가청환경을 제공하는 음성 회의 장치에 대한 필요가 존재한다.
따라서, 본 발명의 목적은 공간성화 가청환경을 산출할 능력이 있는 음성 회의 장치를 제공하는 데 있다.
본 발명의 그 이상의 목적은, 음성 회의 장치에 있어서의 공간성화 가청환경을 제어하는, 개념상 일관의 이용자 인터페이스를 제공하는 데 있다.
상기의 목적을 성취함에 있어, 본 발명은 복수의 장소의 복수의 이용자 간의 음성통신의 방법을 제공한다. 그 방법은 각 장소에 한세트의 음성 입력 센서를 제공하는 단계를 포함한다. 음성 입력 센서들의 각 세트에 근접하는 가청 공간은 입체음향으로 감지된다. 방법은 각각의 장소의 은유적인 표현을 제공하는 단계를 포함한다. 각 은유적인 표현은 은유적인 공간 내에서 임의로 변할 수 있는 위치가 있다. 각 장소에 감지된 가청공간을 통합하는 단계가 실행되어 적어도 하나의 종합적인 가청공간을 형성하게 돼 있다. 그 적어도 하나의 종합적인 가청공간은 은유적인 공간 내의 각 은유적인 표현의 위치에 의존하여 형성된다. 입체음향으로 지각할 수 있는 가청환경은 그 적어도 하나의 종합적인 가청공간을 토대로한 각 장소에 산출된다.
상기 목적들을 또한 성취함에 있어, 본 발명은 상기 설명의 방법의 단계들을 실행하는 복수의 장소의 복수의 이용자글 간의 음성통신을 위한 장치를 제공한다.
또한, 상기의 목적을 성취함에 있어, 본 발명은 음성 회의 장치로 사용하는 한 장치를 제공한다. 음성 회의 장치는 각각의 복수의 외부 송수신기가 있는 상응하는 쌍방향성 음성통신 링크를 이용자에게 공급하며, 음성 회의 장치는 그에 적용되는 제1의 음성 신호로부터 음파를 산출할 능력이 있는 음성 출력 장치를 내포하고, 음성 회의 장치는 복수의 외부 송수신기에의 전송을 위해, 수신한 음파로부터 제2의 음성신호를 산출할 능력이 있는 음성 입력 장치를 또한 내포하고 있다. 그 장치는 표시공간의 상응하는 위치에 외부 송수신기의 각각에 대한 상응하는 표상(icon)을 표시하는 도식의 이용자 인터페이스를 함유하여, 각 표상의 상응하는 위치가 이용자에 의해 변경될 수 있다. 또한, 그 장치는 그래픽 이용자 인터페이스와 활동할 수 있게 연합된, 포로세서를 함유하여, 기준 위치에 관하여 각 상표의 상응하는 위치에 의존하여 제어신호를 발생시킨다. 그 장치는 프로세서와 활돌할 수 있게 연합된 음향 믹서도 또한 함유하여, 복수의 외부 송수신기로부터 수신한 상응하는 음성신호를 제어 신호에 의지하여 임의로 변경할 수 있게 증폭하여 처리하고, 그의 통합으로 혼합 음성신호를 형성한다. 그 혼합 음성신호는 음성 출력 장치에 적용되어 복수의 외부 송수신기로부터 수신한 음성신호에 기초한 공간성 가청환경을 창출하게 된다.
상기 목적을 더욱 더 성취함에 있어, 본 발명은 각각의 복수의 외부 송수신기와의 쌍방향성 통신의 방법을 제공한다. 제1의 음성신호가 각각의 복수의 외부 송수신기에 발송된다. 각각의 외부 송수신기의 상응하는 표상이 표시공간의 상응하는 위치에 표시된다. 각각의 복수의 외부 송수신기로부터의 상응하는 음성신호가 접수된다. 각 상응하는 음성신호는 증폭되어 기준 위치에 관하여 상응하는 화상의 상응하는 위치에 의지하여 처리된다. 증폭하여 처리된 상응하는 음성신호들은 혼합되어 혼합 음성신호를 형성하게 된다. 그 혼합 음성신호는 음성 출력 장치에 적용되어, 복수의 외부 송수신기로부터 수신한 음성신호들을 토대로 한 공간성 가청환경을 창출하게 된다.
본 발명의 이들 및 타의 특징들, 양상들, 및 실시양태들은 하기의 설명, 첨부의 청구의 범위, 및 수반하는 도면을 적당히 생각하여 더 잘 이해되게 될 것이다.
도 1은 복수의 장소의 복수의 이용자들 간의 음성통신용 장치의 실시양태의 블록도이다. 비록 본 발명의 실시양태가 그에 한정되는 것은 아니지만, 설명을 위해, 그 장치를 셋의 장소 (12, 14, 및 16)에 관하여 기술한다. 각각의 장소 (12, 14, 및 16)은 그 부근의 가청공간을 입체음향으로 감지하는 상응하는 세트의 음성 입력 센서들 (22, 24, 및 26)를 가지고 있다. 도시와 같이, 음성 입력 센서들 (22)의 세트는 장소 (12)의 가청공간을 입체음향으로 감지하고, 음성 입력 센서들 (24)의 세트는 장소 (14)에 위치된 가청공간을 입체음향으로 감지하며, 음성 입력 센서들 (26)의 세트는 장소 (16)에 위치된 가청공간을 입체음향으로 감지한다. "입체음향으로 감지함"은, 원격위치에서 입체음향의 지각을 가능하게 가청공간을 감지하거나 충분한 위상질 및 정확으로 통합하는 것의 표시라는 사실에 유의하기 바란다.
가지각색의 상이한 구성의 여러가지의 상이한 음성 입력 센서를 이용하여 입체음향적 감지를 이행할 수 있다. 일 실시양태에서는, 입체음향적 감지는, 감지되는 가청공간의 공간성 표현을 획득하게 구성된 복수의 마이크로폰을 이용하여 행해질 수 있다. 복수의 마이크로폰은, 예를 들어, 한쌍의 마이크로폰, 4채널 배열의 마이크로폰, 또는 8채널 배열의 마이크로폰을 포함하여도 좋다. 채용되는 마이크로폰의 수에 관계없이, 그 마이크로폰들은 바람직하게, 가청공간 내에 발생한 다경로 반향음을 획득하게 구성돼 있다. 하나의 그러한 구성에 있어서, 한쌍의 마이크로폰은 둘의, 사람의 귀 간의 평균 두개골내 거리를 흉내내게 구성돼 있다. 일반적으로, 마이크로폰들의 구성은 고정시킬 필요가 없다.
대신, 전형적 입체음향의 인간 두뇌관련 이동 기능을 물리적으로 흉내내는 복수의 음성 입력 센서를 가청공간의 공간성 표현을 획득하는 데 채용하여도 좋다. 또하나의 대안으로서, 입체음향 감지는, 그 부근의 가청공간에 응답하여 한쌍의 생체내 고막의 전위를 감지하는 한쌍의 전위 센서를 이용하여 이행될 수도 있다. 이 방식에 있어서의 입체음향 감지의 방법들 및 장치들은 본원의 같은 양수인에게 양도된, SN 08/475,349, "생체내 고막의 전위를 측정하는 착용가능의 장치 및 그와함께 이용하는 방법과 장치" 제하의 동시계속의 미국 특허출원에 기재돼 있으며 참고로 여기에 편입돼 있다.
또 하나의 실시양태에 있어서는, 한 장소의 가청공간이, 단일의 마이크로폰과 음향 신호 프로세서를 이용하여 입체음향으로 통합된다. 여기에서, 음향 신호 프로세서는, 원격위치에서 그의 입체음향 지각을 가능하게 충분한 위상질과 정확으로 가청공간을통합한다. 음향 신호 프로세서는, 소정의 스테레오 또는 입체음향의 인간 두뇌관련 이동 기능을 인공적으로 부과함에 의해 가청공간을 형성할 수 있다. 그 결과, 3차원의 음향공간이 단일의 모노포닉 원(source)에 의해 형성될 수가 있다.
각각의 장소 (12, 14, 및 16)에 감지된 가청공간을 나타내는 신호들은 음성 입력 센서들 (22, 24, 및 26)으로부터, 회송 링크들 (32, 34, 및 36)을 경유하여 신호 프로세서 (30)에 보내진다. 그 회송 링크들 (32, 34, 및 36)은 (동축 케이블 또는 꼰 쌍, 따위의)전선, 광섬유, 빈 공간, 또는 신호를 운반하기에 적합한 어떤 다른 매체로 이루어져도 좋다. 회송 링크들을 거치는 회송은 가청공간을 나타내는 베이스밴드, 피변조 반송파를 가진 광대역 전기 신호들, 또는 피변조 광신호들을 이용하여 이루어져도 좋다.
일반적으로, 감지 가청공간들을 나타내는 신호들은 아날로그 형태로 회송되어도 좋고 디지틀 형태로 회송되어도 좋다. 디지틀 형태는 감지 가청공간을 나타내는 디지틀 데이터의 적절히 암호화한 또는 압축된 표현이어도 좋다.
신호 프로세서 (30)은 인터페이스 (40)에 의해 신호 프로세서 (30)에 제공된 제어 신호들에 의지하여 각각의 장소 (12, 14, 및 16)에 감지된 가청공간을 통합한다. 인터페이스 (40)은 각각의 장소 (12, 14, 및 16)의 은유적인 표현을 은유적인 공간에 제공한다. 은유적인 표현의 위치는 그 은유적인 공간내에서 변하기 쉽다. 은유적인 공간 내의 은유적 표현들의 위치에 기초하여, 신호 프로세서 (30)은 적어도 하나의 종합적인 가청공간을 형성한다.
본 발명의 여러 실시양태에서, 그 은유적인 공간은 각 종합적인 가청공간을 은유적으로 표현하기 위해 복수의 부분공간 상태로 윤곽이 그려진다. 각 종합적인 가청공간은 그의 각각의 부분공간에 내포된 은유적인 표현들을 가진 장소들의 가청공간을 통합함에 의하여 형성된다. 또한, 한 장소에 감지된 가청공간은 은유적인 공간 내의 한 장소의 은유적인 표현의 장소에 좌우되는 또 하나의 장소의 입체음향으로 지각된 위치에 산출될 수 있다.
신호 프로세서 (30)은 종합적인 가청환경을 구성하기 위해, 일 이상의 아날로그 음성 믹서 및/또는 일 이상의 디지틀 음성 프로세서를 포함할 수가 있다. 혼합에 더하여, 그 신호 프로세서 (30)은 주파수 응답을 구체화하고, 안전을 이유로 신호들을 암호화하며, 배경 음을 추가하고, 피드백 제어조작을 이행하며, 또 스테레오와 공간성 향상조작을 제공할 수 있다. 디지틀 음성 프로세서들은 이행되는 많고 많은 혼합 작업을 달성함에 신호들의 시간 또는 공간 분할 다중화를 채용하여도 좋다.
적어도 하나의 가청공간을 나타내는 신호들은, 각각 회송 링크를 경유하여 장소들 (12, 14, 및 16)에 전달된다. 회송 링크들 (32, 34, 및 36)을 대상으로 하는 것 처럼, 회송 링크들 (41, 42, 및 43)은 전선, 광섬유, 빈 공간, 또는 또 다른 적절한 매체를 함유할 수 있다. 그 신호들은 베이스밴드 또는 광대역의 어떤 신호의 형태이어도 좋다.
각각의 장소들 (12, 14, 및 16)은, 그에 대한 종합적인 가청공간 신호에 기초한 입체음향으로 지각할 수 있는, 가청환경을 산출하는 각기의 세트의 음성 출력 장치 (44. 45, 및 46)을 가지고 있다. 각 세트의 음성 출력 장치는 그 장소에 종합적인 가청환경을 공여하는 스테레오, 4채널, 또는 8채널 배열 따위의, 스피커들의 배열을 포함할 수 있다. 대신, 그 세트의 음성 출력 장치는 귀를 덮는 헤드폰, 귀에 꽂는 헤드폰, 골격 구성 폰, 또는 근시야 폰을 포함하는 헤드폰의 형태일 수가 있다.
또하나의 대안으로서, 그 세트의 음성 출력 장치는 이용자의 고막을 연동하는 수단을 제공할 수가 있다. 개개인의 고막을 연동하는 방법 및 장치는 동시계속의 미국특허 출원 SN 08/475,349에 기재돼 있다.
비록 중앙 장치라는 말로 예증하였을 지라도, 신호 프로세서 (30)은 복수의 신호 처리 하부조직이 이용되는 분산 형태를 또한 가질 수도 있다. 여기에서, 각 장소는, 그 장소가 원하는 이용가능 원들의 부분집합 만을 회송하는 중앙의 신호 프로세서와 함께 작용하는 신호처리 하부조직을 포함할 수 있다. 그 신호처리 하부조직은 요청하는 이용가능 원의 부분집합의 통합을 수행한다.
이제 도 2를 참조하면, 본 발명에 따라 복수의 장소의 복수의 이용자들 간의 음성통신의 방법의 플로 차트을 보이고 있다.
블록 (50)으로 표시한 바와 같이, 그 방법은 각 장소에 한세트의 음성 입력 센서들을 제공하는 단계를 포함한다. 블록 (52)로 표시한 바와 같이, 각각의 장소의 은유적인 표현을 제공하는 단계를 실행한다. 각 은유적인 표현은 은유적인 공간 내에서 변하기 쉬운 위치를 가진다. 블록 (54)로 표시한 바와 같이, 각 세트의 음성 입력 센서들 부근의 가청공간을 입체음향으로 감지하는 단계를 실행한다. 블록 (56)으로 표시한 바와 같이, 적어도 하나의 종합적인 가청공간을 형성하게 각 장소에 감지된 가청공간을 통합하는 단계를 수행한다. 그 적어도 하나의 종합적인 가청공간은 은유적인 공간 내의 각 은유적인 표현의 위치에 의지하여 형성된다. 블록 (58)로 표시한 바와 같이, 그 적어도 하나의 종합적인 가청공간에 기초하여 입체음향으로 지각할 수 있는 가청환경을 산출하는 단계를 시행한다.
도 3을 참조하면, 본 발명에 이용하는 인터페이스의 제1의 실시양태를 보이고 있다. 이 실시양태의 인터페이스에 있어서는, 은유적인 표현들이 각각의 장소의 물리적 표현들의 형태에 있다. 예를 들면, 그 인터페이스는, 그의 각각이 개인이나 그룹을 의미하는, 한세트의 물리적 대상을 포함할 수 있다. 그 물리적 대상은 개인 또는 그룹의 문자의, 근문자의, 또는 임의의 표현들일 수가 있다. 또한, 그 물리적 대상은 그들이 의미하는 개인들이나 그룹들에 관계가 있는 어떤 규모에 있어도 좋다.
이 실시양태에 있어서, 인터페이스는 각각의 복수의 장소를 입체음향으로 표현하는 복수의 물리적 대상을 포함한다. 각 물리적 대상은 물리적 공간 내에서 변하기 쉬운 한 위치를 가진다. 예증을 위하여, 도 1의 장소들 (12, 14, 및 16)을 입체음향으로 표현하는 셋의 물리적 대상 (62, 64 및 66)을 보인다. 그 물리적 대상들 (62, 64 및 66)은 물리적 공간을 제공하는 판 면 (68) 상에 배치돼 있다. 그 물리적 공간은 통합하게 돼 있는 둘의 가청공간을 나타내게 둘의 부분공간 (70과 72) 상태로 묘사돼 있다.
물리적 대상들 (62, 64, 및 66)은 각각, 물리적 공간 내의 그의 위치들을 감지하기 위해 각기의 센서들 (82, 84 및 86)을 포함하고 있다. 센서들 (82, 84 및 86)은 광 센서들, 전자석 센서들, 전기식 센서들, 기계식 센서들 또는 초음파 센서들이나를 이용하여 물리적 대상들 (62, 64 및 66)의 위치를 감지할 수 있다. 바람직하게, 그 센서들 (82, 84 및 86)은 동적 위치 감지를 제공하여 부분공간들 (70과 72)에 관계가 있는 각 대상의 물리적 위치의 변경등을 신속하게 결정할 수가 있다. 각 대상의 물리적 위치를 동적으로 감지함에 의하여, 종합적인 가청공간들을 동적으로 변경시킬 수 있어 부분공간 (70과 72)에 관하여 대상들의 구성을 반영하게 된다.
도 4는 물리적 은유적인 표현들을 활용하는 인터페이스의 대체 실시양태의 예증이다. 여기서, 그 인터페이스는 둘의 부분공간 (94와 96)으로 물리적 공간을 표시하는 복식의 평면 (90과 92)을 포함한다. 부분공간 (94)는 하나의 종합적인 가청공간을 나타내고 부분공간 (96)은 또 다른 종합적인 가청공간을 나타낸다. 둘의 판 면들 (90과 92)만이 도 4에 비록 예증돼 있을지라도, 대안의 실시양태들은 은유적인 공간을 제공함에는 어떠한 수의 판 면들을 활용하여도 좋다는 사실에 유념하기 바란다.
도 3과 4에서 판 면들에 의해 마련된 2차원의 물리적 은유적인 공간에 대한 대안으로서, 그 물리적 대상들의 위치는 임의의 3차원 공간 내에서 감지될 수 있다. 이 3차원 공간은 어떠한 수의, 형성되게 될 종합적인 가청공간을 나타내게, 소정의 방식으로 묘사될 수 있다.
이제 도 5를 참조하면, 각각의 복수의 장소의 시각의 은유적인 표현을 활용하는 인터페이스의 실시양태를 보이고 있다. 그 인터페이스는 적어도 하나의 도해 물체가 표시되는 표시장치 (100)을 포함한다. 그 적어도 하나의 도해 물체는 적어도 하나의 복수의 장소를 은유적으로 나타낸다. 바람직하게, 복수의 도해 뭍체가 표시되고, 도해 물체의 각각은 복수의 장소의 각기의 것에 부합하는 것이다. 이 표시장치 (100)은 입력장치 (104)를 가진 컴퓨터 (102)로 가동시킨다. 그 입력장치 (104)는 그 적어도 하나의 도해 물체를 표시장치 (100)에 변화무쌍하게 지시하기 위해 마우스, 트랙볼, 터치스크린, 펜 등과 같은 가리키는 장치를 포함할 수 있다. 컴퓨터 (102)는 표시장치 (100) 상의 도해 물체의 위치를 결정하는 수단을 제공한다.
이 형태의 우선 실시양태에서, 표시장치 (100)은 복수의 개인 또는 그룹의 문자, 근사문자나, 또는 임의의 표현인 한세트의 도해 물체를 표시한다. 표시장치 (100)은, 종합시킬 상응하는 가청공간 또는 공간들을 나타내는 묘사의 영역 또는 세트의 영역을 표시한다. 그 영역은 표시장치 (100)의 전체 스크린에 그려져도 좋다. 대신, 그 영역은 표시장치 (100)의 스크린 상의 한 윈도나 다수의 윈도에, 또는 스크린 상의 공간의, 가장한 3차원의 표현에 그려져도 좋다.
스크린 상에 그려진 영역 또는 영역들에 관련된 각각의 물체의 위치는 입력장치 (104)를 이용하여 사용자에 의해 조종된다. 물체의 위치들은 상응하는 종합적인 가청공간들을, 그려진 영역들에 관한 그 물체의 구성을 반영하게 동적으로 변경되게 하는 데 이용된다.
물체들은 그들이 표현하는 개인들이나 그룹에 관계가 있는 어떤 규모이어도 좋다는 것에 유념하기 바란다. 또한, 다수의 물체는 게인의 또는 그룹의 종합적인 가청공간과의 상호작용의 상이한 양상을 표현하는 데 활용될 수도 있다. 예를 들면, 두번째의 물체가 종합적인 가청공간을 듣을 개인의 또는 그룹의 능력을 표현하는 반면에, 한 물체가 종합적인 가청공간에 대한 개인의 또는 그룹의 공헌을 표현할 수도 있다.
도 5에 도시된 인터페이스는 복수의 장소에 대해 문자 그대로의 은유적인 표현을 마련하는 데 또한 활용될 수 있다. 여기서, 컴퓨터 (102)는 적어도 하나의 기억을 돕는 물체의 상태공간 모델을 유지하는 제어 프로그램을 실행한다. 그 적어도 하나의, 기억을 돕는 물체는 적어도 하나의 장소를 은유적으로 표현한다. 바람직하게, 그 제어 프로그램은 복수의 장소를 표현하는 복수의, 기억을 돕는 물체들을 위해 상태공간 모델을 유지한다. 입력장치 (104)는 상태공간 모델 내의 그 적어도 하나의, 기억을 돕는 물체의 상태를 변경하기 위한 문자 그대로의 명령을 수신하는 수단을 제공한다. 표시장치 (100)은 상태공간 모델 내의 그 적어도 하나의, 기억을 돕는 물체의 상태의 문자 그대로의 지시를 표시하는 수단을 제공한다.
더 정확하게, 컴퓨터 (102)는 입력장치 (104)를 경유하여 문자 그대로의 명령을 수신한다. 문자 그대로의 전달은 입력장치 (104)내의 버튼들을 누름에 의해 달성될 수도 있다. 여기서, 그 버튼들은 사용자에 의해 발하게 돼 있는 명령들로 레테르붙여져도 좋다. 대신, 입력장치 (104)는 표시장치 (100)에 표시되는 명령의 선택이 손쉽게 마우스, 트랙볼, 펜, 터치 스크린, 또는 보디 위치 센서 따위의 가리키는 장치를 포함할 수가 있다. 또 다른 대안으로서, 문자 그대로의 전달은 입력장치 (104) 내의 키보드에 그 명령을 타자함에 의하여 달성될 수 있다. 그 이상의 대안은, 명령의 구술입력을 허용하게 입력장치 (104) 내에 음성인식 장치를 채용하는 것이다.
입력장치 (104)를 경유하여 컴퓨터에 의해 수신한 문자 그대로의 명령은 상태공간 모델을 변경하는 데 이용된다. 기억을 돕게 표현된 그려진 영역 또는 영역의 세트에 관계가 있는, 기억을 돕는 각 대상의 상태는 그려진 영역들에 의해 형성된 적어도 하나의 종합적인 가청공간의 구성을 동세적으로 변경하는 데 이용된다.
인터페이스의 전술의 실시양태에서 처럼, 기억을 돕는 대상들은 문자의, 근사문자의, 또는 장소와 관련된 개인들이나 그룹들의 임의의 표현이어도 좋다. 또한, 기억을 돕는 대상들은 그들이 표현하는 삼들이나 공간들과 어떤, 기억을 돕는 연고관계에 있어도 좋다. 또한, 다수의 대상들은, 종합적인 가청공간에 대한 공헌하는 것 뿐이거나 종합적인 가청공간을 들을 수 있는 것 뿐 따위의, 개인의 또는 그룹의 종합적인 가청공간과의 상호작용의 상이한 양상들을 표현하여도 있다.
인터페이스의 실시양태들은 각각의 장소를 은유적으로 표현하는 데 가청은유를 또한 활용하여도 좋다. 여기서, 그 인터페이스는 한세트의 가청대상이 그려진 영역 또는 영역의 세트와 함께 표시되는 가청 표시장치를 포함한다.
시각의 은유적 표현들을 활용하는 본 발명의 우선 실시양태들을 이제 제공한다. 이들 우선 실시양태의 기법을 여기에 기술한 타의 은유적 표현들과 협력하여 적용허여도 또한 좋다 사실에 유의하기 바란다.
음성회의 장치로의 이용을 위한 공간성 가청공간을 창출하는 장치의 실시양태를 도 6에 블록도로 예시해 있다. 복수의 음성 원 (110)이 오디오 믹서 (112)에 적용된다. 그 음성 원들의 예는 마이크로폰으로 말하는 원격위치의 자, 전화수신자, 음악 녹음재생 장치, 라디오, 및 텔리비전의 음성으로 부터의 음성 신호를 포함한다. 오디오 믹서 (112)는 각각의 음성 원 (110)을 제어 라인을 따라 수신한 제어 신호에 의존하여 변하기 쉽게 증폭하여 일정하지 않게 처리할 능력이 있다. 제어 신호는 도식의 이용자 인터페이스 (120)에 감응하기 쉬운 프로세서 (116)에 의해 발생된다.
도식의 이용자 인터페이스 (120)은 표시공간의 상응하는 위치들의 각각의 음성 원 (110)에 대한 대표적 표상을 표시할 능력이 있다. 그 표시공간은 컴퓨터 모니터, 또는 그의 고차원적 동등물 따위의, 2차원적 표시장치에 표시될 수 있다. 도식이 이용자 인터페이스 (120)은 또한 이용자에게 각 대표적 상의 상응하는 위치를 변경하게 하는 능력이 있다. 그러한 변경은 컴퓨터 마우스, 트랙볼, 또는 조이스틱을 이용한 표준 클릭-및-드래그 작동이나 대신의 제어 장치를 이용한 선택적 작동에 의해 이행될 수 있다. 공간성 가청환경에 있는 이용자의 기준위치는 기준 표상으로 묘사된다. 음성 원 표상으로와 유사한 방식에서, 기준표상의 위치는 도식의 이용자 인터페이스 (120)을 이용하여 변경될 수 있으므로 공간성 가청환경에 있는 이용자의 실제적인 위치는 변경된다.
도식의 이용자 인터페이스 (120)을 이용하여 수행되는 변경에 응하여, 프로세서 (116)은 기준위치에 관하여, 각 표상의 상응하는 위치 의존의 제어 신호를 발생시킨다. 그 제어 신호는 각각의 음성 원 (110)의 증폭을 오디오 믹서 (112)에 의해 제어하는 제1의 신호를 내포한다. 제1의 신호가 형성되어 각각의 음성 원 (110)은 상응하는 표상의 대응하는 위치 간의 거리와 기준위치에 의존하여 증폭된다. 이 목적을 위하여 여러 가지의 거리척도를 채용할 수 있고; 우선의 실이양태들은 데카르트 거리 척도나 소정의 좌표축을 따라 측정된 거리나를 편입한다. 데카르트 거리척도는 음성 원 표상의 상응하는 위치와 기준위치 간의 각 좌표 표시 축에 있어서의 방형화 차들의 합의 평방근으로 정의된다. 일반적으로, 거리 척도는 pth 거듭제곱까지 높아진 좌표 차들의 합의 pth 근으로 정의된 통사의 p-norm 미터법 따위의, 어떤 수학상의 미터법에 의거할 수가 있다. 채용되는 미터법에 불구하고, 각각의 음성 원 (110)의 가변 증폭은 기준 표상에 보다 가까운 대표적 표상들을 가진 음성 원들의 가청강도를 상대적으로 증대시키는 것 처럼 행동하며, 기준 표상으로부터의 표상들로 음성 원들의 강도를 상대적으로 감소시키는 것 처럼 행동한다.
제어 신호는 또한 각각의 음성 원 (110)의 처리를 오디오 믹서 (112)에 의해 제어하는 제2의 신호를 내포한다. 제2의 신호가 형성되어 각각의 음성 원 (110)은 기준위치에 관해 상응하는 표상의 대응하는 위치의 배치에 의존하여 처리된다. 한 우선의 실시양태는 상응하는 표상위치와 기준위치에 의해 표현되는 점들을 접속하는 선분과 기준위치로부터 방사하는 수직의 선분에 의해 형성된 각에 의존하여 각 음성 원을 처리한다. 스테레오 가청환경을 산출하는 실시양태를 위하여, 우 채널의 강도와 좌 채널의 강도는 그 각에 의존하여 각각 변경된다. 또 다른 우선의 실시양태에서는, 각 음성 원이 음성 원 표상의 위치와 기준위치 간의 수평거리에 의존하여 처리된다. 스테레오 환경을 위해 채용되는 특정의 처리기능에 불구하고, 가변처리는 일 채널의 강도를 증대시키는 것 처럼 그리고 타채널의 강도를 감소시키는 것 처럼 행동하여 표시장치와 일치하는 공간성화 음성 표현을 제공하게 된다. 타의 실시양태들은 음성 원 (110)을 적절히 처리함에 의하여 넷의 음성 채널이 산출되는 4채널의 가청환경을 포함한다. 기술분야의 통상의 기량을 가진 이들은 공간성 가청환경의 산출에 사용되는 수를 토대로 다양한 처리 기능들이 공식화된다는 것을 알아낼 것이다.
각각의 음성 원 (110)을 다양하게 증폭하여 처리한 후에는, 오디오 믹서 (112)가 그들의 통합으로 혼합 음성신호를 형성한다. 그 혼합 음성 신호는 음성 출력 장치에 적용되어 실질적인 가청환경을 만들어 내는 음파를 산출하게 된다. 본 발명의 우선 실시양태에서, 그 음성 출력 장치는 적당히 떨어져 있는 복수의 스피커를 함유한다. 스테레오 가청공간을 위하여, 그 음성 출력 장치 (122)는 둘의 분리된 스피커를 함유한다. 4채널의 실질적 가청공간을 위하여, 음성 출력 장치 (122)는 이용자를 에워싸는 넷의 분리된 스피커를 함유한다.
도 6의 장치는 공간성 가청공간을 창출하는 같은 장치의 같은 오디오 믹서에의 적용을 위해 이용자가 음성 원을 발생시키게 하는 음성 입력 장치 (124)를 또한 포함한다. 마이크로폰 등을 함유하는 음성 입력 장치 (124) 때문에, 그 장치는 복수의 이용자들 간의 음성회의를 위해 사용될 수 있다. 결과의 장치에 있어서, 각 이용자는, 표시공간의 상응하는 위치들에 각각의 타의 이용자들을 배치할 도식의 이용자 인터페이스 (120)을 이용함에 의하여, 그의 공간성 가청환경을 개인 전용으로 할 능력을 가진다.
본 발명의 실시양태의 그림으로 나타낸 예증을 도 7에 나타내 있다. 이 실시양태는 복수의 음성 원에서 오는 복수의 라인 (132)에 결합돼 있는 전기적 제어가능의 오디오 믹서 (130)을 포함한다. 그 오디오 믹서 (130)은 컴퓨터 (134)에 의해 발생되는 제어 신호에 의해 제어된다. 컴퓨터 (134)는 컴퓨터 모니터 (136) 따위의 표시장치와 마우스 (140)이나 키보드 (142) 따위의 입력 장치에 결합돼 있다. 적당한 스프트웨어나 펌웨어 프포그램을 실행하는 컴퓨터 (134)로, 기준 상과 음성 원 표상이 모니터 (136) 상의 상응하는 위치에 표시된다. 마우스 (140)은 선택 표상의 위치를 변경하게 클릭-및-드래그 작동이 실행되게 한다. 컴퓨터 (134)는, 기준위치에 관한 각 상의 상응하는 위치에 의존하여 제어 신호를 제공하게 그 변경을 처리한다. 오디오 믹서 (130)은 처리를 변하기 쉽게 증폭하고 음성 원을 혼합하여 스테레오 혼합의 음성 신호를 제공하게 된다. 그 스테레오 혼합의 음성 신호의 제1의 채널 (144)가 제1의 스피커 (146)에 적용되며 스테레오 혼합의 음성 신호의 제2의 채널이 제2의 스피커 (152)에 적용된다. 그 둘의 스피커 (146과 152)은 공간성 가청환경을 제공한다. 도 6의 실시양태를 상대로 한 것 처럼, 이 실시양태는 본 발명의 같은 실시양태에의 적용을 위해 음성 원을 이용자가 발생시키게 하는 마이크로폰 (154)를 포함한다.
도 8a는, 도 8b에 사시도로 도시한 공간성 가청환경을 산출하는 도식의 이용자 인터페이스의 예증 표시를 보이고 있다. 설명의 목적을 위하여, 음성 원들은, 도 8b에 보인 바와 같이, 참조번호 (160, 162, 및 164)로 각각 지시한 원격위치의 세 사람 A, B, 및 C와 전화 수신기 (166) 그리고 음악 녹음재생 장치 (170)을 포함한다. 도 8a에 보인 바와 같이, 각각의 이들 음성 원은, 셋의 원격위치의 사람을 나타내는 셋의 표상 (172, 174, 및 176), 전화수신기 표상 180), 및 음악 표상 (182)가 표시되는; 도식의 이용자 인터페이스에 의해 상응하는 표상으로 표현된다. 이용자 (184)는 기준 표상 (186)에 의해 표현된다.
공간성 가청환경은 한쌍의 스피커 (190)으로부터 발산되는 음파에 의해 창출된다. 실질적인 가청공간의 각각의 음성 원들의 위치는 표시장치 표상의 상응하는 표상의 위치에 의존한다. 예증의 형식으로, 이용자 (184)가 음악이, 배경에 그의 좌측으로 떨어져 있기를 바라면; 그는 음악 표상 (182)를 기준 표상 (186)의 좌측으로으로 떠러져 위치를 정한다. 사람 C 표상 (176)은, 설명의 목적을 위해, 기준 표상 (186) 부근에 위치돼 있으므로, 이용자는 현재 사람 C와 회화하고 있다. 참조수자 (172와 174)로 지시한 사람들 A와 B에 대한 표상들은 기준 표상에서 떨어져 표시장치의 맞은 편에 위치한다. 이는 사람들 A나 B가 이용자의 주의를 구두로 입수하게 하며, 또한, 이용자는 사람들 A와 B 의 사이를 공간적으로 구별할 수 있다.
본 발명에 따라, 복수의 음성 원으로부터 실질적인 가청환경을 창출하는 방법이 도 9의 플로 차트로 기술돼 있다. 각각의 음성 원에 대한 대표적인 표상을 표시하는 단계는 블록 (194)에 의해 실행된다. 표시의 그 단계는 기준위치에 기준 표상을 표시하는 단계를 더 포함할 수 있다. 블록 (196)에서, 각각의 음성 원은 기준위치에 관해 상응하는 표상의 위치에 의존하여 증폭된다. 앞서 검토한 바와 같이, 각 음성 원은 데카르트 거리 미터법이나 좌표 축선을 따라 측정된 거리나를 채용하는 우선의 실시양태로, 상응하는 표상의 위치와 기준위치 간의 거리에 의존하여 증폭된다. 도 8a를 참조하면, 전화 표상 (180)과 기준 표상 (186) 사이의 데카르트 거리는 참조수자 (200)으로 지시돼 있는 한편, 수직 축선을 따라 측정한 거리는 참조수자 (202)로 지시돼 있다.
기준위치에 관해 상응하는 표상의 위치에 의존하는 각각의 음성 원을 처리하는 단계는 블록 (204)로 실행된다. 앞서 검토한 바와 같이, 이 단계는, 상의 위치와 기준위치 간의 선분과 기준위치를 통과하는 수평선분에 의해 형성된, 도 8a에 전화 표상 (180)에 대해 참조수자 (206)으로 지시한 각에 의존하여 각 음성 원을 처리함에 의해 실행될 수 있다. 대신, 각 음성 원은, 수평 축선과 같은 좌표 축선을 따라 측정된, 표상의 위치와 기준위치 간의 거리 (208)에 의존하여 처리될 수 있다.
블록 (210)에서는, 증폭되어 처리된 음성 원들이 혼합된다. 혼합 음성 원을 대표하는 음파가 다음 블록 (21)에서 산출된다. 이들 음파는 공간성 가청환경을 창출한다.
본 발명에 따라, 도 10은 음성회의 장치의 한 실시양태의 블록도의 도시이다. 장치는 셋의 공간성 가청장치들 (220, 222, 및 224)의 형식으로 도시돼 있다. 각각의 공간성 가청장치의 음성 입력 장치는 타의 둘의 공간성 가청장치의 오디오 믹서에 대한 입력으로 적용된다. 예를 들면, 공간성 가청장치 (220)의 음성 입력 장치 (226)은 공간성 가청장치 (222)의 오디오 믹서 (230)에와, 공간성 가청장치 (224)의 오디오 믹서 (232)에 연결된다. 그러므로, 마이크로폰을 함유하는 음성 입력 장치 (226)에 대해, 공간성 가청장치 (220)의 이용자는 공간성 가청장치들 (222와 224)의 이용자들에게 구두로 전달할 수 있다.
결과적으로, 각각의 공간적 가청장치의 오디오 믹서는 각각의 타의 둘의 공간성 가청장치들의 음성 입력 장치에 연결된다. 상세히 말해, 공간성 가청장치 (220)을 위해 오디오 믹서 (234)가 음성 입력 장치 (236)과 음성 입력 장치 (240)에 연결된다. 그러므로, 공간성 가청장치 (220)의 이용자는, 도식의 이용자 인터페이스 (242)를 이용하는 타의 이용자들 중의 하나를 나타내는 표상의 위치를 변경함에 의해 각각의 타의 둘의 이용자들의 공간성 가청위치를 변경시키는 능력이 있다.
본 발명에 따라 음성회의 장치의 대안의 실시양태의 블록도를 도 11에 나타내 있다. 설명의 목적을 위하여, 그 장치는 셋의 공간성 가청장치 (250, 252, 및 254)의 형식으로 도시돼 있다. 이 실시양태에 있어서는, 오디오 믹서들 (256)과 프로세서 (260)이 가청장치들 (250, 252, 및 254)와의 연결을 위하여 중앙에 위치해 있다. 그러한 배치는 각 이용자가 그의 기준 표상의 기준위치 만을 변경할 능력이 있는 경우에 전도력이 있다. 더 상세히 말하여, 각각의 이용자는 상응하는 도식의 이용자 인터페이스 상의 공통 표시공간을 바라본다. 한 이용자가 그의 표준 표상의 위치를 변경하는 경우, 중앙 프로세서 (260)은, 이용자을 나타내는 표상의 위치를 변경할 것을 다른 도식의 이용자 인터페이스에 명한다. 중앙 프로세서 (260)은 적용을 위해 상호에 관하여 각 표상의 상대위치에 의존하여 오디오 믹서 (256)에제어 신호를 발생시킨다. 제어 신호들에 응하여, 오디오 믹서들은 음성 출력 장치에의 적용을 위해 혼합 음성 신호들 형성하게 각각의 음성 원을 변하기 쉽게 증폭하여 처리한다.
물론, 누구든 도 10과 11에 주어진 세 이용자 예들이 그저 음성회의 장치의 실시양태의 예증이라는 것과, 또 음성회의 장치의 실시양태를 어떤 복수의 이용자들을 위해 이용할 수 있다는 것을 인지할 것이다. 또한, 음성회의 장치의 실시양태들을 일반적인 송신기-수신기 쌍, 즉, 송수신기에 연결할 수가 있다.
본 발명의 전술한 이형들은, 이용자가 조리있고 일관된 공간성화 표현의 음성 원을 옮기거나 설치함에 의하여 가청환경을 배열하고 다루게 할 능력을 포함한, 많은 장점이 있다. 예를 들면, 사람의 표현을 이용자의 표현에 가까운 좌측에 옮기는 것은 그 사람의 음성 표현을 가깝게 이용자의 좌측으로 이동시킨다. 이는 음성환경에 걸친 이용자 완전 제어를 허용하며, 간단하고 신속한 음성공간 재배치에 대한 여유를 공여한다. 그 것은 조리있는 음성공간과 개념상의 표현들을 통해 통신의 실질적인 공간들을 창출하는 새로운 모델을 또한 제공한다.
발명을 실시하기 위한 최량의 방법을 상세히 설명하였지만, 본 발명이 관련하는 기술에 숙련한 이들은 하기의 특허청구의 범위에 정의된 바와 같은 본 발명을 실행하기 위한 여러가지 대안의 고안과 실시양태들을 인지할 것이다.

Claims (70)

  1. 복수의 장소의 복수의 이용자 간의 음성 통신 장치치로서,
    각 세트의 음성 입력센서가 그 근접의 가청공간을 입체음향으로 감지하는, 한 세트의 음성 입력 센서들;
    각각의 장소의 은유적 표현을 제공하고, 각 은유적 표현은 은유적 공간 내의 이용자 입력에 응하여 변할 수 있는 위치를 가지는, 수단;
    적어도 하나의 종합적인 가청공간을 형성하게 각 장소에 감지된 가청공간을 통합하고, 그 적어도 하나의 종합적인 가청공간은 은유적 공간 내의 은유적 표현의 위치에 의존하여 형성되는, 수단; 및
    적어도 하나의 종합적인 가청공간에 기초한 각 장소에 입체음향으로 지각할 수 있는 가청환경을 산출하는 수단,
    을 함유하는 장치.
  2. 제 1 항에 있어서,
    은유적 공간은 각 종합적인 가청공간을 은유적으로 표현하는 복수의 부분공간으로 그려지는 장치.
  3. 제 2 항에 있어서,
    하나의 종합적인 가청공간이, 소정의 부분공간 내에 내포된 은유적 표현을 가진 적어도 하나의 장소의 가청공간을 통합함에 의해 형성되는 장치.
  4. 제 1 항에 있어서,
    하나의 장소에 감지된 가청공간이 은유적 공간 내의 하나의 장소의 은유적 표현의 위치에 의존하는 또 다른 장소의 입체음향으로 감지된 위치에 산출되는 장치.
  5. 제 1 항에 있어서,
    은유적 표현을 제공하는 수단이 적어도 하나의 장소의 물리적 표현을 제공하는 장치.
  6. 제 5 항에 있어서,
    은유적 표현을 제공하는 수단이,
    각 물리적 대상이 물리공간 내에서 변할 수 있는 위치를 가지는, 적어도 하나의 장소를 은유적으로 표현하는 적어도 하나의 물리적 대상과;
    물리공간 내의 적어도 하나의 물리적 대상의 위치를 감지하는 수단,
    을 포함하는 장치.
  7. 제 6 항에 있어서,
    적어도 하나의 물리적 대상이 평탄 면에 배치가능한 장치.
  8. 제 6 항에 있어서,
    적어도 하나의 물리적 대상이 복수의 평탄 면에 배치가능한 장치.
  9. 제 1 항에 있어서,
    은유적 표현을 제공하는 수단이 적어도 하나의 장소의 시각 표현을 제공하는 장치.
  10. 제 9 항에 있어서,
    은유적 표현을 제공하는 수단이,
    적어도 하나의 도식의 대상이 표시되고, 그 적어도 하나의 도식의 대상이 그 적어도 하나의 장소을 은유적으로 표현하는, 표시장치;
    그 적어도 하나의 도식의 대상을 그 표시장치 상에 변할 수 있게 배치하는 수단; 및
    그 적어도 하나의 도식의 대상의 위치를 결정하는 수단,
    을 포함하는 장치.
  11. 제 1 항에 있어서,
    은유적 표현을 제공하는 수단이 적어도 하나의 장소의 가청표현을 제공하는 장치.
  12. 제 11 항에 있어서,
    은유적 표현을 제공하는 수단이,
    적어도 하나의 가청 대상이 위에 표시되고, 적어도 하나의 가청 대상이 적어도 하나의 장소를 은유적으로 표현하는, 가청 표시장치;
    적어도 하나의 가청 대상을 변할 수 있게 배치하는 수단; 및
    적어도 하나의 가청 대상의 위치를 결정하는 수단,
    을 포함하는 장치.
  13. 제 1 항에 있어서,
    은유적 표현을 제공하는 수단이 적어도 하나의 장소의 구조상의 표현을 제공하는 장치.
  14. 제 13 항에 있어서,
    은유적 표현을 제공하는 수단이,
    적어도 하나의, 기억을 돕는 대상의 상태공간 모델을 유지하는 제어 프로그램을 실행하고, 적어도 하나의, 기억을 돕는 대상이 적어도 하나의 장소를 은유적으로 표현하는, 컴퓨터;
    상태공간 모델 내의 적어도 하나의, 기억을 돕는 대상을 변경하는 구조상의 지령을 수신하는 수단; 및
    상태공간 모델 내의 적어도 하나의, 기억을 돕는 대상의 상태의 구조상의 지시를 표시하는 수단,
    을 포함하는 장치.
  15. 제 1 항에 있어서,
    하나의 장소의 음성 입력 센서의 세트가 사람의 귀들 사이의 소정의 두개내 거리를 가장하게 구성된 한쌍의 마이크로폰을 포함하는 장치.
  16. 제 1 항에 있어서,
    하나의 장소의 음성 입력 센서의 세트가 소정의 입체음향의 두개관련 전송기능을 물리적으로 가장하는 한쌍의 센서를 포함하는 장치.
  17. 제 1 항에 있어서,
    하나의 장소의 음성 입력 센서의 세트가 인접의 가청공간에 응하여 한쌍의 생체내 고막의 이동을 감지하는 한쌍의 환치 센서를 포함하는 장치.
  18. 제 1 항에 있어서,
    통합하는 수단이 장소들 중의 하나에 감지된 가청공간을 소정의 입체음향의 인간의 두개관련 전송 기능으로 감는 수단을 포함하는 장치.
  19. 제 1 항에 있어서,
    통합하는 수단이 적어도 하나의 다른 장소에 감지된 가청공간에 기초한 하나의 종합적인 가청공간을 작성하는 적어도 하나의 디지틀 오디오 프로세서를 포함하는 장치.
  20. 제 1 항에 있어서,
    종합적인 가청환경을 산출하는 수단이 적어도 하나의 다른 장소에 감지된 가청공간에 기초한 장소들 중의 하나에 종합적인 가청환경을 작성하는 적어도 하나의 아날로그 믹서를 포함하는 장치.
  21. 제 1 항에 있어서,
    입체음향으로 지각가능한 가청환경을 산출하는 수단은 장소들 중의 하나에 위치된 복수의 스피커를 포함하는 장치.
  22. 제 1 항에 있어서,
    입체음향으로 지각가능한 가청환경을 산출하는 수단은 이용자의 고막을 연동하는 수단을 포함하는 장치.
  23. 복수의 장소의 복수의 이용자 간의 음성 통신의 방법으로서,
    각 장소에 한 세트의 음성 입력 센서를 마련하고;
    각 세트의 음성 입력 세서 인접의 가청공간을 입체음향으로 감지하고;
    각각의 장소의 은유적 표현을 마련하여, 각 은유적 표현이 이용자 입력에 응하여 은유정 공간 내에 변할 수 있는 장소를 가지고;
    적어도 하나의 종합적 가청공간을 형성하게 각 장소에 감지된 가청공간을 통합하여, 그 적어도 하나의 종합적 가청공간이 은유적 공간 내의 각 은유적 표현의 위치에 의존하여 형성되며; 또
    적어도 하나의 종합적 가청공간에 기초한 각 장소에 입체음향으로 지각가능한 가청환경을 산출하는,
    단계들을 함유하는 방법.
  24. 제 23 항에 있어서,
    은유적 공간이 각 종합적 가청공간을 은유적으로 표현하는 복수의 부분공간 상태로 그려지는 방법.
  25. 제 24 항에 있어서,
    적어도 하나의 종합적 가청공간의 하나가 소정의 부분공간 내에 내포되는 은유적 표현을 가지는 적어도 하나의 장소의 가청공간을 통합함에 의해 형성되는 방법.
  26. 제 23 항에 있어서,
    하나의 장소에 감지되는 가청공간이 은유적인 공간 내의 하나의 장소의 은유적인 표현의 위치에 의존하는 또 다른 장소의 입체음향으로 감지되는 위치에 산출되는 방법.
  27. 제 23 항에 있어서,
    은유적 표현을 마련하는 단계가 적어도 하나의 장소의 물리표현 마련을 포함하는 방법.
  28. 제 27 항에 있어서,
    은유적 표현을 마련하는 단계가,
    적어도 하나의 장소을 은유적으로 표현하는 적어도 하나의 물리적 대상을 마련하고, 각 물리적 대상은 물리공간 내에서 변할 수 있는 위치를 가지며;
    물리공간 내의 적어도 하나의 물리적 대상의 위치 감지,
    를 포함하는 방법.
  29. 제 28 항에 있어서,
    적어도 하나의 물리적 대상이 평탄 면에 배치가능한 방법.
  30. 제 28 항에 있어서,
    적어도 하나의 물리적 대상이 복수의 평탄 면에 배치가능한 방법.
  31. 제 23 항에 있어서,
    은유적 표현을 제공하는 단계가 적어도 하나의 장소의 시각 표현을 제공하는 방법.
  32. 제 31 항에 있어서,
    은유적 표현을 제공하는 단계가,
    적어도 하나의 도식의 대상이 표시되고, 그 적어도 하나의 도식의 대상이 그 적어도 하나의 장소을 은유적으로 표현하는 표시장치를 마련하고;
    그 적어도 하나의 도식의 대상을 그 표시장치 상에 변할 수 있게 배치하며;
    그 적어도 하나의 도식의 대상의 위치를 결정하는 것,
    을 포함하는 방법.
  33. 제 23 항에 있어서,
    은유적 표현을 제공하는 단계가 적어도 하나의 장소의 가청표현을 제공하는 것을 포함하는 방법.
  34. 제 33 항에 있어서,
    은유적 표현을 제공하는 단계가,
    적어도 하나의 가청 대상이 위에 표시되고, 적어도 하나의 가청 대상이 적어도 하나의 장소를 은유적으로 표현하는 가청 표시장치를 마련하기;
    적어도 하나의 가청 대상을 변할 수 있게 배치하기; 및
    적어도 하나의 가청 대상의 위치를 결정하기,
    을 포함하는 방법.
  35. 제 23 항에 있어서,
    은유적 표현을 제공하는 단계는 적어도 하나의 장소의 구조상의 표현을 제공하는 것을 포함하는 방법.
  36. 제 35 항에 있어서,
    은유적 표현을 제공하는 단계가,
    적어도 하나의, 기억을 돕는 대상의 상태공간 모델을 유지하게 컴퓨터에서 제어 프로그램을 실행하고, 그 적어도 하나의, 기억을 돕는 대상이 적어도 하나의 장소를 은유적으로 표현하고;
    상태공간 모델 내의 적어도 하나의, 기억을 돕는 대상의 상태를 변경하는 구조상의 지령을 수신하며;
    상태공간 내의 적어도 하나의, 기억을 돕는 대상의 상태의 구조상의 지시를 표시하는 것,
    을 포함하는 방법.
  37. 제 23 항에 있어서,
    하나의 장소의 음성 입력 센서의 세트가 사람의 귀들 사이의 소정의 두개내 거리를 가장하게 구성된 한쌍의 마이크로폰을 포함하는 방법.
  38. 제 23 항에 있어서,
    하나의 장소의 음성 입력 센서의 세트가 소정의 입체음향의 두개관련 전송 기능을 물리적으로 가장하는 한쌍의 센서를 포함하는 방법.
  39. 제 23 항에 있어서,
    하나의 장소의 음성 입력 센서의 세트가 인접의 가청공간에 응하여 한쌍의 생체내 고막의 이동을 감지하는 한쌍의 환치 센서를 포함하는 방법.
  40. 제 23 항에 있어서,
    통합하는 단계가 장소들 중의 하나에 감지된 가청공간을 소정의 입체음향의 인간의 두개관련 전송 기능으로 감는 것을 포함하는 방법.
  41. 제 23 항에 있어서,
    통합하는 단계가,
    적어도 하나의 디지틀 오디오 프로세서를 마련하며;
    그 적어도 하나의 디지틀 오디오 프로세서를 이용하여 적어도 하나의 다른 장소에 감지되는 가청공간을 토대로한 장소들 중의 하나에 종합적인 가청환경을 작성하는 것,
    을 포함하는 방법.
  42. 제 23 항에 있어서,
    종합적인 가청환경을 산출하는 단계가,
    적어도 하나의 아날로그 믹서를 마련하며;
    그 적어도 하나의 아날로그 믹서를 이용하여 적어도 하나의 다른 장소에 감지되는 가청공간을 토대로한 장소들 중의 하나에 종합적인 가청환경을 작성하는 것,
    을 포함하는 방법.
  43. 제 23 항에 있어서,
    입체음향으로 감지가능한 가청환경이 장소들 중의 하나에 위치되는 복수의 스피커를 이용하여 산출되는 방법.
  44. 제 23 항에 있어서,
    입체음향으로 감지가능한 가청환경을 산출하는 단게가 이용자의 고막을 연동을 하게 하기를 포함하는 방법.
  45. 각각의 복수의 외부 송수신기를 가진 상응하는 쌍방향성 음성통신 링크를 이용자에게 제공하는, 음성 회의 장치로의 이용을 위한 장치로서, 음성 회의 장치는 그에 적용되는 제1의 음성 신호로부터 음파를 산출할 능력이 있는 음성 출력 장치를 내포하고, 음성 회의 장치는 복수의 외부 송수신기에의 회신을 위해, 수신한 음파로부터 제2의 음성 신호를 산출할 능력이 있는 음성 입력 장치를 또한 내포하고, 그 장치는,
    상응하는 위치의 각각의 외부 송수신기에 대한 상응하는 표상을 표시공간에 표시하고, 각 상의 상응하는 위치는 이용자에 의해 변경될 능력이 있는, 도식의 이용자 인터페이스;
    그 도식의 인터페이스와 활동하게 연합되고, 기준위치에 관해 각 표상의 상응하는 위치에 의존하는 제어 신호를 발생시키는, 프로세서; 및
    그 프로세서와 활동하게 연합되고, 제어 신호에 의지하는 각각의 복수의 외부 송수신기로부터 수신한 상응하는 음성 신호를 변할 수 있게 증폭하여 변할 수 있게 처리하며, 또 그의 통합으로 혼합 음성 신호를 형성하는, 오디오 믹서,
    를 함유하여;
    그 혼합 음성 신호가, 복수의 외부 송수신기로부터 수신한 음성 신호들에 기초한 공간성 가청환경을 창출하기 위해 음성 출력 장치에 적용되는, 장치.
  46. 제 45 항에 있어서,
    각 상응하는 음성 신호가 상응하는 표상의 위치와 기준위치 간의 거리에 의존하여 증폭되는 장치.
  47. 제 46 항에 있어서,
    거리가 데카르트 거리인 장치.
  48. 제 46 항에 있어서,
    거리가 좌표 축선을 따라 측정되는 장치.
  49. 제 48 항에 있어서,
    좌표 축선이 일반적으로 수직의 배치를 가지고 있는 장치.
  50. 제 45 항에 있어서,
    각 상응하는 음성 신호가 소정의 축선 및 상응하는 표상의 상응하는 위치와 기준위치를 동시에 통과하는 선 간의 각에 의존하여 처리되는 장치.
  51. 제 45 항에 있어서,
    각 상응하는 음성 신호가 상응하는 표상의 상응하는 위치와 기준위치 간의 거리에 의존하여 처리되는 장치.
  52. 제 51 항에 있어서,
    거리가 좌표 축선을 따라 측정되는 장치.
  53. 제 52 항에 있어서,
    상응하는 축선이 일반적으로 수평의 배치를 가지고 있는 장치.
  54. 제 45 항에 있어서,
    도식의 이용자 인터페이스가 표시공간의 기준위치에 기준 표상을 표시하는 능력이 더 있는 장치.
  55. 제 54 항에 있어서,
    도식의 이용자 인터페이스는 이용자가 기준 표상의 기준위치를 또한 변경하게 하는 장치.
  56. 제 45 항에 있어서,
    혼합 음성 신호가 스테레오 신호인 장치.
  57. 제 45 항에 있어서,
    음성 출력 장치가 복수의 스피커를 함유하는 장치.
  58. 각각의 복수의 외부 송수신기로 하는 쌍방향성 통신의 방법으로서,
    제1의 음성 신호를 각각의 복수의 외부 송수신기에 발신하고;
    표시공간의 상응하는 위치에 각각의 외부 송수신기에 대한 상응하는 표상을 표시하고;
    각각의 복수의 외부 송수신기로부터 상응하는 음성 신호를 수신하고;
    기준위치에 관해 상응하는 표상의 상응하는 위치에 의존하여 각 상응하는 음성 신호를 증폭하여 처리하며; 또
    그 증폭하여 처리된 상응하는 음성 신호들을 혼합 음성 신호를 형성하기 위해 혼합하고;
    그 혼합 음성 신호를, 복수의 외부 송수신기로부터 수신한 음성 신호들을 토대로 한 공간성 가청환경을 창충하기 위해, 음성 출력 장치에 적용하는,
    단계들을 함유하는, 방법.
  59. 제 58 항에 있어서,
    적어도 하나의 표상의 상응하는 위치를 변경하는 단계를 더 함유하는 방법.
  60. 제 58 항에 있어서,
    각 상응하는 음성 신호가 상응하는 표상의 상응하는 위치와 기준위치 간의 거리에 의존하여 증폭되는 방법.
  61. 제 60 항에 있어서,
    거리가 데카르트 거리인 방법.
  62. 제 60 항에 있어서,
    거리가 좌표 축선을 따라 측정되는 방법.
  63. 제 62 항에 있어서,
    좌표 축선이 일반적으로 수직의 배치인 방법.
  64. 제 58 항에 있어서,
    각 상응하는 음성 신호가 소정의 축선 및 상응하는 표상의 상응하는 위치와 기준위치를 동시에 통과하는 선 간의 각에 의존하여 처리되는 장치.
  65. 제 58 항에 있어서,
    각 상응하는 음성 신호가 상응하는 표상의 상응하는 위치와 기준위치 간의 거리에 의존하여 처리되는 방법.
  66. 제 65 항에 있어서,
    거리가 좌표 축선을 따라 측정되는 방법.
  67. 제 66 항에 있어서,
    좌표 축선이 일반적으로 수평의 배치인 방법.
  68. 제 58 항에 있어서,
    도식의 이용자 인터페이스가 표시공간의 기준위치에 기준 표상을 표시하는 능력이 더 있는 방법.
  69. 제 68 항에 있어서,
    도식의 이용자 인터페이스는 이용자가 기준 표상의 기준위치를 또한 변경하게 하는 방법.
  70. 제 58 항에 있어서,
    혼합 음성 신호가 스테레오 신호인 방법.
KR10-1998-0706943A 1996-03-04 1997-03-03 음성 회의 장치에 공간성 가청환경을 창출하는 방법 및 장치 KR100436362B1 (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US610,638 1996-03-04
US08/610,638 US5889843A (en) 1996-03-04 1996-03-04 Methods and systems for creating a spatial auditory environment in an audio conference system

Publications (2)

Publication Number Publication Date
KR19990087511A KR19990087511A (ko) 1999-12-27
KR100436362B1 true KR100436362B1 (ko) 2004-07-16

Family

ID=24445843

Family Applications (1)

Application Number Title Priority Date Filing Date
KR10-1998-0706943A KR100436362B1 (ko) 1996-03-04 1997-03-03 음성 회의 장치에 공간성 가청환경을 창출하는 방법 및 장치

Country Status (6)

Country Link
US (1) US5889843A (ko)
EP (1) EP0879545A1 (ko)
JP (1) JP3321178B2 (ko)
KR (1) KR100436362B1 (ko)
AU (1) AU2064897A (ko)
WO (1) WO1997033450A1 (ko)

Families Citing this family (104)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5956491A (en) 1996-04-01 1999-09-21 Marks; Daniel L. Group communications multiplexing system
US6005919A (en) 1996-10-25 1999-12-21 Radionics, Inc. Jaw and circular collimator
US6408327B1 (en) * 1998-12-22 2002-06-18 Nortel Networks Limited Synthetic stereo conferencing over LAN/WAN
GB2349055B (en) * 1999-04-16 2004-03-24 Mitel Corp Virtual meeting rooms with spatial audio
US6459769B1 (en) 1999-05-03 2002-10-01 Sherwood Services Ag Movable miniature multi-leaf collimator
US6466250B1 (en) * 1999-08-09 2002-10-15 Hughes Electronics Corporation System for electronically-mediated collaboration including eye-contact collaboratory
US20040193722A1 (en) * 1999-08-30 2004-09-30 Donovan Kevin Remington Joseph Bartholomew Universal instant messaging system for the internet
US6559863B1 (en) * 2000-02-11 2003-05-06 International Business Machines Corporation System and methodology for video conferencing and internet chatting in a cocktail party style
US7461936B2 (en) 2000-06-02 2008-12-09 Oakley, Inc. Eyeglasses with detachable adjustable electronics module
US8482488B2 (en) 2004-12-22 2013-07-09 Oakley, Inc. Data input management system for wearable electronically enabled interface
US20120105740A1 (en) 2000-06-02 2012-05-03 Oakley, Inc. Eyewear with detachable adjustable electronics module
US7150526B2 (en) * 2000-06-02 2006-12-19 Oakley, Inc. Wireless interactive headset
US6850496B1 (en) * 2000-06-09 2005-02-01 Cisco Technology, Inc. Virtual conference room for voice conferencing
US7522734B2 (en) * 2000-10-10 2009-04-21 The Board Of Trustees Of The Leland Stanford Junior University Distributed acoustic reverberation for audio collaboration
GB2376123B (en) * 2001-01-29 2004-06-30 Hewlett Packard Co Facilitation of speech recognition in user interface
US20030227476A1 (en) * 2001-01-29 2003-12-11 Lawrence Wilcock Distinguishing real-world sounds from audio user interface sounds
GB2374506B (en) * 2001-01-29 2004-11-17 Hewlett Packard Co Audio user interface with cylindrical audio field organisation
GB2372923B (en) * 2001-01-29 2005-05-25 Hewlett Packard Co Audio user interface with selective audio field expansion
GB2374502B (en) * 2001-01-29 2004-12-29 Hewlett Packard Co Distinguishing real-world sounds from audio user interface sounds
GB0127776D0 (en) * 2001-11-20 2002-01-09 Hewlett Packard Co Audio user interface with multiple audio sub-fields
GB2374507B (en) * 2001-01-29 2004-12-29 Hewlett Packard Co Audio user interface with audio cursor
US7184559B2 (en) * 2001-02-23 2007-02-27 Hewlett-Packard Development Company, L.P. System and method for audio telepresence
US7116787B2 (en) * 2001-05-04 2006-10-03 Agere Systems Inc. Perceptual synthesis of auditory scenes
US7292901B2 (en) * 2002-06-24 2007-11-06 Agere Systems Inc. Hybrid multi-channel/cue coding/decoding of audio signals
US7583805B2 (en) * 2004-02-12 2009-09-01 Agere Systems Inc. Late reverberation-based synthesis of auditory scenes
US20030035553A1 (en) * 2001-08-10 2003-02-20 Frank Baumgarte Backwards-compatible perceptual coding of spatial cues
US7644003B2 (en) 2001-05-04 2010-01-05 Agere Systems Inc. Cue-based audio coding/decoding
US7006636B2 (en) * 2002-05-24 2006-02-28 Agere Systems Inc. Coherence-based audio coding and synthesis
US7013009B2 (en) 2001-06-21 2006-03-14 Oakley, Inc. Eyeglasses with wireless communication features
AUPR989802A0 (en) 2002-01-09 2002-01-31 Lake Technology Limited Interactive spatialized audiovisual system
US7532732B2 (en) * 2002-06-28 2009-05-12 Intel Corporation Method and apparatus for VoIP telephony call announcement
EP1547434B8 (en) * 2002-07-26 2012-03-07 Oakley, Inc. Wireless interactive headset
GB2392284B (en) * 2002-08-06 2005-11-16 Hewlett Packard Development Co Method and arrangement for guiding a user along a target path
GB2392285B (en) * 2002-08-06 2006-04-12 Hewlett Packard Development Co Method and arrangement for guiding a user along a target path
US7383497B2 (en) * 2003-01-21 2008-06-03 Microsoft Corporation Random access editing of media
US7509321B2 (en) * 2003-01-21 2009-03-24 Microsoft Corporation Selection bins for browsing, annotating, sorting, clustering, and filtering media objects
US7904797B2 (en) * 2003-01-21 2011-03-08 Microsoft Corporation Rapid media group annotation
US7117453B2 (en) * 2003-01-21 2006-10-03 Microsoft Corporation Media frame object visualization system
US7698141B2 (en) 2003-02-28 2010-04-13 Palo Alto Research Center Incorporated Methods, apparatus, and products for automatically managing conversational floors in computer-mediated communications
US7617094B2 (en) 2003-02-28 2009-11-10 Palo Alto Research Center Incorporated Methods, apparatus, and products for identifying a conversation
JP2004348647A (ja) * 2003-05-26 2004-12-09 Hitachi Ltd ヒューマン・コミュニケーション・システム
US7213206B2 (en) * 2003-09-09 2007-05-01 Fogg Brian J Relationship user interface
US7805313B2 (en) * 2004-03-04 2010-09-28 Agere Systems Inc. Frequency-based coding of channels in parametric multi-channel coding systems
JP2005326987A (ja) * 2004-05-13 2005-11-24 Sony Corp オーディオ信号伝送システム、オーディオ信号伝送方法、サーバー、ネットワーク端末装置、プログラム及び記録媒体
JP4546151B2 (ja) * 2004-05-26 2010-09-15 株式会社日立製作所 音声コミュニケーション・システム
USD523442S1 (en) * 2004-05-27 2006-06-20 Sony Computer Entertainment Inc. Computer generated image for a display panel or screen
US8687820B2 (en) * 2004-06-30 2014-04-01 Polycom, Inc. Stereo microphone processing for teleconferencing
JP2006025281A (ja) * 2004-07-09 2006-01-26 Hitachi Ltd 情報源選択システム、および方法
US7720212B1 (en) 2004-07-29 2010-05-18 Hewlett-Packard Development Company, L.P. Spatial audio conferencing system
US8627213B1 (en) * 2004-08-10 2014-01-07 Hewlett-Packard Development Company, L.P. Chat room system to provide binaural sound at a user location
US7720230B2 (en) * 2004-10-20 2010-05-18 Agere Systems, Inc. Individual channel shaping for BCC schemes and the like
US8204261B2 (en) * 2004-10-20 2012-06-19 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. Diffuse sound shaping for BCC schemes and the like
US7787631B2 (en) * 2004-11-30 2010-08-31 Agere Systems Inc. Parametric coding of spatial audio with cues based on transmitted channels
US7761304B2 (en) 2004-11-30 2010-07-20 Agere Systems Inc. Synchronizing parametric coding of spatial audio with externally provided downmix
EP1817767B1 (en) * 2004-11-30 2015-11-11 Agere Systems Inc. Parametric coding of spatial audio with object-based side information
US7903824B2 (en) * 2005-01-10 2011-03-08 Agere Systems Inc. Compact side information for parametric coding of spatial audio
US7627599B2 (en) * 2005-05-20 2009-12-01 Palo Alto Research Center Incorporated Method, apparatus, and program product for visualizing tree structured information
US7822607B2 (en) * 2005-08-26 2010-10-26 Palo Alto Research Center Incorporated Computer application environment and communication system employing automatic identification of human conversational behavior
US7397060B2 (en) * 2005-11-14 2008-07-08 Macronix International Co., Ltd. Pipe shaped phase change memory
US7593354B2 (en) * 2006-03-22 2009-09-22 Musigy Usa, Inc. Method and system for low latency high quality music conferencing
US8533630B2 (en) * 2006-09-05 2013-09-10 Intel Corporation Method and apparatus for controlling an array of input/output devices
US20080094885A1 (en) * 2006-10-24 2008-04-24 Macronix International Co., Ltd. Bistable Resistance Random Access Memory Structures with Multiple Memory Layers and Multilevel Memory States
WO2008076774A2 (en) 2006-12-14 2008-06-26 Oakley, Inc. Wearable high resolution audio visual interface
US20080253547A1 (en) * 2007-04-14 2008-10-16 Philipp Christian Berndt Audio control for teleconferencing
US20080252637A1 (en) * 2007-04-14 2008-10-16 Philipp Christian Berndt Virtual reality-based teleconferencing
US20080256452A1 (en) * 2007-04-14 2008-10-16 Philipp Christian Berndt Control of an object in a virtual representation by an audio-only device
EP2009891B1 (fr) * 2007-06-26 2019-01-16 Orange Transmission de signal audio dans un système de conférence audio immersive
USD607003S1 (en) 2007-09-04 2009-12-29 Apple Inc. Graphical user interface for a display screen or portion thereof
US7769806B2 (en) 2007-10-24 2010-08-03 Social Communications Company Automated real-time data stream switching in a shared virtual area communication environment
US7844724B2 (en) * 2007-10-24 2010-11-30 Social Communications Company Automated real-time data stream switching in a shared virtual area communication environment
US8397168B2 (en) 2008-04-05 2013-03-12 Social Communications Company Interfacing with a spatial virtual communication environment
DE102007052154A1 (de) * 2007-10-31 2009-05-07 Robert Bosch Gmbh Audiomodul zur akustischen Überwachung eines Überwachungsbereichs, Überwachungssystem für den Überwachungsbereich, Verfahren zur Erzeugung einer Klangumgebung sowie Computerprogramm
US9602295B1 (en) 2007-11-09 2017-03-21 Avaya Inc. Audio conferencing server for the internet
US9853922B2 (en) 2012-02-24 2017-12-26 Sococo, Inc. Virtual area communications
US8351589B2 (en) * 2009-06-16 2013-01-08 Microsoft Corporation Spatial audio for audio conferencing
US8363810B2 (en) * 2009-09-08 2013-01-29 Avaya Inc. Method and system for aurally positioning voice signals in a contact center environment
US8144633B2 (en) * 2009-09-22 2012-03-27 Avaya Inc. Method and system for controlling audio in a collaboration environment
US8547880B2 (en) * 2009-09-30 2013-10-01 Avaya Inc. Method and system for replaying a portion of a multi-party audio interaction
US8121618B2 (en) * 2009-10-28 2012-02-21 Digimarc Corporation Intuitive computing methods and systems
CN101877643B (zh) * 2010-06-29 2014-12-10 中兴通讯股份有限公司 多点混音远景呈现方法、装置及系统
US8744065B2 (en) 2010-09-22 2014-06-03 Avaya Inc. Method and system for monitoring contact center transactions
USD668263S1 (en) * 2010-10-08 2012-10-02 Apple Inc. Display screen or portion thereof with icon
WO2012063103A1 (en) 2010-11-12 2012-05-18 Nokia Corporation An Audio Processing Apparatus
US9736312B2 (en) 2010-11-17 2017-08-15 Avaya Inc. Method and system for controlling audio signals in multiple concurrent conference calls
WO2012177976A2 (en) * 2011-06-22 2012-12-27 Massachusetts Eye & Ear Infirmary Auditory stimulus for auditory rehabilitation
JP2015515638A (ja) 2012-02-17 2015-05-28 オークリー インコーポレイテッド 眼鏡類に電子デバイスを取り外し可能に連結するためのシステムおよび方法
AU345903S (en) * 2012-03-05 2012-12-05 Apple Inc Display screen for an electronic device
US20140215332A1 (en) * 2013-01-31 2014-07-31 Hewlett-Packard Development Company, Lp Virtual microphone selection corresponding to a set of audio source devices
CN205177388U (zh) 2013-03-15 2016-04-20 奥克利有限公司 目镜系统
USD755843S1 (en) 2013-06-10 2016-05-10 Apple Inc. Display screen or portion thereof with graphical user interface
WO2014201213A1 (en) 2013-06-12 2014-12-18 Oakley, Inc. Modular heads-up display system
US10219094B2 (en) * 2013-07-30 2019-02-26 Thomas Alan Donaldson Acoustic detection of audio sources to facilitate reproduction of spatial audio spaces
US20150189457A1 (en) * 2013-12-30 2015-07-02 Aliphcom Interactive positioning of perceived audio sources in a transformed reproduced sound field including modified reproductions of multiple sound fields
US9311639B2 (en) 2014-02-11 2016-04-12 Digimarc Corporation Methods, apparatus and arrangements for device to device communication
US9530426B1 (en) * 2015-06-24 2016-12-27 Microsoft Technology Licensing, Llc Filtering sounds for conferencing applications
US10587978B2 (en) 2016-06-03 2020-03-10 Nureva, Inc. Method, apparatus and computer-readable media for virtual positioning of a remote participant in a sound space
WO2017210784A1 (en) 2016-06-06 2017-12-14 Nureva Inc. Time-correlated touch and speech command input
WO2017210785A1 (en) 2016-06-06 2017-12-14 Nureva Inc. Method, apparatus and computer-readable media for touch and speech interface with audio location
CN111406400B (zh) * 2017-09-26 2022-05-10 惠普发展公司,有限责任合伙企业 会议电话参与者标识
US10674266B2 (en) 2017-12-15 2020-06-02 Boomcloud 360, Inc. Subband spatial processing and crosstalk processing system for conferencing
US10154364B1 (en) 2018-09-09 2018-12-11 Philip Scott Lyren Moving an emoji to move a location of binaural sound
US10499179B1 (en) 2019-01-01 2019-12-03 Philip Scott Lyren Displaying emojis for binaural sound
US11252490B2 (en) 2019-08-21 2022-02-15 Haier Us Appliance Solutions, Inc. Appliance suite equipped with a synced sound system
US11533578B2 (en) 2021-02-25 2022-12-20 Microsoft Technology Licensing, Llc Virtual environment audio stream delivery

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4516156A (en) * 1982-03-15 1985-05-07 Satellite Business Systems Teleconferencing method and system
US4645872A (en) * 1982-04-01 1987-02-24 John Hopkins University Videophone network system
US4516165A (en) * 1982-12-27 1985-05-07 International Business Machines Corporation Error recovery procedure using selective erasure
US4734934A (en) * 1986-11-24 1988-03-29 Gte Laboratories Incorporated Binaural teleconferencing system
US4953159A (en) * 1989-01-03 1990-08-28 American Telephone And Telegraph Company Audiographics conferencing arrangement
US5020098A (en) * 1989-11-03 1991-05-28 At&T Bell Laboratories Telephone conferencing arrangement
US5335011A (en) * 1993-01-12 1994-08-02 Bell Communications Research, Inc. Sound localization system for teleconferencing using self-steering microphone arrays
US5438623A (en) * 1993-10-04 1995-08-01 The United States Of America As Represented By The Administrator Of National Aeronautics And Space Administration Multi-channel spatialization system for audio signals
US5347306A (en) * 1993-12-17 1994-09-13 Mitsubishi Electric Research Laboratories, Inc. Animated electronic meeting place
US5491743A (en) * 1994-05-24 1996-02-13 International Business Machines Corporation Virtual conference system and terminal apparatus therefor

Also Published As

Publication number Publication date
EP0879545A1 (en) 1998-11-25
AU2064897A (en) 1997-09-22
WO1997033450A1 (en) 1997-09-12
US5889843A (en) 1999-03-30
JP3321178B2 (ja) 2002-09-03
JP2001503165A (ja) 2001-03-06
KR19990087511A (ko) 1999-12-27

Similar Documents

Publication Publication Date Title
KR100436362B1 (ko) 음성 회의 장치에 공간성 가청환경을 창출하는 방법 및 장치
US10694313B2 (en) Audio communication system and method
CN104782146B (zh) 用于表示物理空间中的声音场的方法及设备
KR101116081B1 (ko) 공간 사운드 복원용 헤드폰
US10620905B2 (en) Hearing device incorporating user interactive auditory display
EP3523799B1 (en) Method and apparatus for acoustic scene playback
US20150189457A1 (en) Interactive positioning of perceived audio sources in a transformed reproduced sound field including modified reproductions of multiple sound fields
US20090022343A1 (en) Binaural Recording For Smart Pen Computing Systems
Gálvez et al. Dynamic audio reproduction with linear loudspeaker arrays
JP4450764B2 (ja) スピーカ装置
JP2007068060A (ja) 音響再生システム
Crispien et al. Evaluation of the-cocktail-party effect-for multiple speech stimuli within a spatial auditory display
CN115777203A (zh) 信息处理装置、输出控制方法和程序
Yano et al. A study on personal difference in the transfer functions of sound localization using stereo earphones
KR20180018464A (ko) 입체 영상 재생 방법, 입체 음향 재생 방법, 입체 영상 재생 시스템 및 입체 음향 재생 시스템
Cohen et al. Spatial soundscape superposition and multimodal interaction
JP7472091B2 (ja) オンライン通話管理装置及びオンライン通話管理プログラム
Davis Loudspeaker systems with optimized wide-listening-area imaging
WO2006107074A1 (ja) 携帯端末装置
KR102121861B1 (ko) 디지털 사이니지용 독립 음장 형성 장치 및 이를 포함하는 디지털 사이니지 시스템
JPH07264700A (ja) 音像定位装置
KR102121860B1 (ko) 디지털 사이니지용 독립 음장 형성 장치 및 이를 포함하는 디지털 사이니지 시스템
Yu et al. Exploring the limits of virtual source localization with amplitude panning on a flat panel with actuator array: Implications for future research
Imaizumi et al. Wearable sound reproduction system using two end-fire arrays
EP1617702B1 (en) Portable electronic equipment with 3D audio rendering

Legal Events

Date Code Title Description
A201 Request for examination
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20130520

Year of fee payment: 10

FPAY Annual fee payment

Payment date: 20140521

Year of fee payment: 11

LAPS Lapse due to unpaid annual fee