KR20100097739A - 통신 시스템의 적어도 두 사용자들 사이의 통신들을 제어하는 방법 - Google Patents

통신 시스템의 적어도 두 사용자들 사이의 통신들을 제어하는 방법 Download PDF

Info

Publication number
KR20100097739A
KR20100097739A KR1020107015791A KR20107015791A KR20100097739A KR 20100097739 A KR20100097739 A KR 20100097739A KR 1020107015791 A KR1020107015791 A KR 1020107015791A KR 20107015791 A KR20107015791 A KR 20107015791A KR 20100097739 A KR20100097739 A KR 20100097739A
Authority
KR
South Korea
Prior art keywords
user
sound
users
indicator
relationship
Prior art date
Application number
KR1020107015791A
Other languages
English (en)
Inventor
베르너 피. 제이. 데 브루이즌
아키 에스. 해르매
Original Assignee
코닌클리케 필립스 일렉트로닉스 엔.브이.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 코닌클리케 필립스 일렉트로닉스 엔.브이. filed Critical 코닌클리케 필립스 일렉트로닉스 엔.브이.
Publication of KR20100097739A publication Critical patent/KR20100097739A/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/60Substation equipment, e.g. for use by subscribers including speech amplifiers
    • H04M1/6016Substation equipment, e.g. for use by subscribers including speech amplifiers in the receiver circuit
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/18Speech classification or search using natural language modelling
    • G10L15/1822Parsing for meaning understanding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/131Protocols for games, networked simulations or virtual reality
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/2866Architectures; Arrangements
    • H04L67/30Profiles
    • H04L67/306User profiles
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S7/00Indicating arrangements; Control arrangements, e.g. balance control
    • H04S7/30Control circuits for electronic adaptation of the sound field
    • H04S7/302Electronic adaptation of stereophonic sound system to listener position or orientation
    • H04S7/303Tracking of listener position or orientation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/60Substation equipment, e.g. for use by subscribers including speech amplifiers
    • H04M1/6033Substation equipment, e.g. for use by subscribers including speech amplifiers for providing handsfree use or a loudspeaker mode in telephone sets
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2250/00Details of telephonic subscriber devices
    • H04M2250/62Details of telephonic subscriber devices user interface aspects of conference calls
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2400/00Details of stereophonic systems covered by H04S but not provided for in its groups
    • H04S2400/11Positioning of individual sound objects, e.g. moving airplane, within a sound field
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2400/00Details of stereophonic systems covered by H04S but not provided for in its groups
    • H04S2400/13Aspects of volume control, not necessarily automatic, in stereophonic sound systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2420/00Techniques used stereophonic systems covered by H04S but not provided for in its groups
    • H04S2420/01Enhancing the perception of the sound image or of the spatial distribution using head related transfer functions [HRTF's] or equivalents thereof, e.g. interaural time difference [ITD] or interaural level difference [ILD]

Landscapes

  • Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Artificial Intelligence (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Telephonic Communication Services (AREA)
  • Telephone Function (AREA)
  • Mobile Radio Communication Systems (AREA)
  • Information Transfer Between Computers (AREA)

Abstract

통신 시스템은 하나의 사용자에 의해 다른 사용자로 통신되는 사운드를 들을 수 있게 재생하기 위한 적어도 하나의 사운드 재생성 시스템(13 내지 16, 18 내지 20)을 포함한다. 통신 시스템의 적어도 하나의 제 1 사용자 및 적어도 하나의 제 2 사용자 사이의 통신들을 제어하는 방법은, 다른 사용자 및 상기 다른 사용자에 의해 지각되는 상기 재생성된 사운드의 시발점의 위치 사이의 겉보기 거리가 조정되도록 하기 위해 사운드 재생성 시스템(13 내지 16, 18 내지 20)을 조정하는 단계를 포함한다. 적어도 하나의 제 1 사용자 및 적어도 하나의 제 2 사용자의 적어도 대인 관계의 적어도 하나의 표시자를 나타내는 데이터(23, 25)가 획득된다. 겉보기 거리는 적어도 하나의 대인 관계의 표시자 및 희망하는 대인 거리 사이의 미리 결정된 함수 관계에 따라 적어도 부분적으로 결정된다.

Description

통신 시스템의 적어도 두 사용자들 사이의 통신들을 제어하는 방법{METHOD OF CONTROLLING COMMUNICATIONS BETWEEN AT LEAST TWO USERS OF A COMMUNICATION SYSTEM}
본 발명은 통신 시스템의 적어도 하나의 제 1 및 적어도 하나의 제 2 사용자 사이의 통신들을 제어하는 방법에 관한 것으로서,
상기 통신 시스템은 상기 제 1 및 제 2 사용자들 중 하나의 사용자에 의해 상기 제 1 및 제 2 사용자들 중 다른 사용자로 통신되는 사운드를 들을 수 있게 재생성하기 위한 적어도 사운드 재생성 시스템을 포함한다.
본 발명은 또한 통신 시스템의 적어도 하나의 제 1 및 적어도 하나의 제 2 사용자 사이의 통신들을 제어하기 위한 시스템에 관한 것으로서,
상기 통신 시스템은 제 1 및 제 2 사용자들 중 하나의 사용자에 의해 상기 제 1 및 제 2 사용자들 중 다른 사용자로 통신되는 사운드를 들을 수 있게 재생성하기 위하여 적어도 사운드 재생성 시스템을 포함한다.
본 발명은 또한 컴퓨터 프로그램에 관한 것이다.
미국 2004/0109023은 플레이어(player)들에 의해 동작되고 네트워크 노드(node)에 접속되는 게임 장치들이 서버 장치에 의해 제어되는 네트워크 접속 구조를 개시한다. 네트워크 노드에 접속되는 게임 장치들 사이의 음성 채팅(chatting)들은 서버 장치에 의해 제어된다. 게임 장치의 주 CPU는 제어기로부터 주변 인터페이스를 통해 입력되는 신호들을 동작하는 플레이어를 얻어서 게임 프로세싱(processing)을 수행한다. 주 CPU는 제어기에 의한 입력에 따른 가상 공간에서의 물체들의 위치들(좌표들), 이동 거리 또는 속도 등을 계산한다. 서버 장치로부터 송신된 음성 정보는 모뎀을 통해 버퍼에 저장된다. 사운드 프로세서는 음성 정보를 버퍼에 저장된 순서대로 순차적으로 판독하고 음성 신호를 생성하여 그것을 스피커로부터 출력시킨다. 서버 장치는 음성 채팅의 출력 볼륨을 조정하여 게임 화면에 디스플레이되고 플레이어들에 의해 동작되는 캐릭터(character)들의 위치 관계를 반영한다.
공지되어 있는 방법 및 시스템의 문제는 사용자들이 자신들에 의해 동작되는 물체들을 자신들의 채팅의 주제와 관련되지 않은 고려사항들에 따라 위치시킨다는 점이다. 이 결과로서, 오해가 발생할 수 있고, 대화가 인공 캐릭터(artificial character)를 취할 수 있다.
본 발명의 목적은 통신 시스템의 원격 사용자들 사이에서의 음성 통신들에 페이스 투 페이스(face to face) 사적 대화의 캐릭터를 제공할 때 비교적 효율적인 방법, 시스템 및 컴퓨터 프로그램을 제공하는 것이다.
상기 목적은:
상기 적어도 하나의 제 1 사용자의 상기 적어도 하나의 제 2 사용자로의 적어도 하나의 대인 관계(interpersonal relation)의 적어도 하나의 표시자를 나타내는 데이터를 획득하는 단계; 및
상기 다른 사용자 및 상기 다른 사용자에 의해 지각되는 상기 재생성된 사운드의 시발점(origin)의 위치 사이의 겉보기 거리(apparent distance)가 조정되도록 하기 위해 상기 사운드 재생성 시스템이 조정되는 단계를 포함하는 본 발명에 따른 방법에 의해 달성되고, 상기 겉보기 거리는 적어도 하나의 대인 관계의 표시자 및 희망하는 대인 거리 사이의 미리 결정된 함수 관계에 따라 적어도 부분적으로 결정된다.
자연스러운 일상 대화에서, 대화하고 있는 두 사람들이 가장 편하게 느끼는 대인 거리는 다양한 요인들, 가장 분명하게는 두 사람들 사이의 사회적인 관계 및 자신들의 대화의 성격에 좌우된다. 후자는 자신들의 스피치(speech)의 내용 및 사람들의 감정 상태에 관련된 요인들을 포함한다. 이 종속성에 대한 인식은 미리 결정된 관계로 설정되므로, 이는 통신 시스템을 통해 수행되는 대화에 더욱 자연스런 캐릭터를 제공하는데 사용된다.
하나의 실시예에서, 상기 적어도 하나의 표시자 중 적어도 하나는 상기 제 1 및 제 2 사용자들의 아이덴티티(identity)들에 좌우된다.
이의 효과는 상기 제 1 및 제 2 사용자들의 아이덴티티에 기초하여, 상기 제 1 및 제 2 사용자들 사이의 대인 관계의 자동 특성화가 가능해진다는 점이다. 통신 시스템의 상기 사용자들의 상기 아이덴티티들은, 자신들이 일반적으로 접속을 설정하기 위한 구조이므로, 일반적으로 공지되어 있다.
하나의 실시예에서, 적어도 하나의 표시자를 나타내는 데이터의 적어도 일부는 상기 제 1 및 제 2 사용자들 중 적어도 하나의 사용자에 의해 제공되는 데이터에 기초한다.
이의 효과는 쉽고, 효율적인 방식으로 적절한 표시자가 제공되는 점이다.
하나의 실시예에서, 상기 제 1 및 제 2 사용자들 중 적어도 하나의 사용자에 의해 제공되는 데이터는, 상기 제 1 및 제 2 사용자들 중 다른 사용자를, 각각이 적어도 하나의 표시자 값을 나타내는 데이터와 관련되는 상기 관계 카테고리(relationship category)들의 세트 중 하나와 관련시키는 데이터를 포함한다.
이의 효과는 상기 제 1 사용자 및 상기 제 2 사용자의 적어도 대인 관계의 적어도 하나의 표시자를 나타내는 데이터의 효율적인 검색이 가능해진다는 점이다. 적어도 초기에, 표시자 값들의 유한한 수가 존재하고, 이를 기초하여, 상기 겉보기 거리를 조정하기 위한 신호들이 결정될 수 있다.
변형예는 사용자 입력에 응답하여 하나의 관계 카테고리와 관련되는 적어도 하나의 표시자 값에 우선하여 적어도 하나의 표시자 값을 선택하는 단계를 포함한다.
이의 효과는 사용자가 상기 선택된 카테고리와 관련된 설정들을 미세 튜닝(tuning)하거나 오버라이딩(overriding)하는 것이 가능해진다는 점이다. 이는 두 사용자들 사이의 관계가 환경들에 따라 변화할 수 있는 문제(예를 들어 친구들로 특성화된 사람들이 밖으로 나가거나 들어올 수 있는)를 해결한다. 통신 시스템의 원격 사용자들 사이의 음성 통신들에 페이스 투 페이스 사적 대화의 캐릭터를 제공하는 시스템을 성취하기 위해, 임시로 변형된 환경들의 적응 가능성이 본 실시예에서 제공된다.
하나의 실시예에서, 적어도 하나의 표시자를 나타내는 데이터는 상기 제 1 및 제 2 사용자들 중 적어도 하나의 사용자에 대한 컨택트 세부사항들에 관련하여 저장된다.
효과는 상기 방법이 실제 음성 통신 시스템과 관련하여 구현될 수 있는 효율성에서의 개선이다. 사용자에 의한 통신 파트너의 선택은 통신을 설정하기 위한 세부사항들 및 검색되는 상기 통신 파트너들 중 적어도 하나의 파트너에 의해 지각되는 겉보기 거리를 조정하기 위한 세부사항들 모두에 충분하다.
하나의 실시예에서, 적어도 하나의 표시자를 나타내는 데이터는 상기 제 1 및 제 2 사용자 사이에 사운드를 통신하는 적어도 하나의 신호의 적어도 일부를 분석함으로써 획득된다.
이의 효과는 두 통신 파트너들 사이의 관계의 양태들을 변화하도록 적응시키는데 비교적 효율적인 방법이 제공된다는 점이다.
변형예는 상기 제 1 및 제 2 사용자 사이에서 통신되는 스피치의 내용을 의미론적으로 분석하는 단계를 포함한다.
이 유형의 분석은 한 개인이 다른 개인에게 어떻게 호의를 갖는지를 설정하는데 비교적 신뢰성이 있다. 그러므로, 상기 개인과 다른 개인과의 대인 관계는 상대적으로 효율적으로 결정되고, 상기 개인들 간의 통신들은 페이스 투 페이스로 행해지는 대화에 대해 상대적으로 현실감있는 인상을 제공한다.
부가적인 변형예는 상기 제 1 및 제 2 사용자 사이의 사운드를 통신하는 적어도 하나의 신호의 적어도 일부의 적어도 하나의 신호 특성을 분석하는 단계를 포함한다.
이 유형의 분석은 상대적으로 용이하고 계산하는데 상대적으로 효율적인 방식으로 수행될 수 있다. 이는 시소러스(thesaurus)에 의존하지 않고, 일반적으로 언어 특성들과 무관하고 또한 상대적으로 효율적이다. 예를 들어, 템포 및 볼륨은 화자 및 수신인의 대인 관계의 상대적으로 신뢰성있는 표시자들이다.
통신들을 제어하는 방법의 실시예는 사운드 재생성 시스템을 조정하여 다른 사용자에 의해 지각되는 상기 재생성된 사운드의 시발점의 겉보기 위치가 함수 관계에 따라 결정되는 대인 거리에 따라 조정되도록 하는 단계를 포함한다.
이의 효과는 개인에 의해 듣는 것에 대해 예를 들어 단순한 볼륨 조정에 의해 달성될 수 있는 것보다 보다 현실감 있는 인상이라는 점이다. 거리의 감지는 사운드가 특정한 포인트로부터 오는 듯할 때에 보다 충분히 잘 전달된다.
실시예에서, 통신 시스템은 다른 사용자에 의해 하나의 상기 하나의 사용자로 통신되는 사운드를 들을 수 있게 재생성하기 위한 부가적인 사운드 재생성 시스템을 포함하고, 여기서 양 사운드 재생성 시스템들이 조정되어, 하나의 사용자 및 하나의 사용자에 의해 지각되는 재생성된 사운드의 시발점의 위치 사이의 겉보기 거리, 및 다른 사용자 및 다른 사용자에 의해 지각되는 재생성된 사운드의 시발점의 위치 사이의 겉보기 거리가 일반적으로 동일한 값으로 조정되도록 한다.
이의 효과는 상기 제 1 사용자에게 주어지는 인상 및 상기 제 2 사용자에게 주어지는 인상 사이의 임의의 불일치를 제거함으로써 통신들이 보다 실제적으로 행해진다는 점이다.
본 발명의 다른 양태에 따르면, 통신 시스템의 적어도 하나의 제 1 및 적어도 하나의 제 2 사용자 사이의 통신들을 제어하기 위한 시스템이 제공되고,
여기서 상기 통신 시스템은 상기 제 1 및 제 2 사용자들 중 하나의 사용자에 의해 상기 제 1 및 제 2 사용자들 중 다른 사용자에게 통신되는 사운드를 들을 수 있게 재생하기 위한 적어도 하나의 사운드 재생성 시스템을 포함하고, 상기 통신들을 제어하기 위한 시스템은:
상기 적어도 하나의 제 1 사용자 및 상기 적어도 하나의 제 2 사용자의 적어도 하나의 대인 관계의 적어도 하나의 표시자를 나타내는 데이터를 획득하고,
상기 사운드 재생성 시스템을 조정하여, 상기 다른 사용자 및 상기 다른 사용자에 의해 지각되는 재생성된 사운드의 시발점 사이의 겉보기 거리가 적어도 하나의 대인 관계의 표시자 및 대인 거리 사이의 미리 결정된 함수 관계에 따라 적어도 부분적으로 조정되도록 구성된다.
상기 시스템의 실시예는 본 발명에 따른 방법을 수행하도록 구성된다.
본 발명의 다른 양태에 따르면, 기계 판독 가능 매체에 통합될 때, 정보 프로세싱 능력들을 갖는 시스템으로 하여금 본 발명에 따른 방법을 수행하도록 할 수 있는 명령들의 세트를 포함하는 컴퓨터 프로그램이 제공된다.
상술한 바와 같이, 본 방법으로 인해서, 음성 통신들에 페이스 투 페이스(face to face) 사적 대화의 캐릭터를 제공할 때 비교적 효율적인 방법, 시스템 및 컴퓨터 프로그램이 제공된다.
도 1은 통신 시스템의 개략도.
도 2는 통신 시스템의 사용자들 사이의 통신들을 제어하는 방법의 제 1 실시예의 흐름도.
도 3은 통신 시스템의 사용자들 사이의 통신들을 제어하는 방법의 제 2 실시예의 흐름도.
본 발명은 첨부 도면들을 참조하여 더욱 상세하게 설명될 것이다.
예로서, 제 1 통신 단말기(10)는 데이터 통신 네트워크(3)로의 네트워크 인터페이스(2)를 포함한다. 후술된 원리들은 패킷 교환 네트워크 및 접속 지향 네트워크와 함께 기능한다. 데이터 통신 네트워크(3)는 하나의 실시예에서 IP(Internet Protocol) 기반 네트워크이다. 다른 실시예에서, 이는 셀룰러 전화 네트워크와 같이, 음성 데이터의 통신에 전용되는 네트워크이다. 다른 실시예에서, 그와 같은 네트워크들의 상호 네트워크이다. 따라서, 제 1 통신 단말기(1)는 모바일 단말기, 예를 들어 셀룰러 전화 핸드셋, 무선 어댑터 또는 모뎀을 구비한 개인용 휴대 정보 단말기(Personal Digital Assistant: PDA) 등일 수 있다. 다른 실시예에서, 제 1 단말기(1)는 화상 전화 또는 화상 회의를 위한 단말기이고, 네트워크(3)는 오디오 및 비디오 데이터 모두를 반송하도록 배열된다.
도시된 실시예에서, 제 1 통신 단말기(1)는 데이터 프로세싱 유닛(4), 메모리(5) 및 스크린(도시되지 않음) 상의 커서(cursor)를 제어하기 위한 키패드, 버튼들, 포인터(pointer) 디바이스와 같은 사용자 제어기들(6)을 포함한다. 도시된 실시예에서, 음성 통신 시스템의 가입자(사용자)와 관련되는 토큰 디바이스(token device)(7)는 제 1 통신 단말기(1)와 관련된다. 토큰 디바이스(7)는 예를 들어 모바일 전화 네트워크용 SIM(Subscriber Identity Module) 카드일 수 있다.
음성 입력은 마이크로폰(8) 및 A/D 변환기(9)를 통해 수신된다. 사운드 출력은 오디오 출력 스테이지(stage)(10) 및 제 1 및 제 2 이어폰들(11, 12)을 통해 제공된다.
데이터 프로세싱 유닛(4) 및 오디오 출력 스테이지(10)는 제 1 및 제 2 이어폰들(11, 12)에 의해 사운드가 재생성되는 방식을 제어하도록 구성되어 이어폰들(11, 12)을 착용하고 있는 사용자에 의해 지각되는 사운드의 시발점의 겉보기 위치가 타겟(target) 값으로 조정되도록 한다. 사운드의 시발점의 겉보기 위치를 조정하는 기술들은 예를 들어, 머리관련(또는 해부학적) 전달 함수(Head Related Transfer Function; HRTF) 프로세싱, 또는 직접/반향 비의 제어에 의존하는 기술들로 공지되어 있다. 오디오의 3차원 프리젠테이션(presentation)에 대한 시스템의 예들은 특히 WO 96/13962, WO 95/31881 및 US 5,371,799에 제공된다.
제 2 통신 단말기(13)는 또한 네트워크(3)에 접속되고, 마찬가지로, 제 2 통신 단말기(13)에는 사운드 재생성 시스템이 제공된다. 이 사운드 재생성 시스템은 스피커들(14 내지 16)의 어레이를 포함하지만, 이들 중 단지 수 개만이 설명을 목적으로 도시된다. 제 2 단말기(13)에는 또한 마이크로폰(17)이 제공된다.
제 3 통신 단말기(18)가 유사하게 제공되고, 이는 이어폰들(19, 20) 및 마이크로폰(21)이 제공되는 제 1 단말기(1)와 실질적으로 대응한다. 제 3 통신 단말기(18) 및 관련 주변 디바이스들이 포함되는 사운드 재생성 시스템은 제 1 단말기(1)의 사운드 재생성 시스템과 유사하다.
제 2 통신 단말기(13)의 사운드 재생성 시스템은 또한 스피커들(14 내지 16)의 부근에 위치된 사용자에 의해 지각되는 사운드의 시발점의 겉보기 위치가 조정 가능하도록 구성된다. 제 1 구현예에서, 사운드를 사용자에게 지향시킬 수 있는 고도의 방향성 스피커들을 포함하는 스피커들(14 내지 16)의 세트가 사용된다. 사용되는 스피커들 및/또는 사운드 재생성 볼륨의 특정한 서브 결합을 변화시킴으로써, 청취자 및 사운드의 지각되는 시발점 사이의 적어도 겉보기 거리가 변화 가능하다. 적절한 고도의 방향성 확성기의 구성 원리들은 2007년 11월 22일에 인터넷 http://www.panphonics.fi로부터 검색된 Peltonen, T.의 "Panphonics Audio Panel White Paper" version 1.1 rev JSe, 7 May 2003에 기술된다. 제 2 실시예에서, 제 2 단말기(13)와 관련된 사운드 재생성 시스템은 가상 사운드 소스들을 재생성하기 위한 기술인, 파동 장 합성(wave field synthesis)을 이용한다. 파동 장 합성 기술들은 스피커들(14 내지 16)의 전면 및 후면 모두에 가상 사운드 소스들을 생성하기 위해 사용될 수 있다. 이 기술은 Berkhout, A.J.의 "A holographic approach to acoustic control", J.Audio Eng.Soc.,36(12), 1988, pp.977 내지 995뿐만 아니라 Verheijen, E.의 박사 학위 논문 "Sound reproduction by Wave Field Synthesis" Delft Technical University, 1997에 더욱 충분하게 기술된다. 제 3 실시예에서, 제 2 단말기(13)와 관련된 사운드 재생성 시스템은 빔 형성(beam forming)이라 칭해지는 어레이 프로세싱 기술(array processing technique)을 사용한다. 예를 들어 Van Veen, B.E. 및 Buckley, K.의 "Beamforming: a versatile approach to spatial filtering", IEEE ASSP Mag.,1988에 기술되는 표준 지연 및 합 빔 형성이 사용될 수 있다. 또한 스피커들(14 내지 16) 각각에 대해 하나이며 희망하는 가상 사운드 소스를 실현하는 유한 임펄스 응답(finite impulse response: FIR) 필터들의 세트를 도출하는 수치 최적화 절차가 사용되어, 가능하면 스피커들(14 내지 16)의 특성들 및 룸(room)의 영향들에 대한 보정들이 통합된다. 이는 상술한 Van Veen 및 Buckley에 의한 논문에서, 그리고 또한 Spors, S. 등의 "Efficient active listening room compensation for Wave Field Synthesis", Audio Eng. Soc.의 166차 문서 6619, 2004에 더욱 충분하게 기술되어 있다.
도 2는 제 1 단말기(1)의 사용자 및 제 2 및 제 3 단말기들(13, 18)의 하나 또는 둘 모두의 하나 이상의 사용자들 사이의 통신들을 제어하는 방법의 제 1 실시예를 도시한다.
제 1 단계(22)에서, 토큰 디바이스(7)에 포함되는 메모리(5) 또는 메모리 모듈에 저장된 복수의 사용자 기록들(24) 중에서 특정한 사용자 기록(23)이 선택된다. 사용자 기록(23)은 선택된 사용자에 대한 콘택트 세부사항들을 포함하여, 접속이 선택된 사용자와 관련되는 제 2 및 제 3 단말기들(13, 18) 중 하나로 설정 또는 요청될 수 있다. 발신하는 호출의 경우에, 제 1 단말기(1)의 사용자는 사용자 제어기들(6)을 사용하여, 사용자 기록(23)을 선택한다. 인입하는 호출의 경우에, 사용자 기록(23)은 예를 들어 호출자의 번호를 인식하고 사용자 기록들(24)에 포함된 콘택트 세부사항들 중에서 그것을 검색하는 것을 사용하여 선택될 수 있다.
선택된 사용자 기록(25)은 복수의 사용자 프로파일(profile)들(25) 중 정확한 사용자 프로파일을 식별하는 데이터를 추가로 포함한다. 다음 단계(26)에서, 선택된 사용자와 관련된 프로파일, 또는 카테고리가 결정된다. 제 1 단말기(1)의 사용자는 사용자 기록들(24)에서 식별되는 사용자들 각각을 사회적 "근접성"의 변화 정도들, 예를 들어 사용자의 파트너에 대한 "친밀한" 카테고리에서 아주 모르는 사람들에 대한 카테고리로, 이들 양 극단들 사이에 임의의 중간 레벨들로 존재하는 수로, 수 개의 그룹들 중 하나로 할당할 수 있다.
도시된 실시예에서, 제 1 단말기가 제 2 또는 제 3 단말기(13, 18)를 사용해서 선택된 다른 사용자 및 상기 다른 사용자에 의해 지각되는 재생성된 사운드의 시발점의 위치 사이의 겉보기 거리를 조정하기 위한 데이터를 결정할 수 있도록 하기 위해 적절한 프로파일로부터의 데이터가 검색된다(단계 27). 데이터는 제 1 사용자의 선택된 제 2 사용자와의 대인 관계의 적어도 하나의 표시자 및 두 사람들 간 대인 거리 사이에서 미리 결정된 함수 관계에 따라 결정된다. 선택된 통신 파트너와 관련된 사용자 기록이 존재하지 않는 경우, 디폴트(default) 사용자 프로파일은 사용자 프로파일들(25) 중으로부터 선택될 수 있다.
일 실시예에서, 데이터는 이미 제 1 단말기(1)의 제공자에 의한, 함수 관계에 기초하여 프로파일들(25)에 제공된다. 다른 실시예에서, 함수 관계를 나타내는 파라미터들은 제 1 단말기(1)에 의해 유지되고, 제 1 단말기가 사회적 표시자 값들을 타겟 거리 값으로의 변환을 수행할 수 있도록 한다. 또 다른 실시예에서, 단계(27)에서 사용자 프로파일들(25)로부터 사회적 표시자 값들만이 검색되고, 타겟 거리 값으로의 변환이 선택된 사용자와 관련된 단말기에서 수행된다.
사회 과학으로부터, 자연스런 일상 대화에서, 대화하고 있는 사람들이 가장 편안하게 느끼는 대인 거리는 다양한 요인들, 가장 분명하게는 두 사람들의 사회적인 관계 및 또한 자신들의 대화의 성격에 좌우된다는 것이 공지되었다. 후자는 예를 들면 자신들의 스피치의 내용(예를 들어 사적이든 아니든) 및 사람들의 감정 상태(화가 나거나, 애정적이거나 등등)에 관련된 요인들을 포함한다. 이는 Hall, E.T., "A system for the notation of proxemic behaviour", American Anthropologist, 65, 1963, pp.1003 - 1026에 더욱 충분하게 설명된다.
도 2에 도시된 실시예에서, 통신 파트너들 중 적어도 하나 및 상기 사람에 의해 지각되는 사운드의 시발점의 위치 사이의 지각된 거리의 타겟 값은 제 1 예에서의 제 1 및 제 2 사용자들의 아이덴티티들에 기초한다. 통신 파트너들의 특정한 선택으로 대인 거리의 특정 타겟 값이 발생된다. 자신들의 대화의 성격은 도 3의 실시예에서의 자신들의 (순간) 대인 관계의 표시자로서 사용된다(이후에 설명된다). 두 실시예들의 결합은 부가적인 실시예(도시되지 않음)이다.
도 2에 도시된 바와 같이, 발신하는 호출의 경우, 제 1 단말기(1)는 사용자 기록(23)에서 식별되는 제 2 및 제 3 단말기들(13, 18) 중 특정한 하나로의 접속을 설정한다(단계 28). 인입하는 호출의 경우, 이 단계(28)는 제 2 및 제 3 단말기들(13, 18) 중 특정한 하나로부터의 요청을 수신하여 접속을 설정하는 단계를 포함한다.
도시된 실시예에서, 이전에 결정된 설정들은 예를 들어 제 3 단말기(18)에 통신되고(단계(29)), 이는 따라서 제 3 단말기(18)와 관련된 사운드 재생성 시스템을 조정한다.
제 1 단말기(1)는 또한, 이어폰들(11, 12)을 착용한 사용자에 의해 지각되는 사운드의 시발점의 겉보기 위치가 조정 가능한 방식으로 구성되는 사운드 재생성 시스템과 관련됨이 주목된다. 실제로 제 1 단말기(1)는, 제 1 단말기(1)의 사용자 및 상기 사용자에 의해 지각되는 재생성된 사운드의 시발점의 위치 사이의 겉보기 거리가 제 3 단말기(18)의 사용자 및 상기 다른 사용자에 의해 지각되는 재생성된 사운드의 시발점의 위치 사이의 겉보기 거리와 실질적으로 동일하도록 하기 위해서 상기 사운드 재생성 시스템의 설정들을 조정한다(단계 30). 이는 자연스러운 대화에서, 물리적 대인 거리 및 이들 내의 동적 변화들은 두 사람들에게 명백하고, 자연스러운 대화의 동력의 중요한 비언어적인 부분을 형성하는 사실을 고려한다.
다른 실시예들에서, 제 1 및 제 3 단말기들(1, 18) 중 하나만이 조정된다. 일반적으로, 이것이 희망하는 대인 거리를 결정하는 단말기임에 따라 이는 제 1 단말기(1)일 수 있다.
그리고나서 스피치 신호들은 제 1 및 제 3 단말기들(1, 18) 사이에서 통신되고(단계(31)), 설정들에 따라 재생성된다.
도시된 실시예에서, 제공된 개인으로의 바람직한 대인 거리가 항상 동일할 수 없으므로, 제 1 단말기(1)의 사용자는(그러나 이는 제 3 단말기(18)의 사용자로 확장될 수 있다) 렌더링(rendering)된 청각적 대인 거리를 희망하는 만큼 변화시킬 가능성이 제공된다. 이는 예를 들어 사용자(들)의 무드(mood) 또는 통신 파트너들 사이의 사회적 관계에서의 역동성에 좌우된다. 사용자 제어기들(6)을 통해 사용자 입력을 수신할 때, 제 1 단말기(1)는 지각된 거리의 타겟 값을 초기에 선택된 사용자 프로파일(25)과 관련된 값에 우선하여, 재생성된 사운드의 시발점의 위치로 변경시킨다(단계(32)). 제 1 단말기(1)와 관련된 사운드 재생성 시스템을 조정하기 위해서 새로운 설정들이 사용되고(단계(33)), 이들은 제 3 단말기(18)로 통신된다(단계(34)). 후자의 단계(34)는 일 실시예에서 생략된다. 도시된 실시예에서, 방금 언급된 단계들(32 내지 34)은 통신 세션 동안 처음부터 끝까지 반복될 수 있다.
도 3에 도시된 방법에서, 적어도 제 1 사용자의 제 2 사용자로의 대인 관계의 적어도 하나의 표시자를 나타내는 데이터를 획득하는 상이한 수단이 사용된다. 그러나, 제 1 단계(35)에서, 사용자가 자신이 통신하고자 희망하는 원하는 다른 사용자를 선택하거나 제 1 단말기(1)가 통신하고자 하는 사용자를 식별하는 점에서, 도 2의 방법에서의 대응하는 단계(22)와 동일하다. 인입하는 호출의 경우에, 이 단계(35)가 생략될 수 있고, 접속을 설정하라는 요청을 수신하는 단계로 대체된다. 도시된 발신하는 호출의 경우, 예를 들어 제 3 단말기(18)로의 접속을 설정하기 위한 세부사항들을 검색하기 위해, 저장된 사용자 기록들(24)로부터 선택된 사용자의 사용자 기록(23)이 검색된다.
그리고나서 접속이 설정되고(단계 36), 사운드가 즉각 통신된다(단계 37). 그러나, 제 1 단말기(1)는 두 사용자들 사이에서 통신되는 신호 또는 신호들을 분석한다(단계 38). 일 실시예에서, 제 1 단말기(1)는 제 3 단말기(18)의 사용자로부터 입력된 스피치가 제 1 단말기(1)의 사용자로 통신되는 신호만을 분석한다. 다른 실시예에서, 제 1 단말기(1)는 두 통신 파트너들의 음성 입력을 분석한다. 제 1 단말기(1)는 또한 제 1 단말기(1)의 사용자로부터 기원하는 사운드를 통신하는 신호만을 분석하는 것이 가능하다.
사람들의 바람직한 대인 거리에 영향을 미치는 요인은 자신들의 대화의 내용 및/또는 무드와 관련된다. 대화가 사적이면, 사람들은 일상적인 대화에 관여될 때보다 더 작은 대인 거리를 선호한다. 사람들이 화가 나거나 열띤 토론을 하면, 바람직한 거리는 더 커질 수 있다.
제 1 실시예에서, 통신 시스템의 사용자들 사이에 통신되는 음성의 일부 또는 전부의 내용들이 의미론적으로 분석된다. 이는 스피치 인식 및 특정한 유형의 대화를 나타내는 특정한 키 단어(key word)들의 인식을 포함한다. 그러므로, 제 1 단말기(1)에는 스피치 대 텍스트 변환을 위한 애플리케이션이 제공되고, 키 워드들 및 상기 단어들이 언급되는 사람에게 상기 단어들을 말하는 사람의 사회적 관계를 나타내는 관련된 데이터의 데이터베이스가 제공된다. 스피치를 통신하는 신호의 섹션 내에서 인식되는 키 워드들은 이 관계를 결정(단계 39)하는데 사용된다.
제 2 실시예에서, 상기 두 통신 파트너들 사이에서 사운드를 통신하는 적어도 하나의 신호의 적어도 일부의 적어도 하나의 특성이 분석된다. 상기 분석은 예를 들어 스펙트럼 내용물(spectral content), 진폭, 또는 스피치 신호의 동적 특성들을 분석함으로써 신호 레벨에서 수행된다. 이 방식으로, 누군가가 속삭이는 것이 검출될 수 있고, 이 경우에 보다 작은 타겟 거리가 바람직하고, 또는 누군가가 소리칠 수 있고, 이 경우에 보다 큰 거리가 바람직할 수 있다. 예를 들어, 스피치 신호 분석에 기초하여 공격성, 흥분, 분노를 검출하는 기술들이 공지되어 있다. 하나의 예는 Rajput, N., Gupta, P.의 "Two-Stream Emotion Recognition For Call Center Monitoring", Proc. Interspeech 2007, Antwerp, Belguim, 2007에서 제공된다.
그러므로 적어도 하나의 제 1 사용자의 적어도 하나의 제 2 사용자로의 적어도 대인 관계의 적어도 하나의 표시자를 나타내는 획득된 데이터는 표시자 또는 표시자들 사이의 미리 결정된 함수 관계 및 두 사람들 사이의 바람직한 대인 거리에 따라 설정들을 제공하는데 사용된다(단계 40).
상기 설정들은 제 1 단말기와 관련된 사운드 재생성 시스템을 조정하고(단계(41)) 제 3 단말기(18)와 관련된 사운드 재생성 시스템을 원격 조정하는데(단계 (42)) 사용된다. 그러므로, 도 2의 실시예에서, 제 1 단말기(1)의 사용자 및 상기 사용자에 의해 지각되는 재생성된 사운드의 시발점의 위치 사이의 겉보기 거리는 실질적으로 제 3 단말기(18)의 사용자 및 상기 다른 사용자에 의해 감지되는 재생성된 사운드의 시발점의 위치 사이의 겉보기 거리와 동일하게 유지된다. 대안의 실시예에서, 두 단계들(41, 42) 중 하나는 생략되고, 일반적으로 그 하나는 제 3 단말기(18), 즉 신호 분석을 수행했던 단말기 이외의 단말기의 사용자에 의해 지각되는 겉보기 거리의 조정을 하게 된다.
도 3에 도시된 실시예에서, 제 1 단말기(1)의 사용자(및/또는 제 3 단말기(18)의 사용자)에는 렌더링된 청각적 대인 거리를 희망하는 만큼 변화시킬 가능성이 제공된다. 사용자 제어기들(6)을 통해 사용자 입력을 수신할 때, 제 1 단말기(1)는 지각된 거리의 타겟 값을 재생성된 사운드의 시발점의 위치로 변경시킨다(단계(43)). 제 1 단말기(1)와 관련된 사운드 재생성 시스템을 조정하기 위해서 새로운 설정들이 사용되고(단계(44)), 이들은 적어도 도시된 실시예에서는, 제 3 단말기(18)로 통신된다(단계(45)). 다른 실시예들에서, 제 3 단말기(18)의 사용자로의 조정을 행하는 사람의 무드로 통신하는 것은 바람직하지 않을 수 있기 때문에, 이 단계(45)는 생략된다. 도시된 실시예에서, 단계들(43 내지 45)은 통신 세션 동안 처음부터 끝까지 반복될 수 있다.
동일한 특성으로, 사용자가 제 1 및 제 2 사용자 사이에서 사운드를 통신하는 적어도 하나의 신호의 분석을 통해 제 1 단말기에 의해 결정되는 설정들을 오버라이딩하지 않는 경우, 상기 분석은, 두 통신 파트너들 사이의 관계가 변화되도록 지각된 대인 거리를 적응시키기 위해서, 정규적인 간격들로 또는 연속적으로 반복될 수 있다.
다른 실시예에서, 사용자 프로파일들(25) 중 하나가 제 1 단말기(1)의 사용자의 제 3 단말기(18)의 사용자로의 대인 관계의 표시자로서 초기에 사용되고, 일단 통신 세션이 개시되면 분석이 사용되는 점에 있어서, 도 2 및 도 3의 방법들이 사용된다.
상술한 실시예들은 본 발명을 제한하려는 것보다는 설명하는 것이며, 당업자는 첨부된 청구항들의 범위를 벗어나지 않고 많은 대안 실시예들을 설계할 수 있음이 주목되어야 한다. 청구항들에서, 괄호 안에 배치되는 참조 부호들은 본 청구항을 제한하는 것으로 해석되어서는 안 된다. 동사 "comprise" 및 그의 활용형들의 사용은 청구항에서 진술된 것 이외의 요소들 또는 단계들의 존재를 배제하지 않는다. 관사 요소들 앞의 "a" 또는 "an"은 그와 같은 요소들의 복수의 존재를 배제하지 않는다. 본 발명은 여러 개별 요소들을 포함하는 하드웨어를 통해서, 적절하게 프로그램된 컴퓨터를 통해 구현될 수 있다. 여러 수단들을 열거한 장치 청구항에서, 이들의 수개의 수단들은 하나 또는 하드웨어의 동일한 아이템에 의해 구현될 수 있다. 특정한 측정 수단들이 상호 상이한 종속항들에서 인용되는 단순한 사실은 이익을 주기 위한 이들 측정 수단들의 결합이 사용될 수 없다는 것을 나타내지 않는다.
회의 애플리케이션에서, 제 1 사용자 및 다수의 제 2 단말기들의 다수의 제 2 사용자들 사이의 통신들은 상기에 약술된 방법들에 따라 제어될 수 있고, 제 1의 다수의 제 2의 사용자들로의 대인 관계의 표시자는 예를 들어 제 1 사용자의 제 2 사용자 각각으로의 관계를 개별적으로 정의하는 정보에 기초하여 결정될 수 있다(예를 들어, 그는 제 2 사용자들을 이용하는 단체의 고객이다). 다른 실시예에서, 상기에 약술된 방법들은 제 1 및 제 2 사용자들과 관련되는 단말기들 중 하나 대신에, 중앙 통신 프로세서에 의해 수행된다.
"수단"은, 당업자에게 명확하겠지만, 하드웨어(개별 또는 집적 회로들 또는 전기 소자들과 같은) 또는 동작 시에 수행하거나 지정된 기능을 단독으로 또는 다른 기능들과 결합하여, 독자적으로 또는 다른 소자들과 공동 동작하여 수행하도록 설계된 소프트웨어를 포함한다. '컴퓨터 프로그램'은 인터넷과 같은 네트워크를 통해 다운로드 가능하고, 임의의 다른 방식으로 시장 구입 가능한 광학 디스크와 같은 컴퓨터 판독 가능 매체에 저장되는 임의의 소프트웨어 제품을 의미함이 이해될 것이다.
1 : 제 1 통신 단말기 2 : 네트워크 인터페이스
3 : 데이터 통신 네트워크 4 : 데이터 프로세싱 유닛
5 : 메모리 6 : 사용자 제어기들
7 : 토큰 디바이스 8 : 마이크로폰
9 : A/D 변환기 10 : 제 1 통신 단말기

Claims (14)

  1. 통신 시스템의 적어도 하나의 제 1 사용자 및 적어도 하나의 제 2 사용자 사이의 통신들을 제어하는 방법으로서,
    상기 통신 시스템은 상기 제 1 및 제 2 사용자들 중 하나의 사용자에 의해 상기 제 1 및 제 2 사용자들 중 다른 사용자로 통신되는 사운드를 들을 수 있게 재생성하기 위한 적어도 하나의 사운드 재생성 시스템(13 내지 16, 18 내지 20)을 포함하는, 상기 통신들을 제어하는 방법에 있어서:
    상기 적어도 하나의 제 1 사용자의 상기 적어도 하나의 제 2 사용자로의 적어도 하나의 대인 관계의 적어도 하나의 표시자를 나타내는 데이터(23, 25)를 획득하는 단계; 및
    상기 다른 사용자 및 상기 다른 사용자에 의해 지각되는 상기 재생성된 사운드의 시발점의 위치 사이의 겉보기 거리가 조정되도록 하기 위해 상기 사운드 재생성 시스템(13 내지 16, 18 내지 20)을 조정하는 단계로서, 상기 겉보기 거리는 적어도 하나의 대인 관계의 표시자 및 희망하는 대인 거리 사이의 미리 결정된 함수 관계에 따라 적어도 부분적으로 결정되는, 상기 조정 단계를 포함하는, 통신들을 제어하는 방법.
  2. 제 1 항에 있어서,
    상기 적어도 하나의 표시자 중 적어도 하나는 상기 제 1 및 제 2 사용자들의 아이덴티티들에 좌우되는, 통신들을 제어하는 방법.
  3. 제 1 항 또는 제 2 항에 있어서,
    적어도 하나의 표시자를 나타내는 데이터의 적어도 일부는 상기 제 1 및 제 2 사용자들 중 적어도 하나의 사용자에 의해 제공되는 데이터에 기초하는, 통신들을 제어하는 방법.
  4. 제 3 항에 있어서,
    상기 제 1 및 제 2 사용자들 중 적어도 하나의 사용자에 의해 제공되는 데이터는, 상기 제 1 및 제 2 사용자들 중 다른 사용자를, 각각이 적어도 하나의 표시자 값을 나타내는 데이터와 관련된 상기 관계 카테고리들(25)의 세트 중 하나와 관련시키는 데이터를 포함하는, 통신들을 제어하는 방법.
  5. 제 4 항에 있어서,
    사용자 입력에 응답하여 상기 하나의 관계 카테고리와 관련되는 상기 적어도 하나의 표시자 값에 우선하여 적어도 하나의 표시자 값을 선택하는 단계를 포함하는, 통신들을 제어하는 방법.
  6. 제 3 항 또는 제 4 항에 있어서,
    적어도 하나의 표시자를 나타내는 데이터는 상기 제 1 및 제 2 사용자들 중 적어도 하나의 사용자에 대한 콘택트 세부사항들(23, 24)에 관련하여 저장되는, 통신들을 제어하는 방법.
  7. 제 1 항에 있어서,
    적어도 하나의 표시자를 나타내는 데이터는 상기 제 1 및 제 2 사용자 사이에 사운드를 통신하는 적어도 하나의 신호의 적어도 일부를 분석함으로써 획득되는, 통신들을 제어하는 방법.
  8. 제 7 항에 있어서,
    상기 제 1 및 제 2 사용자 사이에서 통신되는 스피치의 내용을 의미론적으로 분석하는 단계를 포함하는, 통신들을 제어하는 방법.
  9. 제 7 항 또는 제 8 항에 있어서,
    상기 제 1 및 제 2 사용자 사이의 사운드를 통신하는 적어도 하나의 신호의 적어도 일부의 적어도 하나의 신호 특성을 분석하는 단계를 포함하는, 통신들을 제어하는 방법.
  10. 제 1 항에 있어서,
    상기 사운드 재생성 시스템(13 내지 16, 18 내지 20)을 조정하여 다른 사용자에 의해 지각되는 상기 재생성된 사운드의 시발점의 겉보기 위치가 함수 관계에 따라 결정되는 대인 거리에 따라 조정되도록 하는 단계를 포함하는, 통신들을 제어하는 방법.
  11. 제 1 항에 있어서,
    상기 통신 시스템은 다른 사용자에 의해 상기 하나의 사용자로 통신되는 사운드를 들을 수 있게 재생성하기 위한 부가적인 사운드 재생성 시스템(10 내지 12)을 포함하고, 양 사운드 재생성 시스템들이 조정되어 하나의 사용자 및 하나의 사용자에 의해 지각되는 재생성된 사운드의 시발점의 위치 사이의 겉보기 거리, 및 다른 사용자 및 다른 사용자에 의해 지각되는 재생성된 사운드의 시발점의 위치 사이의 겉보기 거리가 일반적으로 동일한 값으로 조정되도록 하는, 통신들을 제어하는 방법.
  12. 통신 시스템의 적어도 하나의 제 1 사용자 및 적어도 하나의 제 2 사용자 사이의 통신들을 제어하기 위한 시스템으로,
    상기 제 1 및 제 2 사용자들 중 하나의 사용자에 의해 상기 제 1 및 제 2 사용자들 중 다른 사용자에게 통신되는 사운드를 들을 수 있게 재생하기 위한 적어도 하나의 사운드 재생성 시스템(13 내지 16, 18 내지 20)을 포함하는, 상기 통신들을 제어하기 위한 시스템에 있어서:
    상기 적어도 하나의 제 1 사용자 및 상기 적어도 하나의 제 2 사용자의 적어도 하나의 대인 관계의 적어도 하나의 표시자를 나타내는 데이터(23, 25)를 획득하고,
    상기 사운드 재생성 시스템(13 내지 16, 18 내지 20)을 조정하여 상기 다른 사용자 및 상기 다른 사용자에 의해 지각되는 재생성된 사운드의 시발점 사이의 겉보기 거리가 조정되도록 구성되고,
    상기 겉보기 거리는 적어도 하나의 대인 관계의 표시자 및 희망하는 대인 거리 사이의 미리 결정된 함수 관계에 따라 적어도 부분적으로 결정되는, 통신들을 제어하기 위한 시스템.
  13. 제 12 항에 있어서,
    제 1 항 내지 제 11 항 중 어느 한 항에 따른 방법을 수행하도록 구성되는, 통신들을 제어하기 위한 시스템,
  14. 기계 판독 가능 매체에 통합될 때, 정보 프로세싱 능력들을 갖는 시스템으로 하여금 제 1 항 내지 제 11 항 중 어느 한 항에 따른 방법을 수행하도록 할 수 있는 명령들의 세트를 포함하는, 컴퓨터 프로그램.
KR1020107015791A 2007-12-17 2008-12-10 통신 시스템의 적어도 두 사용자들 사이의 통신들을 제어하는 방법 KR20100097739A (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
EP07123343.1 2007-12-17
EP07123343 2007-12-17

Publications (1)

Publication Number Publication Date
KR20100097739A true KR20100097739A (ko) 2010-09-03

Family

ID=40795956

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020107015791A KR20100097739A (ko) 2007-12-17 2008-12-10 통신 시스템의 적어도 두 사용자들 사이의 통신들을 제어하는 방법

Country Status (6)

Country Link
US (1) US20100262419A1 (ko)
EP (1) EP2241077A2 (ko)
JP (1) JP2011512694A (ko)
KR (1) KR20100097739A (ko)
CN (1) CN101904151A (ko)
WO (1) WO2009077936A2 (ko)

Families Citing this family (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9384469B2 (en) 2008-09-22 2016-07-05 International Business Machines Corporation Modifying environmental chat distance based on avatar population density in an area of a virtual world
US20100077318A1 (en) * 2008-09-22 2010-03-25 International Business Machines Corporation Modifying environmental chat distance based on amount of environmental chat in an area of a virtual world
US8405702B1 (en) 2008-11-24 2013-03-26 Shindig, Inc. Multiparty communications systems and methods that utilize multiple modes of communication
US9401937B1 (en) 2008-11-24 2016-07-26 Shindig, Inc. Systems and methods for facilitating communications amongst multiple users
US8647206B1 (en) 2009-01-15 2014-02-11 Shindig, Inc. Systems and methods for interfacing video games and user communications
US9712579B2 (en) 2009-04-01 2017-07-18 Shindig. Inc. Systems and methods for creating and publishing customizable images from within online events
US9344745B2 (en) 2009-04-01 2016-05-17 Shindig, Inc. Group portraits composed using video chat systems
US8779265B1 (en) 2009-04-24 2014-07-15 Shindig, Inc. Networks of portable electronic devices that collectively generate sound
JP5787128B2 (ja) * 2010-12-16 2015-09-30 ソニー株式会社 音響システム、音響信号処理装置および方法、並びに、プログラム
US8958567B2 (en) * 2011-07-07 2015-02-17 Dolby Laboratories Licensing Corporation Method and system for split client-server reverberation processing
JP5727980B2 (ja) * 2012-09-28 2015-06-03 株式会社東芝 表現変換装置、方法およびプログラム
JP5954147B2 (ja) * 2012-12-07 2016-07-20 ソニー株式会社 機能制御装置およびプログラム
CN104010265A (zh) * 2013-02-22 2014-08-27 杜比实验室特许公司 音频空间渲染设备及方法
US10271010B2 (en) 2013-10-31 2019-04-23 Shindig, Inc. Systems and methods for controlling the display of content
JP6148163B2 (ja) * 2013-11-29 2017-06-14 本田技研工業株式会社 会話支援装置、会話支援装置の制御方法、及び会話支援装置のプログラム
US9438602B2 (en) * 2014-04-03 2016-09-06 Microsoft Technology Licensing, Llc Evolving rule based contact exchange
US9952751B2 (en) 2014-04-17 2018-04-24 Shindig, Inc. Systems and methods for forming group communications within an online event
US9733333B2 (en) 2014-05-08 2017-08-15 Shindig, Inc. Systems and methods for monitoring participant attentiveness within events and group assortments
US9711181B2 (en) 2014-07-25 2017-07-18 Shindig. Inc. Systems and methods for creating, editing and publishing recorded videos
US9734410B2 (en) 2015-01-23 2017-08-15 Shindig, Inc. Systems and methods for analyzing facial expressions within an online classroom to gauge participant attentiveness
US11195542B2 (en) 2019-10-31 2021-12-07 Ron Zass Detecting repetitions in audio data
US20180018963A1 (en) * 2016-07-16 2018-01-18 Ron Zass System and method for detecting articulation errors
US10133916B2 (en) 2016-09-07 2018-11-20 Steven M. Gottlieb Image and identity validation in video chat events
JP6672114B2 (ja) * 2016-09-13 2020-03-25 本田技研工業株式会社 会話メンバー最適化装置、会話メンバー最適化方法およびプログラム
US10558421B2 (en) * 2017-05-22 2020-02-11 International Business Machines Corporation Context based identification of non-relevant verbal communications
CN109729109B (zh) * 2017-10-27 2020-11-10 腾讯科技(深圳)有限公司 语音的传输方法和装置、存储介质、电子装置

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5371799A (en) * 1993-06-01 1994-12-06 Qsound Labs, Inc. Stereo headphone sound source localization system
US5596644A (en) * 1994-10-27 1997-01-21 Aureal Semiconductor Inc. Method and apparatus for efficient presentation of high-quality three-dimensional audio
GB2303516A (en) * 1995-07-20 1997-02-19 Plessey Telecomm Teleconferencing
JPH0983655A (ja) * 1995-09-14 1997-03-28 Fujitsu Ltd 音声対話システム
JPH09288645A (ja) * 1996-04-19 1997-11-04 Atsushi Matsushita 大部屋的仮想オフィスシステム
US7308080B1 (en) * 1999-07-06 2007-12-11 Nippon Telegraph And Telephone Corporation Voice communications method, voice communications system and recording medium therefor
JP4095227B2 (ja) * 2000-03-13 2008-06-04 株式会社コナミデジタルエンタテインメント ビデオゲーム装置、ビデオゲームにおける背景音出力設定方法及び背景音出力設定プログラムが記録されたコンピュータ読み取り可能な記録媒体
JP3434487B2 (ja) * 2000-05-12 2003-08-11 株式会社イサオ 位置連動式チャットシステム、そのための位置連動式チャット方法、および、プログラムを記録したコンピュータ読み取り可能な記録媒体
WO2002037471A2 (en) * 2000-11-03 2002-05-10 Zoesis, Inc. Interactive character system
US8108509B2 (en) * 2001-04-30 2012-01-31 Sony Computer Entertainment America Llc Altering network transmitted content data based upon user specified characteristics
US6956955B1 (en) * 2001-08-06 2005-10-18 The United States Of America As Represented By The Secretary Of The Air Force Speech-based auditory distance display
AUPR989802A0 (en) * 2002-01-09 2002-01-31 Lake Technology Limited Interactive spatialized audiovisual system
JP4280901B2 (ja) * 2002-02-05 2009-06-17 株式会社セガ 音声チャットシステム
US7098776B2 (en) * 2003-04-16 2006-08-29 Massachusetts Institute Of Technology Methods and apparatus for vibrotactile communication
US8066568B2 (en) * 2005-04-19 2011-11-29 Microsoft Corporation System and method for providing feedback on game players and enhancing social matchmaking
US20080253547A1 (en) * 2007-04-14 2008-10-16 Philipp Christian Berndt Audio control for teleconferencing
CN100583804C (zh) * 2007-06-22 2010-01-20 清华大学 基于专家值传播算法的社会网络专家信息处理系统及方法

Also Published As

Publication number Publication date
US20100262419A1 (en) 2010-10-14
WO2009077936A2 (en) 2009-06-25
WO2009077936A3 (en) 2010-04-29
EP2241077A2 (en) 2010-10-20
CN101904151A (zh) 2010-12-01
JP2011512694A (ja) 2011-04-21

Similar Documents

Publication Publication Date Title
KR20100097739A (ko) 통신 시스템의 적어도 두 사용자들 사이의 통신들을 제어하는 방법
JP6849797B2 (ja) 音響信号の聴取試験および変調
US9686627B2 (en) Multidimensional virtual learning system and method
CN106463107A (zh) 在耳机与源之间协作处理音频
CN106464998A (zh) 用来掩蔽干扰性噪声在耳机与源之间协作处理音频
US8488820B2 (en) Spatial audio processing method, program product, electronic device and system
JP2004267433A (ja) 音声チャット機能を提供する情報処理装置、サーバおよびプログラム並びに記録媒体
TWI604715B (zh) 電話會議音量調整方法及系統
JP2020108143A (ja) 複数の音響ストリームの空間的再位置決め
US10142760B1 (en) Audio processing mechanism with personalized frequency response filter and personalized head-related transfer function (HRTF)
WO2023109278A1 (zh) 一种伴奏的生成方法、设备及存储介质
CN113784274A (zh) 三维音频系统
WO2011148570A1 (ja) 聴覚ディスプレイ装置及び方法
US20100266112A1 (en) Method and device relating to conferencing
JP2009539133A (ja) 発話の区別
JP2013540379A (ja) プライバシー及び個人使用のための背景音除去
US10419870B1 (en) Applying audio technologies for the interactive gaming environment
US20230362571A1 (en) Information processing device, information processing terminal, information processing method, and program
JP7375817B2 (ja) 音声処理装置、通話デバイス、音声処理方法、およびプログラム
CN108449504A (zh) 语音通话数据检测方法、装置、存储介质及移动终端
WO2015101523A1 (en) Method of improving the human voice
CN113612881B (zh) 基于单移动终端的扬声方法、装置及存储介质
JP2023107364A (ja) コミュニケーション装置及びコミュニケーション方法
WO2022008075A1 (en) Methods, system and communication device for handling digitally represented speech from users involved in a teleconference
CN115696170A (zh) 音效处理方法、音效处理装置、终端和存储介质

Legal Events

Date Code Title Description
WITN Application deemed withdrawn, e.g. because no request for examination was filed or no examination fee was paid