KR101880844B1 - 오디오 공간 효과를 위한 초음파 스피커 어셈블리 - Google Patents

오디오 공간 효과를 위한 초음파 스피커 어셈블리 Download PDF

Info

Publication number
KR101880844B1
KR101880844B1 KR1020170015467A KR20170015467A KR101880844B1 KR 101880844 B1 KR101880844 B1 KR 101880844B1 KR 1020170015467 A KR1020170015467 A KR 1020170015467A KR 20170015467 A KR20170015467 A KR 20170015467A KR 101880844 B1 KR101880844 B1 KR 101880844B1
Authority
KR
South Korea
Prior art keywords
control signal
speaker
audio
sound
speakers
Prior art date
Application number
KR1020170015467A
Other languages
English (en)
Other versions
KR20170094078A (ko
Inventor
그레고리 칼슨
마사오미 니시다테
모리오 우사미
기요토 시부야
노리히로 나가이
피터 신타니
Original Assignee
소니 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 소니 주식회사 filed Critical 소니 주식회사
Publication of KR20170094078A publication Critical patent/KR20170094078A/ko
Application granted granted Critical
Publication of KR101880844B1 publication Critical patent/KR101880844B1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R31/00Apparatus or processes specially adapted for the manufacture of transducers or diaphragms therefor
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S7/00Indicating arrangements; Control arrangements, e.g. balance control
    • H04S7/30Control circuits for electronic adaptation of the sound field
    • H04S7/302Electronic adaptation of stereophonic sound system to listener position or orientation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S7/00Indicating arrangements; Control arrangements, e.g. balance control
    • H04S7/30Control circuits for electronic adaptation of the sound field
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R1/00Details of transducers, loudspeakers or microphones
    • H04R1/20Arrangements for obtaining desired frequency or directional characteristics
    • H04R1/32Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only
    • H04R1/40Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only by combining a number of identical transducers
    • H04R1/403Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only by combining a number of identical transducers loud-speakers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R5/00Stereophonic arrangements
    • H04R5/02Spatial or constructional arrangements of loudspeakers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R9/00Transducers of moving-coil, moving-strip, or moving-wire type
    • H04R9/06Loudspeakers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S3/00Systems employing more than two channels, e.g. quadraphonic
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R2217/00Details of magnetostrictive, piezoelectric, or electrostrictive transducers covered by H04R15/00 or H04R17/00 but not provided for in any of their subgroups
    • H04R2217/03Parametric transducers where sound is generated or captured by the acoustic demodulation of amplitude modulated ultrasonic waves

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • Otolaryngology (AREA)
  • Manufacturing & Machinery (AREA)
  • Circuit For Audible Band Transducer (AREA)
  • Obtaining Desirable Characteristics In Audible-Bandwidth Transducers (AREA)

Abstract

오디오 공간 효과는 예를 들어, 매칭되는 스피커를 구동시키기 위해 어레이 내의 스피커들 중 하나의 스피커의 음파 축에 매칭되는 게임 콘솔로부터의 제어 신호에 의해 요구되는 방위각 및 원할 경우, 앙각을 갖는, 초음파 스피커들의 구형 어레이를 사용하여 제공된다.

Description

오디오 공간 효과를 위한 초음파 스피커 어셈블리{ULTRASONIC SPEAKER ASSEMBLY FOR AUDIO SPATIAL EFFECT}
본 출원은 일반적으로 오디오 공간 효과를 생성하기 위한 초음파 스피커 어셈블리에 관한 것이다.
객체가 비디오가 디스플레이되고 있는 공간에 있었던 것처럼 사운드 방출 비디오 객체의 움직임을 모델링하기 위한 오디오 공간 효과는 일반적으로 위상 배열 원리를 사용하여 제공된다. 본 명세서에서 이해되는 바와 같이, 이러한 시스템들은 오디오 공간 효과를 정밀하고 정확하게 모델링하지 못하거나 본 발명의 원리를 사용하여 가능한 것 만큼 소형화되지 못할 수 있다.
장치는 각각의 음파 축을 따라 사운드를 방출하도록 구성되는 복수의 초음파 스피커를 포함한다. 어떤 경우에는 구형 배열로 스피커를 고정 시키도록 마운트가 구성된다. 장치는 또한 일시적인 신호가 아니며 적어도 하나의 프로세서에 의해 실행 가능한 명령어들을 포함하는 적어도 하나의 컴퓨터 메모리를 포함하며, 이 명령어들은, 요구된 음파 축을 나타내는 제어 신호를 수신하고, 제어 신호에 응답하여, 복수의 초음파 스피커 중에서 음파 축이 요구된 음파 축과 가장 가깝게 정렬되는 스피커를 작동시키기 위한 것이다.
요구된 음파 축은 높이 성분 및 방위각 성분을 포함할 수 있다.
제어 신호는 비-초음파 스피커 상에서 재생하기 위한 메인 오디오 채널을 출력하는 컴퓨터 게임 콘솔로부터 수신될 수 있다.
일부 실시예들에서, 제어 신호에 응답하여, 명령어들은 사운드를 청취자와 관련된 위치로 향하게 하도록 복수의 초음파 스피커들 중 스피커를 활성화시키도록 실행 가능하다. 이러한 명령어들은 반사된 사운드가 청취자와 관련된 위치에 도달하도록 반사 위치로 사운드가 향하게 하도록 실행 가능할 수 있다.
제어 신호는 수신된 오디오 채널 내의 적어도 하나의 오디오 효과 데이터를 나타낼 수 있다. 오디오 효과 데이터는 적어도 부분적으로 컴퓨터 게임 입력 디바이스로의 입력으로부터 설정될 수 있다.
일 양태에서, 방법은 오디오 효과를 나타내는 적어도 하나의 제어 신호를 수신하는 단계, 및 제어 신호에 적어도 부분적으로 기초하여 초음파 스피커들 중 구형 어레이 내의 초음파 스피커를 작동시키는 단계를 포함한다.
일 양태에서, 디바이스는 일시적인 신호가 아니며 적어도 하나의 프로세서에 의해 실행 가능한 명령어들을 포함하는 적어도 하나의 컴퓨터 메모리를 포함하며, 명령어들은, 제어 신호를 수신하고, 제어 신호에 응답하여, 어레이 내의 스피커들 중 임의의 스피커를 이동시키지 않고 단 하나의 스피커에 의해 정의된 음파 축에 적어도 부분적으로 기초하여 초음파 스피커들 중 어레이 내의 단 하나의 스피커를 작동시키도록 실행 가능하다.
본 출원의 구조 및 동작 양자에 관한 상세들은 첨부 도면들을 참조하여 최상으로 이해될 수 있으며, 도면들에서 동일한 참조 번호들은 동일한 부분들을 참조하며, 도면들에서:
도 1은 본 원리에 따른 예시적인 시스템을 포함하는 예시적인 시스템의 블록도이다.
도 2는 도 1의 컴포넌트들을 사용할 수 있는 또 다른 시스템의 블록도이다.
도 3은 짐벌 어셈블리 상에 장착된 예시적인 초음파 스피커 시스템의 개략도이다.
도 4 및 도 5는 도 3의 시스템에 따른 예시적인 로직의 흐름도이다.
도 6은 음파 빔을 특정 시청자에게 향하게 하는 예시적인 대안적인 로직의 흐름도이다.
도 7은 사용할 도 6의 로직을 위한 템플릿을 입력하기 위한 예시적인 스크린 샷이다.
도 8은 초음파 스피커들이 움직일 필요가 없는 구형 지지체 상에 배열되는 대안적인 스피커 어셈블리를 도시한다.
도 9 및 도 10은 도 8의 시스템에 따른 예시적인 로직의 흐름도이다.
본 개시 내용은 일반적으로 가전 제품(CE) 디바이스 네트워크의 양태들을 포함하는 컴퓨터 생태계에 관한 것이다. 본 명세서의 시스템은 데이터가 클라이언트와 서버 컴포넌트 사이에서 교환될 수 있도록 네트워크를 통해 연결된 서버 및 클라이언트 컴포넌트를 포함할 수 있다. 클라이언트 컴포넌트는 휴대용 텔레비전(예를 들어, 스마트 TV, 인터넷 가능형 TV), 랩톱 및 태블릿 컴퓨터와 같은 휴대용 컴퓨터, 및 스마트 폰을 포함하는 다른 모바일 디바이스 및 이하에 설명되는 추가의 예를 포함하는 하나 이상의 컴퓨팅 디바이스를 포함할 수 있다. 이러한 클라이언트 디바이스는 다양한 운영 환경에서 작동할 수 있다. 예를 들어, 일부 클라이언트 컴퓨터는 마이크로소프트(Microsoft), 유닉스(Unix) 운영 체제로부터의 운영 체제 또는 애플 컴퓨터(Apple Computer) 또는 구글(Google)이 운영하는 운영 체제를 예로 들 수 있다. 이러한 운영 환경은 마이크로소프트(Microsoft), 구글(Google) 또는 모질라(Mozilla)가 만든 브라우저와 같은 하나 이상의 브라우징 프로그램 또는 아래에 설명된 인터넷 서버에 의해 호스팅되는 웹 애플리케이션에 액세스할 수 있는 다른 브라우저 프로그램을 실행하는데 사용될 수 있다.
서버 및/또는 게이트웨이는 인터넷과 같은 네트워크를 통해 데이터를 송수신하도록 서버를 구성하는 명령어들을 실행하는 하나 이상의 프로세서를 포함할 수 있다. 또는, 클라이언트 및 서버는 로컬 인트라넷 또는 가상 사설 네트워크를 통해 연결될 수 있다. 서버 또는 제어기가 Sony Playstation(상표등록됨)과 같은 게임 콘솔, 개인용 컴퓨터 등에 의해 인스턴스화될 수 있다.
네트워크를 통해 클라이언트와 서버 사이에서 정보가 교환될 수 있다. 이를 위해 그리고 보안을 위해, 서버 및/또는 클라이언트는 신뢰성 및 보안을 위해 방화벽, 부하 분산기, 임시 저장소, 및 프록시, 그리고 다른 네트워크 인프라를 포함할 수 있다. 하나 이상의 서버는 온라인 소셜 웹 사이트와 같은 안전한 커뮤니티를 네트워크 구성원에 제공하는 방법을 구현하는 장치를 형성할 수 있다.
본 명세서에서 사용된 바와 같은, 명령어(instruction)들은 시스템에서 정보를 처리하기 위한 컴퓨터로 구현된 단계를 말한다. 명령어들은 소프트웨어, 펌웨어 또는 하드웨어로 구현될 수 있고, 시스템의 컴포넌트에 의해 실시되는 임의의 유형의 프로그램된 단계를 포함할 수 있다.
프로세서는 어드레스 라인, 데이터 라인, 및 제어 라인과 같은 다양한 라인과 레지스터 및 시프트 레지스터에 의해 로직을 실행할 수 있는 임의의 종래의 범용 단일 칩 또는 다중 칩 프로세서일 수 있다.
본 명세서의 흐름도 및 사용자 인터페이스에 의해 기술된 소프트웨어 모듈은 다양한 서브 루틴, 절차 등을 포함할 수 있다. 본 개시 내용을 제한하지 않으면서, 특정 모듈에 의해 실행되도록 명시된 로직은 다른 소프트웨어 모듈로 재분배 및/또는 단일 모듈로 함께 결합될 수 있고 및/또는 공유 가능한 라이브러리에서 사용 가능하다.
본 명세서에 기술되는 본 원리는 하드웨어, 소프트웨어, 펌웨어, 또는 이들의 조합으로 구현될 수 있고; 따라서 예시적인 컴포넌트, 블록, 모듈, 회로, 및 단계가 그의 기능성의 측면에서 기재되어 있다.
상술한 것에 더하여, 후술하는 로직 블록들, 모듈들 및 회로들은 본 명세서에서 설명되는 기능들을 수행하도록 설계되는 범용 프로세서, 디지털 신호 프로세서(DSP), 필드 프로그래머블 게이트 어레이(FPGA), 또는 주문형 집적 회로(ASIC)와 같은 다른 프로그램가능 로직 디바이스, 개별 게이트 또는 트랜지스터 로직, 개별 하드웨어 컴포넌트들, 또는 이들의 임의 조합을 이용하여 구현 또는 수행될 수 있다. 프로세서는 제어기 또는 상태 머신 또는 컴퓨팅 디바이스들의 조합에 의해 구현될 수 있다.
이하에서 기술되는 기능 및 방법은, 소프트웨어로 구현될 때, C# 또는 C++와 같은, 그러나 이에 제한되지 않는 적절한 언어로 작성될 수 있고, RAM(random access memory), ROM(read-only memory), EEPROM(electrically erasable programmable read-only memory), CD-ROM(compact disk read-only memory) 또는 DVD(digital versatile disc)와 같은 다른 광 디스크 저장소, 자기 디스크 저장소 또는 이동식 썸 드라이브(removable thumb drive)를 포함하는 다른 자기 저장 디바이스 등과 같은 컴퓨터 판독 가능 저장 매체 상에 저장되거나 그를 통해 전송될 수 있다. 연결은 컴퓨터 판독 가능 매체를 구축할 수 있다. 이러한 연결은, 예로서, 광섬유 및 동축 와이어 및 DSL(digital subscriber line) 및 연선(twisted pair wire)을 비롯한 유선 케이블을 포함할 수 있다.
일 실시예에 포함된 컴포넌트들은 임의의 적절한 조합으로 다른 실시예들에서 사용될 수 있다. 예를 들어, 본 명세서에 기술되고 및/또는 도면들에 도시되는 다양한 컴포넌트들 중 임의의 것이 결합되거나 교체되거나 다른 실시예들로부터 배제될 수 있다.
"A, B, 및 C 중 적어도 하나를 갖는 시스템"(마찬가지로, "A, B, 또는 C 중 적어도 하나를 갖는 시스템" 및 "A, B, C 중 적어도 하나를 갖는 시스템")은 A만, B만, C만, A와 B를 함께, A와 C를 함께, B와 C를 함께, 및/또는 A, B 및 C를 함께, 기타 등등을 갖는 시스템을 포함한다.
이제 도 1을 구체적으로 참조하면, 본 원리에 따른, 앞서 언급되고 이하에서 추가로 기술되는 예시적인 디바이스들 중 하나 이상을 포함할 수 있는 예시적인 생태계(10)가 도시되어 있다. 시스템(10)에 포함된 예시적인 디바이스들 중 제1 디바이스는 예시적인 일차 디스플레이 디바이스(primary display device)로서 구성된 CE(consumer electronics) 디바이스이고, 도시된 실시예에서, TV 튜너(이와 동등하게, TV를 제어하는 셋톱 박스)를 갖는 인터넷 가능형 TV와 같은, 그러나 이에 제한되지 않는 AVDD(audio video display device: 오디오 비디오 디스플레이 디바이스)(12)이다. 그러나, AVDD(12)는 대안적으로 가전 기기 또는 가정용품, 예를 들어, 컴퓨터화된 인터넷 가능형 냉장고, 세탁기, 또는 건조기일 수 있다. 또한, AVDD(12)는 컴퓨터화된 인터넷 가능형("스마트") 전화기, 태블릿 컴퓨터, 노트북 컴퓨터, 예를 들어, 컴퓨터화된 인터넷 가능형 시계와 같은 웨어러블 컴퓨터화된 디바이스, 컴퓨터화된 인터넷 가능형 팔찌, 다른 컴퓨터화된 인터넷 가능형 디바이스, 컴퓨터화된 인터넷 가능형 음악 플레이어, 컴퓨터화된 인터넷 가능형 헤드 폰, 이식 가능한 피부 디바이스와 같은 컴퓨터화된 인터넷 가능형 이식 가능 디바이스, 게임 콘솔 등일 수 있다. 그럼에도 불구하고, AVDD(12)는 (예를 들어, 본 원리들을 수행하고, 본 명세서에서 기술된 로직을 실행하며, 본 명세서에 기술된 임의의 다른 기능들 및/또는 동작들을 수행하기 위해 다른 CE 디바이스들과 통신하는) 본 원리들을 수행하도록 구성된다는 것을 이해해야 한다.
따라서, 이런 원리들을 수행하기 위하여, AVDD(12)는 도 1에 도시된 컴포넌트들의 일부 또는 모두에 의해 구축될 수 있다. 예를 들어, AVDD(12)는 HD(high definition) 또는 UHD(ultra-high definition) "4K" 이상 평판 스크린에 의해 구현될 수 있는 그리고 디스플레이 상에서의 터치를 통해 사용자 입력 신호를 수신하기 위해 터치 가능형일 수 있는 하나 이상의 디스플레이(14)를 포함할 수 있다. AVDD(12)는 본 원리에 따라 오디오를 출력하기 위한 하나 이상의 스피커(16), 및, 예를 들어, AVDD(12)를 제어하기 위해 가청 명령을 AVDD(12)에 입력하기 위한, 예를 들어, 오디오 수신기/마이크로폰과 같은 적어도 하나의 부가 입력 디바이스(18)를 포함할 수 있다. 예시적인 AVDD(12)는 또한 하나 이상의 프로세서(24)의 제어 하에서 인터넷, WAN, LAN, 기타 등등과 같은 적어도 하나의 네트워크(22)를 통한 통신을 위한 하나 이상의 네트워크 인터페이스(20)를 포함할 수 있다. 따라서, 인터페이스(20)는 메쉬 네트워크 송수신기와 같은, 그러나 이에 제한되지 않는, 무선 컴퓨터 네트워크 인터페이스의 일 예인, Wi-Fi 송수신기일 수 있으며, 이에 제한되지 않는다. 프로세서(24)가 본 원리를 수행하기 위해, 예를 들어, 디스플레이(14) 상에 영상을 제시하고 그로부터 입력을 수신하기 위해 디스플레이(14)를 제어하는 것과 같이, 본 명세서에 기술되는 AVDD(12)의 다른 요소들를 비롯하여, AVDD(12)를 제어한다는 것을 이해해야 한다. 게다가, 유의할 점은, 네트워크 인터페이스(20)가, 예를 들어, 무선 전화 송수신기, 또는 앞서 언급된 바와 같은 Wi-Fi 송수신기, 기타 등등과 같은, 예를 들어, 유선 또는 무선 모뎀 또는 라우터, 또는 다른 적절한 인터페이스일 수 있다는 것이다.
전술한 바에 부가하여, AVDD(12)는 또한, 예를 들어, 다른 CE 디바이스에 (예를 들어, 유선 연결을 사용하여) 물리적으로 연결하기 위한 HDMI(high definition multimedia interface) 포트 또는 USB 포트 및/또는 AVDD(12)로부터의 오디오를 헤드폰을 통해 사용자에게 제공하기 위해 헤드폰을 AVDD(12)에 연결하기 위한 헤드폰 포트와 같은, 하나 이상의 입력 포트(26)를 포함할 수 있다. 예를 들어, 입력 포트(26)는 유선을 통해 또는 무선으로 오디오 비디오 콘텐츠의 케이블 또는 위성 소스(26a)에 연결될 수 있다. 따라서, 소스(26a)는, 예를 들어, 별개의 또는 통합된 셋톱 박스 또는 위성 수신기일 수 있다. 또는, 소스(26a)는 사용자에 의해 이하에서 추가로 기술되는 채널 할당을 위해 좋아하는 것으로서 간주될 수 있는 콘텐츠를 포함하는 게임 콘솔 또는 디스크 플레이어일 수 있다.
AVDD(12)는, 어떤 경우에, AVDD의 섀시 내에 독립형 디바이스로서 또는 AV 프로그램을 재생하기 위한 AVDD의 섀시 내부 또는 외부에 있는 PVR(personal video recording device) 또는 비디오 디스크 플레이어로서 또는 이동식 메모리 매체로서 구현되는, 일시적 신호가 아닌 디스크 기반 또는 고상 저장소와 같은 하나 이상의 컴퓨터 메모리(28)를 추가로 포함할 수 있다. 또한, 일부 실시예에서, AVDD(12)는 예컨대, 적어도 하나의 위성 또는 셀폰 타워로부터 지리적 위치 정보를 수신하고 이 정보를 프로세서(24)에 제공하도록 및/또는 프로세서(24)와 관련하여 AVDD(12)가 배치되어 있는 고도를 결정하도록 구성되어 있는 셀폰 수신기, GPS 수신기 및/또는 고도계(30)와 같은, 그러나 이에 제한되지 않는 위치 또는 장소 수신기를 포함할 수 있다. 그러나, 셀폰 수신기, GPS 수신기 및/또는 고도계 이외의 다른 적당한 위치 수신기가, 예를 들어, 3개의 차원 모두에서, 예를 들어, AVDD(12)의 위치를 결정하기 위해 본 원리에 따라 사용될 수 있다는 것을 이해해야 한다.
AVDD(12)의 설명을 계속하면, 일부 실시예에서, AVDD(12)는 본 원리에 따라 사진/영상 및/또는 비디오를 수집하기 위해, 예를 들어, 열 영상 카메라, 웹캠과 같은 디지털 카메라, 및/또는 AVDD(12) 내에 통합되고 프로세서(24)에 의해 제어 가능한 카메라일 수 있는 하나 이상의 카메라(32)를 포함할 수 있다. 블루투스 및/또는 NFC(Near Field Communication: 근거리 통신) 기술을, 각각, 사용하여 다른 디바이스들과 통신하기 위한 블루투스 송수신기(34) 및 다른 NFC 요소(36)가 또한 AVDD(12) 상에 포함될 수 있다. 예시적인 NFC 요소는 RFID(radio frequency identification) 요소일 수 있다.
게다가, AVDD(12)는 프로세서(24)에 입력을 제공하는 하나 이상의 보조 센서(37)(예를 들어, 가속도계, 자이로스코프, 회전 기록계(cyclometer), 또는 자기 센서와 같은 움직임 센서, IR(infrared) 센서, 광 센서, 속도 및/또는 케이던스(cadence) 센서, (예를 들어, 제스처 명령을 감지하기 위한) 제스처 센서 등)를 포함할 수 있다. AVDD(12)는 프로세서(24)에 입력을 제공하는 OTH TV 방송을 수신하기 위한 공중파(over-the-air) TV 방송 포트(38)를 포함할 수 있다. 전술한 바에 부가하여, 유의할 점은, AVDD(12)가 또한 IR(infrared) 송신기 및/또는 IR 수신기 및/또는 IRDA(IR data association) 디바이스와 같은 IR 송수신기(42)를 포함할 수 있다는 것이다. AVDD(12)에 전력을 공급하기 위해 배터리(도시 생략)가 제공될 수 있다.
여전히 도 1을 참조하면, AVDD(12)에 부가하여, 시스템(10)은 하나 이상의 다른 CE 디바이스 유형을 포함할 수 있다. 시스템 (10)이 홈 네트워크인 경우, 컴포넌트들 간의 통신은 DLNA(digital living network alliance) 프로토콜에 따른 것일 수 있다.
일 예에서, 제1 CE 디바이스(44)는 이하에서 기술되는 서버를 통해 송신되는 명령을 통해 디스플레이를 제어하는데 사용될 수 있는 반면, 제2 CE 디바이스(46)는 제1 CE 디바이스(44)와 유사한 컴포넌트를 포함할 수 있고, 따라서 상세히 논의되지 않을 것이다. US 도시된 예에서, 2개의 CE 디바이스(44, 46)만이 도시되어 있지만, 보다 적거나 보다 많은 디바이스가 사용될 수 있다는 것을 잘 알 것이다.
도시된 예에서, 본 원리를 설명하기 위해, 3개의 디바이스(12, 44, 46) 모두가, 예를 들어, 가정에 있는 엔터테인먼트 네트워크의 구성원인 것으로 또는 주택과 같은 장소에서 적어도 서로에 근접하여 존재하는 것으로 가정된다. 그러나, 명확히 달리 언급되지 않는 한, 본 원리가, 파선(48)으로 예시된, 특정의 장소로 제한되지 않는다.
예시적인 비제한적 제1 CE 디바이스(44)는 앞서 언급된 디바이스들, 예를 들어, 휴대용 무선 랩톱 컴퓨터 또는 노트북 컴퓨터 또는 게임 제어기 중 임의의 하나의 디바이스에 의해 구축될 수 있고, 그에 따라 이하에서 기술되는 컴포넌트들 중 하나 이상을 가질 수 있다. 제2 CE 디바이스(46)는 제한없이, 블루레이 플레이어, 게임 콘솔 등과 같은 비디오 디스크 플레이어에 의해 구축될 수 있다. 제1 CE 디바이스(44)는, 예를 들어, AV 재생 및 일시 정지 명령을 AVDD(12)에 발행하기 위한 리모콘(remote control)(RC)일 수 있거나, 태블릿 컴퓨터, 유선 또는 무선 링크를 통해 제2 CE 디바이스(46)에 의해 구현되는 게임 콘솔과 통신하고 AVDD(12) 상에서의 비디오 게임 제시(video game presentation)를 제어하는 게임 제어기, 개인용 컴퓨터, 무선 전화 등과 같은 더욱 복잡한 디바이스일 수 있다.
따라서, 제1 CE 디바이스(44)는 디스플레이 상에서의 터치를 통한 사용자 입력 신호를 수신하기 위한 터치 가능형일 수 있는 하나 이상의 디스플레이(50)를 포함할 수 있다. 제1 CE 디바이스(44)는 본 원리에 따라 오디오를 출력하기 위한 하나 이상의 스피커(52), 및 예를 들어, 디바이스(44)를 제어하기 위해 가청 명령을 제1 CE 디바이스(44)에 입력하기 위한 적어도 하나의 부가 입력 디바이스(54), 예를 들어, 오디오 수신기/마이크로폰을 포함할 수 있다. 예시적인 제1 CE 디바이스(44)는 또한 하나 이상의 CE 디바이스 프로세서(58)의 제어 하에서 네트워크(22)를 통한 통신을 위한 하나 이상의 네트워크 인터페이스(56)를 포함할 수 있다. 따라서, 인터페이스(56)는 제한없이, 메쉬 네트워크 인터페이스를 비롯한, 무선 컴퓨터 네트워크 인터페이스의 일 예인, Wi-Fi 송수신기일 수 있다. 프로세서(58)가 본 원리를 실시하기 위해, 예를 들어, 디스플레이(50) 상에 영상을 제시하고 그로부터 입력을 수신하기 위해 디스플레이(50)를 제어하는 것과 같이, 본 명세서에 기술되는 제1 CE 디바이스(44)의 다른 요소를 비롯하여, 제1 CE 디바이스(44)를 제어한다는 것을 이해해야 한다. 게다가, 유의할 점은, 네트워크 인터페이스(56)가, 예를 들어, 무선 전화 송수신기, 또는 앞서 언급된 바와 같은 Wi-Fi 송수신기, 기타 등등과 같은, 예를 들어, 유선 또는 무선 모뎀 또는 라우터, 또는 다른 적절한 인터페이스일 수 있다는 것이다.
전술한 바에 부가하여, 제1 CE 디바이스(44)는 또한, 예를 들어, 다른 CE 디바이스에 (예를 들어, 유선 연결을 사용하여) 물리적으로 연결하기 위한 HDMI 포트 또는 USB 포트 및/또는 제1 CE 디바이스(44)로부터의 오디오를 헤드폰을 통해 사용자에게 제공하기 위해 헤드폰을 제1 CE 디바이스(44)에 연결하기 위한 헤드폰 포트와 같은, 하나 이상의 입력 포트(60)를 포함할 수 있다. 제1 CE 디바이스(44)는 디스크 기반 또는 고상 저장소와 같은 하나 이상의 유형적 컴퓨터 판독 가능 저장 매체(62)를 추가로 포함할 수 있다. 또한, 일부 실시예에서, 제1 CE 디바이스(44)는 예를 들어, 삼각측량을 사용하여 적어도 하나의 위성 또는 셀 타워로부터 지리적 위치 정보를 수신하고 이 정보를 CE 디바이스 프로세서(58)에 제공하도록 및/또는 CE 디바이스 프로세서(58)와 관련하여 제1 CE 디바이스(44)가 배치되어 있는 고도를 결정하도록 구성되어 있는 셀폰 및/또는 GPS 수신기 및/또는 고도계(64)와 같은, 그러나 이들에 제한되지 않는 위치 또는 장소 수신기를 포함할 수 있다. 그러나, 셀폰 및/또는 GPS 수신기 및/또는 고도계 이외의 다른 적당한 위치 수신기가, 예를 들어, 3개의 차원 모두에서, 예를 들어, 제1 CE 디바이스(44)의 위치를 결정하기 위해 본 원리에 따라 사용될 수 있다는 것을 이해해야 한다.
제1 CE 디바이스(44)의 설명을 계속하면, 일부 실시예에서, 제1 CE 디바이스(44)는 본 원리에 따라 사진/영상 및/또는 비디오를 수집하기 위해, 예를 들어, 열 영상 카메라, 웹캠과 같은 디지털 카메라, 및/또는 제1 CE 디바이스(44) 내에 통합되고 CE 디바이스 프로세서(58)에 의해 제어 가능한 카메라일 수 있는 하나 이상의 카메라(66)를 포함할 수 있다. 블루투스 및/또는 NFC 기술을, 각각, 사용하여 다른 디바이스와 통신하기 위한 블루투스 송수신기(68) 및 다른 NFC 요소(70)가 또한 제1 CE 디바이스(44) 상에 포함될 수 있다. 예시적인 NFC 요소는 RFID(radio frequency identification) 요소일 수 있다.
게다가, 제1 CE 디바이스(44)는 CE 디바이스 프로세서(58)에 입력을 제공하는 하나 이상의 보조 센서(72)(예를 들어, 가속도계, 자이로스코프, 회전 기록계, 또는 자기 센서와 같은 움직임 센서, IR(infrared) 센서, 광 센서, 속도 및/또는 케이던스 센서, (예를 들어, 제스처 명령을 감지하기 위한) 제스처 센서 등)를 포함할 수 있다. 제1 CE 디바이스(44)는 CE 디바이스 프로세서(58)에 입력을 제공하는, 예를 들어, 하나 이상의 기후 센서(74)(예를 들어, 기압계, 습도 센서, 바람 센서, 광 센서, 온도 센서 등) 및/또는 하나 이상의 생체 측정 센서(76)와 같은 또 다른 센서들을 포함할 수 있다. 전술한 바에 부가하여, 유의할 점은, 일부 실시예에서, 제1 CE 디바이스(44)가 또한 IR(infrared) 송신기 및/또는 IR 수신기 및/또는 IRDA(IR data association) 디바이스와 같은 IR 송수신기(42)를 포함할 수 있다는 것이다. 제1 CE 디바이스(44)에 전력을 공급하기 위해 배터리(도시 생략)가 제공될 수 있다. CE 디바이스(44)는 앞서 기술된 통신 모드들 및 관련 컴포넌트들 중 임의의 것을 통해 AVDD(12)와 통신할 수 있다.
제2 CE 디바이스(46)는 CE 디바이스(44)에 대해 도시된 컴포넌트들 중 일부 또는 전부를 포함할 수 있다. CE 디바이스들 중 어느 하나 또는 둘 다가 하나 이상의 배터리에 의해 전력을 공급받을 수 있다.
지금 전술한 적어도 하나의 서버(80)를 참고하면, 서버는 적어도 하나의 서버 프로세서(82), 디스크 기반 또는 고상 저장소와 같은 적어도 하나의 유형의 컴퓨터 판독 가능 저장 매체(84), 및 서버 프로세서(82)의 제어 하에서 네트워크(22)를 통해 도 1의 다른 디바이스들과 통신하는 것을 허용하는 적어도 하나의 네트워크 인터페이스(86)를 포함하며, 사실 본 원리들에 따라서 서버들과 클라이언트 디바이스들 간의 통신을 촉진할 수 있다. 유의할 점은, 네트워크 인터페이스(86)가, 예를 들어, 유선 또는 무선 모뎀 또는 라우터, Wi-Fi 송수신기, 또는 예를 들어, 무선 전화 송수신기와 같은 다른 적절한 인터페이스일 수 있다는 것이다.
따라서, 일부 실시예들에서, 서버(80)는 인터넷 서버일 수 있으며, 시스템(10)의 디바이스들이 예시적인 실시예들에서 서버(80)를 통해 "클라우드(cloud)" 환경에 액세스할 수 있도록 "클라우드" 기능을 포함하고 수행할 수 있다. 또는, 서버(80)는 도 1에 도시된 다른 디바이스들과 동일한 방에 있거나 근방에 있는 게임 콘솔 또는 다른 컴퓨터에 의해 구현될 수 있다.
이제 도 2를 참조하면, 도 1의 AVDD(12)의 컴포넌트들 중 일부 또는 전부를 포함할 수 있는 AVDD(200)가 게이트웨이로부터 콘텐츠, 예를 들어, 4K 또는 8K 콘텐츠와 같은 UHD 콘텐츠를 수신하기 위해 적어도 하나의 게이트웨이에 연결되어 있다. 도시된 예에서, AVDD(200)는 제1 및 제2 위성 게이트웨이(202, 204)에 연결되어 있고, 각각의 위성 게이트웨이는 각자의 위성 TV 제공업체의 각자의 위성 시스템(206, 208)으로부터 위성 TV 신호를 수신하기 위한 위성 TV 셋톱 박스로서 구성될 수 있다.
위성 게이트웨이에 부가하여 또는 그 대신에, AVDD(200)는 하나 이상의 케이블 TV 셋톱 박스형 게이트웨이(210, 212)로부터 콘텐츠를 수신할 수 있고, 각각의 게이트웨이는 각자의 케이블 헤드엔드(cable head end)(214, 216)로부터 콘텐츠를 수신한다.
또 다시 말하지만, 셋톱 박스형 게이트웨이 대신에, AVDD(200)는 클라우드 기반 게이트웨이(220)로부터 콘텐츠를 수신할 수 있다. 클라우드 기반 게이트웨이(220)는 AVDD(200)에 로컬인 네트워크 인터페이스 디바이스(예를 들어, AVDD(200)의 모뎀)에 존재할 수 있거나, 인터넷 소싱 콘텐츠(Internet-sourced content)를 AVDD(200)로 송신하는 원격 인터넷 서버에 존재할 수 있다. 어쨋든, AVDD(200)는 클라우드 기반 게이트웨이(220)를 통해 인터넷으로부터 UHD 콘텐츠와 같은 멀티미디어 콘텐츠를 수신할 수 있다. 게이트웨이는 컴퓨터화되어 있고, 따라서 도 1에 도시된 CE 디바이스들 중 임의의 것의 적절한 컴포넌트를 포함할 수 있다.
일부 실시예에서, 예를 들어, 본 양수인의 원격 뷰잉 사용자 인터페이스(remote viewing user interface)(RVU) 기술을 사용하는 단일의 셋톱 박스형 게이트웨이만이 제공될 수 있다.
3차 디바이스(tertiary device)가 본 명세서에서의 원리에 따라 AVDD(200)로부터 콘텐츠를 수신하기 위해, 예를 들어, 이더넷 또는 USB(universal serial bus) 또는 WiFi 또는 다른 유선 또는 무선 프로토콜을 통해 홈 네트워크(메쉬형 네트워크일 수 있음)에 있는 AVDD(200)에 연결될 수 있다. 도시된 비제한적인 예에서, 비디오 게임 콘솔(224)과 같이, 제2 TV(222)가 AVDD(200)로부터 콘텐츠를 수신하기 위해 AVDD(200)에 연결된다. 네트워크를 확장시키기 위해 부가의 디바이스가 하나 이상의 3차 디바이스에 연결될 수 있다. 3차 디바이스는 도 1에 도시된 CE 디바이스들 중 임의의 것의 적절한 컴포넌트를 포함할 수 있다.
도 3의 예시적인 시스템에서, 제어 신호는 CE 디바이스(44)의 컴포넌트들 중 일부 또는 모두를 구현하는 게임 콘솔로부터, 또는 본 명세서에서 논의된 카메라들 중 하나와 같은 카메라로부터 나올 수 있으며, 짐벌 어셈블리(gimbal assembly)는 전술한 기계적인 부분에 추가하여, 제2 CE 디바이스(46)의 하나 이상의 컴포넌트를 포함 할 수 있다. 게임 콘솔은 AVDD상에서 비디오를 출력할 수 있다. 시스템의 2개 이상의 컴포넌트가 단일 유닛으로 통합될 수 있다.
더욱 명확하게는, 도 3의 시스템(300)은 음파 축(304)을 따라 사운드를 방출하는 초음파 스피커(302) ("파라메트릭 이미터"로도 알려짐)를 포함한다. 짐벌 어셈블리 상에는 단일 스피커만이 사용될 수 있거나, 또는 이하의 대안적인 실시예에서 설명된 바와 같이, 예를 들어, 구형 어셈블리로 배열된 다수의 US 스피커가 사용될 수 있다. 스피커 또는 스피커들은 짐벌 어셈블리 상에 장착될 수 있다. 사운드 빔은 전형적으로 수 도, 예를 들어 30도까지 축(304)에 대한 원뿔 각(306)을 정의하는 비교적 협소한 원뿔에 일반적으로 국한된다. 따라서, 스피커(302)는 오디오 신호를 하나 이상의 초음파 캐리어 주파수로 변조함으로써 좁은 사운드 빔을 생성하는 방향성 사운드 소스이다. 초음파 스피커의 지향성이 높기 때문에 대상 청취자는 명확하게 사운드를 청취할 수 있지만, 같은 구역의 다른 청취자이어도 빔 외부에서는 사운드를 거의 청취할 수 없다.
상술한 바와 같이, 스피커(302)를 이동시키기 위한 제어 신호는, 예들에서, 예를 들어, 비디오 디스플레이 디바이스(310) 상의 관련 비디오를 출력하는 홈 엔터테인먼트 시스템에서, 카메라, 게임 콘솔, 개인용 컴퓨터 및 비디오 플레이어와 같은 하나 이상의 제어 신호 소스(308)에 의해, 생성될 수 있다. 이로써, 공간을 이동하는 차량(비행기, 헬리콥터, 자동차)과 같은 사운드 효과가 단일 스피커만을 사운드 소스로 사용하여 큰 정확성으로 달성될 수 있다.
일례에서, 게임 제어기와 같은 제어 신호 소스(308)는 예를 들어 TV 또는 PC와 같은 비디오 디스플레이 디바이스 또는 게임이 제시되고 있는 관련 홈 사운드 시스템의 메인, 비-초음파 스피커(들)(308A 또는 310A)에 메인 오디오를 출력할 수 있다. 별도의 사운드 효과 오디오 채널은 게임에 포함될 수 있으며, 이 제2 사운드 효과 오디오 채널은 게임의 메인 오디오가 스피커(들)(308A/310A) 상에서 동시에 재생되는 동안 방향성 US 스피커(300) 상에 사운드 효과 채널을 재생하기 위해, 짐벌 어셈블리를 이동시키기 위해 송신되는 제어 신호와 함께 또는 그 일부로서 US 스피커(300)에 제공된다.
제어 신호 소스(308)는 컴퓨터 게임 RC들과 같은 하나 이상의 원격 제어기들(RC)(309)로부터 사용자 입력을 수신할 수 있다. 메인(US 이외의) 오디오를 재생하기 위해 각 게임 플레이어에게 제공된 RC(309) 및/또는 사운드 헤드폰(308C)은 RC 및/또는 헤드폰의 위치를 결정할 수 있는 울트라-와이드 밴드(UWB) 태그와 같은 그것에 부착된 로케이터 태그(309A)를 가질 수 있다. 이런 방식으로, 게임 소프트웨어는 각 플레이어가 가진 헤드폰/RC를 알고 있기 때문에, 그 플레이어를 위해 의도된 US 오디오 효과를 재생하기 위해 그 플레이어의 위치를 알고 US 스피커를 겨냥할 수 있다.
UWB 대신에, RC의 위치를 결정하기 위해 삼각 측량과 함께 사용될 수 있는 다른 감지 기술은 예를 들어, 정확한 블루투스 또는 WiFi 또는 심지어 별도의 GPS 수신기를 사용할 수 있다. 촬상(imaging)이 이하에 더 설명되는 바와 같이 사용자/RC 및/또는 방 치수의 위치를 결정하는데 사용될 때, 제어 신호 소스(308)는 카메라(예를 들어, CCD) 또는 FLIR(forward looking infrared) 이미저와 같은 로케이터(308B)를 포함할 수 있다.
사용자 위치는 초기 자동 보정 프로세스 중에 결정될 수 있다. 이러한 프로세스의 또 다른 예는 다음과 같다. 게임 플레이어의 헤드 세트의 마이크로폰을 사용할 수 있거나 또는 대안적으로 헤드셋의 이어 피스에 통합된 마이크로폰 또는 이어 피스 자체를 마이크로폰으로서 이용할 수 있다. 시스템은 예를 들어, 미리 결정된 제스처를 이용하여, 귀로 좁은 US 빔을 듣고 있다는 것을 헤드폰을 착용하고 있는 청취자가 표시할 때까지 US 빔을 주위로 이동시킴으로써 각 귀의 위치를 보정할 수 있다.
부가적으로 또는 대안적으로, 짐벌 어셈블리는 짐벌 어셈블리내의 하나 이상의 컴퓨터 메모리(314)에 액세스하는 하나 이상의 프로세서(312)에 신호를 송신하는 카메라 또는 FLIR 이미저(311)에 결합될 수 있다. 제어 신호(필요할 경우, 사운드 효과 오디오 채널과 함께)도 프로세서에 의해 (전형적으로 네트워크 인터페이스를 통해) 수신된다. 짐벌 어셈블리는 도시된 바와 같이 방위각 차원(318)에서 스피커(302)가 그에 장착되는 지지 어셈블리(317)를 돌리기 위해 프로세서(312)에 의해 제어되는 방위각 제어 모터(316)를 포함할 수 있다.
필요할 경우, 음파 빔(304)의 방위각뿐만 아니라 수평면에 대한 그 앙각(elevation angle)도 제어될 수 있다. 도시된 예에서, 지지 어셈블리(317)는 대향측 마운트(319)를 포함하고, 높이 제어 모터(320)는 측면 마운트(319)에 결합되어 324로 표시된 바와 같이, 스피커 (302)에 결합된 축(322)을 회전시켜 스피커를 앙각으로 상하로 경사지게 한다. 짐벌 어셈블리는 비-제한적인 예들에서 수직한 지지 폴(support pole)(328)에 결합된 수평한 지지 아암(326)을 포함할 수 있다.
짐벌 어셈블리 및/또는 그 일부는 하비 킹(Hobby King)으로부터 입수 가능한 브러시리스 짐벌 어셈블리일 수 있다.
제1 예에 대해 도 4를 참조하면, 컴퓨터 게임 설계자는 블록(400)에서 수신된 메인 오디오 채널에 추가하여 오디오 효과 채널을 지정하여 블록(402)에서 오디오 효과 채널에 운반되어 수신되는 오디오 효과의 위치(방위각, 및 필요한 경우, 앙각)를 지정할 수 있다. 이 채널은 전형적으로 게임 소프트웨어(또는 오디오-비디오 영화 등)에 포함된다. 오디오 효과에 대한 제어 신호가 컴퓨터 게임 소프트웨어로부터의 것이면, 게임 동안 오디오 효과에 의해 표현되는 객체의 움직임을 변경하기 위한 사용자 입력(위치, 방향)은 블록(404)에서 RC(309)로부터 수신될 수 있다. 블록(406)에서, 게임 소프트웨어는 환경 내의 경시적(움직임) 효과의 위치를 정의하는 벡터(x-y-z)를 생성하고 출력한다. 이 벡터를 블록(408)에서 짐벌 어셈블리로 송신하여 짐벌 어셈블리의 초음파 스피커(들)(300)가 오디오 효과 채널 오디오를 재생하게 하고 벡터를 사용하여 스피커(302)(및, 따라서, 방출된 오디오 효과의 음파 축(304))를 이동시킨다.
도 5는 제어 신호에 따라 짐벌 어셈블리가 수행하는 것을 예시한다. 블록(500)에서, 방향성 벡터(들)를 갖는 오디오 채널이 수신된다. 블록(502)으로 진행하여, 짐벌 어셈블리는 스피커(302)를 방위각 및/또는 앙각으로 이동시켜서 음파 축(304)이 요구된 벡터의 중심에 위치하도록 이동된다. 요구된 오디오는 블록(504)에서 스피커상에서 재생되고 원뿔 각(306) 내에 한정된다.
위에서 언급된 바와 같이, 도 1에 도시된 것과 같은 카메라는 도 6의 블록(600)에서 스피커(302)가 위치하는 공간을 촬상하는데 사용될 수 있으며, 이는 예를 들어, 짐벌 어셈블리의 프로세서에 의해 채용될 수 있는 로직을 나타낸다. 도 1의 카메라는 오디오 비디오 디스플레이 디바이스에 결합된 것으로 도시되어 있지만, 대안적으로 제어 신호 생성기(308)로서 기능하는 게임 콘솔 상에 제공되는 로케이터(308B) 또는 짐벌 어셈블리 자체 상의 이미저(311)일 수 있다. 임의의 경우에, 결정 다이아몬드(602)에서, 예를 들어, 로케이터(308B) 또는 이미저(311)로부터의 가시적인 이미지에 대해 동작하는 얼굴 인식 소프트웨어를 사용하여, 예를 들어, 저장된 템플릿 이미지에 대해 사람의 이미지와 매칭시킴으로써, 또는 FLIR이 사용될 때, 미리 결정된 템플릿과 매핑되는 IR 서명이 수신되었는지를 결정함으로써 미리 결정된 사람이 공간에 있는지가 결정된다. 미리 결정된 사람이 촬상된 경우, 짐벌 어셈블리는 블록 (604)에서 음파 축(304)이 인식된 사람에게 향하도록 이동될 수 있다.
미리 결정된 사람의 촬상된 얼굴이 어디에 있는지를 알기 위해, 몇 가지 접근법 중 하나를 채택할 수 있다. 첫번째 접근법은 오디오 또는 비디오 프롬프트를 사용하여 사람이 엄지 손가락을 위로 하는 것과 같은 제스처를 하거나 또는 사람이 오디오를 들을 때 미리 결정된 위치에 RC를 올려 놓고나서, 짐벌 어셈블리를 움직여 카메라가 제스처를 취하는 사람을 촬영할 때까지 음파 축이 방 주위를 스위프(sweep)하도록 지시하는 것이다. 또 다른 접근법은 카메라 축의 방향을 짐벌 어셈블리로 미리 프로그래밍하여 중앙 카메라 축을 알고 있는 짐벌 어셈블리가 얼굴이 촬영되는 축으로부터 임의의 오프셋을 결정하여 스피커 방향을 그 오프셋에 매칭시킬 수 있도록 하는 것이다. 또한, 카메라(311) 자체는 스피커(302)의 음파 축(304)과 고정된 관계로 짐벌 조립체 상에 장착되어, 카메라 축과 음파 축은 항상 매칭되도록 할 수 있다. 카메라로부터의 신호를 사용하여 카메라 축(및 따라서 음파 축)이 미리 결정된 사람의 촬상된 얼굴의 중심에 오게 할 수 있다.
도 7은 도 6의 결정 다이아몬드(602)에서 사용되는 템플릿을 입력하는데 사용될 수 있는 예시적인 사용자 인터페이스(UI)를 나타낸다. 프롬프트(700)는 사람이 음파 축을 겨냥해야 하는 사람의 사진을 입력하기 위해 게임 제어기가 결합되는 비디오 디스플레이와 같은 디스플레이 상에 제시될 수 있다. 예를 들어, 시력 및/또는 청각 장애인이 스피커(302)를 겨냥하는 사람으로서 지정될 수 있다.
사용자에게 갤러리에 사진을 입력하기 위한 옵션(702) 또는 카메라가 현재 카메라 앞에 있는 사람을 촬영하게 하는 옵션(704)이 주어질 수 있다. 도 6에 대한 테스트 템플릿을 입력하기 위한 다른 예시적인 수단이 사용될 수 있다. 예를 들어, 시스템은 스피커(302)의 음파 축(304)이 어디를 지향하고 있는지를 직접 사용자 입력에 의해 통지받을 수 있다.
어떤 경우에는, 본 원리는 시각 장애인이 앉을 수 있는 특정 위치에 비디오 설명 오디오 서비스를 전달하기 위해 사용될 수 있다는 것이 이해될 수 있다.
초음파 스피커의 또 다른 특징은 벽과 같은 반사 표면을 겨냥하면, 사운드가 반사 위치에서 나오는 것처럼 보인다는 것이다. 이러한 특성은 사용자측에서 반사된 사운드를 타킷으로 하기 위해 방 경계를 벗어난 적절한 입사 각도를 사용하여 사운드의 방향을 제어하는 짐벌 조립체에 대한 입력으로서 사용될 수 있다. 범위 찾기 기술은 공간의 경계를 매핑하는데 사용될 수 있다. 커튼, 가구 등과 같은 방안의 객체를 결정할 수 있다면 시스템의 정확성에 도움이 될 것이다. 효과 스피커가 상주하는 공간을 매핑하거나 또는 이와는 달리 분석하는데 사용되는 카메라의 추가는 환경을 고려하여 효과의 정확성을 향상시키는 방식으로 제어 신호를 수정하는데 사용될 수 있다.
더욱 명확하게는, 방은 위의 카메라들 중 임의의 하나에 의해 촬상되고 이미지 인식은 벽과 천장이 있는 위치를 결정하기 위해 구현될 수 있다. 이미지 인식은 또한 표면이 양호한 반사기인지를 나타낼 수 있는데, 예를 들어 평평한 흰색 표면은 일반적으로 잘 반사되는 벽인 반면, 접힌 표면은 상대적으로 반사되지 않는 커튼을 나타낼 수 있다. 디폴트 방 구성(및 원할 경우, 청취자(들)에게 가정된 디폴트 위치)은 이미지 인식 기술을 사용하여 제공 및 수정될 수 있다.
대안적으로, US 스피커(300)로부터의 지향성 사운드는 (1) 그 방향에서 반사 표면까지의 거리 또는 (2) 복귀되는 처프(chirp)의 진폭에 기초하여, 표면이 양호한 반사기인지 불량한 반사기인지를 알기 위해, 짐벌 조립체를 이동시키고, 다양한 짐벌 어셈블리 방향들 각각에서 처프를 방출하고, 처프의 타이밍 수신을 함으로써 사용될 수 있다. 다시 말해, 백색 잡음은 PN(pseudorandom) 시퀀스로서 생성되어 US 스피커에 의해 방출될 수 있으며 반사는 "테스트" 백색 잡음이 방출되는 각 방향에 대한 US 파동의 전달 함수를 결정하기 위해 측정될 수 있다. 또한, 사용자는 방 치수 및 표면 타입을 입력하기 위해 일련의 UI를 통해 프롬프트될 수 있다.
다시, USPP 2015/0256954에 기술된 하나 이상의 방 치수 맵핑 기술이 사용될 수 있다.
또는, 구조화된 조명을 사용하여 방을 3D로 매핑하여 정확성을 높일 수 있다. 방을 체크하는 또 다른 방식은 광학 포인터(발산이라고 알려져 있음)를 사용하는 것이며, 카메라를 사용하여, 방 치수를 정확하게 측정할 수 있다. 스폿 치수 및 왜곡에 의해, 표면상의 입사각이 추정될 수 있다. 또한, 표면의 반사율은 사운드에 대한 반사면일 수 있는지 또는 아닐 수 있는지에 대한 추가적인 힌트이다.
어떤 경우에도, 방 치수 및 표면 타입이 알려져 있다면, 제어 신호로부터, 오디오 효과가 모델링되어 오는 및/또는 전달되는 위치를 알고 있는 짐벌 어셈블리의 프로세서는 삼각 측량을 통해 US 스피커(300)를 겨낭하는 반사 위치를 결정하여 반사 위치로부터의 반사된 사운드가 방안의 의도된 위치에서 수신되게 할 수 있다. 이러한 방식으로, US 스피커(300)는 의도된 플레이어에게 직접 짐벌 어셈블리에 의해 겨냥될 수 없지만, 대신에 사운드가 US 스피커의 방향이 아니라 반사 지점으로부터 온다고 하는 인식을 의도된 플레이어에게 제공하기 위해 반사 지점을 겨냥할 수 있다.
도 7은 하나 이상의 짐벌 어셈블리 상의 다수의 초음파 스피커가 동일한 오디오를 제공하지만 오디오가 타깃이 될 때 동시에 영어 및 프랑스어와 같은 각각의 상이한 언어의 오디오 트랙으로 제공되는 추가적인 애플리케이션을 예시한다. 프롬프트 (706)는 얼굴 이미지가 입력된 템플릿을 설정하는 사람에 대한 언어를 선택하도록 제공될 수 있다. 언어는 도 6의 결정 다이아몬드(602)에서 미리 결정된 얼굴이 인식될 때, 후속 동작 동안, 시스템이 각 사용자에게 어떤 언어가 향하게 해야 하는지 알 수 있도록 언어 리스트(708)로부터 선택되어 그 사람의 템플릿 이미지와 관련시킬 수 있다 . 유의해야 할 점은, 짐벌 장착형 초음파 스피커가 위상 배열 기술의 필요성을 배제하고 있지만, 이러한 기술은 본 원리와 결합될 수도 있다는 것이다.
도 8은 복수의 초음파 스피커(802)가 기둥형 지지부(806) 상에 지지될 수 있는 스피커 마운트(804) 상에 장착되는 대안적인 스피커 어셈블리(800)를 도시한다. 각각의 스피커(802)는 구면 좌표에서, 높이 성분 및 방위각 성분을 갖는 각각의 음파 축(808)을 따라 사운드를 방출한다. 원할 경우, 마운트(804)의 최상단 부분 및/또는 최하단 부분은 임의의 스피커를 지지할 필요가 없는데, 즉, 원할 경우, 수직 또는 수직 아래를 가리키는 스피커는 마운트(804) 상에 제공될 필요가 없다. 고도 "데드 존"은 필요할 경우, 거의 수직한 사운드 투사가 계획되지 않았다면, 예를 들어, 음파 축이 수직한 "N"도 내에서 앙각을 갖는 어떠한 스피커도 제공할 필요가 없도록 연장될 수 있다.
임의의 경우에, 마운트는 마운트(804) 내로 연장되는 경우, 각 음파 축(808)이 마운트(804)의 중심과 대략 교차하도록 도시된 구형의 배열로 스피커(802)를 유지하도록 구성될 수 있다. 도시된 예에서, 마운트(804)는 도시된 바와 같이 각각의 스피커(802)를 패널의 실질적으로 중심에서 지지할 수 있으며 평평한 패널(810)을 갖는 버키 볼(Bucky Ball)로서 구성된다. 각각의 스피커(802)는 실질적으로 버키 볼에 의해 정의된 방사상 라인을 따라 배향될 수 있다.
스피커(802)는 마운트(804) 상의 스피커(802)를 지지하기 위해 그들의 각각의 패널(810)의 각각의 구멍 내에 수용될 수 있다. 스피커들은 마운트에 에폭시로 또는 이와는 달리 접착될 수 있다. 스크류와 같은 패스너를 사용하여 스피커를 마운트에 부착하거나 스피커를 마운트에 자기적으로 결합하는 것을 포함하여 다른 장착 수단이 구상된다. 이미저(311), 프로세서(312) 및 메모리(314)를 포함하는 도 3에 도시된 짐벌 실시예로부터의 관련 컴포넌트는 마운트(804) 상에 또는 마운트(804) 내에 지지될 수 있다. 따라서, 도 4 내지 도 6의 로직은 도 9 및 도 10을 참조하여 이하의 예외를 제외하고 도 8의 어셈블리에 의해 수행될 수 있는데, 이는 제어 신호에서 요구된 방향으로 음파 축을 정렬하기 위해 짐벌을 이동시키는 것 대신에, 요구된 축에 가장 근접하게 매칭되는 음파 축(808)을 갖는 스피커(802)를 작동시켜서 요구된 오디오를 재생하게 한다. 유의해야 할 점은, 요구된 오디오의 다수의 채널이 존재할 때, 각각의 채널은 또 다른 스피커의 다른 채널과 동시에 스피커들 중 각각의 하나의 스피커 상에서 재생될 수 있다는 것이다. 이러한 방식으로, 다른 사운드 효과 채널(들)이 재생되는 방향과 다른 방향으로 재생되는 각 사운드 효과 채널과 함께 다수의 오디오 사운드 효과가 동시에 재생될 수 있다.
도 8의 실시예에서, 마운트(804)는 기둥(806) 상에서 움직일 필요는 없다. 대신에, 요구된 축을 필수적으로 설정하는 상술한 제어 신호는 어느 스피커(802)를 활성화하거나 또는 구동하여 그 각각의 음파 축(808)을 따라 사운드를 방출할지에 대한 선택을 지시할 수 있다. 즉, 요구된 음파 축에 가장 근접하게 매칭되는 음파 축(808)을 갖는 스피커(802)를 선택하여 요구된 오디오 효과를 출력한다. 원할 경우, 예를 들어, 요구된 오디오 효과 채널에 대한 다수의 요구된 음파 축이 동시에 발생될 때, 하나보다 많은 스피커(802)가 한 번에 활성화될 수 있지만, 한 번에 단 하나의 스피커(802)만이 활성화될 필요가 있다.
도 1 내지 도 7의 설명으로부터의 모든 다른 관련 원리들이 도 8의 대안적인 실시예에 적용된다는 것을 이해해야 한다.
더욱 명확하게, 그리고 이제 도 9 및 도 10을 참조하면, 오디오 효과 채널은 블록(900)에서 수신되어, 블록(902)에서 오디오 효과 채널에 운반되어 수신되는 오디오 효과의 위치(방위각 및 원할 경우, 앙각)를 특정한다. 이 채널은 전형적으로 게임 소프트웨어(또는 오디오-비디오 영화 등)에 포함된다. 오디오 효과에 대한 제어 신호가 컴퓨터 게임 소프트웨어로부터의 것이면, 게임동안 오디오 효과에 의해 표현되는 객체의 움직임을 변경하기 위한 사용자 입력(위치, 방향) 은 블록(904)에서 RC(309)로부터 수신될 수 있다. 블록(906)에서, 게임 소프트웨어는 환경 내의 경시적(움직임) 효과의 위치를 정의하는 벡터(x-y-z)를 생성하고 출력한다. 이 벡터는 블록(908)에서 스피커 볼 프로세서(들)에 송신되어, 어셈블리의 초음파 스피커(들)가 오디오 효과 채널 오디오를 재생하게 되고, 재생 스피커는 블록(906)에서 벡터(들)에 의해 요구되는 사운드를 방출하는 것이다.
도 10은 제어 신호에 따라 스피커 볼 어셈블리가 수행하는 것을 예시한다. 블록(1000)에서, 방향성 벡터(들)를 갖는 오디오 채널이 수신된다. 블록(1002)으로 진행하여, 요구된 벡터를 충족시키는 방향으로 사운드를 방출하는 스피커(들)가 선택된다. 요구된 오디오는 블록(1004)에서 선택된 스피커 상에서 재생된다.
상술한 도 6의 로직은 또한 블록 (604)에서, 미리 결정된 사람이 촬영한 것에 응답하여, 요구된 벡터를 충족하는 축을 따라 오디오를 재생하도록 스피커가 선택된다는 점을 제외하고 도 8의 스피커 어셈블리와 함께 사용될 수 있으며, 이 경우, 스피커의 음파 축은 인식된 사람을 가리킨다.
이상의 방법은 프로세서, 적당히 구성된 ASIC(specific integrated circuit) 또는 FPGA(field programmable gate array) 모듈에 의해 실행되는 소프트웨어 명령어로서, 또는 본 기술 분야의 통상의 기술자라면 잘 알 것인 임의의 다른 편리한 방식으로 구현될 수 있다. 사용될 경우, 소프트웨어 명령어들은 CD 롬 또는 플래시 드라이브와 같은 디바이스 또는 일시적인 신호가 아닌 컴퓨터 메모리의 상기 비-제한적인 예들 중 임의의 것에서 구현될 수 있다. 소프트웨어 코드 명령어들은 대안적으로 무선 또는 광 신호와 같은 일시적 구성으로 또는 인터넷을 통한 다운로드를 통해 구체화될 수 있다.
본 원리들이 일부 예시적인 실시예를 참조하여 기술되었지만, 이들이 제한하는 것으로 의도되어 있지 않다는 것과, 다양한 대안의 구성이 본 명세서에 청구된 발명 요지를 구현하는데 사용될 수 있다는 것을 이해할 것이다.

Claims (20)

  1. 장치로서,
    버키 볼(Bucky Ball)에 배열되고 각각의 음파 축을 따라 사운드를 방출하도록 구성되는, 복수의 초음파 스피커;
    상기 스피커들을 유지하도록 구성된 마운트(mount); 및
    일시적인 신호가 아니며 적어도 하나의 프로세서에 의해 실행 가능한 명령어들을 포함하는 적어도 하나의 컴퓨터 메모리를 포함하며, 상기 명령어들은,
    요구된 음파 축을 나타내는 제어 신호를 수신하고;
    상기 제어 신호에 응답하여, 복수의 초음파 스피커 중에서 음파 축이 상기 요구된 음파 축과 가장 가깝게 정렬되는 스피커를 작동시키도록 실행 가능한 장치.
  2. 삭제
  3. 제1항에 있어서,
    수직한 "N"도 내에서 앙각을 갖는 음파 축을 갖는 어떠한 스피커도 마운트 상에 제공되지 않는, 장치.
  4. 제1항에 있어서,
    상기 제어 신호는 비-초음파 스피커들 상에서 재생하기 위한 메인 오디오 채널을 출력하는 컴퓨터 게임 콘솔로부터 수신되는 장치.
  5. 제1항에 있어서,
    상기 제어 신호에 응답하여, 상기 명령어들은,
    제1 채널 내의 제1 사운드 효과가 제1 위치로 향하도록 상기 복수의 초음파 스피커들 중의 제1`스피커를 활성화시키고,
    제2 채널 내의 제2 사운드 효과가 제2 위치로 향하도록 상기 복수의 초음파 스피커들 중의 제2 스피커를 활성화시키도록 실행 가능한 장치.
  6. 제1항에 있어서,
    상기 명령어들은 반사된 사운드가 청취자와 관련된 위치에 도달하도록, 반사 위치의 표면 타입에 적어도 부분적으로 기초하여 반사 위치로 사운드가 향하게 하도록 실행 가능한 장치.
  7. 제1항에 있어서,
    상기 제어 신호는 수신된 오디오 채널 내의, 공간에서 움직이는 객체를 나타내는 오디오인 적어도 하나의 오디오 효과 데이터를 나타내는 장치.
  8. 제7항에 있어서,
    상기 오디오 효과 데이터는 적어도 부분적으로 컴퓨터 게임 입력 디바이스로의 입력으로부터 설정되는 장치.
  9. 방법으로서,
    오디오 효과를 나타내는 적어도 하나의 제어 신호를 수신하는 단계;
    상기 제어 신호에 적어도 부분적으로 기초하여 초음파 스피커들 중 버키 볼 어레이 내의 초음파 스피커를 작동시키는 단계를 포함하는 방법.
  10. 제9항에 있어서,
    상기 초음파 스피커들은 각각의 음파 축을 따라 사운드를 방출하도록 구성되고, 상기 방법은,
    상기 어레이 내의 제1 스피커가, 표면 타입에 적어도 부분적으로 기초하여 제1 채널 내의 제1 사운드 효과가 제1 위치로 향하도록 하게 하고,
    상기 어레이 내의 제2 스피커가, 제2 채널 내의 제2 사운드 효과가 제2 위치로 향하도록 하게 하는 방법.
  11. 제9항에 있어서,
    상기 제어 신호는 높이 성분을 포함하는 방법.
  12. 제9항에 있어서,
    청취자와 관련된 위치로 사운드가 향하게 하도록 상기 스피커를 이동시키는 단계를 포함하는 방법.
  13. 제9항에 있어서,
    상기 오디오 효과는 적어도 부분적으로 컴퓨터 게임 입력 디바이스로의 입력으로부터 설정되는 방법.
  14. 디바이스로서,
    일시적인 신호가 아니며 적어도 하나의 프로세서에 의해 실행 가능한 명령어들을 포함하는 적어도 하나의 컴퓨터 메모리를 포함하며, 상기 명령어들은,
    제어 신호를 수신하고;
    게임 콘솔과 연관된 헤드폰의 위치를 식별하는 것에 기초하여 청취자와 연관된 위치를 결정하고;
    상기 제어 신호에 응답하여, 어레이 내의 스피커들 중 임의의 스피커를 이동시키지 않고 상기 청취자의 위치와 교차하는 적어도 하나의 스피커에 의해 정의된 음파 축에 적어도 부분적으로 기초하여 초음파 스피커들 중 어레이 내의 적어도 하나의 스피커를 작동시키도록 실행 가능한 디바이스.
  15. 삭제
  16. 제14항에 있어서,
    상기 제어 신호는 높이 성분을 포함하는 디바이스.
  17. 제14항에 있어서,
    상기 명령어들은 상기 헤드폰에 접속된 전자 태그를 사용하여 상기 청취자와 연관된 위치를 결정하도록 실행 가능한 디바이스.
  18. 제14항에 있어서,
    상기 제어 신호는 비-초음파 스피커들 상에서 재생하기 위한 메인 오디오 채널을 또한 출력하는 소스로부터의 수신된 오디오 채널 내의 적어도 하나의 오디오 효과 데이터를 나타내고, 상기 오디오 효과는 공간에서 객체의 움직임을 나타내는 디바이스.
  19. 제18항에 있어서,
    상기 오디오 효과 데이터는 적어도 부분적으로 비-초음파 스피커 상에서 재생하기 위한 메인 오디오 채널을 출력하는 컴퓨터 게임 입력 디바이스로의 입력으로부터 설정되는 디바이스.
  20. 제14항에 있어서,
    상기 명령어들은 상기 헤드폰의 이미지를 이용하여 상기 청취자와 연관된 위치를 결정하도록 실행 가능한 디바이스.
KR1020170015467A 2016-02-08 2017-02-03 오디오 공간 효과를 위한 초음파 스피커 어셈블리 KR101880844B1 (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US15/018,128 2016-02-08
US15/018,128 US9693168B1 (en) 2016-02-08 2016-02-08 Ultrasonic speaker assembly for audio spatial effect

Publications (2)

Publication Number Publication Date
KR20170094078A KR20170094078A (ko) 2017-08-17
KR101880844B1 true KR101880844B1 (ko) 2018-07-20

Family

ID=59069541

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020170015467A KR101880844B1 (ko) 2016-02-08 2017-02-03 오디오 공간 효과를 위한 초음파 스피커 어셈블리

Country Status (4)

Country Link
US (1) US9693168B1 (ko)
JP (1) JP6447844B2 (ko)
KR (1) KR101880844B1 (ko)
CN (1) CN107046671B (ko)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9866986B2 (en) 2014-01-24 2018-01-09 Sony Corporation Audio speaker system with virtual music performance
US9924291B2 (en) 2016-02-16 2018-03-20 Sony Corporation Distributed wireless speaker system
US9826330B2 (en) 2016-03-14 2017-11-21 Sony Corporation Gimbal-mounted linear ultrasonic speaker assembly
US9794724B1 (en) * 2016-07-20 2017-10-17 Sony Corporation Ultrasonic speaker assembly using variable carrier frequency to establish third dimension sound locating
USD841621S1 (en) * 2016-12-29 2019-02-26 Facebook, Inc. Electronic device
EP3711284A4 (en) * 2018-08-17 2020-12-16 SZ DJI Technology Co., Ltd. PHOTOGRAPHIC CONTROL PROCEDURE AND CONTROL
US11443737B2 (en) 2020-01-14 2022-09-13 Sony Corporation Audio video translation into multiple languages for respective listeners
WO2024053790A1 (en) * 2022-09-07 2024-03-14 Samsung Electronics Co., Ltd. System and method for enabling audio steering

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20010055397A1 (en) * 1996-07-17 2001-12-27 American Technology Corporation Parametric virtual speaker and surround-sound system
US20050129254A1 (en) * 2003-12-16 2005-06-16 Connor Patrick L. Location aware directed audio
WO2014087277A1 (en) * 2012-12-06 2014-06-12 Koninklijke Philips N.V. Generating drive signals for audio transducers
US20150245157A1 (en) * 2012-08-31 2015-08-27 Dolby Laboratories Licensing Corporation Virtual Rendering of Object-Based Audio

Family Cites Families (178)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4332979A (en) * 1978-12-19 1982-06-01 Fischer Mark L Electronic environmental acoustic simulator
US7085387B1 (en) 1996-11-20 2006-08-01 Metcalf Randall B Sound system and method for capturing and reproducing sounds originating from a plurality of sound sources
US6008777A (en) 1997-03-07 1999-12-28 Intel Corporation Wireless connectivity between a personal computer and a television
US20020036617A1 (en) 1998-08-21 2002-03-28 Timothy R. Pryor Novel man machine interfaces and applications
US6128318A (en) 1998-01-23 2000-10-03 Philips Electronics North America Corporation Method for synchronizing a cycle master node to a cycle slave node using synchronization information from an external network or sub-network which is supplied to the cycle slave node
IL127790A (en) 1998-04-21 2003-02-12 Ibm System and method for selecting, accessing and viewing portions of an information stream(s) using a television companion device
TW463503B (en) 1998-08-26 2001-11-11 United Video Properties Inc Television chat system
US8266657B2 (en) 2001-03-15 2012-09-11 Sling Media Inc. Method for effectively implementing a multi-room television system
US6239348B1 (en) * 1999-09-10 2001-05-29 Randall B. Metcalf Sound system and method for creating a sound event based on a modeled sound field
US6710770B2 (en) 2000-02-11 2004-03-23 Canesta, Inc. Quasi-three-dimensional method and apparatus to detect and localize interaction of user-object and virtual transfer device
US20010037499A1 (en) 2000-03-23 2001-11-01 Turock David L. Method and system for recording auxiliary audio or video signals, synchronizing the auxiliary signal with a television singnal, and transmitting the auxiliary signal over a telecommunications network
US6329908B1 (en) 2000-06-23 2001-12-11 Armstrong World Industries, Inc. Addressable speaker system
US6611678B1 (en) 2000-09-29 2003-08-26 Ibm Corporation Device and method for trainable radio scanning
US20020054206A1 (en) 2000-11-06 2002-05-09 Allen Paul G. Systems and devices for audio and video capture and communication during television broadcasts
US7191023B2 (en) 2001-01-08 2007-03-13 Cybermusicmix.Com, Inc. Method and apparatus for sound and music mixing on a network
US6738318B1 (en) 2001-03-05 2004-05-18 Scott C. Harris Audio reproduction system which adaptively assigns different sound parts to different reproduction parts
US7095455B2 (en) 2001-03-21 2006-08-22 Harman International Industries, Inc. Method for automatically adjusting the sound and visual parameters of a home theatre system
US7483958B1 (en) 2001-03-26 2009-01-27 Microsoft Corporation Methods and apparatuses for sharing media content, libraries and playlists
US7007106B1 (en) 2001-05-22 2006-02-28 Rockwell Automation Technologies, Inc. Protocol and method for multi-chassis configurable time synchronization
MXPA04001532A (es) 2001-08-22 2004-05-14 Nielsen Media Res Inc Sensor de proximidad de television.
WO2003019125A1 (en) 2001-08-31 2003-03-06 Nanyang Techonological University Steering of directional sound beams
US7503059B1 (en) 2001-12-28 2009-03-10 Rothschild Trust Holdings, Llc Method of enhancing media content and a media enhancement system
US7496065B2 (en) 2001-11-29 2009-02-24 Telcordia Technologies, Inc. Efficient piconet formation and maintenance in a Bluetooth wireless network
US6940558B2 (en) 2001-12-06 2005-09-06 Koninklijke Philips Electronics N.V. Streaming content associated with a portion of a TV screen to a companion device
US6761470B2 (en) 2002-02-08 2004-07-13 Lowel-Light Manufacturing, Inc. Controller panel and system for light and serially networked lighting system
US7742609B2 (en) 2002-04-08 2010-06-22 Gibson Guitar Corp. Live performance audio mixing system with simplified user interface
US20030210337A1 (en) 2002-05-09 2003-11-13 Hall Wallace E. Wireless digital still image transmitter and control between computer or camera and television
US20040068752A1 (en) 2002-10-02 2004-04-08 Parker Leslie T. Systems and methods for providing television signals to multiple televisions located at a customer premises
WO2004093488A2 (en) 2003-04-15 2004-10-28 Ipventure, Inc. Directional speakers
US20040264704A1 (en) 2003-06-13 2004-12-30 Camille Huin Graphical user interface for determining speaker spatialization parameters
JP4127156B2 (ja) 2003-08-08 2008-07-30 ヤマハ株式会社 オーディオ再生装置、ラインアレイスピーカユニットおよびオーディオ再生方法
JP2005080227A (ja) 2003-09-03 2005-03-24 Seiko Epson Corp 音声情報提供方法及び指向型音声情報提供装置
US7929708B2 (en) 2004-01-12 2011-04-19 Dts, Inc. Audio spatial environment engine
US20050177256A1 (en) 2004-02-06 2005-08-11 Peter Shintani Addressable loudspeaker
JPWO2005076661A1 (ja) 2004-02-10 2008-01-10 三菱電機エンジニアリング株式会社 超指向性スピーカ搭載型移動体
US7483538B2 (en) 2004-03-02 2009-01-27 Ksc Industries, Inc. Wireless and wired speaker hub for a home theater system
US7760891B2 (en) * 2004-03-16 2010-07-20 Xerox Corporation Focused hypersonic communication
US7792311B1 (en) 2004-05-15 2010-09-07 Sonos, Inc., Method and apparatus for automatically enabling subwoofer channel audio based on detection of subwoofer device
US20060106620A1 (en) 2004-10-28 2006-05-18 Thompson Jeffrey K Audio spatial environment down-mixer
KR101283741B1 (ko) 2004-10-28 2013-07-08 디티에스 워싱턴, 엘엘씨 N채널 오디오 시스템으로부터 m채널 오디오 시스템으로 변환하는 오디오 공간 환경 엔진 및 그 방법
US7853022B2 (en) 2004-10-28 2010-12-14 Thompson Jeffrey K Audio spatial environment engine
US8369264B2 (en) 2005-10-28 2013-02-05 Skyhook Wireless, Inc. Method and system for selecting and providing a relevant subset of Wi-Fi location information to a mobile client device so the client device may estimate its position with efficient utilization of resources
WO2009002292A1 (en) 2005-01-25 2008-12-31 Lau Ronnie C Multiple channel system
US7703114B2 (en) 2005-02-25 2010-04-20 Microsoft Corporation Television system targeted advertising
US7292502B2 (en) 2005-03-30 2007-11-06 Bbn Technologies Corp. Systems and methods for producing a sound pressure field
US20060285697A1 (en) 2005-06-17 2006-12-21 Comfozone, Inc. Open-air noise cancellation for diffraction control applications
US7539889B2 (en) 2005-12-30 2009-05-26 Avega Systems Pty Ltd Media data synchronization in a wireless network
US8139029B2 (en) 2006-03-08 2012-03-20 Navisense Method and device for three-dimensional sensing
US8358976B2 (en) 2006-03-24 2013-01-22 The Invention Science Fund I, Llc Wireless device with an aggregate user interface for controlling other devices
US8107639B2 (en) 2006-06-29 2012-01-31 777388 Ontario Limited System and method for a sound masking system for networked workstations or offices
US8239559B2 (en) 2006-07-15 2012-08-07 Blackfire Research Corp. Provisioning and streaming media to wireless speakers from fixed and mobile media sources and clients
US9319741B2 (en) 2006-09-07 2016-04-19 Rateze Remote Mgmt Llc Finding devices in an entertainment system
WO2008040096A1 (en) 2006-10-06 2008-04-10 Ippv Pty Ltd Distributed bass
JP2010510695A (ja) 2006-10-17 2010-04-02 アベガ システムズ ピーティーワイ リミテッド 無線ネットワークにおけるメディア配信
US20080098433A1 (en) 2006-10-23 2008-04-24 Hardacker Robert L User managed internet links from TV
US8077263B2 (en) 2006-10-23 2011-12-13 Sony Corporation Decoding multiple remote control code sets
US8296808B2 (en) 2006-10-23 2012-10-23 Sony Corporation Metadata from image recognition
US7689613B2 (en) 2006-10-23 2010-03-30 Sony Corporation OCR input to search engine
US8019088B2 (en) 2007-01-23 2011-09-13 Audyssey Laboratories, Inc. Low-frequency range extension and protection system for loudspeakers
KR101316750B1 (ko) 2007-01-23 2013-10-08 삼성전자주식회사 수신된 위치 정보에 따라 오디오 파일을 재생하는 장치 및그 방법
US7822835B2 (en) 2007-02-01 2010-10-26 Microsoft Corporation Logically centralized physically distributed IP network-connected devices configuration
US8438589B2 (en) 2007-03-28 2013-05-07 Sony Corporation Obtaining metadata program information during channel changes
FR2915041A1 (fr) 2007-04-13 2008-10-17 Canon Kk Procede d'attribution d'une pluralite de canaux audio a une pluralite de haut-parleurs, produit programme d'ordinateur, moyen de stockage et noeud gestionnaire correspondants.
US20080259222A1 (en) 2007-04-19 2008-10-23 Sony Corporation Providing Information Related to Video Content
US20080279307A1 (en) 2007-05-07 2008-11-13 Decawave Limited Very High Data Rate Communications System
US20080279453A1 (en) 2007-05-08 2008-11-13 Candelore Brant L OCR enabled hand-held device
US20080304677A1 (en) 2007-06-08 2008-12-11 Sonitus Medical Inc. System and method for noise cancellation with motion tracking capability
US8286214B2 (en) 2007-06-13 2012-10-09 Tp Lab Inc. Method and system to combine broadcast television and internet television
US20090037951A1 (en) 2007-07-31 2009-02-05 Sony Corporation Identification of Streaming Content Playback Location Based on Tracking RC Commands
US9996612B2 (en) 2007-08-08 2018-06-12 Sony Corporation System and method for audio identification and metadata retrieval
CN101816193B (zh) 2007-10-05 2012-11-28 邦及欧路夫森有限公司 用于多声道声音重现系统的低频管理
US8509463B2 (en) 2007-11-09 2013-08-13 Creative Technology Ltd Multi-mode sound reproduction system and a corresponding method thereof
US20090150569A1 (en) 2007-12-07 2009-06-11 Avi Kumar Synchronization system and method for mobile devices
US8457328B2 (en) 2008-04-22 2013-06-04 Nokia Corporation Method, apparatus and computer program product for utilizing spatial information for audio signal enhancement in a distributed network environment
US20090298420A1 (en) 2008-05-27 2009-12-03 Sony Ericsson Mobile Communications Ab Apparatus and methods for time synchronization of wireless audio data streams
US9106950B2 (en) 2008-06-13 2015-08-11 Centurylink Intellectual Property Llc System and method for distribution of a television signal
US8199941B2 (en) 2008-06-23 2012-06-12 Summit Semiconductor Llc Method of identifying speakers in a home theater system
US8320674B2 (en) 2008-09-03 2012-11-27 Sony Corporation Text localization for image and video OCR
US8417481B2 (en) 2008-09-11 2013-04-09 Diane J. Cook Systems and methods for adaptive smart environment automation
US8243949B2 (en) 2009-04-14 2012-08-14 Plantronics, Inc. Network addressible loudspeaker and audio play
US8077873B2 (en) 2009-05-14 2011-12-13 Harman International Industries, Incorporated System for active noise control with adaptive speaker selection
US8131386B2 (en) 2009-06-15 2012-03-06 Elbex Video Ltd. Method and apparatus for simplified interconnection and control of audio components of an home automation system
JP5430242B2 (ja) 2009-06-17 2014-02-26 シャープ株式会社 スピーカ位置検出システム及びスピーカ位置検出方法
US8976986B2 (en) * 2009-09-21 2015-03-10 Microsoft Technology Licensing, Llc Volume adjustment based on listener position
US20110091055A1 (en) 2009-10-19 2011-04-21 Broadcom Corporation Loudspeaker localization techniques
US8553898B2 (en) 2009-11-30 2013-10-08 Emmet Raftery Method and system for reducing acoustical reverberations in an at least partially enclosed space
US8411208B2 (en) 2009-12-29 2013-04-02 VIZIO Inc. Attached device control on television event
US20120314872A1 (en) 2010-01-19 2012-12-13 Ee Leng Tan System and method for processing an input signal to produce 3d audio effects
GB2477155B (en) 2010-01-25 2013-12-04 Iml Ltd Method and apparatus for supplementing low frequency sound in a distributed loudspeaker arrangement
US8588576B2 (en) 2010-02-26 2013-11-19 Sharp Kabushiki Kaisha Content reproduction device, television receiver, content reproduction method, content reproduction program, and recording medium
US8436758B2 (en) 2010-03-22 2013-05-07 Decawave Ltd. Adaptive ternary A/D converter for use in an ultra-wideband communication system
US8437432B2 (en) 2010-03-22 2013-05-07 DecaWave, Ltd. Receiver for use in an ultra-wideband communication system
US9054790B2 (en) 2010-03-22 2015-06-09 Decawave Ltd. Receiver for use in an ultra-wideband communication system
US8760334B2 (en) 2010-03-22 2014-06-24 Decawave Ltd. Receiver for use in an ultra-wideband communication system
US8677224B2 (en) 2010-04-21 2014-03-18 Decawave Ltd. Convolutional code for use in a communication system
EP2564317A1 (en) 2010-04-26 2013-03-06 Hu-Do Limited A computing device operable to work in conjunction with a companion electronic device
WO2011135283A2 (en) 2010-04-26 2011-11-03 Cambridge Mechatronics Limited Loudspeakers with position tracking
US9282418B2 (en) 2010-05-03 2016-03-08 Kit S. Tam Cognitive loudspeaker system
US8763060B2 (en) 2010-07-11 2014-06-24 Apple Inc. System and method for delivering companion content
US8768252B2 (en) 2010-09-02 2014-07-01 Apple Inc. Un-tethered wireless audio system
US8837529B2 (en) 2010-09-22 2014-09-16 Crestron Electronics Inc. Digital audio distribution
US8738323B2 (en) 2010-09-30 2014-05-27 Fitbit, Inc. Methods and systems for metrics analysis and interactive rendering, including events having combined activity and location information
US20120087503A1 (en) 2010-10-07 2012-04-12 Passif Semiconductor Corp. Multi-channel audio over standard wireless protocol
US20120120874A1 (en) 2010-11-15 2012-05-17 Decawave Limited Wireless access point clock synchronization system
US9015612B2 (en) 2010-11-09 2015-04-21 Sony Corporation Virtual room form maker
US20130051572A1 (en) 2010-12-08 2013-02-28 Creative Technology Ltd Method for optimizing reproduction of audio signals from an apparatus for audio reproduction
US20120148075A1 (en) 2010-12-08 2012-06-14 Creative Technology Ltd Method for optimizing reproduction of audio signals from an apparatus for audio reproduction
US8898310B2 (en) 2010-12-15 2014-11-25 Microsoft Corporation Enhanced content consumption
US8793730B2 (en) 2010-12-30 2014-07-29 Yahoo! Inc. Entertainment companion content application for interacting with television content
US9148105B2 (en) 2011-01-11 2015-09-29 Lenovo (Singapore) Pte. Ltd. Smart un-muting based on system event with smooth volume control
US8989767B2 (en) 2011-02-28 2015-03-24 Blackberry Limited Wireless communication system with NFC-controlled access and related methods
US20120254929A1 (en) 2011-04-04 2012-10-04 Google Inc. Content Extraction for Television Display
CN103621102B (zh) 2011-05-12 2017-05-03 英特尔公司 用于音频与视频同步的方法、装置及系统
US8839303B2 (en) 2011-05-13 2014-09-16 Google Inc. System and method for enhancing user search results by determining a television program currently being displayed in proximity to an electronic device
WO2012164444A1 (en) 2011-06-01 2012-12-06 Koninklijke Philips Electronics N.V. An audio system and method of operating therefor
WO2013008386A1 (ja) * 2011-07-11 2013-01-17 Necカシオモバイルコミュニケーションズ株式会社 携帯機器及び通知音出力方法
US9042556B2 (en) 2011-07-19 2015-05-26 Sonos, Inc Shaping sound responsive to speaker orientation
US20130042281A1 (en) 2011-08-09 2013-02-14 Greenwave Scientific, Inc. Distribution of Over-the-Air Television Content to Remote Display Devices
US10585472B2 (en) * 2011-08-12 2020-03-10 Sony Interactive Entertainment Inc. Wireless head mounted display with differential rendering and sound localization
US8649773B2 (en) 2011-08-23 2014-02-11 Cisco Technology, Inc. System and apparatus to support clipped video tone on televisions, personal computers, and handheld devices
US20130055323A1 (en) 2011-08-31 2013-02-28 General Instrument Corporation Method and system for connecting a companion device to a primary viewing device
JP5163796B1 (ja) 2011-09-22 2013-03-13 パナソニック株式会社 音響再生装置
EP2605239A2 (en) 2011-12-16 2013-06-19 Sony Ericsson Mobile Communications AB Method and arrangement for noise reduction
US8811630B2 (en) 2011-12-21 2014-08-19 Sonos, Inc. Systems, methods, and apparatus to filter audio
CN103179475A (zh) 2011-12-22 2013-06-26 深圳市三诺电子有限公司 无线音箱及其无线音箱系统
US8631327B2 (en) 2012-01-25 2014-01-14 Sony Corporation Balancing loudspeakers for multiple display users
US9015745B2 (en) 2012-02-07 2015-04-21 Turner Broadcasting System, Inc. Method and system for detection of user-initiated events utilizing automatic content recognition
US10051406B2 (en) 2012-02-15 2018-08-14 Maxlinear, Inc. Method and system for broadband near-field communication (BNC) utilizing full spectrum capture (FSC) supporting concurrent charging and communication
US9143402B2 (en) 2012-02-24 2015-09-22 Qualcomm Incorporated Sensor based configuration and control of network devices
US8781142B2 (en) 2012-02-24 2014-07-15 Sverrir Olafsson Selective acoustic enhancement of ambient sound
US9578366B2 (en) 2012-05-03 2017-02-21 Google Technology Holdings LLC Companion device services based on the generation and display of visual codes on a display device
US9524098B2 (en) 2012-05-08 2016-12-20 Sonos, Inc. Methods and systems for subwoofer calibration
US8818276B2 (en) 2012-05-16 2014-08-26 Nokia Corporation Method, apparatus, and computer program product for controlling network access to guest apparatus based on presence of hosting apparatus
US9055337B2 (en) 2012-05-17 2015-06-09 Cable Television Laboratories, Inc. Personalizing services using presence detection
US10152723B2 (en) 2012-05-23 2018-12-11 Google Llc Methods and systems for identifying new computers and providing matching services
US9690465B2 (en) 2012-06-01 2017-06-27 Microsoft Technology Licensing, Llc Control of remote applications using companion device
WO2013177663A1 (en) 2012-06-01 2013-12-05 Research In Motion Limited Methods and devices for providing companion services to video
US9485556B1 (en) * 2012-06-27 2016-11-01 Amazon Technologies, Inc. Speaker array for sound imaging
US9106192B2 (en) 2012-06-28 2015-08-11 Sonos, Inc. System and method for device playback calibration
US9031244B2 (en) 2012-06-29 2015-05-12 Sonos, Inc. Smart audio settings
US9195383B2 (en) 2012-06-29 2015-11-24 Spotify Ab Systems and methods for multi-path control signals for media presentation devices
US10569171B2 (en) 2012-07-02 2020-02-25 Disney Enterprises, Inc. TV-to-game sync
US9854328B2 (en) 2012-07-06 2017-12-26 Arris Enterprises, Inc. Augmentation of multimedia consumption
KR101908420B1 (ko) 2012-07-06 2018-12-19 엘지전자 주식회사 이동 단말기 및 그것의 제어방법
US9256722B2 (en) 2012-07-20 2016-02-09 Google Inc. Systems and methods of using a temporary private key between two devices
CN107493542B (zh) 2012-08-31 2019-06-28 杜比实验室特许公司 用于在听音环境中播放音频内容的扬声器系统
EP2891335B1 (en) 2012-08-31 2019-11-27 Dolby Laboratories Licensing Corporation Reflected and direct rendering of upmixed content to individually addressable drivers
WO2014036085A1 (en) 2012-08-31 2014-03-06 Dolby Laboratories Licensing Corporation Reflected sound rendering for object-based audio
US9031262B2 (en) 2012-09-04 2015-05-12 Avid Technology, Inc. Distributed, self-scaling, network-based architecture for sound reinforcement, mixing, and monitoring
US9462384B2 (en) 2012-09-05 2016-10-04 Harman International Industries, Inc. Nomadic device for controlling one or more portable speakers
US9132342B2 (en) 2012-10-31 2015-09-15 Sulon Technologies Inc. Dynamic environment and location based augmented reality (AR) systems
IL223086A (en) 2012-11-18 2017-09-28 Noveto Systems Ltd System and method for creating sonic fields
WO2014103118A1 (ja) 2012-12-28 2014-07-03 ソニー株式会社 音響再生装置
KR20140099122A (ko) 2013-02-01 2014-08-11 삼성전자주식회사 전자 장치, 위치 검출 장치, 스피커 자동 설정 시스템 및 방법
CN103152925A (zh) 2013-02-01 2013-06-12 浙江生辉照明有限公司 一种多功能led装置及多功能无线会议系统
JP5488732B1 (ja) 2013-03-05 2014-05-14 パナソニック株式会社 音響再生装置
US9349282B2 (en) 2013-03-15 2016-05-24 Aliphcom Proximity sensing device control architecture and data communication protocol
US9307508B2 (en) 2013-04-29 2016-04-05 Google Technology Holdings LLC Systems and methods for syncronizing multiple electronic devices
US20140328485A1 (en) 2013-05-06 2014-11-06 Nvidia Corporation Systems and methods for stereoisation and enhancement of live event audio
US9877135B2 (en) 2013-06-07 2018-01-23 Nokia Technologies Oy Method and apparatus for location based loudspeaker system configuration
US20150078595A1 (en) 2013-09-13 2015-03-19 Sony Corporation Audio accessibility
US9368098B2 (en) 2013-10-11 2016-06-14 Turtle Beach Corporation Parametric emitter system with noise cancelation
US9510089B2 (en) 2013-10-21 2016-11-29 Turtle Beach Corporation Dynamic location determination for a directionally controllable parametric emitter
US20150128194A1 (en) 2013-11-05 2015-05-07 Huawei Device Co., Ltd. Method and mobile terminal for switching playback device
US20150195649A1 (en) 2013-12-08 2015-07-09 Flyover Innovations, Llc Method for proximity based audio device selection
US9432791B2 (en) * 2013-12-11 2016-08-30 Harman International Industries, Inc. Location aware self-configuring loudspeaker
US20150201295A1 (en) 2014-01-14 2015-07-16 Chiu Yu Lau Speaker with Lighting Arrangement
US9560449B2 (en) 2014-01-17 2017-01-31 Sony Corporation Distributed wireless speaker system
US9402145B2 (en) 2014-01-24 2016-07-26 Sony Corporation Wireless speaker system with distributed low (bass) frequency
US9866986B2 (en) 2014-01-24 2018-01-09 Sony Corporation Audio speaker system with virtual music performance
GB2537553B (en) 2014-01-28 2018-09-12 Imagination Tech Ltd Proximity detection
US20150358768A1 (en) 2014-06-10 2015-12-10 Aliphcom Intelligent device connection for wireless media in an ad hoc acoustic network
US9226090B1 (en) 2014-06-23 2015-12-29 Glen A. Norris Sound localization for an electronic call
US20150373449A1 (en) 2014-06-24 2015-12-24 Matthew D. Jackson Illuminated audio cable
US20150382129A1 (en) * 2014-06-30 2015-12-31 Microsoft Corporation Driving parametric speakers as a function of tracked user location
US9736614B2 (en) 2015-03-23 2017-08-15 Bose Corporation Augmenting existing acoustic profiles
US9928024B2 (en) 2015-05-28 2018-03-27 Bose Corporation Audio data buffering
US9985676B2 (en) 2015-06-05 2018-05-29 Braven, Lc Multi-channel mixing console

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20010055397A1 (en) * 1996-07-17 2001-12-27 American Technology Corporation Parametric virtual speaker and surround-sound system
US20050129254A1 (en) * 2003-12-16 2005-06-16 Connor Patrick L. Location aware directed audio
US7492913B2 (en) * 2003-12-16 2009-02-17 Intel Corporation Location aware directed audio
US20150245157A1 (en) * 2012-08-31 2015-08-27 Dolby Laboratories Licensing Corporation Virtual Rendering of Object-Based Audio
WO2014087277A1 (en) * 2012-12-06 2014-06-12 Koninklijke Philips N.V. Generating drive signals for audio transducers

Also Published As

Publication number Publication date
CN107046671B (zh) 2019-11-19
JP6447844B2 (ja) 2019-01-09
US9693168B1 (en) 2017-06-27
JP2017143516A (ja) 2017-08-17
KR20170094078A (ko) 2017-08-17
CN107046671A (zh) 2017-08-15

Similar Documents

Publication Publication Date Title
KR101813443B1 (ko) 초음파 룸 맵핑을 이용한 초음파 스피커 어셈블리
KR101880844B1 (ko) 오디오 공간 효과를 위한 초음파 스피커 어셈블리
US20170164099A1 (en) Gimbal-mounted ultrasonic speaker for audio spatial effect
CN112334969B (zh) 多点slam捕获
US10530818B2 (en) Server-based sound mixing for multiuser voice chat system
US9826332B2 (en) Centralized wireless speaker system
US10567871B1 (en) Automatically movable speaker to track listener or optimize sound performance
WO2020005545A1 (en) Material base rendering
US9826330B2 (en) Gimbal-mounted linear ultrasonic speaker assembly
US9794724B1 (en) Ultrasonic speaker assembly using variable carrier frequency to establish third dimension sound locating
US20230236318A1 (en) PERFORMANCE OF A TIME OF FLIGHT (ToF) LASER RANGE FINDING SYSTEM USING ACOUSTIC-BASED DIRECTION OF ARRIVAL (DoA)
JP2020532352A (ja) プレイヤ選択についての注意ベースのai決定
US20180081484A1 (en) Input method for modeling physical objects in vr/digital
JP7462069B2 (ja) 複数のカメラからの合成入力を使用してビデオを生成するための仮想カメラ位置のユーザ選択
US11553020B2 (en) Using camera on computer simulation controller
US11277706B2 (en) Angular sensing for optimizing speaker listening experience

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant