KR20150106649A - 위치정보를 활용한 멀티 스피커의 운용 방법 및 장치 - Google Patents

위치정보를 활용한 멀티 스피커의 운용 방법 및 장치 Download PDF

Info

Publication number
KR20150106649A
KR20150106649A KR1020140028979A KR20140028979A KR20150106649A KR 20150106649 A KR20150106649 A KR 20150106649A KR 1020140028979 A KR1020140028979 A KR 1020140028979A KR 20140028979 A KR20140028979 A KR 20140028979A KR 20150106649 A KR20150106649 A KR 20150106649A
Authority
KR
South Korea
Prior art keywords
information
sound
user
sound output
speaker
Prior art date
Application number
KR1020140028979A
Other languages
English (en)
Other versions
KR102170398B1 (ko
Inventor
여재영
염동현
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020140028979A priority Critical patent/KR102170398B1/ko
Priority to US14/608,667 priority patent/US9584948B2/en
Publication of KR20150106649A publication Critical patent/KR20150106649A/ko
Application granted granted Critical
Publication of KR102170398B1 publication Critical patent/KR102170398B1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S7/00Indicating arrangements; Control arrangements, e.g. balance control
    • H04S7/30Control circuits for electronic adaptation of the sound field
    • H04S7/302Electronic adaptation of stereophonic sound system to listener position or orientation

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Acoustics & Sound (AREA)
  • Signal Processing (AREA)
  • Stereophonic System (AREA)
  • Circuit For Audible Band Transducer (AREA)

Abstract

오디오 데이터 재생시, 이용가능한 복수의 사운드 출력 장치들을 감지하는 동작, 사용자의 위치정보 및 사용자의 방향정보를 감지하는 동작, 상기 감지된 사용자 위치정보 및 방향정보 중 적어도 하나에 기초하여 상기 오디오 데이터로부터 복수의 사운드 정보들을 생성하는 동작, 및 상기 복수의 사운드 정보들 각각을, 상기 복수의 사운드 출력장치들 중 대응되는 사운드 출력 장치로 분배하는 동작을 포함한다.

Description

위치정보를 활용한 멀티 스피커의 운용 방법 및 장치{METHOD AND APPARATUS FOR PERFORMING MULTI SPEAKER USING POSITIONAL INFORMATION}
본 발명은 멀티 스피커의 운용에 관한 것으로, 보다 구체적으로 사용자의 위치정보 또는 방향정보를 활용하여 멀티 채널을 운용하는 방법 및 장치에 관한 것이다.
최근 1대 이상의 휴대단말을 구입하여 사용하는 사용자를 흔히 찾아볼 수 있는 상황이 되었으며, 가족 구성원들 개개인 각자의 휴대단말을 운영하는 가정이 늘어나 1가구가 여러 개의 단말을 사용하는 것이 보편적인 상황이 되었다. 또한 집에 여러 개의 스피커로 구성되어 있는 홈씨어터 스피커를 구비하여 5.1채널 음향 재생과 같은 사용자의 경험을 증대시키고자 하는 소비행태도 흔히 찾아볼 수 있게 되었다.
한편, 멀티 채널을 이용하여 영화를 보거나 음악을 들을 때 사용자의 현장감을 극대화 시키는 기술은 최근 들어 발전을 거듭하고 있다. 예를 들면, dolby digital이나 DTS 포맷과 같이 소스 상태부터 멀티채널로 녹음된 형태이거나 혹은 기존의 레코딘 기법으로 제공된 소스를 프로세서를 거쳐서 멀티 채널로 나누어 출력해주는 형태가 대표적이다. 이러한 멀티 채널의 운용은 각 디지탈 프로세싱 기법에서 권고하는 방식에 의해 배치된 복수개의 스피커가 필요하며 따라서 스피커의 위치는 일반적으로 고정적이다.
고정된 스피커에 대한 사용자의 위치가 유동적으로 움직일 수 있는 요소라는 것을 고려하여 위치와 역할이 고정된 기존의 멀티 채널 운용보다 훨씬 더 사용자가 최적화된 사운드를 들을 수 있도록 하는 것을 목적으로 한다.
보다 구체적으로, 본 발명은 사용자의 위치정보 및 방향정보를 활용하여 멀티 스피커를 운용하는 방법 및 장치를 제공하는 것을 목적으로 한다.
상기와 같은 문제점을 해결하기 위한 본 발명의 멀티스피커 운용 방법은, 오디오 데이터 재생시, 이용가능한 복수의 사운드 출력 장치들을 감지하는 동작, 사용자의 위치정보 및 사용자의 방향정보를 감지하는 동작, 상기 감지된 사용자 위치정보 및 방향정보 중 적어도 하나에 기초하여 상기 오디오 데이터로부터 복수의 사운드 정보들을 생성하는 동작, 및 상기 복수의 사운드 정보들 각각을, 상기 복수의 사운드 출력장치들 중 대응되는 사운드 출력 장치로 분배하는 동작을 포함한다.
또한 본 발명의 전자장치는 오디오 데이터 재생시, 사용자의 위치정보 및 사용자의 방향정보를 감지하는 감지부, 및 상기 감지부에 의해 감지된 상기 사용자의 위치정보 또는 방향정보 중 적어도 하나에 기초하여 상기 오디오 데이터로부터 복수의 사운드 정보를 생성하고, 상기 복수의 사운드 정보들 각각을, 복수의 사운드 출력 장치들 중 대응되는 사운드 출력 장치로 분배하는 제어부를 포함한다.
본 발명의 실시예에 따르면, 사용자의 위치 및 방향을 감지하여 감지된 정보를 바탕으로 사운드 정보를 생성한다. 이를 통해, 사용자의 위치 또는 방향에 알맞게 사용자에게 최적의 사운드를 제공할 수 있다.
또한, 본 발명의 실시예에 따르면 사용자의 위치 또는 방향 변경에 따라 이용가능한 사운드 출력장치를 감지할 수 있고, 상기 감지된 이용가능한 사운드 출력장치를 사용하여 사용자에게 최적의 사운드를 제공할 수 있다.
도 1은 본 발명의 다양한 실시예에 따른 멀티 채널 운용 방법의 한 예로 5.1채널로 구축된 멀티스피커 환경을 도시하는 도면.
도 2a는 본 발명의 다양한 실시예에 따른 멀티 채널 운용 방법의 한 예로 5.1채널로 구축된 멀티스피커 환경을 도시하는 도면.
도 2b는 본 발명의 다양한 실시예에 따른 멀티 채널 운용 방법의 한 예로 5.1채널로 구축된 멀티스피커 환경을 도시하는 도면.
도 3은 전자장치가 도 2b의 환경에서 사운드 정보를 생성하고 이를 이용하여 사운드를 출력시키는 동작을 구체적으로 설명하는 순서도.
도 4는 본 발명의 다양한 실시예에 따른 사용자의 위치변화에 기초하여 새로운 사운드 출력 장치들을 사용하는 환경을 도시하는 도면.
도 5는 전자장치가 도4의 환경에서 사운드 정보를 생성하고 이를 이용하여 사운드를 출력시키는 동작을 구체적으로 설명하는 순서도.
도 6은 본 발명의 다양한 실시예에 따른 두 개의 전자장치를 이용하여 사운드 정보를 생성하여 사운드를 출력시키는 것을 도시하는 도면.
도 7은 본 발명의 다양한 실시예에 따른 전자장치의 블록도를 도시하는 도면.
이하, 첨부된 도면을 참조하여 본 개시(present disclosure)를 설명한다. 본 개시는 다양한 변경을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시예들이 도면에 예시되고 관련된 상세한 설명이 기재되어 있다. 그러나, 이는 본 개시를 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 개시의 사상 및 기술 범위에 포함되는 모든 변경 및/또는 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. 도면의 설명과 관련하여, 유사한 구성요소에 대해서는 유사한 참조 부호가 사용되었다.
본 개시 가운데 사용될 수 있는“포함한다” 또는 “포함할 수 있다” 등의 표현은 개시된 해당 기능, 동작 또는 구성요소 등의 존재를 가리키며, 추가적인 하나 이상의 기능, 동작 또는 구성요소 등을 제한하지 않는다. 또한, 본 개시에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 동작, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 동작, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
본 개시에서 “또는” 등의 표현은 함께 나열된 단어들의 어떠한, 그리고 모든 조합을 포함한다. 예를 들어, “A 또는 B”는, A를 포함할 수도, B를 포함할 수도, 또는 A 와 B 모두를 포함할 수도 있다.
본 개시 가운데 “제 1,”“제2,”“첫째,”또는“둘째,”등의 표현들이 본 개시의 다양한 구성요소들을 수식할 수 있지만, 해당 구성요소들을 한정하지 않는다. 예를 들어, 상기 표현들은 해당 구성요소들의 순서 및/또는 중요도 등을 한정하지 않는다. 상기 표현들은 한 구성요소를 다른 구성요소와 구분 짓기 위해 사용될 수 있다. 예를 들어, 제1 사용자 기기와 제 2 사용자 기기는 모두 사용자 기기이며, 서로 다른 사용자 기기를 나타낸다. 예를 들어, 본 개시의 권리 범위를 벗어나지 않으면서 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다.
본 개시에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 개시를 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다.
다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 개시가 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥 상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 개시에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.
본 개시에 따른 전자 장치는, 통신 기능이 포함된 장치일 수 있다. 예를 들면, 전자 장치는 스마트 폰(smartphone), 태블릿 PC(tablet personal computer), 이동 전화기(mobile phone), 화상전화기, 전자북 리더기(e-book reader), 데스크탑 PC(desktop personal computer), 랩탑 PC(laptop personal computer), 넷북 컴퓨터(netbook computer), PDA(personal digital assistant), PMP(portable multimedia player), MP3 플레이어, 모바일 의료기기, 카메라(camera), 또는 웨어러블 장치(wearable device)(예: 전자 안경과 같은 head-mounted-device(HMD), 전자 의복, 전자 팔찌, 전자 목걸이, 전자 앱세서리(appcessory), 전자 문신, 또는 스마트 와치(smartwatch))중 적어도 하나를 포함할 수 있다.
어떤 실시예들에 따르면, 전자 장치는 통신 기능을 갖춘 스마트 가전 제품(smart home appliance)일 수 있다. 스마트 가전 제품은, 예를 들자면, 전자 장치는 텔레비전, DVD(digital video disk) 플레이어, 오디오, 냉장고, 에어컨, 청소기, 오븐, 전자레인지, 세탁기, 공기 청정기, 셋톱 박스(set-top box), TV 박스(예를 들면, 삼성 HomeSyncTM, 애플TVTM, 또는 구글 TVTM), 게임 콘솔(game consoles), 전자 사전, 전자 키, 캠코더(camcorder), 또는 전자 액자 중 적어도 하나를 포함할 수 있다.
본 개시에 따른 전자 장치는 전술한 다양한 장치들 중 하나 또는 그 이상의 조합일 수 있다. 또한, 본 개시에 따른 전자 장치는 플렉서블 장치일 수 있다. 또한, 본 개시에 따른 전자 장치는 전술한 기기들에 한정되지 않음은 당업자에게 자명하다.
이하, 첨부된 도면을 참조하여 다양한 실시예에 따른 전자 장치에 대해서 살펴본다. 다양한 실시예에서 이용되는 사용자라는 용어는 전자 장치를 사용하는 사람 또는 전자 장치를 사용하는 장치(예: 인공지능 전자 장치)를 지칭할 수 있다.
도1은 본 발명의 다양한 실시예에 따른 멀티 채널 운용 방식의 한 예로 5.1채널로 구축된 멀티스피커 환경을 나타내는 도면이다. 중앙의 디스플레이(100)를 기준으로 사용자(170)의 좌측에 전방좌측 스피커(FL, FRONT LEFT)(120), 우측에 전방우측 스피커(FR, FRONT RIGHT)(130)가 위치하고 그 사이에 중앙스피커(C, CENTER)(110)가 위치하게 된다. 또한 사용자(170)의 뒤쪽 좌우측에 후면좌측 스피커 (SL, SURROUND LEFT)(140), 후면 우측 스피커(SR, SURROUND RIGHT)(150)가 각각 위치할 수 있다. 저음을 담당하는 우퍼(SUB)(160)는 특별히 정해진 위치가 없으나 일반적으로 전방 구석에 배치될 수 있다.
도 2a 및 2b는 본 발명의 다양한 실시예에 따른 멀티 채널 운용 방법의 한 예로 5.1채널로 구축된 멀티스피커 환경을 도시한다.
도2a를 참조하여 사용자(170)가 방향을 전환하여 좌측에 있는 디스플레이(200)를 보고 있는 경우를 고려해 보자. 디스플레이(200)는 TV와 같은 대화면 기기일수도 있고, 태블릿 PC등과 같은 소형화 기기도 가능하다. 만약 각 스피커에서 출력되는 사운드가 고정되어 있다면, 사용자(170) 입장에서는 사용자(170)의 정면에서 전방좌측 및 후방좌측 스피커들(120,140)로 분배된 소리를 듣게 되어 오히려 소리가 영화 감상을 방해하게 된다. 이는 영화가 아닌 음악을 청취 할 때도 마찬가지이다. 스테이징이 사용자(170)의 우측에 형성되어 콘서트 장에서 무대를 보지 않고 옆을 보고 있는 것과 같은 경험을 하게 된다. 따라서, 스피커를 통한 사운드 출력의 재분배가 필요하다.
도 2b를 참조하면, 사용자(170)가 전자장치(200)를 통하여 컨텐츠를 재생시키고 있는 경우, 전자장치(200)는 이용가능한 사운드 출력 장치들을 감지한 후, 사용자의 방향을 감지할 수 있다. 그리고 감지된 사용자의 방향을 기준으로 이용가능한 사운드 출력 장치들에 분배되는 사운드 정보를 생성할 수 있다. 본 실시예의 경우는, 감지된 사용자의 전면(기준방향의 좌측)을 기준으로 스피커의 OUTPUT을 변환해줄 수 있다. 즉, 사용자(170)의 방향이 좌측을 향함에 따라, 기준방향에서 전방좌측 스피커(FL)(120)의 역할을 하던 스피커가 전방우측 스피커(FR) 역할을 하게 된다. 그리고 사용자(170)가 좌측으로 방향전환을 함에 따라, 기준방향에서 후방좌측 스피커(SL)(140)의 역할을 하던 스피커가 전방좌측 스피커(FL) 역할을 하게 된다. 마찬가지로 기준방향에서 전방우측 스피커(FR)는 후방우측 스피커(SR) 역할을 하고, 기준방향에서 후방우측 스피커(SR)는 방향전환 후, 후방좌측 스피커(SL) 역할을 한다.
기준방향의 좌측을 바라보면, 중앙스피커(110)가 부재하게 되는데 이는 사용자(170)의 전면에 위치하는 두 개의 스피커들(120,140)을 통하여 가상 중앙스피커가 존재하는 것처럼 사운드 효과를 낼 수 있다. 다시 말해, 스피커(120)는 전방우측 사운드를 출력하지만 일정부분은 중앙스피커(110)의 사운드를 출력하고, 스피커(140)는 전방좌측 사운드를 출력하지만 일정부분은 중앙스피커(110)의 사운드를 출력할 수 있다. 이렇게 동작가능한 이유는 중앙스피커(110)는 영화에서 사람의 음성을 주로 담당하는데 정면이 아닌 뒷면에서 사람의 음성이 들리면 어색하기 때문이다. 다른 실시예로써, 중앙스피커(110)가 제 위치에서 그대로 동작하는 것도 가능하다. 우퍼(SUB)(160)는 특별한 설정이 없는 한, 기존의 위치에서 저음을 담당하고, 설정을 통하여 다른 스피커에서 우퍼(160)의 역할을 할 수도 있다. 또 다른 실시예로써, 중앙스피커(110)가 동작하지 않는 것도 가능하다. 이 경우, 사용자는 5.1채널에서 4.1채널로 채널 변환된 사운드 트랙을 들을 수 있다. 또한 사용자의 설정에 의하거나 또는 이용가능한 사운드 출력장치의 개수에 따라서 그 이하의 채널 수 또는 그 이상의 채널 수로도 동작 가능하다.
본 발명의 한 실시예에 따르면, 사용자(170)가 기준방향의 반대방향인 후면을 향하여 전자장치(200)를 통하여 컨텐츠를 재생시킨다. 이 경우, 전자장치(200)는 사용자의 방향을 감지한 후, 이에 기초하여 복수의 사운드 정보들을 생성할 수 있다. 복수의 사운드 정보들은 각각 음량, 채널 수, 및 채널 분배에 관한 정보 중 적어도 하나의 정보를 포함할 수 있다. 생성된 복수의 사운드 정보들은 그에 대응되는 복수의 사운드 출력 장치로 분배되어 사운드 출력 장치가 사운드를 출력시킨다. 즉, 기준방향에서의 후방좌측 스피커(SL)(140)가 전방우측 스피커의 역할을 하고, 기준방향에서의 후방우측 스피커(SR)(150)가 전방좌측 스피커의 역할을 한다. 마찬가지로 기준방향에서 전방좌측 스피커(FL)(120)가 후방우측 스피커 역할을, 기준방향에서 전방우측 스피커(FR)(130)가 후방좌측 스피커 역할을 각각 맡게 된다. 또한 방향변경 후 전방좌측, 전방우측의 역할을 하는 스피커들(140,150)은 중앙스피커의 사운드를 각각 나누어 출력할 수 있다.
본 발명의 한 실시예에 따르면, 사용자(170)는 기준방향의 우측방향을 향하여 전자장치(200)를 통하여 컨텐츠를 재생시킨다. 이 경우, 전자장치(200)는 사용자의 방향을 감지한 후, 이에 기초하여 복수의 사운드 정보들을 생성할 수 있다. 생성된 복수의 사운드 정보들은 그에 대응되는 복수의 사운드 출력 장치로 분배되어 사운드 출력 장치가 사운드를 출력시킨다. 즉, 기준방향에서의 후방좌측 스피커(SL)(140)가 후방우측 스피커의 역할을 하고, 기준방향에서의 후방우측 스피커(SR)(150)가 전방우측 스피커의 역할을 한다. 마찬가지로 기준방향에서 전방좌측 스피커(FL)(120)가 후방좌측 스피커 역할을, 기준방향에서 전방우측 스피커(FR)(130)가 전방좌측 스피커 역할을 각각 맡게 된다. 또한 방향변경 후 전방좌측, 전방우측의 역할을 하는 스피커들(130,150)은 중앙스피커의 사운드를 각각 나누어 출력할 수 있다.
본 발명의 한 실시예에 따르면, 사용자(170)는 기준방향인 앞쪽방향을 향하여 전자장치(200)를 통하여 컨텐츠를 재생시킨다. 이 경우, 통상적인 방향으로서 특별히 사용자 위치정보 및 방향정보를 입력하지 않는다면 기본적으로 설정된 사용자 방향이다. 즉 중앙스피커(C)(110), 전방좌측 스피커(FL)(120), 전방우측 스피커(FR)(130), 후방좌측 스피커(SL)(140), 후방우측 스피커(SR)(150), 우퍼(SUB)(160)들이 각각 기본적으로 설정된 사운드 정보를 분배 받아 사운드를 출력시킨다. 상기 기본적으로 설정된 사운드 정보는, dolby digital이거나 DTS포맷과 같은 소스 상태일 수 있고, 멀티채널로 녹음된 형태이거나 혹은 기존의 레코딘 기법으로 제공된 소스 상태일 수 있다.
도 3은 전자장치가 도 2b의 환경에서 사운드 정보를 생성하고 이를 이용하여 사운드를 출력하는 동작을 구체적으로 설명하는 순서도이다.
우선 310동작에서, 전자장치(200)는 이용가능한 사운드 출력 장치들을 감지한다. 이 동작은 최초 일회에만 실시될 수도 있고, 반복적으로도 실시 될 수 있다. 전자장치는 사용자 인터페이스 또는 유/무선을 통해 사운드 출력 장치들의 위치정보를 인식할 수 있는데, 여기서 위치정보란 절대적인 위치정보일 수도 있고 각 기기나 사운드 소스 간의 상대적인 위치정보일 수도 있다. 한 실시예로서, 무선으로 사운드 출력 장치들을 감지하는 방법은, 각 사운드 출력장치들이 지그비 프로토콜(IEEE 802.15.4) 형식에 부합되도록 설계되어 전자장치가 지그비 프로토콜을 이용하여 사운드 출력장치들을 감지하는 방법이 있다.
다음으로, 320동작에서, 사용자의 위치 및 방향을 감지할 수 있는데, 사용자의 위치 및 방향을 감지하는 방법의 예는 센서를 사용하여 실제 사용자의 위치 및 방향을 감지하거나 혹은 컨텐츠가 재생되고 있는 전자장치의 위치정보를 이용하여 이를 간접적으로 감지하는 방법, 그리고 전술한 두 가지 방법을 동시에 사용하여 사용자의 위치 및 방향을 감지할 수 있다. 다른 실시예로서, 이용가능한 사운드 출력장치들을 기준으로 사용자의 위치 및 방향을 감지 할 수 있다. 이용가능한 사운드 출력장치들을 기준으로 사용자의 위치 및 방향을 감지하는 방법으로는 컨텐츠가 재생되는 기기에 마이크를 설치하고 사운드 출력 장치에서 특정대역의 기준 사운드(Reference Sound)를 발생시켜 상기 마이크가 상기 기준 사운드를 모니터하여 사용자의 위치 및 방향을 감지하는 방법, 사운드 출력 장치 개별에 센서를 부착하여 센서들 간의 상호 위치를 파악하여 사용자의 위치 및 방향을 감지하는 방법, 또는 두 방법을 모두 혼용하여 사용자의 위치 및 방향을 감지할 수 있다.
다음으로, 330동작에서, 전자장치는 감지된 사용자의 위치정보 또는 방향정보 중 적어도 하나에 기초하여 오디오 데이터로부터 복수의 사운드 정보들을 생성할 수 있다. 상기 오디오 데이터는 디지털 데이터인 것을 의미하고, 사운드 정보는 최소한 2개 이상의 스피커를 위해 생성되는 사운드 신호를 의미한다.
한 실시예로서, 위치정보 또는 방향정보 중 적어도 하나에 기초하여 오디오 데이터로부터 복수의 사운드 정보들을 생성하는 방법은 수정매트릭스(revising matrix)를 사용하는 것이다. 예를 들면, 도 2b의 5.1 채널 환경에서 사용자가 기준방향을 향하여 컨텐츠를 재생시키고 있는 경우, 전자장치는 감지된 방향정보(기준방향을 향하고 있음)를 입력받아 수정매트릭스를 통해 사운드 정보를 아래와 같이 설정할 수 있다.
Figure pat00001
위 수정매트릭스에 따르면, 제1 사운드 정보(SI: Sound Information)는 제1 오디오 데이터(AD: Audio Data)로 설정되고, 제2 사운드 정보는 제2 오디오 데이터로, 제3 사운드 정보는 제3 오디오 데이터로, 제4 사운드 정보는 제4 오디오 데이터로, 제5 사운드 정보는 제5 오디오 데이터로, 제6 사운드 정보는 제6 오디오 데이터로 설정되어 복수의 사운드 정보들이 생성된다. 한편, 제1 오디오 데이터는 중앙스피커(110)의 사운드 효과를 갖고, 제2 오디오 데이터는 전방좌측 스피커(120)의 사운드 효과를, 제3 오디오 데이터는 전방우측 스피커(130) 사운드 효과를, 제4 오디오 데이터는 후방좌측 스피커(140) 사운드 효과를, 제5 오디오 데이터는 후방우측 스피커(150) 사운드 효과를, 제6 오디오 데이터는 우퍼(160) 사운드 효과를 각각 갖는다. 또한 제1 사운드 정보는 중앙스피커(110)와 대응되고, 제2 사운드 정보는 스피커(120)와 대응되고, 제3 사운드 정보는 스피커(130)와 대응되고, 제4 사운드 정보는 스피커(140)와 대응되고, 제5 사운드 정보는 스피커(150)와 대응되고, 제6 사운드 정보는 스피커(160)와 대응된다.
다른 실시예로서 도 2b의 5.1 채널 환경에서 사용자가 기준방향의 좌측을 향하여 컨텐츠를 재생시키고 있는 경우, 전자장치는 감지된 방향정보(기준방향의 좌측)를 입력받아 수정매트릭스를 통해 사운드 정보를 아래와 같이 설정할 수 있다.
Figure pat00002
제1 사운드 정보는 중앙스피커(110)와 대응되는 정보로서, 모든 수치가 0으로 설정된다. 제2 사운드 정보는 스피커(120)와 대응되는 정보로서, 중앙스피커 사운드 효과를 내는 제1 오디오 데이터 및 전방우측 사운드 효과를 내는 제3 오디오 데이터로 설정된다. 이 경우, 중앙스피커(110)가 부재함에 따라 제1 오디오 데이터는 일정부분이 조정되어 제2 사운드 정보로 설정될 수 있다. 제3 사운드 정보는 스피커(130)와 대응되는 정보로서, 후방우측 사운드 효과를 내는 제5 오디오 데이터로 설정된다. 제4 사운드 정보는 스피커(140)와 대응되는 정보로서, 중앙 스피커 사운드 효과를 내는 제1 오디오 데이터 및 전방좌측 사운드 효과를 내는 제2 오디오 데이터로 설정된다. 제5 사운드 정보는 스피커(150)와 대응되는 정보로서, 후방좌측 사운드 효과를 내는 제4 오디오 데이터로 설정된다. 제6 사운드 정보는 스피커(160)와 대응되는 정보로서, 저음 효과를 내는 제6 오디오 데이터로 설정된다. 상기 수정매트릭스를 일반적인 수식으로 표현하면 아래와 같이 표현가능하다.
Figure pat00003
상기 수정매트릭스에서, SI는 사운드 정보로서, 각각의 사운드 출력 장치에 대응한다. AD는 오디오 데이터를 의미하고, n은 채널 수를 의미한다. K는 수정매트릭스의 각 성분 값을 의미하고, 이를 통해 오디오 데이터를 조정하여 사운드 정보를 생성한다. 본 발명의 한 실시예로서, 사운드 정보는 수정매트릭스의 n값에 의해 채널수가 2채널 내지는 다채널로 다양하게 변환 가능하고, K 값에 의해 음량 및 채널 분배의 변환이 가능하다.
또 하나의 실시예로, 오디오 데이터는 여러 개의 채널이 구분된 디지털 데이터 일수도 있지만 채널의 구분이 되지 않은 데이터도 가능하다. 이렇듯 채널이 구분되어 있지 않은 상태의 오디오 데이터 역시 사운드 프로세싱을 통해 멀티 채널로 나누어서 출력 해주는 것이 가능하다. 다채널로 변환되는 사운드의 최종 결과물은 프로세싱에 따라 5CH, 4CH 5.1CH, 7.1CH 등 다양한 형태로 변환이 가능하다. 또한 기존에 채널이 나누어진 멀티 채널 디지털 사운드 소스의 경우에도 앞의 설명과 같이 시스템의 자원에 맞게 채널을 늘리거나 줄이는 변환이 가능하다. 또한 복수개의 멀티 채널이 존재하는 사운드 소스의 경우(예를 들어 하나의 영상에 DTS-HDMA7.1 DTS 5CH, DD 5.1CH, DD4.1CH , STREO 2CH 등이 수록되어 있는 경우) 사운드 프로세싱을 통해 시스템의 자원에 맞게 채널을 늘리거나 줄이거나, 혹은 단순히 각 멀티 채널을 스위칭 하는 것도 가능하다.다음으로, 340동작에서, 전자장치(200)는 생성된 복수의 사운드 정보들을 그에 대응되는 사운드 출력장치들에게 각각 분배한다. 예를 들면, 5.1채널 환경에서 사용자가 기준방향으로 컨텐츠를 재생시키는 경우, 전자장치는 제1 사운드 정보 내지 제6 사운드 정보들을 생성한 후, 이를 각각 스피커들에게 대응시킨다. 즉, 제1 사운드 정보를 중앙스피커(110)로 분배한다. 그리고, 제2 사운드 정보를 전방좌측 스피커(FL)(120)로 분배하고 제3 사운드 정보를 전방우측 스피커(FR)(130)로 분배한다. 또한 제4 사운드 정보를 후방좌측 스피커(SL)(140)로 분배하고 제5 사운드 정보를 후방우측 스피커(SR)(150)로 분배하고 제6 사운드 정보를 우퍼(SUB)(160)로 분배한다.
다음으로, 350동작에서, 각 사운드 출력 장치는 분배된 사운드 정보에 기초하여 사운드를 출력시킨다. 사운드 출력장치는 스마트폰, 스피커(speaker), 오디오(audio), DVD(digital video disk) 플레이어, PDA(personal digital assistant), PMP(portable multimedia player), MP3 플레이어 중 적어도 하나를 포함할 수 있고 이와 유사한 효과를 갖는 모든 전자기기를 포함한다.
도 4는 본 발명의 다양한 실시예에 따른 사용자의 위치변화에 기초하여 새로운 사운드 출력 장치들을 사용하는 환경을 도시하는 도면이다.
도 4를 참조하면, 사용자(170)는 ROOM1에서 컨텐츠를 재생하는 도중, ROOM2로 자리를 옮겨 컨텐츠를 재생한다. 한 실시예에 따르면, 사용자가 ROOM2에서 컨텐츠를 재생하고 있는 경우, 전자장치(200)는 새로운 사운드 출력 장치들을 감지한다. 또한, 전자장치(200)는 새롭게 감지된 사운드 출력 장치들을 인식하고, 사용자(170)의 위치 및 방향을 감지하여 이에 기초하여 사용자에게 최적의 음향효과를 제공한다. 좀 더 구체적으로 설명하자면, ROOM1에서 사용하던 사운드 출력 장치들을 새롭게 감지된 사운드 출력 장치들과 비교하여 만약 상기 새롭게 감지된 사운드 출력 장치가 사용자(170)에게 더 나은 음향효과를 제공할 수 있다면, 전자장치(170)는 기존에 사용하던 사운드 출력 장치들의 사용을 중단하고 새롭게 감지된 사운드 출력장치들을 사용한다. 즉, 사용자(170)의 위치가 ROOM1에서 ROOM2로 변화되면 ROOM1에서 사용하던 스피커들(110 내지 160)의 사용을 중단하고, ROOM2의 스피커들(410,420,430)을 사용하게 되는데, 이 경우 사용자의 사운드 환경은 5.1채널에서 3채널로 변하게 된다. 기존에 중앙스피커(110)의 사운드는 AMP1(410)에서 출력될 수 있고, 기존의 전방좌측 스피커(FL)(120)와 전방우측 스피커(FR)(130)의 역할은 각각 ROOM2의 스피커(420)와 스피커(430)가 대신함으로써, FRONT SOUND 효과를 낼 수 있다. 또한, BACK SOUND 효과를 사용할 수도 있고, 사용 안 할 수 도 있는데, 만약 BACK SOUND 효과를 사용하는 경우 도 4와 같이 기존의 전방우측 스피커(FR)(130), 후방우측 스피커(SR)(150), 우퍼(SUB)(160)가 BACK SOUND 효과를 낼 수 있다. 한편, 기존의 전방좌측 스피커(FL)(120), 후방좌측 스피커(SL)(140), 중앙스피커(C)(110)가 BACK SOUND 효과를 낼 수 있음은 물론이다.
다른 한 실시예로서, 사용자(170)가 ROOM2 내부에서 기준방향의 우측방향을 향하여 전자장치(200)를 통해 컨텐츠를 재생시키고 있는 경우, ROOM1에서 기존의 전방우측 스피커(FR)(130), 후방우측 스피커(SR)(150), 우퍼(SUB)(160)가 FRONT SOUND 효과를 낼 수 있고, ROOM2에서의 스피커들(410,420,430)이 BACK SOUND 효과를 낼 수 있다.
또 다른 한 실시예로서, 전자장치(200)는 사용자(170)가 위치를 변화시켰을 경우, 변화된 환경에서의 새롭게 감지된 사운드 출력 장치들을 자동으로 사용하기 전에 사용자(170)에게 상기 새롭게 감지된 사운드 출력 장치들을 사용할 것인지 물어 볼 수 있다. 사용자(170)가 새롭게 감지된 사운드 출력 장치들을 사용하지 않는 경우, 전자장치(200)는 사용자(170)의 위치변화가 있더라도 기존의 사운드 출력 장치들을 계속해서 사용한다.
도 5는 도4의 환경에서 사운드 정보를 생성하고 이를 이용하여 사운드를 출력하는 동작을 구체적으로 설명하는 순서도이다.
우선, 510동작에서, 사용자(170)가 새로운 환경으로 이동하였을 때, 전자장치(200)는 사용자의 위치 또는 방향이 변경되었는지 확인한다. 사용자의 위치 또는 방향이 변경된 경우, 전자장치는 520동작으로 넘어가, 이용가능한 사운드 출력장치들을 재감지한다. 사용자의 위치 또는 방향이 변경되지 않은 경우, 전자장치는 560동작으로 넘어가, 복수의 사운드 출력 장치들로 하여금 기존에 존재하던 사운드 정보에 기초하여 사운드를 출력시키게 한다.
다시 520동작으로 돌아와서, 사용자의 위치 또는 방향이 변경된 경우, 전자장치는 새로운 환경에서의 이용가능한 사운드 출력 장치들을 재감지한다. 이 경우, 전자장치는 유선 또는 무선을 통해 사운드 출력 장치들의 위치정보를 인식 할 수 있는데, 여기서 위치정보란 절대적인 위치정보일 수도 있고 각 기기나 사운드 소스 간의 상대적인 위치정보일 수도 있다. 한 실시예로서, 무선으로 사운드 출력 장치들을 감지하는 방법은, 각 사운드 출력장치들이 지그비 프로토콜(IEEE 802.15.4) 형식에 부합되도록 설계되어 전자장치가 지그비 프로토콜을 이용하여 사운드 출력장치들을 감지할 수 있는 방법이 있다.
다음으로, 530동작에서, 사용자의 위치 및 방향을 재감지하게 되는데, 사용자의 위치 및 방향을 재감지하는 방법의 예는 센서를 사용하여 실제 사용자의 위치 및 방향을 감지하거나 혹은 컨텐츠가 재생되고 있는 전자장치의 위치정보를 이용하여 이를 간접적으로 감지하는 방법, 그리고 전술한 두 가지 방법을 동시에 사용하여 사용자의 위치 및 방향을 감지할 수 있다. 다른 실시예로서, 이용가능한 사운드 출력장치들을 기준으로 사용자의 위치 및 방향을 감지 할 수 있다. 이용가능한 사운드 출력장치들을 기준으로 사용자의 위치 및 방향을 감지하는 방법으로는 컨텐츠가 재생되는 기기에 마이크를 설치하고 사운드 출력 장치에서 특정대역의 reference 사운드를 발생시켜 상기 마이크가 상기 reference 사운드를 모니터하여 사용자의 위치 및 방향을 감지하는 방법, 사운드 출력 장치 개별에 센서를 부착하여 센서들 간의 상호 위치를 파악하여 사용자의 위치 및 방향을 감지하는 방법, 또는 두 방법을 모두 혼용하여 사용자의 위치 및 방향을 감지할 수 있다.
다음으로, 540동작에서, 전자장치는 재감지된 사용자의 위치정보 또는 방향정보 중 적어도 하나에 기초하여 오디오 데이터로부터 복수의 사운드 정보들을 생성한다. 한 실시예로서, 수정매트릭스를 사용하여, 사용자의 위치정보 또는 방향정보 중 적어도 하나에 기초하여 사운드 정보를 생성할 수 있다. 도 4를 참조하면, 사용자가 ROOM1에서 ROOM2로 이동한 경우, 전자장치(200)는 3개의 새로운 스피커들(410,420,430)을 재감지 한 후, 사용자의 위치 및 방향을 재감지 한다. 이때, 사용자가 기준방향을 향하고 있음을 감지하므로, 전자장치는 AMP1(410), 스피커(420), 스피커(430)에서 FRONT SOUND 효과를 내야한다. 따라서, AMP1(410)이 중앙스피커 효과를 내고 스피커(420)가 전방좌측 스피커 효과를 내고 스피커(430)가 전방우측 스피커 효과를 내도록, 전자장치(200)는 아래의 수정매트릭스를 사용하여 사운드 정보들을 생성할 수 있다.
Figure pat00004
위 수정매트릭스에 따르면, 제1 사운드 정보(SI1), 제2 사운드 정보(SI2), 제4 사운드 정보(SI4)는 각각 중앙스피커(110), 스피커(120), 스피커(140)에 대응되는 정보들로서, 사안에서는 사용자의 위치가 변화함에 따라 동작하지 않게 된다. 제3 사운드 정보는 스피커(130)와 대응되는 정보로서, 후방우측 사운드 효과를 내는 제5 오디오 데이터로 설정된다. 제5 사운드 정보는 스피커(150)와 대응되는 정보로서, 후방좌측 사운드 효과를 내는 제4 오디오 데이터로 설정된다. 제6 사운드 정보는 스피커(160)와 대응되는 정보로서, 저음 효과를 내는 제6 오디오 데이터로 설정된다. 또한, 제7 사운드 정보는 새로 감지된 AMP1(410)와 대응되는 정보로서, 중앙스피커 사운드 효과를 내는 제1 오디오 데이터로 설정된다. 제8 사운드 정보는 새로 감지된 스피커(420)와 대응되는 정보로서, 전방좌측 사운드 효과를 내는 제2 오디오 데이터로 설정된다. 제9 사운드 정보는 새로 감지된 스피커(430)와 대응되는 정보로서, 전방우측 사운드 효과를 내는 제3 오디오 데이터로 설정된다. 전자장치(200)는 제1 사운드 정보 내지 제9 사운드 정보를 상기와 같이 설정되도록 생성한다.
다음으로, 550 동작에서, 전자장치는 생성된 복수의 사운드 정보들을 그에 대응되는 사운드 출력장치들에게 각각 분배한다. 예를 들면, 도 4의 5.1채널 환경(ROOM1)에서 3채널 스피커 환경(ROOM2)으로 사용자의 위치가 변화 된 후, 사용자가 컨텐츠를 재생시킨 경우, 전자장치는 각 스피커에 대응되는 사운드 정보들을 생성한 후, 중앙스피커(C) 효과를 내는 사운드 정보를 ROOM1의 AMP1(410)로 분배한다. 그리고, 전방좌측 효과를 내는 사운드 정보를 ROOM1의 스피커(420)로 분배하고 전방우측 효과를 내는 사운드 정보를 ROOM1의 스피커(430)로 분배한다. 또한 BACK SOUND 효과를 내는 사운드 정보들을 ROOM2의 스피커들(130,150,160)로 각각 분배한다.
다음으로, 560 동작에서, 각 사운드 출력 장치는 분배된 사운드 정보에 기초하여 사운드를 출력시킨다.
도 6은 본 발명의 다양한 실시예에 따른 두 개의 전자장치를 이용하여 사운드 정보를 생성하여 사운드를 출력시키는 것을 도시하는 도면이다.
도 6은 AMP와 스피커 자원이 고정되어 있는 시스템이 아닌 복수개의 전자장치를 사용하여 본 발명을 활용하는 예이다. 도 6과 같이, 제1 전자장치(600)와 제2 전자장치(610)가 있을 때, 제1 전자장치는 이용가능한 제2전자장치를 감지한다. 또한, 제1 전자장치는, 제1 및 제2 전자장치의 상대위치와, 컨텐츠가 재생되는 제1 전자장치(600)의 위치정보를 활용하여 사용자(170)의 위치 및 방향을 감지한다. 감지된 사용자(170)의 위치 및 방향을 기초로 제1 전자장치(600)는, CENTER SOUND 및 FRONT SOUND의 효과를 내는 제1 사운드 정보 및 BACK SOUND 효과를 갖는 제2 사운드 정보를 생성한다. 제1 전자장치(600)는, 제1 사운드 정보에 기초하여 사운드를 출력시키고, 제2 전자장치(610)로 제2 사운드 정보를 전송한다. 제2 전자장치(610)는 제2 사운드 정보를 수신한 후, 이에 기초하여 사운드를 출력시킨다. 즉, 제1 전자장치(600)의 스피커에서는 CENTER SOUND 및 FRONT SOUND효과를 발생시키고, 제2 전자장치(610)의 스피커에서는 BACK SOUND 효과를 발생시킴으로써 사용자에게 현실감 나는 사운드를 제공한다.
도 7은 본 발명의 다양한 실시예에 따른 전자장치의 블록도를 도시하는 도면이다.
도 7을 참조하면, 전자장치(200)는 채널의 상태 등을 보여주는 디스플레이(700), 이용가능한 사운드 출력 장치들을 감지하고 사용자의 위치정보 및 방향정보를 감지하는 감지부(701), 상기 감지부로부터 명령을 입력받아 사운드 정보를 생성하고 사운드 출력 장치의 각 구성부분을 제어하는 제어부(702), 사용자 인터페이스(703) 및 사운드 출력 장치들(110 내지 160)을 포함한다. 도 7의 전자장치(200)는 5.1채널 사운드 출력 장치를 포함하므로, 제어부(702)는 5.1채널 오디오 데이터로부터 중앙스피커(C)(110), 전방좌측 스피커(FL)(120), 전방우측 스피커(FR)(130), 후방좌측 스피커(SL)(140), 후방우측 스피커(SR)(150), 우퍼(SUB)(160)를 위한 사운드 정보들을 생성한다. 생성된 각 사운드 정보들은 제어부(702)에 의해 대응되는 스피커들(110 내지 160)에게 유선 또는 무선으로 분배된다. 제어부(702)는 사운드 출력 장치들의 각 구성요소들을 제어하는데 사용자 인터페이스(703)를 통해 제어명령을 입력받아 제어신호를 발생하기도 한다. 본 발명에서 제어부(702)는, 사용자 인터페이스(703)로부터 사용자의 위치 및 방향정보를 입력받거나 감지부로부터 사용자의 위치 및 방향정보를 입력받을 수 있다. 또한, 제어부(702)는 입력받은 사용자의 위치 또는 방향정보에 기초하여 사운드 정보들을 생성하여 사용자의 위치에 따른 사운드 출력이 가능하도록 한다.
사용자 인터페이스(703)는 사운드 출력 장치들을 제어하기 위하여 사용자가 입력하는 제어명령을 제어부(702)에 전달한다. 사용자 인터페이스(703)는 리모콘 장치로 구현될 수도 있고, 터치 스크린 등을 이용한 OSD(On Screen Display)로도 구현될 수 있으며, 사운드 출력 장치들에 부착된 제어 버튼으로 구현될 수도 있다. 사용자는 사용자 인터페이스(703)를 통해 소리의 크기를 높이거나 줄이거나 이퀄라이저 기능을 사용할 수 있고, 녹화나 재생 등의 명령을 실행시킬 수도 있다.
디스플레이(700)는 사용자가 사운드 출력 장치들을 제어할 때 그 상태를 디스플레이 한다. 디스플레이는 모니터나 스크린이 될 수도 있고, 발광 다이오드(Light Emitting Diode)로 구성된 도트 매트릭스일 수도 있다. 한편, OSD로 된 사용자 인터페이스(703)를 사용할 경우에는 별도의 디스플레이가 필요하지 않을 수도 있다.
또한, 본 발명의 개념은 사운드 정보뿐 만 아니라, 영상 정보, 컨텐츠 정보 등 다양한 소스로부터 응용될 수 있고, 사운드 출력 장치뿐 만 아니라, 영상재생장치, 미디어 출력 장치 등 다양한 자원으로 응용될 수 있다.
상술한 실시예들에서, 모든 동작은 선택적으로 수행의 대상이 되거나 생략의 대상이 될 수 있다. 또한 각 실시예에서 동작들은 반드시 순서대로 일어날 필요는 없으며, 뒤바뀔 수 있다.
한편, 본 명세서와 도면에 개시된 본 발명의 실시 예들은 본 발명의 기술 내용을 쉽게 설명하고 본 발명의 이해를 돕기 위해 특정 예를 제시한 것일 뿐이며, 본 발명의 범위를 한정하고자 하는 것은 아니다. 즉 본 발명의 기술적 사상에 바탕을 둔 다른 변형 예들이 실시 가능하다는 것은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에게 자명한 것이다.

Claims (20)

  1. 오디오 데이터 재생시, 이용가능한 복수의 사운드 출력 장치들을 감지하는 동작;
    사용자의 위치정보 및 사용자의 방향정보를 감지하는 동작;
    상기 감지된 사용자 위치정보 및 방향정보 중 적어도 하나에 기초하여 상기 오디오 데이터로부터 복수의 사운드 정보들을 생성하는 동작; 및
    상기 복수의 사운드 정보들 각각을, 상기 복수의 사운드 출력장치들 중 대응되는 사운드 출력 장치로 분배하는 동작을 포함하는 멀티 스피커 운용 방법.
  2. 제 1항에 있어서,
    각각의 상기 사운드 출력장치는 분배된 사운드 정보에 기초하여 사운드를 출력하는 동작을 포함하는 멀티 스피커 운용 방법.
  3. 제 1항에 있어서,
    상기 사용자의 위치정보 및 방향정보를 감지하는 동작은, 상기 복수의 사운드 출력 장치들에 대한 사용자의 상대적인 위치 및 방향을 감지하는 멀티 스피커 운용 방법.
  4. 제 1항에 있어서,
    상기 사용자의 위치정보 및 사용자의 방향정보를 감지하는 동작은,
    상기 복수의 사운드 출력 장치들을 통해 특정 대역의 기준 사운드를 출력하는 동작;
    출력되는 상기 기준 사운드를 사용자 마이크로 모니터링하는 동작; 및
    상기 모니터링 결과를 이용하여 사용자의 위치 및 방향을 감지하는 동작을 포함하는 멀티 스피커 운용 방법.
  5. 제 1항에 있어서,
    상기 복수의 사운드 정보는 각각, 음량, 채널 수 및 채널 분배에 관한 정보 중 적어도 하나의 정보를 포함하는 멀티 스피커 운용 방법.
  6. 제 5항에 있어서,
    상기 복수의 사운드 정보의 채널 수는 n 채널(n>0)을 포함하는 멀티 스피커 운용 방법.
  7. 제 1항에 있어서,
    사용자의 위치 및 방향 중 적어도 하나의 변화를 인식하는 동작; 및
    사용자의 위치 및 방향 중 적어도 하나의 변화가 인식되면 사용자의 위치정보 및 방향정보 중 적어도 하나를 재감지하는 동작을 포함하는 멀티 스피커 운용 방법.
  8. 제 7항에 있어서,
    상기 재감지된 사용자 위치정보 및 방향정보 중 적어도 하나에 기초하여 상기 오디오 데이터로부터 복수의 사운드 정보들을 재생성하는 동작;
    재생성된 상기 복수의 사운드 정보들 각각을, 상기 복수의 사운드 출력장치들 중 대응되는 사운드 출력 장치로 분배하는 동작을 더 포함하는 멀티 스피커 운용 방법.
  9. 제 7항에 있어서,
    사용자의 위치 및 방향 중 적어도 하나의 변화가 인식되면, 이용가능한 복수의 사운드 출력 장치들을 재감지하는 동작을 더 포함하는 멀티 스피커 운용 방법.
  10. 제 8항에 있어서,
    상기 복수의 사운드 정보들을 재생성하는 동작은 사운드 출력 채널 수를 m채널에서 n채널(m>0, n>0, m≠n)로 변환하는 멀티 스피커 운용 방법.
  11. 제 9항에 있어서,
    상기 사용자의 위치정보 또는 방향정보를 재감지하는 동작은, 상기 재감지된 복수의 사운드 출력 장치들을 기초로 상기 사용자의 위치정보 및 방향정보 중 적어도 하나를 재감지하는 동작을 더 포함하는 멀티 스피커 운용 방법.
  12. 오디오 데이터 재생시, 사용자의 위치정보 및 사용자의 방향정보를 감지하는 감지부; 및
    상기 감지부에 의해 감지된 상기 사용자의 위치정보 및 방향정보 중 적어도 하나에 기초하여 상기 오디오 데이터로부터 복수의 사운드 정보를 생성하고,
    상기 복수의 사운드 정보들 각각을, 복수의 사운드 출력 장치들 중 대응되는 사운드 출력 장치로 분배하는 제어부를 포함하는 전자장치.
  13. 제 12항에 있어서,
    상기 제어부는, 상기 오디오 데이터 재생시 상기 복수의 사운드 출력 장치들 중 이용가능한 사운드 출력 장치들을 감지하는 전자장치.
  14. 제 13항에 있어서,
    상기 감지부는, 상기 복수의 사운드 출력 장치들에 대한 사용자의 상대적인 위치 및 방향을 감지하는 전자장치.
  15. 제 12항에 있어서,
    상기 감지부는, 상기 복수의 사운드 출력 장치들에서 특정 대역의 기준 사운드가 출력되면, 출력되는 상기 기준 사운드를 사용자 마이크로 모니터링하여 사용자의 위치 및 방향을 감지하는 전자장치.
  16. 제 12항에 있어서,
    상기 제어부는, 상기 복수의 사운드 정보를 각각, 음량, 채널 수 및 채널 분배에 관한 정보 중 적어도 하나의 정보를 포함하도록 생성하는 전자장치.
  17. 제 12항에 있어서,
    상기 제어부는, 사용자의 위치 및 방향 중 적어도 하나의 변화를 인식하고,
    상기 사용자의 위치 및 방향 중 적어도 하나의 변화가 인식되면 사용자의 위치정보 및 방향정보 중 적어도 하나를 재감지하도록 제어하는 전자장치.
  18. 제 17항에 있어서,
    상기 제어부는, 상기 재감지된 사용자 위치정보 및 방향정보 중 적어도 하나에 기초하여 상기 오디오 데이터로부터 복수의 사운드 정보들을 재생성하고, 재생성된 상기 복수의 사운드 정보들 각각을, 상기 복수의 사운드 출력장치들 중 대응되는 사운드 출력 장치로 분배하도록 제어하는 전자장치.
  19. 제 18항에 있어서,
    상기 제어부는, 상기 복수의 사운드 정보들을 재생성하는 경우 사운드 출력 채널 수를 m채널에서 n채널(m>0, n>0, m≠n)로 변환하도록 제어하는 멀티 스피커 운용 방법.
  20. 제 12항에 있어서,
    분배받은 사운드 정보에 기초하여 사운드를 출력하는 상기 복수의 사운드 출력 장치들을 더 포함하는 전자장치.
KR1020140028979A 2014-03-12 2014-03-12 위치정보를 활용한 멀티 스피커의 운용 방법 및 장치 KR102170398B1 (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020140028979A KR102170398B1 (ko) 2014-03-12 2014-03-12 위치정보를 활용한 멀티 스피커의 운용 방법 및 장치
US14/608,667 US9584948B2 (en) 2014-03-12 2015-01-29 Method and apparatus for operating multiple speakers using position information

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020140028979A KR102170398B1 (ko) 2014-03-12 2014-03-12 위치정보를 활용한 멀티 스피커의 운용 방법 및 장치

Publications (2)

Publication Number Publication Date
KR20150106649A true KR20150106649A (ko) 2015-09-22
KR102170398B1 KR102170398B1 (ko) 2020-10-27

Family

ID=54070489

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020140028979A KR102170398B1 (ko) 2014-03-12 2014-03-12 위치정보를 활용한 멀티 스피커의 운용 방법 및 장치

Country Status (2)

Country Link
US (1) US9584948B2 (ko)
KR (1) KR102170398B1 (ko)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9866965B2 (en) 2016-02-08 2018-01-09 Sony Corporation Auto-configurable speaker system
KR20210055702A (ko) * 2018-08-09 2021-05-17 프라운호퍼 게젤샤프트 쭈르 푀르데룽 데어 안겐반텐 포르슝 에. 베. 음향 장애를 고려하고 라우드 스피커 신호를 제공하는 오디오 프로세서 및 방법
WO2022039310A1 (ko) * 2020-08-21 2022-02-24 엘지전자 주식회사 복수의 오디오 기기를 이용하여 다채널 오디오를 출력하는 단말기 및 그 방법

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9686625B2 (en) * 2015-07-21 2017-06-20 Disney Enterprises, Inc. Systems and methods for delivery of personalized audio
US10154358B2 (en) * 2015-11-18 2018-12-11 Samsung Electronics Co., Ltd. Audio apparatus adaptable to user position
US10212516B1 (en) 2017-12-20 2019-02-19 Honeywell International Inc. Systems and methods for activating audio playback
US11032664B2 (en) 2018-05-29 2021-06-08 Staton Techiya, Llc Location based audio signal message processing
WO2020030768A1 (en) * 2018-08-09 2020-02-13 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. An audio processor and a method for providing loudspeaker signals
WO2020030769A1 (en) * 2018-08-09 2020-02-13 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. An audio processor and a method considering acoustic obstacles and providing loudspeaker signals
US10924077B2 (en) * 2018-08-29 2021-02-16 Omnivision Technologies, Inc. Low complexity loudness equalization
US10743105B1 (en) * 2019-05-31 2020-08-11 Microsoft Technology Licensing, Llc Sending audio to various channels using application location information
CN112261569B (zh) * 2020-09-29 2022-03-01 上海连尚网络科技有限公司 一种多声道播放的方法与设备
CN113709652B (zh) * 2021-08-31 2024-05-14 维沃移动通信有限公司 音频播放控制方法和电子设备

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100678929B1 (ko) * 2003-11-24 2007-02-07 삼성전자주식회사 다채널 디지털 사운드 재생방법 및 장치
KR20080042586A (ko) * 2006-11-10 2008-05-15 삼성전자주식회사 스피커와 청취자 위치를 반영한 능동적 오디오 매트릭스디코딩 방법 및 장치
JP2009500711A (ja) * 2005-06-30 2009-01-08 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ システム制御方法

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004236192A (ja) 2003-01-31 2004-08-19 Toshiba Corp 音響機器制御方法、情報機器及び音響機器制御システム
JP4765289B2 (ja) * 2003-12-10 2011-09-07 ソニー株式会社 音響システムにおけるスピーカ装置の配置関係検出方法、音響システム、サーバ装置およびスピーカ装置
JP4501559B2 (ja) 2004-07-07 2010-07-14 ヤマハ株式会社 スピーカ装置の指向性制御方法およびオーディオ再生装置
CN101138021B (zh) 2005-03-14 2012-01-04 韩国电子通信研究院 使用虚拟源位置信息的多声道音频压缩和解压缩方法
JP2008072206A (ja) * 2006-09-12 2008-03-27 Onkyo Corp マルチチャンネル音声増幅装置
US20080260131A1 (en) 2007-04-20 2008-10-23 Linus Akesson Electronic apparatus and system with conference call spatializer
EP2194527A3 (en) 2008-12-02 2013-09-25 Electronics and Telecommunications Research Institute Apparatus for generating and playing object based audio contents
WO2010093913A1 (en) 2009-02-12 2010-08-19 Brock Seiler Multi-channel audio vibratory entertainment system
US9015612B2 (en) 2010-11-09 2015-04-21 Sony Corporation Virtual room form maker
US8767970B2 (en) 2011-02-16 2014-07-01 Apple Inc. Audio panning with multi-channel surround sound decoding
RU2015137723A (ru) * 2013-02-05 2017-03-13 Конинклейке Филипс Н.В. Аудиоустройство и способ для него
WO2014151857A1 (en) * 2013-03-14 2014-09-25 Tiskerling Dynamics Llc Acoustic beacon for broadcasting the orientation of a device
US20140328505A1 (en) * 2013-05-02 2014-11-06 Microsoft Corporation Sound field adaptation based upon user tracking
US9456279B1 (en) * 2013-05-14 2016-09-27 Google Inc. Automatic control and grouping of media playback devices based on user detection
US9232335B2 (en) * 2014-03-06 2016-01-05 Sony Corporation Networked speaker system with follow me

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100678929B1 (ko) * 2003-11-24 2007-02-07 삼성전자주식회사 다채널 디지털 사운드 재생방법 및 장치
JP2009500711A (ja) * 2005-06-30 2009-01-08 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ システム制御方法
KR20080042586A (ko) * 2006-11-10 2008-05-15 삼성전자주식회사 스피커와 청취자 위치를 반영한 능동적 오디오 매트릭스디코딩 방법 및 장치

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9866965B2 (en) 2016-02-08 2018-01-09 Sony Corporation Auto-configurable speaker system
KR20210055702A (ko) * 2018-08-09 2021-05-17 프라운호퍼 게젤샤프트 쭈르 푀르데룽 데어 안겐반텐 포르슝 에. 베. 음향 장애를 고려하고 라우드 스피커 신호를 제공하는 오디오 프로세서 및 방법
KR20210056348A (ko) * 2018-08-09 2021-05-18 프라운호퍼 게젤샤프트 쭈르 푀르데룽 데어 안겐반텐 포르슝 에. 베. 라우드 스피커 신호를 제공하기 위한 오디오 프로세서 및 방법
US11671757B2 (en) 2018-08-09 2023-06-06 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Audio processor and a method considering acoustic obstacles and providing loudspeaker signals
WO2022039310A1 (ko) * 2020-08-21 2022-02-24 엘지전자 주식회사 복수의 오디오 기기를 이용하여 다채널 오디오를 출력하는 단말기 및 그 방법

Also Published As

Publication number Publication date
KR102170398B1 (ko) 2020-10-27
US9584948B2 (en) 2017-02-28
US20150264504A1 (en) 2015-09-17

Similar Documents

Publication Publication Date Title
KR102170398B1 (ko) 위치정보를 활용한 멀티 스피커의 운용 방법 및 장치
US11284214B2 (en) Failure recovery of wearable playback device
US10114530B2 (en) Signal detecting and emitting device
CN104115224A (zh) 控制音频回放设备的系统、方法、装置和制品
US11825262B2 (en) Dynamic earbud profile
JP2011515942A (ja) 対象指向性の3d音声ディスプレイ装置
TW201914314A (zh) 音訊處理裝置及其音訊處理方法
US20230008591A1 (en) Systems and methods of providing spatial audio associated with a simulated environment
US20220351737A1 (en) Using Non-Audio Data Embedded in an Audio Signal
JP2011229113A (ja) 音声処理装置
CN105392032A (zh) 控制多媒体播放的方法和装置
US20180288556A1 (en) Audio output device, and method for controlling audio output device
KR20220027994A (ko) 디스플레이 장치 및 그의 동작 방법
CN108650592B (zh) 一种实现颈带式环绕立体声的方法及立体声控制系统
JP6215459B2 (ja) モバイルデバイスのプレイリストを介した再生キューの制御
JP2017118478A (ja) 音声信号再入力型スマートデバイス用イヤホン
TWI699122B (zh) 多聲道音訊控制系統
TWI739429B (zh) 喇叭聲道音訊控制系統
JP2014128029A (ja) 通信装置及びその再生方法
US20240111484A1 (en) Techniques for Intelligent Home Theater Configuration
WO2022237282A1 (zh) 播放节目的方法、电子设备及存储介质
CN109672956A (zh) 音频处理装置及其音频处理方法
US11943823B2 (en) Techniques to reduce time to music for a playback device
US20240187777A1 (en) Dynamic Earbud Profile
US20240111483A1 (en) Dynamic Volume Control

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant