KR102519156B1 - System and methods for locating mobile devices using wireless headsets - Google Patents
System and methods for locating mobile devices using wireless headsets Download PDFInfo
- Publication number
- KR102519156B1 KR102519156B1 KR1020210023385A KR20210023385A KR102519156B1 KR 102519156 B1 KR102519156 B1 KR 102519156B1 KR 1020210023385 A KR1020210023385 A KR 1020210023385A KR 20210023385 A KR20210023385 A KR 20210023385A KR 102519156 B1 KR102519156 B1 KR 102519156B1
- Authority
- KR
- South Korea
- Prior art keywords
- electronic device
- sound
- location
- information
- data
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 45
- 210000005069 ears Anatomy 0.000 claims description 24
- 238000012546 transfer Methods 0.000 claims description 15
- 238000005516 engineering process Methods 0.000 claims description 9
- 230000008929 regeneration Effects 0.000 claims 4
- 238000011069 regeneration method Methods 0.000 claims 4
- 230000006870 function Effects 0.000 description 16
- 210000003128 head Anatomy 0.000 description 16
- 230000008569 process Effects 0.000 description 10
- 238000012545 processing Methods 0.000 description 10
- 238000007781 pre-processing Methods 0.000 description 6
- 230000004044 response Effects 0.000 description 5
- 230000005540 biological transmission Effects 0.000 description 3
- 238000010586 diagram Methods 0.000 description 2
- 210000000883 ear external Anatomy 0.000 description 2
- 210000003484 anatomy Anatomy 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 210000000038 chest Anatomy 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 210000001331 nose Anatomy 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 210000000056 organ Anatomy 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 210000002832 shoulder Anatomy 0.000 description 1
- 230000005236 sound signal Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S5/00—Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations
- G01S5/18—Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations using ultrasonic, sonic, or infrasonic waves
- G01S5/20—Position of source determined by a plurality of spaced direction-finders
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S11/00—Systems for determining distance or velocity not using reflection or reradiation
- G01S11/14—Systems for determining distance or velocity not using reflection or reradiation using ultrasonic, sonic, or infrasonic waves
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04B—TRANSMISSION
- H04B1/00—Details of transmission systems, not covered by a single one of groups H04B3/00 - H04B13/00; Details of transmission systems not characterised by the medium used for transmission
- H04B1/38—Transceivers, i.e. devices in which transmitter and receiver form a structural unit and in which at least one part is used for functions of transmitting and receiving
- H04B1/3827—Portable transceivers
- H04B1/385—Transceivers carried on the body, e.g. in helmets
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04B—TRANSMISSION
- H04B1/00—Details of transmission systems, not covered by a single one of groups H04B3/00 - H04B13/00; Details of transmission systems not characterised by the medium used for transmission
- H04B1/38—Transceivers, i.e. devices in which transmitter and receiver form a structural unit and in which at least one part is used for functions of transmitting and receiving
- H04B1/3827—Portable transceivers
- H04B1/385—Transceivers carried on the body, e.g. in helmets
- H04B2001/3866—Transceivers carried on the body, e.g. in helmets carried on the head
Abstract
무선 헤드셋을 사용해 휴대 기기 위치를 알려주는 방법 및 시스템이 개시된다. 위치 탐색 시스템에서 수행되는 위치 탐색 방법은, 위치 데이터를 탐색하고자 하는 다른 전자 기기로부터 발생되는 소리 데이터를 수신하는 단계; 상기 수신된 소리 데이터를 이용하여 전자 기기를 기준으로 상기 다른 전자 기기와의 상대적 위치 정보를 판별하는 단계; 및 상기 판별된 상대적 위치 정보에 기초하여 생성된 입체 음향정보를 상기 전자 기기에 재생시키는 단계를 포함할 수 있다. A method and system for locating a mobile device using a wireless headset are disclosed. A location search method performed in a location search system includes receiving sound data generated from another electronic device for which location data is to be searched; determining relative location information with respect to the other electronic device based on the electronic device using the received sound data; and reproducing stereophonic sound information generated based on the determined relative location information to the electronic device.
Description
아래의 설명은 무선 헤드셋을 사용하여 휴대 기기의 위치를 판별하는 기술에 관한 것이다. The description below relates to techniques for determining the location of a mobile device using a wireless headset.
무선 기술의 발전으로 사용자가 음악 청취 혹은 온라인 회의 등을 목적으로 무선 헤드셋을 사용하는 빈도가 급격하게 증가하였다. 사용자가 스마트폰, 태블릿 등을 포함한 2~3개의 전자 기기를 동시에 사용하는 경우가 빈번하다. 만일 해당 전자 기기의 위치를 알지 못할 때 무선 헤드셋에 해당 전자 기기의 위치를 판별 가능한 입체 음향 기술을 적용한 알람 소리를 재생하여 사용자가 쉽게 해당 기기를 찾을 수 있는 기술이 제안될 필요가 있다.With the development of wireless technology, the frequency of users using wireless headsets for the purpose of listening to music or online meetings has rapidly increased. Users frequently use two or three electronic devices including a smartphone, a tablet, and the like at the same time. If the location of the corresponding electronic device is not known, it is necessary to propose a technology that allows the user to easily find the corresponding electronic device by playing an alarm sound applied to a wireless headset using stereophonic technology capable of determining the location of the corresponding electronic device.
무선 헤드셋 없이도 전자 기기에서 직접 소리를 발생시키면 사용자가 위치를 바로 알아차릴 수 있다. 더 나아가, 휴대용 전자 기기에서 비가청 소리를 발생하여 사용자가 착용 중인 무선 헤드셋으로 위치를 판별할 수 있도록 하여 사용자의 프라이버시 및 주변 다른 사람에게 방해되지 않도록 하기 위한 기술이 요구된다. By generating sound directly from an electronic device without a wireless headset, the user can instantly recognize the location. Furthermore, there is a need for a technology for generating an inaudible sound in a portable electronic device so that a user can determine a location using a wireless headset worn by the user so as not to disturb the user's privacy and others around him.
무선 헤드셋을 착용한 사용자와 전자 기기(휴대 기기)와의 상대적인 위치 정보를 판별하고, 판별된 상대적인 위치 정보에 해당하는 입체 음향 기술을 적용해서 사용자가 3차원 공간 속에서 전자 기기의 위치를 쉽게 찾을 수 있도록 하는 방법 및 시스템을 제공할 수 있다.By discriminating relative location information between a user wearing a wireless headset and an electronic device (mobile device), and applying stereophonic technology corresponding to the determined relative location information, the user can easily locate the electronic device in a 3D space. It is possible to provide a method and system to enable it.
위치 탐색 시스템에서 수행되는 위치 탐색 방법은, 위치 데이터를 탐색하고자 하는 다른 전자 기기로부터 발생되는 소리 데이터를 수신하는 단계; 상기 수신된 소리 데이터를 이용하여 전자 기기를 기준으로 상기 다른 전자 기기와의 상대적 위치 정보를 판별하는 단계; 및 상기 판별된 상대적 위치 정보에 기초하여 생성된 입체 음향정보를 상기 전자 기기에 재생시키는 단계를 포함할 수 있다. A location search method performed in a location search system includes receiving sound data generated from another electronic device for which location data is to be searched; determining relative location information with respect to the other electronic device based on the electronic device using the received sound data; and reproducing stereophonic sound information generated based on the determined relative location information to the electronic device.
상기 수신하는 단계는, 상기 다른 전자 기기로부터 발생되는 가청 주파수 이상의 음역대의 음파 데이터를 수신하는 단계를 포함하고, 상기 상대적 위치 정보를 판별하는 단계는, 상기 수신된 음파 데이터를 분석하여 상기 다른 전자 기기와의 상대적 위치 정보를 판별하는 단계를 포함할 수 있다. The receiving may include receiving sound wave data of an audible frequency or higher range generated from the other electronic device, and the determining of the relative location information may include analyzing the received sound wave data to obtain the sound wave data from the other electronic device. It may include determining relative positional information of and.
상기 상대적 위치 정보를 판별하는 단계는, 3 차원 공간에서 상기 전자 기기를 착용한 사용자의 양쪽 귀에 도달되는 음파 데이터에 대한 음량의 차이(Interaural Level Difference; ILD)에 기초하여 상기 다른 전자 기기와의 상대적 위치 정보에 해당하는 음량의 차이값을 계산하는 단계를 포함할 수 있다. Determining the relative location information may include determining the relative positional information relative to other electronic devices based on a difference in volume of sound wave data reaching both ears of a user wearing the electronic device in a three-dimensional space (Interaural Level Difference; ILD). A step of calculating a difference value of volume corresponding to the location information may be included.
상기 상대적 위치 정보를 판별하는 단계는, 3 차원 공간에서 상기 전자 기기를 착용한 사용자의 양쪽 귀에 도달되는 음파 데이터에 대한 시간의 차이(Interaural Time Difference; ITD)에 기초하여 상기 다른 전자 기기와의 상대적 위치 정보에 해당하는 시간의 차이값을 계산하는 단계를 포함할 수 있다. The determining of the relative location information may include determining the relative location information of the electronic device relative to other electronic devices based on an interaural time difference (ITD) of sound wave data reaching both ears of a user wearing the electronic device in a three-dimensional space. A step of calculating a time difference value corresponding to the location information may be included.
상기 상대적 위치 정보를 판별하는 단계는, 3 차원 공간에서 다른 전자 기기로부터 발생되는 음파 데이터에 대하여 머리 전달 함수(Head-Related Transfer Function; HRTF)를 사용하여 상기 다른 전자 기기와의 상대적 위치 정보를 판별하는 단계를 포함할 수 있다. The determining of the relative location information may include determining relative location information with the other electronic device using a Head-Related Transfer Function (HRTF) with respect to sound wave data generated from the other electronic device in a 3D space. steps may be included.
상기 재생시키는 단계는, 전자 기기에 출력되는 재생음에 상기 판별된 상대적 위치 정보에 대응하는 3차원 입체 음향 기술을 적용하는 단계를 포함할 수 있다. The reproducing may include applying a 3D stereoscopic sound technology corresponding to the determined relative location information to the reproduced sound output to the electronic device.
상기 재생시키는 단계는, 미리 정해진 알람 소리에 상기 판별된 다른 전자 기기와의 상대적 위치 정보를 계산한 음량의 차이값을 적용하여 음체 음향정보를 생성하는 단계를 포함할 수 있다. The reproducing may include generating sound information by applying a volume difference value obtained by calculating relative positional information of the identified other electronic device to a predetermined alarm sound.
상기 재생시키는 단계는, 미리 정해진 알람 소리에 상기 판별된 다른 전자 기기와의 상대적 위치 정보를 계산한 시간의 차이값을 적용하여 음체 음향정보를 생성하는 단계를 포함할 수 있다. The reproducing may include generating sound information by applying a time difference value obtained by calculating relative position information with another electronic device determined above to a predetermined alarm sound.
상기 전자 기기는, 상기 다른 전자 기기로부터 발생되는 소리 데이터를 전달받는 것이 가능한 무선 이어폰 또는 무선 헤드셋을 포함하고, 상기 위치 데이터를 탐색하고자 하는 전자 기기는, 가청 주파수 이상의 음역대의 음파 데이터를 발생시키는 휴대 기기를 포함할 수 있다. The electronic device includes a wireless earphone or wireless headset capable of receiving sound data generated from the other electronic device, and the electronic device to search for the location data is a portable device that generates sound wave data in a sound range higher than an audible frequency. device may be included.
상기 재생시키는 단계는, 음성 안내(예: 10시 방향 3미터 지점)를 통해 전자 기기의 위치 정보를 제공하는 단계를 포함할 수 있다. The reproducing may include providing location information of the electronic device through voice guidance (eg, 3 meters in the 10 o'clock direction).
위치 탐색 시스템은, 위치 데이터를 탐색하고자 하는 다른 전자 기기로부터 발생되는 소리 데이터를 수신하는 소리 수신부; 상기 수신된 소리 데이터를 이용하여 전자 기기를 기준으로 상기 다른 전자 기기와의 상대적 위치 정보를 판별하는 위치 판별부; 및 상기 판별된 상대적 위치 정보에 기초하여 생성된 입체 음향정보를 상기 전자 기기에 재생시키는 음향 재생부를 포함할 수 있다. The location search system includes a sound receiver for receiving sound data generated from other electronic devices to search for location data; a location determination unit determining relative location information with respect to the other electronic device based on the electronic device using the received sound data; and a sound reproducing unit for reproducing stereophonic sound information generated based on the determined relative position information to the electronic device.
무선 헤드셋 사용자는 전자 기기의 위치를 청취 중인 음향을 그대로 재생하면서(음악 혹은 상대방의 목소리) 공간 정보를 담은 입체음향 정보를 사용해 손쉽게 위치 판별이 가능하다.Users of wireless headsets can easily determine the location of the electronic device by using stereoscopic sound information containing spatial information while reproducing the sound they are listening to (music or the voice of the other party) as it is.
무선 헤드셋과 전자 기기 사이에서는 가청주파수 대역 밖의 음향 신호를 사용하므로 주변인들에게는 아무런 방해가 되지 않고 원하는 목적을 수행할 수 있다는 장점이 있다.Since a sound signal outside the audible frequency band is used between the wireless headset and the electronic device, there is an advantage in that a desired purpose can be performed without disturbing neighbors.
도 1은 일 실시예에 있어서, 3차원 공간 안의 객체에서 발생한 소리 데이터가 청취자의 두 귀로 도달하는 경로를 설명하기 위한 예이다.
도 2는 일 실시예에 따른 위치 탐색 시스템의 구성을 설명하기 위한 블록도이다.
도 3은 일 실시예에 따른 위치 탐색 시스템에서 위치 탐색 방법을 설명하기 위한 흐름도이다.
도 4는 일 실시예에 있어서, 상대적 위치 정보를 판별하는 방법을 설명하기 위한 예이다.1 is an example for explaining a path in which sound data generated from an object in a 3D space reaches listener's two ears in one embodiment.
2 is a block diagram for explaining the configuration of a location search system according to an embodiment.
3 is a flowchart illustrating a location search method in a location search system according to an exemplary embodiment.
4 is an example for explaining a method of determining relative location information according to an embodiment.
이하, 실시예를 첨부한 도면을 참조하여 상세히 설명한다.Hereinafter, an embodiment will be described in detail with reference to the accompanying drawings.
도 1은 일 실시예에 있어서, 3차원 공간 안의 객체에서 발생한 소리 데이터가 청취자의 두 귀로 도달하는 경로를 설명하기 위한 예이다. 1 is an example for explaining a path in which sound data generated from an object in a 3D space reaches listener's two ears in one embodiment.
실시예에서는 사용자가 전자 기기(예: 블루투스 이어폰, 헤드폰 등의 무선 헤드셋)를 착용 시 주변의 다른 전자 기기(예: 스마트폰)의 위치를 청각적으로 알려주는 동작을 설명하기로 한다. 사용자가 전자 기기를 착용 시 다른 전자 기기의 위치를 판별할 필요가 있을 때, 사용자가 듣는 재생음에 알람 소리를 통해 다른 전자 기기의 위치를 판별할 수 있도록 3차원 음향 기술을 사용해 덧입혀 재생시킬 수 있다. In the embodiment, when a user wears an electronic device (eg, a wireless headset such as a Bluetooth earphone or a headphone), an operation of audibly notifying the location of other nearby electronic devices (eg, a smartphone) will be described. When a user needs to determine the location of another electronic device while wearing an electronic device, it can be reproduced by overlaying the sound the user hears with 3D sound technology so that the location of the other electronic device can be determined through an alarm sound. there is.
위치 탐색 시스템은 전자 기기 및 위치 데이터를 탐색하고자 하는 다른 전자 기기에서 동작될 수 있다. 예를 들면, 위치 탐색 시스템은 전자 기기 및 상기 다른 전자 기기에서 프로그램 또는 앱 형태로 구동될 수 있다. The location search system can be operated in electronic devices and other electronic devices that seek location data. For example, the location search system may be driven in the form of a program or app in an electronic device and other electronic devices.
전자 기기 및 상기 다른 전자 기기는 컴퓨터 시스템으로 구현되는 고정형 단말이거나 이동형 단말일 수 있다. 전자 기기 및 상기 다른 전자 기기의 예를 들면, 헤드셋, 이어폰, 스마트폰(smart phone), 휴대폰, 내비게이션, 컴퓨터, 노트북, 디지털방송용 단말, PDA(Personal Digital Assistants), PMP(Portable Multimedia Player), 태블릿 PC, 게임 콘솔(game console), 웨어러블 디바이스(wearable device), IoT(internet of things) 디바이스, VR(virtual reality) 디바이스, AR(augmented reality) 디바이스 등이 있다. 실시예들에서 전자 기기 및 상기 다른 전자 기기는 실질적으로 무선 또는 유선 통신 방식을 이용하여 네트워크를 통해 다른 전자 기기들 및/또는 서버와 통신할 수 있는 다양한 물리적인 컴퓨터 시스템들 중 하나를 의미할 수 있다. 실시예에서는 전자 기기는 무선 헤드셋, 다른 전자 기기는 휴대 기기(예를 들면, 스마트 폰)이라고 가정하기로 한다. The electronic device and the other electronic device may be a fixed terminal implemented as a computer system or a mobile terminal. Electronic devices and other electronic devices, for example, headsets, earphones, smart phones, mobile phones, navigation devices, computers, laptop computers, digital broadcasting terminals, personal digital assistants (PDAs), portable multimedia players (PMPs), and tablets There are PCs, game consoles, wearable devices, internet of things (IoT) devices, virtual reality (VR) devices, augmented reality (AR) devices, and the like. In embodiments, an electronic device and the other electronic device may refer to one of a variety of physical computer systems capable of communicating with other electronic devices and/or servers over a network using a substantially wireless or wired communication method. there is. In the embodiment, it is assumed that the electronic device is a wireless headset and the other electronic device is a portable device (eg, a smart phone).
상세하게는, 위치 탐색 시스템은 3차원 공간 안에서의 위치 데이터가 불분명한 다른 전자 기기의 위치 데이터를 사용자(사용자가 착용하고 있는 무선 헤드셋)에게 청각적으로 알려줄 수 있다. 다시 말해, 사용자가 다른 전자 기기의 위치를 탐색하고자 하는 경우, 다른 전자 기기의 위치 데이터를 판별 후, 전자 기기에서 발생하는 알람 소리의 전처리 과정을 거쳐 해당 위치에서 알람 소리가 들리도록 할 수 있다. 이는 기본적으로 두 귀에서 들리는 소리 데이터에 대한 시간의 차이(Interaural Time Difference; ITD) 및 음량의 차이(Interaural Level Difference; ILD), 그리고 포괄적으로는 3차원 공간의 물체의 사용자 대비 상대 위치를 판별하여 이에 해당하는 머리 전달 함수(Head-Related Transfer Function; HRTF)를 사용해 청각적으로 사용자가 전자 기기의 위치를 용이하게 찾을 수 있도록 하는 데에 있다 In detail, the location search system can audibly inform a user (a wireless headset worn by the user) of location data of other electronic devices whose location data is unclear in the 3D space. In other words, when the user wants to search for the location of another electronic device, after determining the location data of the other electronic device, the alarm sound generated by the electronic device can be pre-processed so that the alarm sound can be heard at the corresponding location. This basically determines the time difference (Interaural Time Difference; ITD) and the volume difference (Interaural Level Difference; ILD) for the sound data heard from both ears, and the relative position of objects in the 3D space relative to the user. The purpose of this is to enable the user to easily find the position of the electronic device aurally by using the corresponding Head-Related Transfer Function (HRTF).
도 1에서 제시된 것과 같이, 3차원 공간 안에 객체(예를 들면, 다른 전자 기기)가 존재하는 경우, 객체로부터 발생되는 소리 데이터는 양쪽 귀에 음량의 차이 및 소리의 시간 차이를 두고 도달하게 된다. 이는 사용자가 객체의 위치 데이터를 판별하는데 아주 중요한 정보가 된다. 이외에도 양쪽 귀에 도착하는 소리의 음향적인 특성이 객체의 상대적인 위치가 두부의 해부학적 구조에 따라 달라질 수 있는데, 이를 머리 전달 함수라고 한다. As shown in FIG. 1, when an object (eg, another electronic device) exists in a 3D space, sound data generated from the object arrives at both ears with a difference in volume and a time difference between the sounds. This becomes very important information for the user to determine the location data of the object. In addition, the relative position of the object in the acoustic characteristics of the sound arriving at both ears may vary depending on the anatomical structure of the head, which is called a head transfer function.
만일 전자 기기에서 발생하는 소리의 신호를 로 정의한다고 하면 해당하는 소리가 사용자의 양쪽 귀에 도달하는 경우의 신호는 다음과 같이 표현이 가능하다.If the signal of the sound generated by the electronic device If it is defined as , the signal when the corresponding sound reaches both ears of the user can be expressed as follows.
(1a) (1a)
(1b) (1b)
여기에서 은 3차원 공간 내에서 전자 기기의 위치로부터 각각 왼쪽, 오른쪽 귀에 해당하는 위치로 3차원 공간 내의 음파가 전달되는 Head-Related Impulse Response(HRIR), 는 컨볼루션, 과 은 양쪽 귀에 도달하는 배경 잡음을 의미한다. HRIR 은 공간 내의 위치 정보를 판별하게 하는 음향 정보이며 이것의 푸리에 변환을 한 것이 머리전달함수(HRTF) 이다. 사용자는 발생한 소리의 신호 가 3차원 공간을 통해서 전달 된 후 양쪽 귀에 도달하는 과 의 차이를 통해 해당 물체의 3차원 공간에서의 위치를 판단할 수 있다.From here is a Head-Related Impulse Response (HRIR) in which sound waves in a 3-dimensional space are transmitted from the position of the electronic device to the positions corresponding to the left and right ears, respectively, in the 3-dimensional space; is the convolution, class denotes the background noise reaching both ears. HRIR is acoustic information that determines positional information in space, and its Fourier transform is the Head Transfer Function (HRTF). The user receives the signal of the generated sound reaches both ears after being transmitted through the three-dimensional space class The position of the corresponding object in the 3D space can be determined through the difference in .
만일 배경 잡음이 없다고 가정하고 양쪽 귀에 도달하는 신호가 음량 감쇄 및 시간차로만 구성된다면 HRIR 은 각각 다음과 같이 표현 가능하다.Assuming there is no background noise If the signal reaching both ears consists only of volume attenuation and time difference, HRIR can be expressed as follows.
(2a) (2a)
(2b) (2b)
여기에서 은 각각 왼쪽 귀에 도달하는 음량 감쇄 및 도달 시간을 의미하며 은 각각 오른쪽 귀에 도달하는 음량 감쇄 및 도달 시간을 의미한다. 이 경우 각 HRIR 의 푸리에 변환을 하게 되면 다음과 같이 HRTF 를 구할 수 있다.From here denotes the volume attenuation and arrival time reaching the left ear, respectively. denotes the volume attenuation and arrival time reaching the right ear, respectively. In this case, if the Fourier transform of each HRIR is performed, the HRTF can be obtained as follows.
(3a) (3a)
(3b) (3b)
여기에서 는 푸리에변환의 주파수에 해당된다.From here corresponds to the frequency of the Fourier transform.
따라서 해당 기기의 위치는 소리 정보가 양쪽 귀에 도달하는 시간의 차이(ITD), 즉 및 음량의 차이(ILD) (데시벨 기준으로는 (dB)) 를 통해서 사용자가 판별 가능하다. 주어진 두 개의 신호를 기반으로 ITD 및 ILD 를 판별하는 기술은 다수 존재한다.Therefore, the position of the device is determined by the difference in time it takes for sound information to reach both ears (ITD), i.e. and difference in loudness (ILD) (in terms of decibels) (dB)) can be determined by the user. There are many techniques for determining ITD and ILD based on two given signals.
이와 같이 머리 전달 함수는 동일한 소리 데이터를 전방위에서 발생시켜 방향에 따른 주파수 반응을 측정하여 3차원 함수로 정의한 것을 의미한다. 소리가 음원으로부터 발생하여 청자의 귀로 전달될 때, 소리는 다양한 경로를 거치게 된다. 예를 들면, 실내에서 발생한 음원을 청취한다고 가정하였을 때, 음원에서 청자의 귀까지 최단거리로 전달되는 직접음이 있다. 또한, 1차적으로 바닥, 벽체 또는 천장에서 반사되어 들어오는 초기 반사음이 있고, 다차적으로 반사, 흡음, 회절 혹은 확산되어 들어오는 후기 반사음이 있다. 이에 대한 전달경로는 예를 들면, 실내음향 측정방법에 따라 충격음 또는 특정 레코딩을 통해 획득될 수 있다. 그런데, 마이크의 경우 수음점으로 가정되어 실내 객체에 의한 전달경로만 정의되면 되지만, 실제 청취자의 경우 신체가 있고 외이가 존재하여 그에 대한 영향 또는 전달경로도 고려되어야 한다. 이것이 바로 머리 전달 함수이다. 머리 전달 함수는 가슴팍, 어깨, 외이, 머리, 코 등의 신체의 형상에 대한 영향이 포함되어 있기 때문에 사람에 따라 다를 수 있다. 실시예에서는 수 많은 사람들의 머리전달함수의 결과값을 얻어 데이터화 한 표준 머리 전달 함수가 사용될 수 있다. In this way, the head transfer function means that the same sound data is generated in all directions and the frequency response according to the direction is measured and defined as a three-dimensional function. When sound is generated from a sound source and transmitted to a listener's ear, the sound passes through various paths. For example, assuming that a sound source generated indoors is heard, there is a direct sound transmitted from the sound source to the listener's ear in the shortest distance. In addition, there is an early reflected sound that is primarily reflected from a floor, a wall or a ceiling, and a later reflected sound that is reflected, absorbed, diffracted, or diffused. A transmission path for this may be obtained, for example, through an impact sound or a specific recording according to a method for measuring room acoustics. However, in the case of a microphone, it is assumed to be a sound pickup point and only the transmission path by an indoor object needs to be defined, but in the case of a real listener, since there is a body and an external ear, the influence or transmission path thereof must also be considered. This is the head transfer function. The head transfer function may vary from person to person because it includes effects on the shape of the body, such as the chest, shoulders, outer ear, head, and nose. In the embodiment, a standard head transfer function obtained by obtaining and converting result values of head transfer functions of numerous people into data may be used.
도 1에 도시된 바와 같이, 3차원 공간 안의 객체로부터 발생된 소리 데이터가 청취자의 두 귀에 도달되는 경로를 나타낸 예이다. 실시예에서는 객체의 위치 데이터를 판별하기 위한 소리 데이터에 대한 시간의 차이, 음량의 차이, 머리 전달 함수 등을 활용하여 사용자에게 위치 불명의 다른 전자 기기의 위치 데이터를 입체 음향 기법을 통해 제공할 수 있다. As shown in FIG. 1, this is an example of a path through which sound data generated from an object in a 3D space reaches the listener's ears. In the embodiment, it is possible to provide the location data of another electronic device whose location is unknown to the user through a stereophonic sound technique by utilizing a difference in time, a difference in volume, a head transfer function, and the like for sound data to determine the location data of the object. there is.
만일 휴대기기의 위치 판별을 위해 재생하고자 하는 비프음의 신호를 로 정의하고 HRTF 는 ITD 와 ILD 로 구성된다면 무선헤드셋의 왼쪽, 오른쪽 에서 각기 재생하게 될 신호 과 는 다음과 같다.If the signal of the beep sound to be reproduced to determine the location of the mobile device , and HRTF is ITD and ILD If it consists of , the signals to be reproduced on the left and right sides of the wireless headset respectively class is as follows
(4a) (4a)
(4b) (4b)
만일 HRTF 가 ITD, ILD 외의 다른 정보들을 포함한다면 이에 해당하는 HRTF 의 푸리에 역변환에 해당하는HRIR 를 로 표현한다면 무선헤드셋에서 재생하게 될 신호 과 는 다음과 같다.If the HRTF includes information other than ITD and ILD, HRIR corresponding to the inverse Fourier transform of the corresponding HRTF is If expressed as , the signal that will be reproduced by the wireless headset class is as follows
(5a) (5a)
(5b) (5b)
도 2는 일 실시예에 따른 위치 탐색 시스템의 구성을 설명하기 위한 블록도이고, 도 3은 일 실시예에 따른 위치 탐색 시스템에서 위치 탐색 방법을 설명하기 위한 흐름도이다.Figure 2 is a block diagram for explaining the configuration of a location search system according to an embodiment, Figure 3 is a flow chart for explaining a location search method in the location search system according to an embodiment.
위치 탐색 시스템(100)의 프로세서는 소리 수신부(210), 위치 판별부(220) 및 음향 재생부(230)를 포함할 수 있다. 이러한 프로세서의 구성요소들은 위치 탐색 시스템에 저장된 프로그램 코드가 제공하는 제어 명령에 따라 프로세서에 의해 수행되는 서로 다른 기능들(different functions)의 표현들일 수 있다. 프로세서 및 프로세서의 구성요소들은 도 3의 위치 탐색 방법이 포함하는 단계들(310 내지 330)을 수행하도록 위치 탐색 시스템을 제어할 수 있다. 이때, 프로세서 및 프로세서의 구성요소들은 메모리가 포함하는 운영체제의 코드와 적어도 하나의 프로그램의 코드에 따른 명령(instruction)을 실행하도록 구현될 수 있다.The processor of the
프로세서는 위치 탐색 방법을 위한 프로그램의 파일에 저장된 프로그램 코드를 메모리에 로딩할 수 있다. 예를 들면, 위치 탐색 시스템에서 프로그램이 실행되면, 프로세서는 운영체제의 제어에 따라 프로그램의 파일로부터 프로그램 코드를 메모리에 로딩하도록 위치 탐색 시스템을 제어할 수 있다. 이때, 소리 수신부(210), 위치 판별부(220) 및 음향 재생부(230) 각각은 메모리에 로딩된 프로그램 코드 중 대응하는 부분의 명령을 실행하여 이후 단계들(310 내지 330)을 실행하기 위한 프로세서의 서로 다른 기능적 표현들일 수 있다.The processor may load a program code stored in a file of a program for a location search method into a memory. For example, when a program is executed in the location search system, the processor may control the location search system to load a program code from a file of the program into a memory under the control of an operating system. At this time, each of the
단계(310)에서 소리 수신부(210)는 위치 데이터를 탐색하고자 하는 다른 전자 기기로부터 발생되는 소리 데이터를 수신할 수 있다. 소리 수신부(210)는 다른 전자 기기로부터 발생되는 가청 주파수 이상의 음역대의 음파 데이터를 수신할 수 있다. 소리 수신부(210)는 수신된 음파 데이터를 저장할 수 있다. In
단계(320)에서 위치 판별부(220)는 전자 기기를 기준으로 위치 데이터를 탐색하고자 하는 다른 전자 기기와의 상대적 위치 정보를 판별할 수 있다. 위치 판별부(220)는 수신된 음파 데이터를 분석하여 다른 전자 기기와의 상대적 위치 정보를 판별할 수 있다. 예를 들면 위치 판별부(220)는 수신된 음파 데이터를 기 설정된 값과 비교하여 다른 전자 기기와의 상대적 위치 정보를 판별할 수 있다. In
도 4를 참고하면, 상대적 위치 정보를 판별하는 방법을 설명하기 위한 흐름도이다. 400에서 다른 전자 기기로부터 발생되는 가청 주파수 이상의 음역대의 음파 데이터가 수신될 수 있다. 이때, 전자 기기에서 다른 전자 기기로 위치 탐색을 위한 요청 정보가 전달될 수 있다. 이에, 다른 전자 기기로부터 전자 기기에 대한 요청 정보에 응답하여 음파 데이터가 발생될 수 있다. 일례로, 위치 판별부(220)는 다른 전자 기기와의 상대적 위치 정보를 판별하기 위한 어느 하나의 방식을 선택할 수 있다. 예를 들면, 사용자로부터 선택된 상대적 위치 정보를 판별하기 위한 방식을 수신할 수 있고, 수신된 방식을 이용하여 상대적 위치 정보를 계산할 수 있다. 또는, 컴퓨터/프로그램에 의하여 랜덤으로 상대적 위치 정보를 판별하기 위한 방식이 선택될 수 있다. Referring to FIG. 4, it is a flowchart for explaining a method of determining relative location information. In 400, sound wave data of a sound range higher than the audible frequency generated from other electronic devices may be received. At this time, request information for location search may be transmitted from the electronic device to another electronic device. Accordingly, sound wave data may be generated in response to request information about the electronic device from another electronic device. For example, the
410에서 위치 판별부(220)는 3 차원 공간에서 전자 기기를 착용한 사용자의 양쪽 귀에 도달되는 음파 데이터에 대한 음량의 차이(Interaural Level Difference; ILD)를 계산할 수 있다. 예를 들면, 음량의 차이란 두 귀의 음압의 세기(강도) 차이를 의미한다. 음원의 위치에 따른 두 귀까지의 경로 차이와, 경로 차이에 의한 감소량의 차이로 발생한다. 위치 판별부(220) 전자 기기를 착용한 사용자의 양쪽 귀에 도달되는 음파 데이터에 대한 음량의 차이에 기초하여 다른 전자 기기와의 상대적 위치 정보에 해당하는 음량의 차이값을 계산할 수 있다. In
420에서 위치 판별부(220)는 3 차원 공간에서 상기 전자 기기를 착용한 사용자의 양쪽 귀에 도달되는 음파 데이터에 대한 시간의 차이(Interaural Time Difference; ITD)를 계산할 수 있다. 시간의 차이란 두 귀 사이의 음의 시간차를 의미한다. 위치 판별부(220)는 전자 기기를 착용한 사용자의 양쪽 귀에 도달되는 음파 데이터에 대한 시간의 차이에 기초하여 다른 전자 기기와의 상대적 위치 정보에 해당하는 시간의 차이값을 계산할 수 있다. In
430에서 위치 판별부(220)는 3 차원 공간에서 다른 전자 기기로부터 발생되는 음파 데이터에 대하여 머리 전달 함수(Head-Related Transfer Function; HRTF)를 사용하여 다른 전자 기기와의 상대적 위치 정보를 판별할 수 있다. 머리 전달 함수는 머리와 귀의 모양에 따라 귀에서 수신되는 음향 신호의 특성을 의미한다. 인간의 청각기관을 모델링한 더미헤드 마이크를 이용하여 360도의 방위각과 180도의 고도각 사이를 일정하게 간격을 두고 각각의 위치에 대한 좌우 양쪽의 임펄스 응답을 구한 값이 도출될 수 있다. 머리 전달 함수는 음량의 차이, 시간의 차이의 단순한 경로 차이보다 머리 표면에서 회절, 귓바퀴의 굴곡들에 대한 반사 등 복잡한 경로 상의 특성이 음의 도래 방향에 따라 변하는 현상을 바탕으로 입체 음향을 지각할 수 있다. 각 방향의 머리 전달 함수가 유일한 특성을 가졌을 때, 이를 이용하면 입체 음향을 생성할 수 있게 된다. In 430, the
단계(330)에서 음향 재생부(230)는 판별된 상대적 위치 정보에 기초하여 생성된 입체 음향정보를 전자 기기에 재생시킬 수 있다. 음향 재생부(230)는 전자 기기에 출력되는 재생음에 판별된 상대적 위치 정보에 대응하는 3차원 입체 음향 기술을 적용할 수 있다. 음향 재생부(230)는 미리 정해진 알람 소리에 판별된 다른 전자 기기와의 상대적 위치 정보를 계산한 음량의 차이값을 적용하여 입체 음향정보를 생성할 수 있다. 미리 정해진 알람 소리가 비프음이라고 가정하여 설명하기로 한다. 비프음(beep sound)이란, "삐" 라는 음으로 일반적으로 음높이가 높은 짧은 신호 톤으로서, 컴퓨터나 다른 기계에 의해 만들어 진다. 또한, 미리 정해진 알람 소리는 각 전자 기기에 따라 다르게 설정되어 있을 수 있다. 일례로, 음향 재생부(230)는 비프음에 대하여 음량의 차이값을 적용하여 입체 음향정보를 생성할 수 있다. 예를 들면, 음량의 차이값이 클수록 전자 기기와 다른 전자 기기간 거리가 먼 것을 의미할 수 있고, 음량의 차이가 작을수록 전자 기기와 다른 전자 기기간 거리가 가까운 것을 의미할 수 있다. 이때, 비프음에 음량의 차이값을 적용하기 위한 전처리 과정이 수행될 수 있다. 전처리 과정으로는 노이즈 제거, 음량의 차이값을 비프음에 적용하기 위한 포맷이 변경되는 과정 등이 포함될 수 있다. 전처리 과정이 수행됨에 따라 비프음에 음량의 차이값을 적용하여 입체 음향정보가 생성될 수 있다. 이때, 음량의 차이값에 따라 입체 음향정보의 속성 정보(크기, 빈도수, 빠르기)가 조절될 수 있다. In
음향 재생부(230)는 미리 정해진 알람 소리에 판별된 다른 전자 기기와의 상대적 위치 정보를 계산한 시간의 차이값을 적용하여 음체 음향정보를 생성할 수 있다. 일례로, 음향 재생부(230)는 비프음에 대하여 시간의 차이값을 적용하여 입체 음향정보를 생성할 수 있다. 예를 들면, 시간의 차이값이 클수록 전자 기기와 다른 전자 기기간 거리가 먼 것을 의미할 수 있고, 시간의 차이값이 작을수록 전자 기기와 다른 전자 기기간 거리가 가까운 것을 의미할 수 있다. 이때, 비프음에 시간의 차이값을 적용하기 위한 전처리 과정이 수행될 수 있다. 전처리 과정으로는 노이즈 제거, 시간의 차이값을 비프음에 적용하기 위한 포맷이 변경되는 과정 등이 포함될 수 있다. 전처리 과정이 수행됨에 따라 비프음에 시간의 차이값을 입체 음향정보가 생성될 수 있다. 이때, 시간의 차이값에 따라 입체 음향정보의 속성 정보(크기, 빈도수, 빠르기)가 조절될 수 있다. The
또한, 음향 재생부(230)는 음성 안내를 통해 전자 기기의 위치 정보를 제공할 수 있다. 예를 들면, 10시 방향 3미터 지점에 전자 기기의 위치 정보가 있음을 음성으로 안내할 수 있다. Also, the
실시예에 따르면, 전자 기기를 착용한 사용자는 청취 중인 음향(예를 들면, 통화, 음악)을 그대로 재생하면서 공간 정보(예를 들면, 왼쪽, 오른쪽, 위쪽, 아래쪽 등)를 담은 입체 음향정보를 사용하여 다른 전자 기기의 위치 데이터를 판별할 수 있다. 또한, 다른 전자 기기로부터 발생되는 음파 데이터를 주기적 또는 비주기적으로 수신하여 다른 전자 기기의 위치 데이터가 추적될 수 있고, 추적된 위치 데이터에 따라 다른 전자 기기를 찾을 수 있다. According to the embodiment, a user wearing an electronic device reproduces stereophonic sound information containing spatial information (eg, left, right, top, bottom, etc.) while reproducing sound (eg, call, music) being heard as it is It can be used to determine the location data of other electronic devices. In addition, the location data of other electronic devices may be tracked by periodically or non-periodically receiving sound wave data generated from other electronic devices, and other electronic devices may be found according to the tracked location data.
또한, 미리 정해진 알람 소리가 각 전자 기기에 따라 다르게 설정되어 있을 경우, 전자 기기를 착용한 사용자가 청취 중인 음향을 그대로 재생하면서 복수 개의 다른 전자 기기와 관련된 복수의 입체 음향정보가 재생음으로 출력될 수 있다. 이에, 동시에 복수 개의 다른 전자 기기를 인지할 수 있다.In addition, when a predetermined alarm sound is set differently for each electronic device, a plurality of stereoscopic sound information related to a plurality of other electronic devices may be output as playback sound while reproducing the sound that the user wearing the electronic device is listening to. there is. Accordingly, it is possible to recognize a plurality of different electronic devices at the same time.
이상에서 설명된 장치는 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치 및 구성요소는, 예를 들어, 프로세서, 콘트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPGA(field programmable gate array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 애플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 콘트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.The devices described above may be implemented as hardware components, software components, and/or a combination of hardware components and software components. For example, devices and components described in the embodiments may include, for example, a processor, a controller, an arithmetic logic unit (ALU), a digital signal processor, a microcomputer, a field programmable gate array (FPGA) , a programmable logic unit (PLU), microprocessor, or any other device capable of executing and responding to instructions. A processing device may run an operating system (OS) and one or more software applications running on the operating system. A processing device may also access, store, manipulate, process, and generate data in response to execution of software. For convenience of understanding, there are cases in which one processing device is used, but those skilled in the art will understand that the processing device includes a plurality of processing elements and/or a plurality of types of processing elements. It can be seen that it can include. For example, a processing device may include a plurality of processors or a processor and a controller. Other processing configurations are also possible, such as parallel processors.
소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치에 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.Software may include a computer program, code, instructions, or a combination of one or more of the foregoing, which configures a processing device to operate as desired or processes independently or collectively. You can command the device. Software and/or data may be any tangible machine, component, physical device, virtual equipment, computer storage medium or device, intended to be interpreted by or provide instructions or data to a processing device. can be embodied in Software may be distributed on networked computer systems and stored or executed in a distributed manner. Software and data may be stored on one or more computer readable media.
실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. The method according to the embodiment may be implemented in the form of program instructions that can be executed through various computer means and recorded on a computer readable medium. The computer readable medium may include program instructions, data files, data structures, etc. alone or in combination. Program commands recorded on the medium may be specially designed and configured for the embodiment or may be known and usable to those skilled in computer software. Examples of computer-readable recording media include magnetic media such as hard disks, floppy disks and magnetic tapes, optical media such as CD-ROMs and DVDs, and magnetic media such as floptical disks. - includes hardware devices specially configured to store and execute program instructions, such as magneto-optical media, and ROM, RAM, flash memory, and the like. Examples of program instructions include high-level language codes that can be executed by a computer using an interpreter, as well as machine language codes such as those produced by a compiler.
이상과 같이 실시예들이 비록 한정된 실시예와 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기의 기재로부터 다양한 수정 및 변형이 가능하다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.As described above, although the embodiments have been described with limited examples and drawings, those skilled in the art can make various modifications and variations from the above description. For example, the described techniques may be performed in an order different from the method described, and/or components of the described system, structure, device, circuit, etc. may be combined or combined in a different form than the method described, or other components may be used. Or even if it is replaced or substituted by equivalents, appropriate results can be achieved.
그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 특허청구범위의 범위에 속한다.Therefore, other implementations, other embodiments, and equivalents of the claims are within the scope of the following claims.
Claims (11)
위치 데이터를 탐색하고자 하는 다른 전자 기기로부터 발생되는 소리 데이터를 수신하는 단계;
상기 수신된 소리 데이터를 이용하여 전자 기기를 기준으로 상기 다른 전자 기기와의 상대적 위치 정보를 판별하는 단계; 및
상기 판별된 상대적 위치 정보에 기초하여 생성된 입체 음향정보를 상기 전자 기기에 재생시키는 단계
를 포함하는 위치 탐색 방법.In the location search method performed in the location search system,
receiving sound data generated from another electronic device to search for location data;
determining relative location information with respect to the other electronic device based on the electronic device using the received sound data; and
Reproducing stereophonic sound information generated based on the determined relative positional information on the electronic device
Location search method comprising a.
상기 수신하는 단계는,
상기 다른 전자 기기로부터 발생되는 가청 주파수 이상의 음역대의 음파 데이터를 수신하는 단계
를 포함하고,
상기 상대적 위치 정보를 판별하는 단계는,
상기 수신된 음파 데이터를 분석하여 상기 다른 전자 기기와의 상대적 위치 정보를 판별하는 단계
를 포함하는 위치 탐색 방법.According to claim 1,
In the receiving step,
Receiving sound wave data of a sound range higher than the audible frequency generated from the other electronic device
including,
Determining the relative location information,
Analyzing the received sound wave data to determine relative positional information with the other electronic device
Location search method comprising a.
상기 상대적 위치 정보를 판별하는 단계는,
3 차원 공간에서 상기 전자 기기를 착용한 사용자의 양쪽 귀에 도달되는 음파 데이터에 대한 음량의 차이(Interaural Level Difference; ILD)에 기초하여 상기 다른 전자 기기와의 상대적 위치 정보에 해당하는 음량의 차이값을 계산하는 단계
를 포함하는 위치 탐색 방법.According to claim 2,
Determining the relative location information,
Based on the difference in volume (Interaural Level Difference; ILD) of sound wave data reaching both ears of the user wearing the electronic device in a three-dimensional space, a volume difference value corresponding to relative positional information with the other electronic device steps to calculate
Location search method comprising a.
상기 상대적 위치 정보를 판별하는 단계는,
3 차원 공간에서 상기 전자 기기를 착용한 사용자의 양쪽 귀에 도달되는 음파 데이터에 대한 시간의 차이(Interaural Time Difference; ITD)에 기초하여 상기 다른 전자 기기와의 상대적 위치 정보에 해당하는 시간의 차이값을 계산하는 단계
를 포함하는 위치 탐색 방법.According to claim 2,
Determining the relative location information,
Based on the interaural time difference (ITD) of sound wave data reaching both ears of the user wearing the electronic device in a three-dimensional space, a time difference value corresponding to relative positional information with the other electronic device steps to calculate
Location search method comprising a.
상기 상대적 위치 정보를 판별하는 단계는,
3 차원 공간에서 다른 전자 기기로부터 발생되는 음파 데이터에 대하여 머리 전달 함수(Head-Related Transfer Function; HRTF)를 사용하여 상기 다른 전자 기기와의 상대적 위치 정보를 판별하는 단계
를 포함하는 위치 탐색 방법.According to claim 2,
Determining the relative location information,
Determining relative position information with other electronic devices using a Head-Related Transfer Function (HRTF) for sound wave data generated from other electronic devices in a three-dimensional space.
Location search method comprising a.
상기 재생시키는 단계는,
전자 기기에 출력되는 재생음에 상기 판별된 상대적 위치 정보에 대응하는 3차원 입체 음향 기술을 적용하는 단계
를 포함하는 위치 탐색 방법.According to claim 1,
In the regeneration step,
Applying a 3D stereoscopic sound technology corresponding to the determined relative location information to the playback sound output to the electronic device.
Location search method comprising a.
상기 재생시키는 단계는,
미리 정해진 알람 소리에 상기 판별된 다른 전자 기기와의 상대적 위치 정보를 계산한 음량의 차이값을 적용하여 음체 음향정보를 생성하는 단계
를 포함하는 위치 탐색 방법.According to claim 6,
In the regeneration step,
Generating sound information by applying a difference in volume obtained by calculating relative positional information of the determined other electronic device to a predetermined alarm sound
Location search method comprising a.
상기 재생시키는 단계는,
미리 정해진 알람 소리에 상기 판별된 다른 전자 기기와의 상대적 위치 정보를 계산한 시간의 차이값을 적용하여 음체 음향정보를 생성하는 단계
를 포함하는 위치 탐색 방법.According to claim 6,
In the regeneration step,
Generating sound information by applying a time difference value obtained by calculating relative positional information with other determined electronic devices to a predetermined alarm sound
Location search method comprising a.
상기 전자 기기는, 상기 다른 전자 기기로부터 발생되는 소리 데이터를 전달받는 것이 가능한 무선 이어폰 또는 무선 헤드셋을 포함하고,
상기 위치 데이터를 탐색하고자 하는 전자 기기는, 가청 주파수 이상의 음역대의 음파를 발생시키는 휴대 기기를 포함하는
것을 특징으로 하는 위치 탐색 방법.According to claim 1,
The electronic device includes a wireless earphone or wireless headset capable of receiving sound data generated from the other electronic device,
The electronic device to search for the location data includes a portable device that generates sound waves of an audible frequency or higher.
Location search method characterized in that.
상기 재생시키는 단계는,
음성 안내를 통해 전자 기기의 위치 정보를 제공하는 단계
를 포함하는 위치 탐색 방법. According to claim 1,
The regeneration step is
Providing location information of an electronic device through voice guidance
Location search method comprising a.
위치 데이터를 탐색하고자 하는 다른 전자 기기로부터 발생되는 소리 데이터를 수신하는 소리 수신부;
상기 수신된 소리 데이터를 이용하여 전자 기기를 기준으로 상기 다른 전자 기기와의 상대적 위치 정보를 판별하는 위치 판별부; 및
상기 판별된 상대적 위치 정보에 기초하여 생성된 입체 음향정보를 상기 전자 기기에 재생시키는 음향 재생부
를 포함하는 위치 탐색 시스템.
In the positioning system,
a sound receiver for receiving sound data generated from other electronic devices to search for location data;
a location determination unit determining relative location information with respect to the other electronic device based on the electronic device using the received sound data; and
A sound reproducing unit for reproducing 3D sound information generated based on the determined relative position information to the electronic device.
Positioning system including a.
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020200179013 | 2020-12-18 | ||
KR20200179013 | 2020-12-18 |
Publications (3)
Publication Number | Publication Date |
---|---|
KR20220088259A KR20220088259A (en) | 2022-06-27 |
KR102519156B1 true KR102519156B1 (en) | 2023-04-10 |
KR102519156B9 KR102519156B9 (en) | 2024-01-11 |
Family
ID=82246746
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020210023385A KR102519156B1 (en) | 2020-12-18 | 2021-02-22 | System and methods for locating mobile devices using wireless headsets |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102519156B1 (en) |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101835675B1 (en) | 2016-10-05 | 2018-03-07 | 연세대학교 산학협력단 | Apparatus for providing3d sound in augmmented reality environmentand method thereof |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20120080751A (en) * | 2011-01-10 | 2012-07-18 | 주식회사 백송테크 | The mobilephone loss prevent system and method using duplicate same protocol with headset profile in bluetooth system |
-
2021
- 2021-02-22 KR KR1020210023385A patent/KR102519156B1/en active IP Right Grant
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101835675B1 (en) | 2016-10-05 | 2018-03-07 | 연세대학교 산학협력단 | Apparatus for providing3d sound in augmmented reality environmentand method thereof |
Also Published As
Publication number | Publication date |
---|---|
KR20220088259A (en) | 2022-06-27 |
KR102519156B9 (en) | 2024-01-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109644314B (en) | Method of rendering sound program, audio playback system, and article of manufacture | |
US9560467B2 (en) | 3D immersive spatial audio systems and methods | |
US10142761B2 (en) | Structural modeling of the head related impulse response | |
US8620009B2 (en) | Virtual sound source positioning | |
CN106576203B (en) | Determining and using room-optimized transfer functions | |
US10341799B2 (en) | Impedance matching filters and equalization for headphone surround rendering | |
US10542368B2 (en) | Audio content modification for playback audio | |
US11337020B2 (en) | Controlling rendering of a spatial audio scene | |
US11356795B2 (en) | Spatialized audio relative to a peripheral device | |
US10652686B2 (en) | Method of improving localization of surround sound | |
KR20190109019A (en) | Method and apparatus for reproducing audio signal according to movenemt of user in virtual space | |
US11417347B2 (en) | Binaural room impulse response for spatial audio reproduction | |
CN109327794B (en) | 3D sound effect processing method and related product | |
US11302339B2 (en) | Spatial sound reproduction using multichannel loudspeaker systems | |
KR102519156B1 (en) | System and methods for locating mobile devices using wireless headsets | |
US10735885B1 (en) | Managing image audio sources in a virtual acoustic environment | |
EP4030783A1 (en) | Indication of responsibility for audio playback | |
Gutiérrez A et al. | Audition | |
CN115706895A (en) | Immersive sound reproduction using multiple transducers | |
CN117793609A (en) | Sound field rendering method and device | |
CN116193196A (en) | Virtual surround sound rendering method, device, equipment and storage medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant | ||
G170 | Re-publication after modification of scope of protection [patent] |