KR102519156B1 - System and methods for locating mobile devices using wireless headsets - Google Patents

System and methods for locating mobile devices using wireless headsets Download PDF

Info

Publication number
KR102519156B1
KR102519156B1 KR1020210023385A KR20210023385A KR102519156B1 KR 102519156 B1 KR102519156 B1 KR 102519156B1 KR 1020210023385 A KR1020210023385 A KR 1020210023385A KR 20210023385 A KR20210023385 A KR 20210023385A KR 102519156 B1 KR102519156 B1 KR 102519156B1
Authority
KR
South Korea
Prior art keywords
electronic device
sound
location
information
data
Prior art date
Application number
KR1020210023385A
Other languages
Korean (ko)
Other versions
KR20220088259A (en
KR102519156B9 (en
Inventor
이보원
Original Assignee
인하대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 인하대학교 산학협력단 filed Critical 인하대학교 산학협력단
Publication of KR20220088259A publication Critical patent/KR20220088259A/en
Application granted granted Critical
Publication of KR102519156B1 publication Critical patent/KR102519156B1/en
Publication of KR102519156B9 publication Critical patent/KR102519156B9/en

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S5/00Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations
    • G01S5/18Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations using ultrasonic, sonic, or infrasonic waves
    • G01S5/20Position of source determined by a plurality of spaced direction-finders
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S11/00Systems for determining distance or velocity not using reflection or reradiation
    • G01S11/14Systems for determining distance or velocity not using reflection or reradiation using ultrasonic, sonic, or infrasonic waves
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04BTRANSMISSION
    • H04B1/00Details of transmission systems, not covered by a single one of groups H04B3/00 - H04B13/00; Details of transmission systems not characterised by the medium used for transmission
    • H04B1/38Transceivers, i.e. devices in which transmitter and receiver form a structural unit and in which at least one part is used for functions of transmitting and receiving
    • H04B1/3827Portable transceivers
    • H04B1/385Transceivers carried on the body, e.g. in helmets
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04BTRANSMISSION
    • H04B1/00Details of transmission systems, not covered by a single one of groups H04B3/00 - H04B13/00; Details of transmission systems not characterised by the medium used for transmission
    • H04B1/38Transceivers, i.e. devices in which transmitter and receiver form a structural unit and in which at least one part is used for functions of transmitting and receiving
    • H04B1/3827Portable transceivers
    • H04B1/385Transceivers carried on the body, e.g. in helmets
    • H04B2001/3866Transceivers carried on the body, e.g. in helmets carried on the head

Abstract

무선 헤드셋을 사용해 휴대 기기 위치를 알려주는 방법 및 시스템이 개시된다. 위치 탐색 시스템에서 수행되는 위치 탐색 방법은, 위치 데이터를 탐색하고자 하는 다른 전자 기기로부터 발생되는 소리 데이터를 수신하는 단계; 상기 수신된 소리 데이터를 이용하여 전자 기기를 기준으로 상기 다른 전자 기기와의 상대적 위치 정보를 판별하는 단계; 및 상기 판별된 상대적 위치 정보에 기초하여 생성된 입체 음향정보를 상기 전자 기기에 재생시키는 단계를 포함할 수 있다. A method and system for locating a mobile device using a wireless headset are disclosed. A location search method performed in a location search system includes receiving sound data generated from another electronic device for which location data is to be searched; determining relative location information with respect to the other electronic device based on the electronic device using the received sound data; and reproducing stereophonic sound information generated based on the determined relative location information to the electronic device.

Description

무선 헤드셋을 사용해 휴대 기기 위치를 알려주는 방법 및 시스템{SYSTEM AND METHODS FOR LOCATING MOBILE DEVICES USING WIRELESS HEADSETS}Method and system for notifying mobile device location using wireless headset {SYSTEM AND METHODS FOR LOCATING MOBILE DEVICES USING WIRELESS HEADSETS}

아래의 설명은 무선 헤드셋을 사용하여 휴대 기기의 위치를 판별하는 기술에 관한 것이다. The description below relates to techniques for determining the location of a mobile device using a wireless headset.

무선 기술의 발전으로 사용자가 음악 청취 혹은 온라인 회의 등을 목적으로 무선 헤드셋을 사용하는 빈도가 급격하게 증가하였다. 사용자가 스마트폰, 태블릿 등을 포함한 2~3개의 전자 기기를 동시에 사용하는 경우가 빈번하다. 만일 해당 전자 기기의 위치를 알지 못할 때 무선 헤드셋에 해당 전자 기기의 위치를 판별 가능한 입체 음향 기술을 적용한 알람 소리를 재생하여 사용자가 쉽게 해당 기기를 찾을 수 있는 기술이 제안될 필요가 있다.With the development of wireless technology, the frequency of users using wireless headsets for the purpose of listening to music or online meetings has rapidly increased. Users frequently use two or three electronic devices including a smartphone, a tablet, and the like at the same time. If the location of the corresponding electronic device is not known, it is necessary to propose a technology that allows the user to easily find the corresponding electronic device by playing an alarm sound applied to a wireless headset using stereophonic technology capable of determining the location of the corresponding electronic device.

무선 헤드셋 없이도 전자 기기에서 직접 소리를 발생시키면 사용자가 위치를 바로 알아차릴 수 있다. 더 나아가, 휴대용 전자 기기에서 비가청 소리를 발생하여 사용자가 착용 중인 무선 헤드셋으로 위치를 판별할 수 있도록 하여 사용자의 프라이버시 및 주변 다른 사람에게 방해되지 않도록 하기 위한 기술이 요구된다. By generating sound directly from an electronic device without a wireless headset, the user can instantly recognize the location. Furthermore, there is a need for a technology for generating an inaudible sound in a portable electronic device so that a user can determine a location using a wireless headset worn by the user so as not to disturb the user's privacy and others around him.

무선 헤드셋을 착용한 사용자와 전자 기기(휴대 기기)와의 상대적인 위치 정보를 판별하고, 판별된 상대적인 위치 정보에 해당하는 입체 음향 기술을 적용해서 사용자가 3차원 공간 속에서 전자 기기의 위치를 쉽게 찾을 수 있도록 하는 방법 및 시스템을 제공할 수 있다.By discriminating relative location information between a user wearing a wireless headset and an electronic device (mobile device), and applying stereophonic technology corresponding to the determined relative location information, the user can easily locate the electronic device in a 3D space. It is possible to provide a method and system to enable it.

위치 탐색 시스템에서 수행되는 위치 탐색 방법은, 위치 데이터를 탐색하고자 하는 다른 전자 기기로부터 발생되는 소리 데이터를 수신하는 단계; 상기 수신된 소리 데이터를 이용하여 전자 기기를 기준으로 상기 다른 전자 기기와의 상대적 위치 정보를 판별하는 단계; 및 상기 판별된 상대적 위치 정보에 기초하여 생성된 입체 음향정보를 상기 전자 기기에 재생시키는 단계를 포함할 수 있다. A location search method performed in a location search system includes receiving sound data generated from another electronic device for which location data is to be searched; determining relative location information with respect to the other electronic device based on the electronic device using the received sound data; and reproducing stereophonic sound information generated based on the determined relative location information to the electronic device.

상기 수신하는 단계는, 상기 다른 전자 기기로부터 발생되는 가청 주파수 이상의 음역대의 음파 데이터를 수신하는 단계를 포함하고, 상기 상대적 위치 정보를 판별하는 단계는, 상기 수신된 음파 데이터를 분석하여 상기 다른 전자 기기와의 상대적 위치 정보를 판별하는 단계를 포함할 수 있다. The receiving may include receiving sound wave data of an audible frequency or higher range generated from the other electronic device, and the determining of the relative location information may include analyzing the received sound wave data to obtain the sound wave data from the other electronic device. It may include determining relative positional information of and.

상기 상대적 위치 정보를 판별하는 단계는, 3 차원 공간에서 상기 전자 기기를 착용한 사용자의 양쪽 귀에 도달되는 음파 데이터에 대한 음량의 차이(Interaural Level Difference; ILD)에 기초하여 상기 다른 전자 기기와의 상대적 위치 정보에 해당하는 음량의 차이값을 계산하는 단계를 포함할 수 있다. Determining the relative location information may include determining the relative positional information relative to other electronic devices based on a difference in volume of sound wave data reaching both ears of a user wearing the electronic device in a three-dimensional space (Interaural Level Difference; ILD). A step of calculating a difference value of volume corresponding to the location information may be included.

상기 상대적 위치 정보를 판별하는 단계는, 3 차원 공간에서 상기 전자 기기를 착용한 사용자의 양쪽 귀에 도달되는 음파 데이터에 대한 시간의 차이(Interaural Time Difference; ITD)에 기초하여 상기 다른 전자 기기와의 상대적 위치 정보에 해당하는 시간의 차이값을 계산하는 단계를 포함할 수 있다. The determining of the relative location information may include determining the relative location information of the electronic device relative to other electronic devices based on an interaural time difference (ITD) of sound wave data reaching both ears of a user wearing the electronic device in a three-dimensional space. A step of calculating a time difference value corresponding to the location information may be included.

상기 상대적 위치 정보를 판별하는 단계는, 3 차원 공간에서 다른 전자 기기로부터 발생되는 음파 데이터에 대하여 머리 전달 함수(Head-Related Transfer Function; HRTF)를 사용하여 상기 다른 전자 기기와의 상대적 위치 정보를 판별하는 단계를 포함할 수 있다. The determining of the relative location information may include determining relative location information with the other electronic device using a Head-Related Transfer Function (HRTF) with respect to sound wave data generated from the other electronic device in a 3D space. steps may be included.

상기 재생시키는 단계는, 전자 기기에 출력되는 재생음에 상기 판별된 상대적 위치 정보에 대응하는 3차원 입체 음향 기술을 적용하는 단계를 포함할 수 있다. The reproducing may include applying a 3D stereoscopic sound technology corresponding to the determined relative location information to the reproduced sound output to the electronic device.

상기 재생시키는 단계는, 미리 정해진 알람 소리에 상기 판별된 다른 전자 기기와의 상대적 위치 정보를 계산한 음량의 차이값을 적용하여 음체 음향정보를 생성하는 단계를 포함할 수 있다. The reproducing may include generating sound information by applying a volume difference value obtained by calculating relative positional information of the identified other electronic device to a predetermined alarm sound.

상기 재생시키는 단계는, 미리 정해진 알람 소리에 상기 판별된 다른 전자 기기와의 상대적 위치 정보를 계산한 시간의 차이값을 적용하여 음체 음향정보를 생성하는 단계를 포함할 수 있다. The reproducing may include generating sound information by applying a time difference value obtained by calculating relative position information with another electronic device determined above to a predetermined alarm sound.

상기 전자 기기는, 상기 다른 전자 기기로부터 발생되는 소리 데이터를 전달받는 것이 가능한 무선 이어폰 또는 무선 헤드셋을 포함하고, 상기 위치 데이터를 탐색하고자 하는 전자 기기는, 가청 주파수 이상의 음역대의 음파 데이터를 발생시키는 휴대 기기를 포함할 수 있다. The electronic device includes a wireless earphone or wireless headset capable of receiving sound data generated from the other electronic device, and the electronic device to search for the location data is a portable device that generates sound wave data in a sound range higher than an audible frequency. device may be included.

상기 재생시키는 단계는, 음성 안내(예: 10시 방향 3미터 지점)를 통해 전자 기기의 위치 정보를 제공하는 단계를 포함할 수 있다. The reproducing may include providing location information of the electronic device through voice guidance (eg, 3 meters in the 10 o'clock direction).

위치 탐색 시스템은, 위치 데이터를 탐색하고자 하는 다른 전자 기기로부터 발생되는 소리 데이터를 수신하는 소리 수신부; 상기 수신된 소리 데이터를 이용하여 전자 기기를 기준으로 상기 다른 전자 기기와의 상대적 위치 정보를 판별하는 위치 판별부; 및 상기 판별된 상대적 위치 정보에 기초하여 생성된 입체 음향정보를 상기 전자 기기에 재생시키는 음향 재생부를 포함할 수 있다. The location search system includes a sound receiver for receiving sound data generated from other electronic devices to search for location data; a location determination unit determining relative location information with respect to the other electronic device based on the electronic device using the received sound data; and a sound reproducing unit for reproducing stereophonic sound information generated based on the determined relative position information to the electronic device.

무선 헤드셋 사용자는 전자 기기의 위치를 청취 중인 음향을 그대로 재생하면서(음악 혹은 상대방의 목소리) 공간 정보를 담은 입체음향 정보를 사용해 손쉽게 위치 판별이 가능하다.Users of wireless headsets can easily determine the location of the electronic device by using stereoscopic sound information containing spatial information while reproducing the sound they are listening to (music or the voice of the other party) as it is.

무선 헤드셋과 전자 기기 사이에서는 가청주파수 대역 밖의 음향 신호를 사용하므로 주변인들에게는 아무런 방해가 되지 않고 원하는 목적을 수행할 수 있다는 장점이 있다.Since a sound signal outside the audible frequency band is used between the wireless headset and the electronic device, there is an advantage in that a desired purpose can be performed without disturbing neighbors.

도 1은 일 실시예에 있어서, 3차원 공간 안의 객체에서 발생한 소리 데이터가 청취자의 두 귀로 도달하는 경로를 설명하기 위한 예이다.
도 2는 일 실시예에 따른 위치 탐색 시스템의 구성을 설명하기 위한 블록도이다.
도 3은 일 실시예에 따른 위치 탐색 시스템에서 위치 탐색 방법을 설명하기 위한 흐름도이다.
도 4는 일 실시예에 있어서, 상대적 위치 정보를 판별하는 방법을 설명하기 위한 예이다.
1 is an example for explaining a path in which sound data generated from an object in a 3D space reaches listener's two ears in one embodiment.
2 is a block diagram for explaining the configuration of a location search system according to an embodiment.
3 is a flowchart illustrating a location search method in a location search system according to an exemplary embodiment.
4 is an example for explaining a method of determining relative location information according to an embodiment.

이하, 실시예를 첨부한 도면을 참조하여 상세히 설명한다.Hereinafter, an embodiment will be described in detail with reference to the accompanying drawings.

도 1은 일 실시예에 있어서, 3차원 공간 안의 객체에서 발생한 소리 데이터가 청취자의 두 귀로 도달하는 경로를 설명하기 위한 예이다. 1 is an example for explaining a path in which sound data generated from an object in a 3D space reaches listener's two ears in one embodiment.

실시예에서는 사용자가 전자 기기(예: 블루투스 이어폰, 헤드폰 등의 무선 헤드셋)를 착용 시 주변의 다른 전자 기기(예: 스마트폰)의 위치를 청각적으로 알려주는 동작을 설명하기로 한다. 사용자가 전자 기기를 착용 시 다른 전자 기기의 위치를 판별할 필요가 있을 때, 사용자가 듣는 재생음에 알람 소리를 통해 다른 전자 기기의 위치를 판별할 수 있도록 3차원 음향 기술을 사용해 덧입혀 재생시킬 수 있다. In the embodiment, when a user wears an electronic device (eg, a wireless headset such as a Bluetooth earphone or a headphone), an operation of audibly notifying the location of other nearby electronic devices (eg, a smartphone) will be described. When a user needs to determine the location of another electronic device while wearing an electronic device, it can be reproduced by overlaying the sound the user hears with 3D sound technology so that the location of the other electronic device can be determined through an alarm sound. there is.

위치 탐색 시스템은 전자 기기 및 위치 데이터를 탐색하고자 하는 다른 전자 기기에서 동작될 수 있다. 예를 들면, 위치 탐색 시스템은 전자 기기 및 상기 다른 전자 기기에서 프로그램 또는 앱 형태로 구동될 수 있다. The location search system can be operated in electronic devices and other electronic devices that seek location data. For example, the location search system may be driven in the form of a program or app in an electronic device and other electronic devices.

전자 기기 및 상기 다른 전자 기기는 컴퓨터 시스템으로 구현되는 고정형 단말이거나 이동형 단말일 수 있다. 전자 기기 및 상기 다른 전자 기기의 예를 들면, 헤드셋, 이어폰, 스마트폰(smart phone), 휴대폰, 내비게이션, 컴퓨터, 노트북, 디지털방송용 단말, PDA(Personal Digital Assistants), PMP(Portable Multimedia Player), 태블릿 PC, 게임 콘솔(game console), 웨어러블 디바이스(wearable device), IoT(internet of things) 디바이스, VR(virtual reality) 디바이스, AR(augmented reality) 디바이스 등이 있다. 실시예들에서 전자 기기 및 상기 다른 전자 기기는 실질적으로 무선 또는 유선 통신 방식을 이용하여 네트워크를 통해 다른 전자 기기들 및/또는 서버와 통신할 수 있는 다양한 물리적인 컴퓨터 시스템들 중 하나를 의미할 수 있다. 실시예에서는 전자 기기는 무선 헤드셋, 다른 전자 기기는 휴대 기기(예를 들면, 스마트 폰)이라고 가정하기로 한다. The electronic device and the other electronic device may be a fixed terminal implemented as a computer system or a mobile terminal. Electronic devices and other electronic devices, for example, headsets, earphones, smart phones, mobile phones, navigation devices, computers, laptop computers, digital broadcasting terminals, personal digital assistants (PDAs), portable multimedia players (PMPs), and tablets There are PCs, game consoles, wearable devices, internet of things (IoT) devices, virtual reality (VR) devices, augmented reality (AR) devices, and the like. In embodiments, an electronic device and the other electronic device may refer to one of a variety of physical computer systems capable of communicating with other electronic devices and/or servers over a network using a substantially wireless or wired communication method. there is. In the embodiment, it is assumed that the electronic device is a wireless headset and the other electronic device is a portable device (eg, a smart phone).

상세하게는, 위치 탐색 시스템은 3차원 공간 안에서의 위치 데이터가 불분명한 다른 전자 기기의 위치 데이터를 사용자(사용자가 착용하고 있는 무선 헤드셋)에게 청각적으로 알려줄 수 있다. 다시 말해, 사용자가 다른 전자 기기의 위치를 탐색하고자 하는 경우, 다른 전자 기기의 위치 데이터를 판별 후, 전자 기기에서 발생하는 알람 소리의 전처리 과정을 거쳐 해당 위치에서 알람 소리가 들리도록 할 수 있다. 이는 기본적으로 두 귀에서 들리는 소리 데이터에 대한 시간의 차이(Interaural Time Difference; ITD) 및 음량의 차이(Interaural Level Difference; ILD), 그리고 포괄적으로는 3차원 공간의 물체의 사용자 대비 상대 위치를 판별하여 이에 해당하는 머리 전달 함수(Head-Related Transfer Function; HRTF)를 사용해 청각적으로 사용자가 전자 기기의 위치를 용이하게 찾을 수 있도록 하는 데에 있다

Figure 112021021113184-pat00001
In detail, the location search system can audibly inform a user (a wireless headset worn by the user) of location data of other electronic devices whose location data is unclear in the 3D space. In other words, when the user wants to search for the location of another electronic device, after determining the location data of the other electronic device, the alarm sound generated by the electronic device can be pre-processed so that the alarm sound can be heard at the corresponding location. This basically determines the time difference (Interaural Time Difference; ITD) and the volume difference (Interaural Level Difference; ILD) for the sound data heard from both ears, and the relative position of objects in the 3D space relative to the user. The purpose of this is to enable the user to easily find the position of the electronic device aurally by using the corresponding Head-Related Transfer Function (HRTF).
Figure 112021021113184-pat00001

도 1에서 제시된 것과 같이, 3차원 공간 안에 객체(예를 들면, 다른 전자 기기)가 존재하는 경우, 객체로부터 발생되는 소리 데이터는 양쪽 귀에 음량의 차이 및 소리의 시간 차이를 두고 도달하게 된다. 이는 사용자가 객체의 위치 데이터를 판별하는데 아주 중요한 정보가 된다. 이외에도 양쪽 귀에 도착하는 소리의 음향적인 특성이 객체의 상대적인 위치가 두부의 해부학적 구조에 따라 달라질 수 있는데, 이를 머리 전달 함수라고 한다. As shown in FIG. 1, when an object (eg, another electronic device) exists in a 3D space, sound data generated from the object arrives at both ears with a difference in volume and a time difference between the sounds. This becomes very important information for the user to determine the location data of the object. In addition, the relative position of the object in the acoustic characteristics of the sound arriving at both ears may vary depending on the anatomical structure of the head, which is called a head transfer function.

만일 전자 기기에서 발생하는 소리의 신호를

Figure 112021021113184-pat00002
로 정의한다고 하면 해당하는 소리가 사용자의 양쪽 귀에 도달하는 경우의 신호는 다음과 같이 표현이 가능하다.If the signal of the sound generated by the electronic device
Figure 112021021113184-pat00002
If it is defined as , the signal when the corresponding sound reaches both ears of the user can be expressed as follows.

Figure 112021021113184-pat00003
(1a)
Figure 112021021113184-pat00003
(1a)

Figure 112021021113184-pat00004
(1b)
Figure 112021021113184-pat00004
(1b)

여기에서

Figure 112021021113184-pat00005
은 3차원 공간 내에서 전자 기기의 위치로부터 각각 왼쪽, 오른쪽 귀에 해당하는 위치로 3차원 공간 내의 음파가 전달되는 Head-Related Impulse Response(HRIR),
Figure 112021021113184-pat00006
는 컨볼루션,
Figure 112021021113184-pat00007
Figure 112021021113184-pat00008
은 양쪽 귀에 도달하는 배경 잡음을 의미한다. HRIR 은 공간 내의 위치 정보를 판별하게 하는 음향 정보이며 이것의 푸리에 변환을 한 것이 머리전달함수(HRTF) 이다. 사용자는 발생한 소리의 신호
Figure 112021021113184-pat00009
가 3차원 공간을 통해서 전달 된 후 양쪽 귀에 도달하는
Figure 112021021113184-pat00010
Figure 112021021113184-pat00011
의 차이를 통해 해당 물체의 3차원 공간에서의 위치를 판단할 수 있다.From here
Figure 112021021113184-pat00005
is a Head-Related Impulse Response (HRIR) in which sound waves in a 3-dimensional space are transmitted from the position of the electronic device to the positions corresponding to the left and right ears, respectively, in the 3-dimensional space;
Figure 112021021113184-pat00006
is the convolution,
Figure 112021021113184-pat00007
class
Figure 112021021113184-pat00008
denotes the background noise reaching both ears. HRIR is acoustic information that determines positional information in space, and its Fourier transform is the Head Transfer Function (HRTF). The user receives the signal of the generated sound
Figure 112021021113184-pat00009
reaches both ears after being transmitted through the three-dimensional space
Figure 112021021113184-pat00010
class
Figure 112021021113184-pat00011
The position of the corresponding object in the 3D space can be determined through the difference in .

만일 배경 잡음이 없다고 가정하고

Figure 112021021113184-pat00012
양쪽 귀에 도달하는 신호가 음량 감쇄 및 시간차로만 구성된다면 HRIR 은 각각 다음과 같이 표현 가능하다.Assuming there is no background noise
Figure 112021021113184-pat00012
If the signal reaching both ears consists only of volume attenuation and time difference, HRIR can be expressed as follows.

Figure 112021021113184-pat00013
(2a)
Figure 112021021113184-pat00013
(2a)

Figure 112021021113184-pat00014
(2b)
Figure 112021021113184-pat00014
(2b)

여기에서

Figure 112021021113184-pat00015
은 각각 왼쪽 귀에 도달하는 음량 감쇄 및 도달 시간을 의미하며
Figure 112021021113184-pat00016
은 각각 오른쪽 귀에 도달하는 음량 감쇄 및 도달 시간을 의미한다. 이 경우 각 HRIR 의 푸리에 변환을 하게 되면 다음과 같이 HRTF 를 구할 수 있다.From here
Figure 112021021113184-pat00015
denotes the volume attenuation and arrival time reaching the left ear, respectively.
Figure 112021021113184-pat00016
denotes the volume attenuation and arrival time reaching the right ear, respectively. In this case, if the Fourier transform of each HRIR is performed, the HRTF can be obtained as follows.

Figure 112021021113184-pat00017
(3a)
Figure 112021021113184-pat00017
(3a)

Figure 112021021113184-pat00018
(3b)
Figure 112021021113184-pat00018
(3b)

여기에서

Figure 112021021113184-pat00019
는 푸리에변환의 주파수에 해당된다.From here
Figure 112021021113184-pat00019
corresponds to the frequency of the Fourier transform.

따라서 해당 기기의 위치는 소리 정보가 양쪽 귀에 도달하는 시간의 차이(ITD), 즉

Figure 112021021113184-pat00020
및 음량의 차이(ILD)
Figure 112021021113184-pat00021
(데시벨 기준으로는
Figure 112021021113184-pat00022
(dB)) 를 통해서 사용자가 판별 가능하다. 주어진 두 개의 신호를 기반으로 ITD 및 ILD 를 판별하는 기술은 다수 존재한다.Therefore, the position of the device is determined by the difference in time it takes for sound information to reach both ears (ITD), i.e.
Figure 112021021113184-pat00020
and difference in loudness (ILD)
Figure 112021021113184-pat00021
(in terms of decibels)
Figure 112021021113184-pat00022
(dB)) can be determined by the user. There are many techniques for determining ITD and ILD based on two given signals.

이와 같이 머리 전달 함수는 동일한 소리 데이터를 전방위에서 발생시켜 방향에 따른 주파수 반응을 측정하여 3차원 함수로 정의한 것을 의미한다. 소리가 음원으로부터 발생하여 청자의 귀로 전달될 때, 소리는 다양한 경로를 거치게 된다. 예를 들면, 실내에서 발생한 음원을 청취한다고 가정하였을 때, 음원에서 청자의 귀까지 최단거리로 전달되는 직접음이 있다. 또한, 1차적으로 바닥, 벽체 또는 천장에서 반사되어 들어오는 초기 반사음이 있고, 다차적으로 반사, 흡음, 회절 혹은 확산되어 들어오는 후기 반사음이 있다. 이에 대한 전달경로는 예를 들면, 실내음향 측정방법에 따라 충격음 또는 특정 레코딩을 통해 획득될 수 있다. 그런데, 마이크의 경우 수음점으로 가정되어 실내 객체에 의한 전달경로만 정의되면 되지만, 실제 청취자의 경우 신체가 있고 외이가 존재하여 그에 대한 영향 또는 전달경로도 고려되어야 한다. 이것이 바로 머리 전달 함수이다. 머리 전달 함수는 가슴팍, 어깨, 외이, 머리, 코 등의 신체의 형상에 대한 영향이 포함되어 있기 때문에 사람에 따라 다를 수 있다. 실시예에서는 수 많은 사람들의 머리전달함수의 결과값을 얻어 데이터화 한 표준 머리 전달 함수가 사용될 수 있다. In this way, the head transfer function means that the same sound data is generated in all directions and the frequency response according to the direction is measured and defined as a three-dimensional function. When sound is generated from a sound source and transmitted to a listener's ear, the sound passes through various paths. For example, assuming that a sound source generated indoors is heard, there is a direct sound transmitted from the sound source to the listener's ear in the shortest distance. In addition, there is an early reflected sound that is primarily reflected from a floor, a wall or a ceiling, and a later reflected sound that is reflected, absorbed, diffracted, or diffused. A transmission path for this may be obtained, for example, through an impact sound or a specific recording according to a method for measuring room acoustics. However, in the case of a microphone, it is assumed to be a sound pickup point and only the transmission path by an indoor object needs to be defined, but in the case of a real listener, since there is a body and an external ear, the influence or transmission path thereof must also be considered. This is the head transfer function. The head transfer function may vary from person to person because it includes effects on the shape of the body, such as the chest, shoulders, outer ear, head, and nose. In the embodiment, a standard head transfer function obtained by obtaining and converting result values of head transfer functions of numerous people into data may be used.

도 1에 도시된 바와 같이, 3차원 공간 안의 객체로부터 발생된 소리 데이터가 청취자의 두 귀에 도달되는 경로를 나타낸 예이다. 실시예에서는 객체의 위치 데이터를 판별하기 위한 소리 데이터에 대한 시간의 차이, 음량의 차이, 머리 전달 함수 등을 활용하여 사용자에게 위치 불명의 다른 전자 기기의 위치 데이터를 입체 음향 기법을 통해 제공할 수 있다. As shown in FIG. 1, this is an example of a path through which sound data generated from an object in a 3D space reaches the listener's ears. In the embodiment, it is possible to provide the location data of another electronic device whose location is unknown to the user through a stereophonic sound technique by utilizing a difference in time, a difference in volume, a head transfer function, and the like for sound data to determine the location data of the object. there is.

만일 휴대기기의 위치 판별을 위해 재생하고자 하는 비프음의 신호를

Figure 112021021113184-pat00023
로 정의하고 HRTF 는 ITD
Figure 112021021113184-pat00024
와 ILD
Figure 112021021113184-pat00025
로 구성된다면 무선헤드셋의 왼쪽, 오른쪽 에서 각기 재생하게 될 신호
Figure 112021021113184-pat00026
Figure 112021021113184-pat00027
는 다음과 같다.If the signal of the beep sound to be reproduced to determine the location of the mobile device
Figure 112021021113184-pat00023
, and HRTF is ITD
Figure 112021021113184-pat00024
and ILD
Figure 112021021113184-pat00025
If it consists of , the signals to be reproduced on the left and right sides of the wireless headset respectively
Figure 112021021113184-pat00026
class
Figure 112021021113184-pat00027
is as follows

Figure 112021021113184-pat00028
(4a)
Figure 112021021113184-pat00028
(4a)

Figure 112021021113184-pat00029
(4b)
Figure 112021021113184-pat00029
(4b)

만일 HRTF 가 ITD, ILD 외의 다른 정보들을 포함한다면 이에 해당하는 HRTF 의 푸리에 역변환에 해당하는HRIR 를

Figure 112021021113184-pat00030
로 표현한다면 무선헤드셋에서 재생하게 될 신호
Figure 112021021113184-pat00031
Figure 112021021113184-pat00032
는 다음과 같다.If the HRTF includes information other than ITD and ILD, HRIR corresponding to the inverse Fourier transform of the corresponding HRTF is
Figure 112021021113184-pat00030
If expressed as , the signal that will be reproduced by the wireless headset
Figure 112021021113184-pat00031
class
Figure 112021021113184-pat00032
is as follows

Figure 112021021113184-pat00033
(5a)
Figure 112021021113184-pat00033
(5a)

Figure 112021021113184-pat00034
(5b)
Figure 112021021113184-pat00034
(5b)

도 2는 일 실시예에 따른 위치 탐색 시스템의 구성을 설명하기 위한 블록도이고, 도 3은 일 실시예에 따른 위치 탐색 시스템에서 위치 탐색 방법을 설명하기 위한 흐름도이다.Figure 2 is a block diagram for explaining the configuration of a location search system according to an embodiment, Figure 3 is a flow chart for explaining a location search method in the location search system according to an embodiment.

위치 탐색 시스템(100)의 프로세서는 소리 수신부(210), 위치 판별부(220) 및 음향 재생부(230)를 포함할 수 있다. 이러한 프로세서의 구성요소들은 위치 탐색 시스템에 저장된 프로그램 코드가 제공하는 제어 명령에 따라 프로세서에 의해 수행되는 서로 다른 기능들(different functions)의 표현들일 수 있다. 프로세서 및 프로세서의 구성요소들은 도 3의 위치 탐색 방법이 포함하는 단계들(310 내지 330)을 수행하도록 위치 탐색 시스템을 제어할 수 있다. 이때, 프로세서 및 프로세서의 구성요소들은 메모리가 포함하는 운영체제의 코드와 적어도 하나의 프로그램의 코드에 따른 명령(instruction)을 실행하도록 구현될 수 있다.The processor of the location search system 100 may include a sound receiver 210 , a location determiner 220 and a sound player 230 . Components of such a processor may be representations of different functions performed by the processor according to control instructions provided by program codes stored in the positioning system. The processor and components of the processor may control the location search system to perform steps 310 to 330 included in the location search method of FIG. 3 . In this case, the processor and components of the processor may be implemented to execute instructions according to the code of an operating system included in the memory and the code of at least one program.

프로세서는 위치 탐색 방법을 위한 프로그램의 파일에 저장된 프로그램 코드를 메모리에 로딩할 수 있다. 예를 들면, 위치 탐색 시스템에서 프로그램이 실행되면, 프로세서는 운영체제의 제어에 따라 프로그램의 파일로부터 프로그램 코드를 메모리에 로딩하도록 위치 탐색 시스템을 제어할 수 있다. 이때, 소리 수신부(210), 위치 판별부(220) 및 음향 재생부(230) 각각은 메모리에 로딩된 프로그램 코드 중 대응하는 부분의 명령을 실행하여 이후 단계들(310 내지 330)을 실행하기 위한 프로세서의 서로 다른 기능적 표현들일 수 있다.The processor may load a program code stored in a file of a program for a location search method into a memory. For example, when a program is executed in the location search system, the processor may control the location search system to load a program code from a file of the program into a memory under the control of an operating system. At this time, each of the sound receiving unit 210, the location determining unit 220, and the sound reproducing unit 230 executes a command of a corresponding part of the program code loaded into the memory to execute subsequent steps 310 to 330. There may be different functional representations of the processor.

단계(310)에서 소리 수신부(210)는 위치 데이터를 탐색하고자 하는 다른 전자 기기로부터 발생되는 소리 데이터를 수신할 수 있다. 소리 수신부(210)는 다른 전자 기기로부터 발생되는 가청 주파수 이상의 음역대의 음파 데이터를 수신할 수 있다. 소리 수신부(210)는 수신된 음파 데이터를 저장할 수 있다. In step 310, the sound receiving unit 210 may receive sound data generated from another electronic device to search for location data. The sound receiving unit 210 may receive sound wave data of a sound range higher than an audible frequency generated from other electronic devices. The sound receiver 210 may store the received sound wave data.

단계(320)에서 위치 판별부(220)는 전자 기기를 기준으로 위치 데이터를 탐색하고자 하는 다른 전자 기기와의 상대적 위치 정보를 판별할 수 있다. 위치 판별부(220)는 수신된 음파 데이터를 분석하여 다른 전자 기기와의 상대적 위치 정보를 판별할 수 있다. 예를 들면 위치 판별부(220)는 수신된 음파 데이터를 기 설정된 값과 비교하여 다른 전자 기기와의 상대적 위치 정보를 판별할 수 있다. In step 320, the location determination unit 220 may determine relative location information with another electronic device for which location data is to be searched based on the electronic device. The location determining unit 220 may determine relative location information with other electronic devices by analyzing the received sound wave data. For example, the location determining unit 220 may determine relative location information with other electronic devices by comparing the received sound wave data with a preset value.

도 4를 참고하면, 상대적 위치 정보를 판별하는 방법을 설명하기 위한 흐름도이다. 400에서 다른 전자 기기로부터 발생되는 가청 주파수 이상의 음역대의 음파 데이터가 수신될 수 있다. 이때, 전자 기기에서 다른 전자 기기로 위치 탐색을 위한 요청 정보가 전달될 수 있다. 이에, 다른 전자 기기로부터 전자 기기에 대한 요청 정보에 응답하여 음파 데이터가 발생될 수 있다. 일례로, 위치 판별부(220)는 다른 전자 기기와의 상대적 위치 정보를 판별하기 위한 어느 하나의 방식을 선택할 수 있다. 예를 들면, 사용자로부터 선택된 상대적 위치 정보를 판별하기 위한 방식을 수신할 수 있고, 수신된 방식을 이용하여 상대적 위치 정보를 계산할 수 있다. 또는, 컴퓨터/프로그램에 의하여 랜덤으로 상대적 위치 정보를 판별하기 위한 방식이 선택될 수 있다. Referring to FIG. 4, it is a flowchart for explaining a method of determining relative location information. In 400, sound wave data of a sound range higher than the audible frequency generated from other electronic devices may be received. At this time, request information for location search may be transmitted from the electronic device to another electronic device. Accordingly, sound wave data may be generated in response to request information about the electronic device from another electronic device. For example, the location determining unit 220 may select one method for determining relative location information with other electronic devices. For example, a method for determining relative location information selected by a user may be received, and the relative location information may be calculated using the received method. Alternatively, a method for randomly determining relative location information may be selected by a computer/program.

410에서 위치 판별부(220)는 3 차원 공간에서 전자 기기를 착용한 사용자의 양쪽 귀에 도달되는 음파 데이터에 대한 음량의 차이(Interaural Level Difference; ILD)를 계산할 수 있다. 예를 들면, 음량의 차이란 두 귀의 음압의 세기(강도) 차이를 의미한다. 음원의 위치에 따른 두 귀까지의 경로 차이와, 경로 차이에 의한 감소량의 차이로 발생한다. 위치 판별부(220) 전자 기기를 착용한 사용자의 양쪽 귀에 도달되는 음파 데이터에 대한 음량의 차이에 기초하여 다른 전자 기기와의 상대적 위치 정보에 해당하는 음량의 차이값을 계산할 수 있다. In operation 410 , the location determining unit 220 may calculate an Interaural Level Difference (ILD) of sound wave data reaching both ears of the user wearing the electronic device in a 3D space. For example, the difference in volume means a difference in intensity (intensity) of sound pressure between the two ears. It is caused by the difference in the path to the two ears according to the location of the sound source and the difference in the amount of reduction due to the path difference. The location determining unit 220 may calculate a volume difference corresponding to relative location information with other electronic devices based on a difference in volume of sound wave data reaching both ears of the user wearing the electronic device.

420에서 위치 판별부(220)는 3 차원 공간에서 상기 전자 기기를 착용한 사용자의 양쪽 귀에 도달되는 음파 데이터에 대한 시간의 차이(Interaural Time Difference; ITD)를 계산할 수 있다. 시간의 차이란 두 귀 사이의 음의 시간차를 의미한다. 위치 판별부(220)는 전자 기기를 착용한 사용자의 양쪽 귀에 도달되는 음파 데이터에 대한 시간의 차이에 기초하여 다른 전자 기기와의 상대적 위치 정보에 해당하는 시간의 차이값을 계산할 수 있다. In operation 420, the location determination unit 220 may calculate an Interaural Time Difference (ITD) of sound wave data reaching both ears of the user wearing the electronic device in a 3D space. The difference in time means the difference in time between the two ears. The location determination unit 220 may calculate a time difference value corresponding to relative location information with other electronic devices based on a time difference between sound wave data reaching both ears of the user wearing the electronic device.

430에서 위치 판별부(220)는 3 차원 공간에서 다른 전자 기기로부터 발생되는 음파 데이터에 대하여 머리 전달 함수(Head-Related Transfer Function; HRTF)를 사용하여 다른 전자 기기와의 상대적 위치 정보를 판별할 수 있다. 머리 전달 함수는 머리와 귀의 모양에 따라 귀에서 수신되는 음향 신호의 특성을 의미한다. 인간의 청각기관을 모델링한 더미헤드 마이크를 이용하여 360도의 방위각과 180도의 고도각 사이를 일정하게 간격을 두고 각각의 위치에 대한 좌우 양쪽의 임펄스 응답을 구한 값이 도출될 수 있다. 머리 전달 함수는 음량의 차이, 시간의 차이의 단순한 경로 차이보다 머리 표면에서 회절, 귓바퀴의 굴곡들에 대한 반사 등 복잡한 경로 상의 특성이 음의 도래 방향에 따라 변하는 현상을 바탕으로 입체 음향을 지각할 수 있다. 각 방향의 머리 전달 함수가 유일한 특성을 가졌을 때, 이를 이용하면 입체 음향을 생성할 수 있게 된다. In 430, the location determining unit 220 may determine relative location information with other electronic devices using a Head-Related Transfer Function (HRTF) for sound wave data generated from other electronic devices in a 3D space. there is. The head transfer function refers to the characteristics of an acoustic signal received from the ear according to the shape of the head and ears. A value obtained by obtaining left and right impulse responses for each position at regular intervals between an azimuth angle of 360 degrees and an altitude angle of 180 degrees using a dummy head microphone modeling the human auditory organ can be derived. The head transfer function can perceive stereophonic sound based on the phenomenon in which the characteristics of complex paths, such as diffraction on the surface of the head and reflection on the curves of the auricle, change according to the direction of sound arrival, rather than simple path differences of difference in volume and time. can When the head transfer function in each direction has a unique characteristic, it is possible to generate stereophonic sound using this.

단계(330)에서 음향 재생부(230)는 판별된 상대적 위치 정보에 기초하여 생성된 입체 음향정보를 전자 기기에 재생시킬 수 있다. 음향 재생부(230)는 전자 기기에 출력되는 재생음에 판별된 상대적 위치 정보에 대응하는 3차원 입체 음향 기술을 적용할 수 있다. 음향 재생부(230)는 미리 정해진 알람 소리에 판별된 다른 전자 기기와의 상대적 위치 정보를 계산한 음량의 차이값을 적용하여 입체 음향정보를 생성할 수 있다. 미리 정해진 알람 소리가 비프음이라고 가정하여 설명하기로 한다. 비프음(beep sound)이란, "삐" 라는 음으로 일반적으로 음높이가 높은 짧은 신호 톤으로서, 컴퓨터나 다른 기계에 의해 만들어 진다. 또한, 미리 정해진 알람 소리는 각 전자 기기에 따라 다르게 설정되어 있을 수 있다. 일례로, 음향 재생부(230)는 비프음에 대하여 음량의 차이값을 적용하여 입체 음향정보를 생성할 수 있다. 예를 들면, 음량의 차이값이 클수록 전자 기기와 다른 전자 기기간 거리가 먼 것을 의미할 수 있고, 음량의 차이가 작을수록 전자 기기와 다른 전자 기기간 거리가 가까운 것을 의미할 수 있다. 이때, 비프음에 음량의 차이값을 적용하기 위한 전처리 과정이 수행될 수 있다. 전처리 과정으로는 노이즈 제거, 음량의 차이값을 비프음에 적용하기 위한 포맷이 변경되는 과정 등이 포함될 수 있다. 전처리 과정이 수행됨에 따라 비프음에 음량의 차이값을 적용하여 입체 음향정보가 생성될 수 있다. 이때, 음량의 차이값에 따라 입체 음향정보의 속성 정보(크기, 빈도수, 빠르기)가 조절될 수 있다. In step 330, the sound reproducing unit 230 may reproduce stereophonic sound information generated based on the determined relative location information to the electronic device. The sound reproducing unit 230 may apply a 3D stereo sound technology corresponding to the determined relative location information to the reproduced sound output to the electronic device. The sound reproducing unit 230 may generate stereophonic sound information by applying a volume difference value obtained by calculating relative location information with other electronic devices determined in advance to a predetermined alarm sound. The description will be made on the assumption that the predetermined alarm sound is a beep sound. A beep sound is a sound called "beep" and is generally a short signal tone with a high pitch, produced by a computer or other machine. In addition, a predetermined alarm sound may be set differently according to each electronic device. For example, the sound reproducing unit 230 may generate stereophonic sound information by applying a volume difference value to a beep sound. For example, the greater the difference in volume, the greater the distance between the electronic device and other electronic devices, and the smaller the difference in volume, the shorter the distance between the electronic device and other electronic devices. At this time, a pre-processing process for applying the difference value of volume to the beep sound may be performed. The preprocessing process may include noise removal, a process of changing a format for applying a difference value of volume to a beep sound, and the like. As the pre-processing process is performed, stereo sound information may be generated by applying a volume difference value to the beep sound. At this time, attribute information (size, frequency, speed) of the stereophonic sound information may be adjusted according to the volume difference.

음향 재생부(230)는 미리 정해진 알람 소리에 판별된 다른 전자 기기와의 상대적 위치 정보를 계산한 시간의 차이값을 적용하여 음체 음향정보를 생성할 수 있다. 일례로, 음향 재생부(230)는 비프음에 대하여 시간의 차이값을 적용하여 입체 음향정보를 생성할 수 있다. 예를 들면, 시간의 차이값이 클수록 전자 기기와 다른 전자 기기간 거리가 먼 것을 의미할 수 있고, 시간의 차이값이 작을수록 전자 기기와 다른 전자 기기간 거리가 가까운 것을 의미할 수 있다. 이때, 비프음에 시간의 차이값을 적용하기 위한 전처리 과정이 수행될 수 있다. 전처리 과정으로는 노이즈 제거, 시간의 차이값을 비프음에 적용하기 위한 포맷이 변경되는 과정 등이 포함될 수 있다. 전처리 과정이 수행됨에 따라 비프음에 시간의 차이값을 입체 음향정보가 생성될 수 있다. 이때, 시간의 차이값에 따라 입체 음향정보의 속성 정보(크기, 빈도수, 빠르기)가 조절될 수 있다. The sound reproducing unit 230 may generate sound information by applying a time difference value obtained by calculating relative position information with other electronic devices determined in advance to a predetermined alarm sound. For example, the sound reproducing unit 230 may generate stereophonic sound information by applying a time difference value to a beep sound. For example, a larger time difference value may mean a longer distance between an electronic device and another electronic device, and a smaller time difference value may mean a shorter distance between an electronic device and other electronic devices. At this time, a preprocessing process for applying the time difference value to the beep sound may be performed. The preprocessing process may include noise removal, a process of changing a format for applying a time difference value to a beep sound, and the like. As the preprocessing process is performed, stereophonic sound information may be generated by using a time difference value between the beep sound and the beep sound. At this time, attribute information (size, frequency, speed) of the stereophonic sound information may be adjusted according to the time difference value.

또한, 음향 재생부(230)는 음성 안내를 통해 전자 기기의 위치 정보를 제공할 수 있다. 예를 들면, 10시 방향 3미터 지점에 전자 기기의 위치 정보가 있음을 음성으로 안내할 수 있다. Also, the sound reproducing unit 230 may provide location information of the electronic device through voice guidance. For example, it is possible to inform by voice that there is location information of the electronic device at 3 meters in the 10 o'clock direction.

실시예에 따르면, 전자 기기를 착용한 사용자는 청취 중인 음향(예를 들면, 통화, 음악)을 그대로 재생하면서 공간 정보(예를 들면, 왼쪽, 오른쪽, 위쪽, 아래쪽 등)를 담은 입체 음향정보를 사용하여 다른 전자 기기의 위치 데이터를 판별할 수 있다. 또한, 다른 전자 기기로부터 발생되는 음파 데이터를 주기적 또는 비주기적으로 수신하여 다른 전자 기기의 위치 데이터가 추적될 수 있고, 추적된 위치 데이터에 따라 다른 전자 기기를 찾을 수 있다. According to the embodiment, a user wearing an electronic device reproduces stereophonic sound information containing spatial information (eg, left, right, top, bottom, etc.) while reproducing sound (eg, call, music) being heard as it is It can be used to determine the location data of other electronic devices. In addition, the location data of other electronic devices may be tracked by periodically or non-periodically receiving sound wave data generated from other electronic devices, and other electronic devices may be found according to the tracked location data.

또한, 미리 정해진 알람 소리가 각 전자 기기에 따라 다르게 설정되어 있을 경우, 전자 기기를 착용한 사용자가 청취 중인 음향을 그대로 재생하면서 복수 개의 다른 전자 기기와 관련된 복수의 입체 음향정보가 재생음으로 출력될 수 있다. 이에, 동시에 복수 개의 다른 전자 기기를 인지할 수 있다.In addition, when a predetermined alarm sound is set differently for each electronic device, a plurality of stereoscopic sound information related to a plurality of other electronic devices may be output as playback sound while reproducing the sound that the user wearing the electronic device is listening to. there is. Accordingly, it is possible to recognize a plurality of different electronic devices at the same time.

이상에서 설명된 장치는 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치 및 구성요소는, 예를 들어, 프로세서, 콘트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPGA(field programmable gate array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 애플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 콘트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.The devices described above may be implemented as hardware components, software components, and/or a combination of hardware components and software components. For example, devices and components described in the embodiments may include, for example, a processor, a controller, an arithmetic logic unit (ALU), a digital signal processor, a microcomputer, a field programmable gate array (FPGA) , a programmable logic unit (PLU), microprocessor, or any other device capable of executing and responding to instructions. A processing device may run an operating system (OS) and one or more software applications running on the operating system. A processing device may also access, store, manipulate, process, and generate data in response to execution of software. For convenience of understanding, there are cases in which one processing device is used, but those skilled in the art will understand that the processing device includes a plurality of processing elements and/or a plurality of types of processing elements. It can be seen that it can include. For example, a processing device may include a plurality of processors or a processor and a controller. Other processing configurations are also possible, such as parallel processors.

소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치에 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.Software may include a computer program, code, instructions, or a combination of one or more of the foregoing, which configures a processing device to operate as desired or processes independently or collectively. You can command the device. Software and/or data may be any tangible machine, component, physical device, virtual equipment, computer storage medium or device, intended to be interpreted by or provide instructions or data to a processing device. can be embodied in Software may be distributed on networked computer systems and stored or executed in a distributed manner. Software and data may be stored on one or more computer readable media.

실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. The method according to the embodiment may be implemented in the form of program instructions that can be executed through various computer means and recorded on a computer readable medium. The computer readable medium may include program instructions, data files, data structures, etc. alone or in combination. Program commands recorded on the medium may be specially designed and configured for the embodiment or may be known and usable to those skilled in computer software. Examples of computer-readable recording media include magnetic media such as hard disks, floppy disks and magnetic tapes, optical media such as CD-ROMs and DVDs, and magnetic media such as floptical disks. - includes hardware devices specially configured to store and execute program instructions, such as magneto-optical media, and ROM, RAM, flash memory, and the like. Examples of program instructions include high-level language codes that can be executed by a computer using an interpreter, as well as machine language codes such as those produced by a compiler.

이상과 같이 실시예들이 비록 한정된 실시예와 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기의 기재로부터 다양한 수정 및 변형이 가능하다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.As described above, although the embodiments have been described with limited examples and drawings, those skilled in the art can make various modifications and variations from the above description. For example, the described techniques may be performed in an order different from the method described, and/or components of the described system, structure, device, circuit, etc. may be combined or combined in a different form than the method described, or other components may be used. Or even if it is replaced or substituted by equivalents, appropriate results can be achieved.

그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 특허청구범위의 범위에 속한다.Therefore, other implementations, other embodiments, and equivalents of the claims are within the scope of the following claims.

Claims (11)

위치 탐색 시스템에서 수행되는 위치 탐색 방법에 있어서,
위치 데이터를 탐색하고자 하는 다른 전자 기기로부터 발생되는 소리 데이터를 수신하는 단계;
상기 수신된 소리 데이터를 이용하여 전자 기기를 기준으로 상기 다른 전자 기기와의 상대적 위치 정보를 판별하는 단계; 및
상기 판별된 상대적 위치 정보에 기초하여 생성된 입체 음향정보를 상기 전자 기기에 재생시키는 단계
를 포함하는 위치 탐색 방법.
In the location search method performed in the location search system,
receiving sound data generated from another electronic device to search for location data;
determining relative location information with respect to the other electronic device based on the electronic device using the received sound data; and
Reproducing stereophonic sound information generated based on the determined relative positional information on the electronic device
Location search method comprising a.
제1항에 있어서,
상기 수신하는 단계는,
상기 다른 전자 기기로부터 발생되는 가청 주파수 이상의 음역대의 음파 데이터를 수신하는 단계
를 포함하고,
상기 상대적 위치 정보를 판별하는 단계는,
상기 수신된 음파 데이터를 분석하여 상기 다른 전자 기기와의 상대적 위치 정보를 판별하는 단계
를 포함하는 위치 탐색 방법.
According to claim 1,
In the receiving step,
Receiving sound wave data of a sound range higher than the audible frequency generated from the other electronic device
including,
Determining the relative location information,
Analyzing the received sound wave data to determine relative positional information with the other electronic device
Location search method comprising a.
제2항에 있어서,
상기 상대적 위치 정보를 판별하는 단계는,
3 차원 공간에서 상기 전자 기기를 착용한 사용자의 양쪽 귀에 도달되는 음파 데이터에 대한 음량의 차이(Interaural Level Difference; ILD)에 기초하여 상기 다른 전자 기기와의 상대적 위치 정보에 해당하는 음량의 차이값을 계산하는 단계
를 포함하는 위치 탐색 방법.
According to claim 2,
Determining the relative location information,
Based on the difference in volume (Interaural Level Difference; ILD) of sound wave data reaching both ears of the user wearing the electronic device in a three-dimensional space, a volume difference value corresponding to relative positional information with the other electronic device steps to calculate
Location search method comprising a.
제2항에 있어서,
상기 상대적 위치 정보를 판별하는 단계는,
3 차원 공간에서 상기 전자 기기를 착용한 사용자의 양쪽 귀에 도달되는 음파 데이터에 대한 시간의 차이(Interaural Time Difference; ITD)에 기초하여 상기 다른 전자 기기와의 상대적 위치 정보에 해당하는 시간의 차이값을 계산하는 단계
를 포함하는 위치 탐색 방법.
According to claim 2,
Determining the relative location information,
Based on the interaural time difference (ITD) of sound wave data reaching both ears of the user wearing the electronic device in a three-dimensional space, a time difference value corresponding to relative positional information with the other electronic device steps to calculate
Location search method comprising a.
제2항에 있어서,
상기 상대적 위치 정보를 판별하는 단계는,
3 차원 공간에서 다른 전자 기기로부터 발생되는 음파 데이터에 대하여 머리 전달 함수(Head-Related Transfer Function; HRTF)를 사용하여 상기 다른 전자 기기와의 상대적 위치 정보를 판별하는 단계
를 포함하는 위치 탐색 방법.
According to claim 2,
Determining the relative location information,
Determining relative position information with other electronic devices using a Head-Related Transfer Function (HRTF) for sound wave data generated from other electronic devices in a three-dimensional space.
Location search method comprising a.
제1항에 있어서,
상기 재생시키는 단계는,
전자 기기에 출력되는 재생음에 상기 판별된 상대적 위치 정보에 대응하는 3차원 입체 음향 기술을 적용하는 단계
를 포함하는 위치 탐색 방법.
According to claim 1,
In the regeneration step,
Applying a 3D stereoscopic sound technology corresponding to the determined relative location information to the playback sound output to the electronic device.
Location search method comprising a.
제6항에 있어서,
상기 재생시키는 단계는,
미리 정해진 알람 소리에 상기 판별된 다른 전자 기기와의 상대적 위치 정보를 계산한 음량의 차이값을 적용하여 음체 음향정보를 생성하는 단계
를 포함하는 위치 탐색 방법.
According to claim 6,
In the regeneration step,
Generating sound information by applying a difference in volume obtained by calculating relative positional information of the determined other electronic device to a predetermined alarm sound
Location search method comprising a.
제6항에 있어서,
상기 재생시키는 단계는,
미리 정해진 알람 소리에 상기 판별된 다른 전자 기기와의 상대적 위치 정보를 계산한 시간의 차이값을 적용하여 음체 음향정보를 생성하는 단계
를 포함하는 위치 탐색 방법.
According to claim 6,
In the regeneration step,
Generating sound information by applying a time difference value obtained by calculating relative positional information with other determined electronic devices to a predetermined alarm sound
Location search method comprising a.
제1항에 있어서,
상기 전자 기기는, 상기 다른 전자 기기로부터 발생되는 소리 데이터를 전달받는 것이 가능한 무선 이어폰 또는 무선 헤드셋을 포함하고,
상기 위치 데이터를 탐색하고자 하는 전자 기기는, 가청 주파수 이상의 음역대의 음파를 발생시키는 휴대 기기를 포함하는
것을 특징으로 하는 위치 탐색 방법.
According to claim 1,
The electronic device includes a wireless earphone or wireless headset capable of receiving sound data generated from the other electronic device,
The electronic device to search for the location data includes a portable device that generates sound waves of an audible frequency or higher.
Location search method characterized in that.
제1항에 있어서,
상기 재생시키는 단계는,
음성 안내를 통해 전자 기기의 위치 정보를 제공하는 단계
를 포함하는 위치 탐색 방법.
According to claim 1,
The regeneration step is
Providing location information of an electronic device through voice guidance
Location search method comprising a.
위치 탐색 시스템에 있어서,
위치 데이터를 탐색하고자 하는 다른 전자 기기로부터 발생되는 소리 데이터를 수신하는 소리 수신부;
상기 수신된 소리 데이터를 이용하여 전자 기기를 기준으로 상기 다른 전자 기기와의 상대적 위치 정보를 판별하는 위치 판별부; 및
상기 판별된 상대적 위치 정보에 기초하여 생성된 입체 음향정보를 상기 전자 기기에 재생시키는 음향 재생부
를 포함하는 위치 탐색 시스템.
In the positioning system,
a sound receiver for receiving sound data generated from other electronic devices to search for location data;
a location determination unit determining relative location information with respect to the other electronic device based on the electronic device using the received sound data; and
A sound reproducing unit for reproducing 3D sound information generated based on the determined relative position information to the electronic device.
Positioning system including a.
KR1020210023385A 2020-12-18 2021-02-22 System and methods for locating mobile devices using wireless headsets KR102519156B1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020200179013 2020-12-18
KR20200179013 2020-12-18

Publications (3)

Publication Number Publication Date
KR20220088259A KR20220088259A (en) 2022-06-27
KR102519156B1 true KR102519156B1 (en) 2023-04-10
KR102519156B9 KR102519156B9 (en) 2024-01-11

Family

ID=82246746

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210023385A KR102519156B1 (en) 2020-12-18 2021-02-22 System and methods for locating mobile devices using wireless headsets

Country Status (1)

Country Link
KR (1) KR102519156B1 (en)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101835675B1 (en) 2016-10-05 2018-03-07 연세대학교 산학협력단 Apparatus for providing3d sound in augmmented reality environmentand method thereof

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20120080751A (en) * 2011-01-10 2012-07-18 주식회사 백송테크 The mobilephone loss prevent system and method using duplicate same protocol with headset profile in bluetooth system

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101835675B1 (en) 2016-10-05 2018-03-07 연세대학교 산학협력단 Apparatus for providing3d sound in augmmented reality environmentand method thereof

Also Published As

Publication number Publication date
KR20220088259A (en) 2022-06-27
KR102519156B9 (en) 2024-01-11

Similar Documents

Publication Publication Date Title
CN109644314B (en) Method of rendering sound program, audio playback system, and article of manufacture
US9560467B2 (en) 3D immersive spatial audio systems and methods
US10142761B2 (en) Structural modeling of the head related impulse response
US8620009B2 (en) Virtual sound source positioning
CN106576203B (en) Determining and using room-optimized transfer functions
US10341799B2 (en) Impedance matching filters and equalization for headphone surround rendering
US10542368B2 (en) Audio content modification for playback audio
US11337020B2 (en) Controlling rendering of a spatial audio scene
US11356795B2 (en) Spatialized audio relative to a peripheral device
US10652686B2 (en) Method of improving localization of surround sound
KR20190109019A (en) Method and apparatus for reproducing audio signal according to movenemt of user in virtual space
US11417347B2 (en) Binaural room impulse response for spatial audio reproduction
CN109327794B (en) 3D sound effect processing method and related product
US11302339B2 (en) Spatial sound reproduction using multichannel loudspeaker systems
KR102519156B1 (en) System and methods for locating mobile devices using wireless headsets
US10735885B1 (en) Managing image audio sources in a virtual acoustic environment
EP4030783A1 (en) Indication of responsibility for audio playback
Gutiérrez A et al. Audition
CN115706895A (en) Immersive sound reproduction using multiple transducers
CN117793609A (en) Sound field rendering method and device
CN116193196A (en) Virtual surround sound rendering method, device, equipment and storage medium

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
G170 Re-publication after modification of scope of protection [patent]