KR20220088259A - System and methods for locating mobile devices using wireless headsets - Google Patents

System and methods for locating mobile devices using wireless headsets Download PDF

Info

Publication number
KR20220088259A
KR20220088259A KR1020210023385A KR20210023385A KR20220088259A KR 20220088259 A KR20220088259 A KR 20220088259A KR 1020210023385 A KR1020210023385 A KR 1020210023385A KR 20210023385 A KR20210023385 A KR 20210023385A KR 20220088259 A KR20220088259 A KR 20220088259A
Authority
KR
South Korea
Prior art keywords
electronic device
sound
location
relative position
position information
Prior art date
Application number
KR1020210023385A
Other languages
Korean (ko)
Other versions
KR102519156B9 (en
KR102519156B1 (en
Inventor
이보원
Original Assignee
인하대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 인하대학교 산학협력단 filed Critical 인하대학교 산학협력단
Publication of KR20220088259A publication Critical patent/KR20220088259A/en
Application granted granted Critical
Publication of KR102519156B1 publication Critical patent/KR102519156B1/en
Publication of KR102519156B9 publication Critical patent/KR102519156B9/en

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S5/00Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations
    • G01S5/18Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations using ultrasonic, sonic, or infrasonic waves
    • G01S5/20Position of source determined by a plurality of spaced direction-finders
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S11/00Systems for determining distance or velocity not using reflection or reradiation
    • G01S11/14Systems for determining distance or velocity not using reflection or reradiation using ultrasonic, sonic, or infrasonic waves
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04BTRANSMISSION
    • H04B1/00Details of transmission systems, not covered by a single one of groups H04B3/00 - H04B13/00; Details of transmission systems not characterised by the medium used for transmission
    • H04B1/38Transceivers, i.e. devices in which transmitter and receiver form a structural unit and in which at least one part is used for functions of transmitting and receiving
    • H04B1/3827Portable transceivers
    • H04B1/385Transceivers carried on the body, e.g. in helmets
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04BTRANSMISSION
    • H04B1/00Details of transmission systems, not covered by a single one of groups H04B3/00 - H04B13/00; Details of transmission systems not characterised by the medium used for transmission
    • H04B1/38Transceivers, i.e. devices in which transmitter and receiver form a structural unit and in which at least one part is used for functions of transmitting and receiving
    • H04B1/3827Portable transceivers
    • H04B1/385Transceivers carried on the body, e.g. in helmets
    • H04B2001/3866Transceivers carried on the body, e.g. in helmets carried on the head

Abstract

무선 헤드셋을 사용해 휴대 기기 위치를 알려주는 방법 및 시스템이 개시된다. 위치 탐색 시스템에서 수행되는 위치 탐색 방법은, 위치 데이터를 탐색하고자 하는 다른 전자 기기로부터 발생되는 소리 데이터를 수신하는 단계; 상기 수신된 소리 데이터를 이용하여 전자 기기를 기준으로 상기 다른 전자 기기와의 상대적 위치 정보를 판별하는 단계; 및 상기 판별된 상대적 위치 정보에 기초하여 생성된 입체 음향정보를 상기 전자 기기에 재생시키는 단계를 포함할 수 있다. A method and system for locating a mobile device using a wireless headset are disclosed. A location search method performed in a location search system includes the steps of: receiving sound data generated from another electronic device for which location data is to be searched; determining relative position information with the other electronic device based on the electronic device using the received sound data; and reproducing the stereophonic sound information generated based on the determined relative position information to the electronic device.

Description

무선 헤드셋을 사용해 휴대 기기 위치를 알려주는 방법 및 시스템{SYSTEM AND METHODS FOR LOCATING MOBILE DEVICES USING WIRELESS HEADSETS}SYSTEM AND METHODS FOR LOCATING MOBILE DEVICES USING WIRELESS HEADSETS

아래의 설명은 무선 헤드셋을 사용하여 휴대 기기의 위치를 판별하는 기술에 관한 것이다. The description below relates to a technique for determining the location of a mobile device using a wireless headset.

무선 기술의 발전으로 사용자가 음악 청취 혹은 온라인 회의 등을 목적으로 무선 헤드셋을 사용하는 빈도가 급격하게 증가하였다. 사용자가 스마트폰, 태블릿 등을 포함한 2~3개의 전자 기기를 동시에 사용하는 경우가 빈번하다. 만일 해당 전자 기기의 위치를 알지 못할 때 무선 헤드셋에 해당 전자 기기의 위치를 판별 가능한 입체 음향 기술을 적용한 알람 소리를 재생하여 사용자가 쉽게 해당 기기를 찾을 수 있는 기술이 제안될 필요가 있다.With the development of wireless technology, the frequency of using a wireless headset for the purpose of listening to music or an online meeting has rapidly increased. Users frequently use two or three electronic devices, including smartphones and tablets, at the same time. If the location of the corresponding electronic device is not known, there is a need to propose a technology that enables a user to easily find the corresponding electronic device by playing an alarm sound to which a stereoscopic sound technology capable of determining the location of the corresponding electronic device is applied to a wireless headset.

무선 헤드셋 없이도 전자 기기에서 직접 소리를 발생시키면 사용자가 위치를 바로 알아차릴 수 있다. 더 나아가, 휴대용 전자 기기에서 비가청 소리를 발생하여 사용자가 착용 중인 무선 헤드셋으로 위치를 판별할 수 있도록 하여 사용자의 프라이버시 및 주변 다른 사람에게 방해되지 않도록 하기 위한 기술이 요구된다. Even without a wireless headset, a sound can be generated directly from an electronic device so that the user can immediately recognize the location. Furthermore, there is a need for a technology for generating an inaudible sound from a portable electronic device so that the user can determine the location with the wireless headset he is wearing so as not to disturb the user's privacy and others around him.

무선 헤드셋을 착용한 사용자와 전자 기기(휴대 기기)와의 상대적인 위치 정보를 판별하고, 판별된 상대적인 위치 정보에 해당하는 입체 음향 기술을 적용해서 사용자가 3차원 공간 속에서 전자 기기의 위치를 쉽게 찾을 수 있도록 하는 방법 및 시스템을 제공할 수 있다.By determining the relative location information between the user wearing the wireless headset and the electronic device (mobile device), and applying the stereophonic sound technology corresponding to the determined relative location information, the user can easily find the location of the electronic device in 3D space. A method and system for doing so can be provided.

위치 탐색 시스템에서 수행되는 위치 탐색 방법은, 위치 데이터를 탐색하고자 하는 다른 전자 기기로부터 발생되는 소리 데이터를 수신하는 단계; 상기 수신된 소리 데이터를 이용하여 전자 기기를 기준으로 상기 다른 전자 기기와의 상대적 위치 정보를 판별하는 단계; 및 상기 판별된 상대적 위치 정보에 기초하여 생성된 입체 음향정보를 상기 전자 기기에 재생시키는 단계를 포함할 수 있다. A location search method performed in a location search system includes the steps of: receiving sound data generated from another electronic device for which location data is to be searched; determining relative position information with the other electronic device based on the electronic device using the received sound data; and reproducing the stereophonic sound information generated based on the determined relative position information to the electronic device.

상기 수신하는 단계는, 상기 다른 전자 기기로부터 발생되는 가청 주파수 이상의 음역대의 음파 데이터를 수신하는 단계를 포함하고, 상기 상대적 위치 정보를 판별하는 단계는, 상기 수신된 음파 데이터를 분석하여 상기 다른 전자 기기와의 상대적 위치 정보를 판별하는 단계를 포함할 수 있다. The receiving may include receiving sound wave data in a sound range above an audible frequency generated from the other electronic device, and determining the relative location information may include analyzing the received sound wave data and the other electronic device. It may include the step of determining the relative position information of the

상기 상대적 위치 정보를 판별하는 단계는, 3 차원 공간에서 상기 전자 기기를 착용한 사용자의 양쪽 귀에 도달되는 음파 데이터에 대한 음량의 차이(Interaural Level Difference; ILD)에 기초하여 상기 다른 전자 기기와의 상대적 위치 정보에 해당하는 음량의 차이값을 계산하는 단계를 포함할 수 있다. The determining of the relative position information may include: based on an Interaural Level Difference (ILD) of sound wave data arriving at both ears of a user wearing the electronic device in a three-dimensional space, relative to the other electronic device. It may include calculating a difference value of the volume corresponding to the location information.

상기 상대적 위치 정보를 판별하는 단계는, 3 차원 공간에서 상기 전자 기기를 착용한 사용자의 양쪽 귀에 도달되는 음파 데이터에 대한 시간의 차이(Interaural Time Difference; ITD)에 기초하여 상기 다른 전자 기기와의 상대적 위치 정보에 해당하는 시간의 차이값을 계산하는 단계를 포함할 수 있다. The determining of the relative location information may include: based on an Interaural Time Difference (ITD) of sound wave data arriving at both ears of a user wearing the electronic device in a three-dimensional space, the relative position with the other electronic device It may include calculating a time difference value corresponding to the location information.

상기 상대적 위치 정보를 판별하는 단계는, 3 차원 공간에서 다른 전자 기기로부터 발생되는 음파 데이터에 대하여 머리 전달 함수(Head-Related Transfer Function; HRTF)를 사용하여 상기 다른 전자 기기와의 상대적 위치 정보를 판별하는 단계를 포함할 수 있다. The determining of the relative position information includes determining the relative position information with the other electronic device using a Head-Related Transfer Function (HRTF) for sound wave data generated from another electronic device in a three-dimensional space. may include the step of

상기 재생시키는 단계는, 전자 기기에 출력되는 재생음에 상기 판별된 상대적 위치 정보에 대응하는 3차원 입체 음향 기술을 적용하는 단계를 포함할 수 있다. The reproducing may include applying a 3D stereophonic sound technology corresponding to the determined relative position information to the reproducing sound output to the electronic device.

상기 재생시키는 단계는, 미리 정해진 알람 소리에 상기 판별된 다른 전자 기기와의 상대적 위치 정보를 계산한 음량의 차이값을 적용하여 음체 음향정보를 생성하는 단계를 포함할 수 있다. The reproducing may include generating sound body sound information by applying a volume difference value obtained by calculating relative position information with respect to the determined other electronic device to a predetermined alarm sound.

상기 재생시키는 단계는, 미리 정해진 알람 소리에 상기 판별된 다른 전자 기기와의 상대적 위치 정보를 계산한 시간의 차이값을 적용하여 음체 음향정보를 생성하는 단계를 포함할 수 있다. The reproducing may include generating sound body sound information by applying a time difference value obtained by calculating relative position information with the determined other electronic device to a predetermined alarm sound.

상기 전자 기기는, 상기 다른 전자 기기로부터 발생되는 소리 데이터를 전달받는 것이 가능한 무선 이어폰 또는 무선 헤드셋을 포함하고, 상기 위치 데이터를 탐색하고자 하는 전자 기기는, 가청 주파수 이상의 음역대의 음파 데이터를 발생시키는 휴대 기기를 포함할 수 있다. The electronic device includes a wireless earphone or a wireless headset capable of receiving sound data generated from the other electronic device, and the electronic device for which the location data is to be searched is a portable device that generates sound wave data in a sound range greater than or equal to an audible frequency. may include devices.

상기 재생시키는 단계는, 음성 안내(예: 10시 방향 3미터 지점)를 통해 전자 기기의 위치 정보를 제공하는 단계를 포함할 수 있다. The reproducing may include providing location information of the electronic device through voice guidance (eg, at a point of 3 meters in the 10 o'clock direction).

위치 탐색 시스템은, 위치 데이터를 탐색하고자 하는 다른 전자 기기로부터 발생되는 소리 데이터를 수신하는 소리 수신부; 상기 수신된 소리 데이터를 이용하여 전자 기기를 기준으로 상기 다른 전자 기기와의 상대적 위치 정보를 판별하는 위치 판별부; 및 상기 판별된 상대적 위치 정보에 기초하여 생성된 입체 음향정보를 상기 전자 기기에 재생시키는 음향 재생부를 포함할 수 있다. The location search system includes: a sound receiver configured to receive sound data generated from another electronic device for which location data is to be searched; a location determining unit that determines relative location information with respect to the electronic device based on the electronic device using the received sound data; and a sound reproducing unit that reproduces the stereoscopic sound information generated based on the determined relative position information to the electronic device.

무선 헤드셋 사용자는 전자 기기의 위치를 청취 중인 음향을 그대로 재생하면서(음악 혹은 상대방의 목소리) 공간 정보를 담은 입체음향 정보를 사용해 손쉽게 위치 판별이 가능하다.A wireless headset user can easily determine the location of an electronic device by using stereoscopic sound information containing spatial information while reproducing the listening sound as it is (music or the other person's voice).

무선 헤드셋과 전자 기기 사이에서는 가청주파수 대역 밖의 음향 신호를 사용하므로 주변인들에게는 아무런 방해가 되지 않고 원하는 목적을 수행할 수 있다는 장점이 있다.Since an acoustic signal outside the audible frequency band is used between the wireless headset and the electronic device, there is an advantage in that a desired purpose can be performed without disturbing the people around the wireless headset.

도 1은 일 실시예에 있어서, 3차원 공간 안의 객체에서 발생한 소리 데이터가 청취자의 두 귀로 도달하는 경로를 설명하기 위한 예이다.
도 2는 일 실시예에 따른 위치 탐색 시스템의 구성을 설명하기 위한 블록도이다.
도 3은 일 실시예에 따른 위치 탐색 시스템에서 위치 탐색 방법을 설명하기 위한 흐름도이다.
도 4는 일 실시예에 있어서, 상대적 위치 정보를 판별하는 방법을 설명하기 위한 예이다.
1 is an example for explaining a path through which sound data generated from an object in a three-dimensional space reaches both ears of a listener, according to an embodiment.
2 is a block diagram illustrating a configuration of a location search system according to an embodiment.
3 is a flowchart illustrating a location search method in a location search system according to an embodiment.
4 is an example for explaining a method of determining relative position information according to an embodiment.

이하, 실시예를 첨부한 도면을 참조하여 상세히 설명한다.Hereinafter, embodiments will be described in detail with reference to the accompanying drawings.

도 1은 일 실시예에 있어서, 3차원 공간 안의 객체에서 발생한 소리 데이터가 청취자의 두 귀로 도달하는 경로를 설명하기 위한 예이다. 1 is an example for explaining a path through which sound data generated from an object in a three-dimensional space arrives to both ears of a listener, according to an embodiment.

실시예에서는 사용자가 전자 기기(예: 블루투스 이어폰, 헤드폰 등의 무선 헤드셋)를 착용 시 주변의 다른 전자 기기(예: 스마트폰)의 위치를 청각적으로 알려주는 동작을 설명하기로 한다. 사용자가 전자 기기를 착용 시 다른 전자 기기의 위치를 판별할 필요가 있을 때, 사용자가 듣는 재생음에 알람 소리를 통해 다른 전자 기기의 위치를 판별할 수 있도록 3차원 음향 기술을 사용해 덧입혀 재생시킬 수 있다. In the embodiment, when a user wears an electronic device (eg, a wireless headset such as a Bluetooth earphone or headphones), an operation of notifying the user of the location of another electronic device (eg, a smartphone) in the vicinity will be described. When the user needs to determine the location of another electronic device when wearing the electronic device, the user can play the sound by overlaying the sound to the playback sound to determine the location of the other electronic device through the alarm sound. have.

위치 탐색 시스템은 전자 기기 및 위치 데이터를 탐색하고자 하는 다른 전자 기기에서 동작될 수 있다. 예를 들면, 위치 탐색 시스템은 전자 기기 및 상기 다른 전자 기기에서 프로그램 또는 앱 형태로 구동될 수 있다. The location search system may be operated in an electronic device and other electronic devices for which location data is to be searched. For example, the location search system may be driven in the form of a program or an app in the electronic device and the other electronic device.

전자 기기 및 상기 다른 전자 기기는 컴퓨터 시스템으로 구현되는 고정형 단말이거나 이동형 단말일 수 있다. 전자 기기 및 상기 다른 전자 기기의 예를 들면, 헤드셋, 이어폰, 스마트폰(smart phone), 휴대폰, 내비게이션, 컴퓨터, 노트북, 디지털방송용 단말, PDA(Personal Digital Assistants), PMP(Portable Multimedia Player), 태블릿 PC, 게임 콘솔(game console), 웨어러블 디바이스(wearable device), IoT(internet of things) 디바이스, VR(virtual reality) 디바이스, AR(augmented reality) 디바이스 등이 있다. 실시예들에서 전자 기기 및 상기 다른 전자 기기는 실질적으로 무선 또는 유선 통신 방식을 이용하여 네트워크를 통해 다른 전자 기기들 및/또는 서버와 통신할 수 있는 다양한 물리적인 컴퓨터 시스템들 중 하나를 의미할 수 있다. 실시예에서는 전자 기기는 무선 헤드셋, 다른 전자 기기는 휴대 기기(예를 들면, 스마트 폰)이라고 가정하기로 한다. The electronic device and the other electronic device may be a fixed terminal implemented as a computer system or a mobile terminal. Electronic devices and other electronic devices include, for example, headsets, earphones, smart phones, mobile phones, navigation devices, computers, laptops, digital broadcasting terminals, personal digital assistants (PDAs), portable multimedia players (PMPs), and tablets. There are PCs, game consoles, wearable devices, Internet of things (IoT) devices, virtual reality (VR) devices, augmented reality (AR) devices, and the like. In embodiments, the electronic device and the other electronic device may refer to one of various physical computer systems capable of communicating with other electronic devices and/or servers through a network using a wireless or wired communication method. have. In the embodiment, it is assumed that the electronic device is a wireless headset and the other electronic device is a portable device (eg, a smart phone).

상세하게는, 위치 탐색 시스템은 3차원 공간 안에서의 위치 데이터가 불분명한 다른 전자 기기의 위치 데이터를 사용자(사용자가 착용하고 있는 무선 헤드셋)에게 청각적으로 알려줄 수 있다. 다시 말해, 사용자가 다른 전자 기기의 위치를 탐색하고자 하는 경우, 다른 전자 기기의 위치 데이터를 판별 후, 전자 기기에서 발생하는 알람 소리의 전처리 과정을 거쳐 해당 위치에서 알람 소리가 들리도록 할 수 있다. 이는 기본적으로 두 귀에서 들리는 소리 데이터에 대한 시간의 차이(Interaural Time Difference; ITD) 및 음량의 차이(Interaural Level Difference; ILD), 그리고 포괄적으로는 3차원 공간의 물체의 사용자 대비 상대 위치를 판별하여 이에 해당하는 머리 전달 함수(Head-Related Transfer Function; HRTF)를 사용해 청각적으로 사용자가 전자 기기의 위치를 용이하게 찾을 수 있도록 하는 데에 있다

Figure pat00001
In detail, the location search system may audibly inform a user (a wireless headset worn by the user) of location data of another electronic device whose location data is unclear in a three-dimensional space. In other words, when the user intends to search for a location of another electronic device, after determining the location data of the other electronic device, an alarm sound may be heard at the corresponding location through a preprocessing process of an alarm sound generated by the electronic device. This is basically by determining the difference in time (Interaural Time Difference; ITD) and the difference in volume (ILD) for sound data heard from both ears, and comprehensively, by determining the relative position of the object in the three-dimensional space with respect to the user. The purpose of this is to enable the user to easily locate the electronic device aurally by using a corresponding head-related transfer function (HRTF).
Figure pat00001

도 1에서 제시된 것과 같이, 3차원 공간 안에 객체(예를 들면, 다른 전자 기기)가 존재하는 경우, 객체로부터 발생되는 소리 데이터는 양쪽 귀에 음량의 차이 및 소리의 시간 차이를 두고 도달하게 된다. 이는 사용자가 객체의 위치 데이터를 판별하는데 아주 중요한 정보가 된다. 이외에도 양쪽 귀에 도착하는 소리의 음향적인 특성이 객체의 상대적인 위치가 두부의 해부학적 구조에 따라 달라질 수 있는데, 이를 머리 전달 함수라고 한다. As shown in FIG. 1 , when an object (eg, another electronic device) exists in a three-dimensional space, sound data generated from the object arrives at both ears with a difference in volume and a time difference between the sounds. This becomes very important information for the user to determine the location data of the object. In addition, the acoustic characteristics of the sound arriving at both ears may vary depending on the anatomical structure of the head and the relative position of the object, which is called a head transfer function.

만일 전자 기기에서 발생하는 소리의 신호를

Figure pat00002
로 정의한다고 하면 해당하는 소리가 사용자의 양쪽 귀에 도달하는 경우의 신호는 다음과 같이 표현이 가능하다.If the sound signal generated by the electronic device is
Figure pat00002
If defined as , the signal when the corresponding sound reaches both ears of the user can be expressed as follows.

Figure pat00003
(1a)
Figure pat00003
(1a)

Figure pat00004
(1b)
Figure pat00004
(1b)

여기에서

Figure pat00005
은 3차원 공간 내에서 전자 기기의 위치로부터 각각 왼쪽, 오른쪽 귀에 해당하는 위치로 3차원 공간 내의 음파가 전달되는 Head-Related Impulse Response(HRIR),
Figure pat00006
는 컨볼루션,
Figure pat00007
Figure pat00008
은 양쪽 귀에 도달하는 배경 잡음을 의미한다. HRIR 은 공간 내의 위치 정보를 판별하게 하는 음향 정보이며 이것의 푸리에 변환을 한 것이 머리전달함수(HRTF) 이다. 사용자는 발생한 소리의 신호
Figure pat00009
가 3차원 공간을 통해서 전달 된 후 양쪽 귀에 도달하는
Figure pat00010
Figure pat00011
의 차이를 통해 해당 물체의 3차원 공간에서의 위치를 판단할 수 있다.From here
Figure pat00005
is Head-Related Impulse Response (HRIR), in which sound waves in 3D space are transmitted from the position of the electronic device in the 3D space to the positions corresponding to the left and right ears, respectively,
Figure pat00006
is the convolution,
Figure pat00007
class
Figure pat00008
is the background noise reaching both ears. HRIR is acoustic information that allows to discriminate position information in space, and the head transfer function (HRTF) is a Fourier transform of this. The user is the signal of the sound
Figure pat00009
is transmitted through the three-dimensional space and reaches both ears.
Figure pat00010
class
Figure pat00011
It is possible to determine the position of the object in 3D space through the difference in .

만일 배경 잡음이 없다고 가정하고

Figure pat00012
양쪽 귀에 도달하는 신호가 음량 감쇄 및 시간차로만 구성된다면 HRIR 은 각각 다음과 같이 표현 가능하다.Assuming there is no background noise
Figure pat00012
If the signal reaching both ears consists only of volume attenuation and time difference, HRIR can be expressed as follows, respectively.

Figure pat00013
(2a)
Figure pat00013
(2a)

Figure pat00014
(2b)
Figure pat00014
(2b)

여기에서

Figure pat00015
은 각각 왼쪽 귀에 도달하는 음량 감쇄 및 도달 시간을 의미하며
Figure pat00016
은 각각 오른쪽 귀에 도달하는 음량 감쇄 및 도달 시간을 의미한다. 이 경우 각 HRIR 의 푸리에 변환을 하게 되면 다음과 같이 HRTF 를 구할 수 있다.From here
Figure pat00015
is the volume decay and arrival time to the left ear, respectively.
Figure pat00016
denotes the volume decay and arrival time to the right ear, respectively. In this case, if Fourier transform of each HRIR is performed, HRTF can be obtained as follows.

Figure pat00017
(3a)
Figure pat00017
(3a)

Figure pat00018
(3b)
Figure pat00018
(3b)

여기에서

Figure pat00019
는 푸리에변환의 주파수에 해당된다.From here
Figure pat00019
is the frequency of the Fourier transform.

따라서 해당 기기의 위치는 소리 정보가 양쪽 귀에 도달하는 시간의 차이(ITD), 즉

Figure pat00020
및 음량의 차이(ILD)
Figure pat00021
(데시벨 기준으로는
Figure pat00022
(dB)) 를 통해서 사용자가 판별 가능하다. 주어진 두 개의 신호를 기반으로 ITD 및 ILD 를 판별하는 기술은 다수 존재한다.Therefore, the location of the device is the difference in time for sound information to reach both ears (ITD), i.e.
Figure pat00020
and difference in volume (ILD)
Figure pat00021
(in decibels)
Figure pat00022
(dB)) through which the user can determine. There are many techniques for discriminating ITD and ILD based on two given signals.

이와 같이 머리 전달 함수는 동일한 소리 데이터를 전방위에서 발생시켜 방향에 따른 주파수 반응을 측정하여 3차원 함수로 정의한 것을 의미한다. 소리가 음원으로부터 발생하여 청자의 귀로 전달될 때, 소리는 다양한 경로를 거치게 된다. 예를 들면, 실내에서 발생한 음원을 청취한다고 가정하였을 때, 음원에서 청자의 귀까지 최단거리로 전달되는 직접음이 있다. 또한, 1차적으로 바닥, 벽체 또는 천장에서 반사되어 들어오는 초기 반사음이 있고, 다차적으로 반사, 흡음, 회절 혹은 확산되어 들어오는 후기 반사음이 있다. 이에 대한 전달경로는 예를 들면, 실내음향 측정방법에 따라 충격음 또는 특정 레코딩을 통해 획득될 수 있다. 그런데, 마이크의 경우 수음점으로 가정되어 실내 객체에 의한 전달경로만 정의되면 되지만, 실제 청취자의 경우 신체가 있고 외이가 존재하여 그에 대한 영향 또는 전달경로도 고려되어야 한다. 이것이 바로 머리 전달 함수이다. 머리 전달 함수는 가슴팍, 어깨, 외이, 머리, 코 등의 신체의 형상에 대한 영향이 포함되어 있기 때문에 사람에 따라 다를 수 있다. 실시예에서는 수 많은 사람들의 머리전달함수의 결과값을 얻어 데이터화 한 표준 머리 전달 함수가 사용될 수 있다. As such, the head transfer function is defined as a three-dimensional function by generating the same sound data from all directions and measuring the frequency response according to the direction. When sound is generated from a sound source and transmitted to the listener's ear, the sound passes through various paths. For example, when it is assumed that a sound source generated in a room is listened to, there is a direct sound transmitted from the sound source to the listener's ear in the shortest distance. In addition, there is an early reflected sound that is primarily reflected from the floor, wall, or ceiling, and a late reflected sound that is reflected, absorbed, diffracted, or diffused in the second order. A transmission path for this may be obtained, for example, through an impact sound or a specific recording according to a method for measuring room acoustics. However, in the case of a microphone, it is assumed that it is a sound pickup point and only a transmission path by an indoor object needs to be defined. This is the head transfer function. The head transfer function may vary from person to person because it includes influences on the shape of the body such as chest, shoulders, outer ear, head, and nose. In the embodiment, a standard head transfer function obtained by dataizing the results of the head transfer function of many people may be used.

도 1에 도시된 바와 같이, 3차원 공간 안의 객체로부터 발생된 소리 데이터가 청취자의 두 귀에 도달되는 경로를 나타낸 예이다. 실시예에서는 객체의 위치 데이터를 판별하기 위한 소리 데이터에 대한 시간의 차이, 음량의 차이, 머리 전달 함수 등을 활용하여 사용자에게 위치 불명의 다른 전자 기기의 위치 데이터를 입체 음향 기법을 통해 제공할 수 있다. As shown in FIG. 1 , it is an example showing a path through which sound data generated from an object in a three-dimensional space reaches both ears of a listener. In an embodiment, location data of other electronic devices of unknown location may be provided to the user through stereophonic sound techniques by utilizing a time difference, a volume difference, a head transfer function, etc. for sound data for determining the location data of an object. have.

만일 휴대기기의 위치 판별을 위해 재생하고자 하는 비프음의 신호를

Figure pat00023
로 정의하고 HRTF 는 ITD
Figure pat00024
와 ILD
Figure pat00025
로 구성된다면 무선헤드셋의 왼쪽, 오른쪽 에서 각기 재생하게 될 신호
Figure pat00026
Figure pat00027
는 다음과 같다.If the beep signal to be reproduced to determine the location of the mobile device is
Figure pat00023
, and HRTF is ITD
Figure pat00024
and ILD
Figure pat00025
signal to be played on the left and right sides of the wireless headset, respectively.
Figure pat00026
class
Figure pat00027
is as follows

Figure pat00028
(4a)
Figure pat00028
(4a)

Figure pat00029
(4b)
Figure pat00029
(4b)

만일 HRTF 가 ITD, ILD 외의 다른 정보들을 포함한다면 이에 해당하는 HRTF 의 푸리에 역변환에 해당하는HRIR 를

Figure pat00030
로 표현한다면 무선헤드셋에서 재생하게 될 신호
Figure pat00031
Figure pat00032
는 다음과 같다.If the HRTF includes information other than ITD and ILD, the HRIR corresponding to the inverse Fourier transform of the corresponding HRTF is calculated.
Figure pat00030
If expressed as , the signal to be reproduced in the wireless headset
Figure pat00031
class
Figure pat00032
is as follows

Figure pat00033
(5a)
Figure pat00033
(5a)

Figure pat00034
(5b)
Figure pat00034
(5b)

도 2는 일 실시예에 따른 위치 탐색 시스템의 구성을 설명하기 위한 블록도이고, 도 3은 일 실시예에 따른 위치 탐색 시스템에서 위치 탐색 방법을 설명하기 위한 흐름도이다.2 is a block diagram illustrating a configuration of a location search system according to an embodiment, and FIG. 3 is a flowchart illustrating a location search method in the location search system according to an embodiment.

위치 탐색 시스템(100)의 프로세서는 소리 수신부(210), 위치 판별부(220) 및 음향 재생부(230)를 포함할 수 있다. 이러한 프로세서의 구성요소들은 위치 탐색 시스템에 저장된 프로그램 코드가 제공하는 제어 명령에 따라 프로세서에 의해 수행되는 서로 다른 기능들(different functions)의 표현들일 수 있다. 프로세서 및 프로세서의 구성요소들은 도 3의 위치 탐색 방법이 포함하는 단계들(310 내지 330)을 수행하도록 위치 탐색 시스템을 제어할 수 있다. 이때, 프로세서 및 프로세서의 구성요소들은 메모리가 포함하는 운영체제의 코드와 적어도 하나의 프로그램의 코드에 따른 명령(instruction)을 실행하도록 구현될 수 있다.The processor of the location search system 100 may include a sound receiver 210 , a location determiner 220 , and a sound reproducer 230 . These processor components may be representations of different functions performed by the processor in accordance with control instructions provided by program code stored in the location search system. The processor and components of the processor may control the location search system to perform steps 310 to 330 included in the location search method of FIG. 3 . In this case, the processor and the components of the processor may be implemented to execute instructions according to the code of the operating system included in the memory and the code of at least one program.

프로세서는 위치 탐색 방법을 위한 프로그램의 파일에 저장된 프로그램 코드를 메모리에 로딩할 수 있다. 예를 들면, 위치 탐색 시스템에서 프로그램이 실행되면, 프로세서는 운영체제의 제어에 따라 프로그램의 파일로부터 프로그램 코드를 메모리에 로딩하도록 위치 탐색 시스템을 제어할 수 있다. 이때, 소리 수신부(210), 위치 판별부(220) 및 음향 재생부(230) 각각은 메모리에 로딩된 프로그램 코드 중 대응하는 부분의 명령을 실행하여 이후 단계들(310 내지 330)을 실행하기 위한 프로세서의 서로 다른 기능적 표현들일 수 있다.The processor may load the program code stored in the file of the program for the location search method into the memory. For example, when a program is executed in the location search system, the processor may control the location search system to load a program code from a file of the program into a memory according to the control of the operating system. At this time, each of the sound receiving unit 210 , the location determining unit 220 , and the sound reproducing unit 230 executes a command of a corresponding part of the program code loaded in the memory to execute subsequent steps 310 to 330 . They may be different functional representations of the processor.

단계(310)에서 소리 수신부(210)는 위치 데이터를 탐색하고자 하는 다른 전자 기기로부터 발생되는 소리 데이터를 수신할 수 있다. 소리 수신부(210)는 다른 전자 기기로부터 발생되는 가청 주파수 이상의 음역대의 음파 데이터를 수신할 수 있다. 소리 수신부(210)는 수신된 음파 데이터를 저장할 수 있다. In step 310 , the sound receiver 210 may receive sound data generated from another electronic device for which location data is to be searched. The sound receiving unit 210 may receive sound wave data in a sound range greater than or equal to an audible frequency generated from another electronic device. The sound receiver 210 may store the received sound wave data.

단계(320)에서 위치 판별부(220)는 전자 기기를 기준으로 위치 데이터를 탐색하고자 하는 다른 전자 기기와의 상대적 위치 정보를 판별할 수 있다. 위치 판별부(220)는 수신된 음파 데이터를 분석하여 다른 전자 기기와의 상대적 위치 정보를 판별할 수 있다. 예를 들면 위치 판별부(220)는 수신된 음파 데이터를 기 설정된 값과 비교하여 다른 전자 기기와의 상대적 위치 정보를 판별할 수 있다. In step 320 , the location determining unit 220 may determine relative location information with respect to another electronic device for which location data is to be searched based on the electronic device. The location determining unit 220 may analyze the received sound wave data to determine relative location information with respect to other electronic devices. For example, the location determination unit 220 may compare the received sound wave data with a preset value to determine relative location information with respect to other electronic devices.

도 4를 참고하면, 상대적 위치 정보를 판별하는 방법을 설명하기 위한 흐름도이다. 400에서 다른 전자 기기로부터 발생되는 가청 주파수 이상의 음역대의 음파 데이터가 수신될 수 있다. 이때, 전자 기기에서 다른 전자 기기로 위치 탐색을 위한 요청 정보가 전달될 수 있다. 이에, 다른 전자 기기로부터 전자 기기에 대한 요청 정보에 응답하여 음파 데이터가 발생될 수 있다. 일례로, 위치 판별부(220)는 다른 전자 기기와의 상대적 위치 정보를 판별하기 위한 어느 하나의 방식을 선택할 수 있다. 예를 들면, 사용자로부터 선택된 상대적 위치 정보를 판별하기 위한 방식을 수신할 수 있고, 수신된 방식을 이용하여 상대적 위치 정보를 계산할 수 있다. 또는, 컴퓨터/프로그램에 의하여 랜덤으로 상대적 위치 정보를 판별하기 위한 방식이 선택될 수 있다. Referring to FIG. 4 , it is a flowchart for explaining a method of determining relative location information. At 400 , sound wave data in a sound range greater than or equal to an audible frequency generated from another electronic device may be received. In this case, request information for location search may be transmitted from the electronic device to another electronic device. Accordingly, sound wave data may be generated in response to request information for an electronic device from another electronic device. For example, the location determining unit 220 may select any one method for determining relative location information with respect to another electronic device. For example, a method for determining the relative position information selected from the user may be received, and the relative position information may be calculated using the received method. Alternatively, a method for randomly determining relative position information may be selected by a computer/program.

410에서 위치 판별부(220)는 3 차원 공간에서 전자 기기를 착용한 사용자의 양쪽 귀에 도달되는 음파 데이터에 대한 음량의 차이(Interaural Level Difference; ILD)를 계산할 수 있다. 예를 들면, 음량의 차이란 두 귀의 음압의 세기(강도) 차이를 의미한다. 음원의 위치에 따른 두 귀까지의 경로 차이와, 경로 차이에 의한 감소량의 차이로 발생한다. 위치 판별부(220) 전자 기기를 착용한 사용자의 양쪽 귀에 도달되는 음파 데이터에 대한 음량의 차이에 기초하여 다른 전자 기기와의 상대적 위치 정보에 해당하는 음량의 차이값을 계산할 수 있다. At 410 , the location determining unit 220 may calculate an Interaural Level Difference (ILD) of sound wave data reaching both ears of a user wearing an electronic device in a three-dimensional space. For example, the difference in volume means the difference in the intensity (strength) of sound pressure between the two ears. It is caused by the difference in the path to the two ears according to the location of the sound source and the difference in the amount of decrease due to the difference in the path. The location determining unit 220 may calculate a difference in volume corresponding to relative location information with another electronic device based on a difference in volume of sound wave data reaching both ears of a user wearing the electronic device.

420에서 위치 판별부(220)는 3 차원 공간에서 상기 전자 기기를 착용한 사용자의 양쪽 귀에 도달되는 음파 데이터에 대한 시간의 차이(Interaural Time Difference; ITD)를 계산할 수 있다. 시간의 차이란 두 귀 사이의 음의 시간차를 의미한다. 위치 판별부(220)는 전자 기기를 착용한 사용자의 양쪽 귀에 도달되는 음파 데이터에 대한 시간의 차이에 기초하여 다른 전자 기기와의 상대적 위치 정보에 해당하는 시간의 차이값을 계산할 수 있다. In step 420 , the location determining unit 220 may calculate an Interaural Time Difference (ITD) for sound wave data reaching both ears of a user wearing the electronic device in a three-dimensional space. The time difference means the time difference between the two ears. The location determining unit 220 may calculate a time difference value corresponding to relative location information with another electronic device based on a time difference for sound wave data reaching both ears of a user wearing the electronic device.

430에서 위치 판별부(220)는 3 차원 공간에서 다른 전자 기기로부터 발생되는 음파 데이터에 대하여 머리 전달 함수(Head-Related Transfer Function; HRTF)를 사용하여 다른 전자 기기와의 상대적 위치 정보를 판별할 수 있다. 머리 전달 함수는 머리와 귀의 모양에 따라 귀에서 수신되는 음향 신호의 특성을 의미한다. 인간의 청각기관을 모델링한 더미헤드 마이크를 이용하여 360도의 방위각과 180도의 고도각 사이를 일정하게 간격을 두고 각각의 위치에 대한 좌우 양쪽의 임펄스 응답을 구한 값이 도출될 수 있다. 머리 전달 함수는 음량의 차이, 시간의 차이의 단순한 경로 차이보다 머리 표면에서 회절, 귓바퀴의 굴곡들에 대한 반사 등 복잡한 경로 상의 특성이 음의 도래 방향에 따라 변하는 현상을 바탕으로 입체 음향을 지각할 수 있다. 각 방향의 머리 전달 함수가 유일한 특성을 가졌을 때, 이를 이용하면 입체 음향을 생성할 수 있게 된다. In 430, the position determining unit 220 may determine relative position information with other electronic devices by using a Head-Related Transfer Function (HRTF) for sound wave data generated from other electronic devices in a three-dimensional space. have. The head transfer function refers to the characteristics of the acoustic signal received from the ear according to the shape of the head and ears. Using a dummy head microphone modeled on a human auditory organ, a value obtained by obtaining the impulse responses of the left and right sides for each position at a constant interval between an azimuth angle of 360 degrees and an elevation angle of 180 degrees can be derived. The head transfer function can perceive stereophonic sound based on the phenomenon in which complex path characteristics such as diffraction from the surface of the head and reflections on the curves of the pinna change depending on the direction of the sound rather than the simple path difference of the difference in volume and time. can When the head transfer function in each direction has a unique characteristic, it is possible to create a stereophonic sound by using it.

단계(330)에서 음향 재생부(230)는 판별된 상대적 위치 정보에 기초하여 생성된 입체 음향정보를 전자 기기에 재생시킬 수 있다. 음향 재생부(230)는 전자 기기에 출력되는 재생음에 판별된 상대적 위치 정보에 대응하는 3차원 입체 음향 기술을 적용할 수 있다. 음향 재생부(230)는 미리 정해진 알람 소리에 판별된 다른 전자 기기와의 상대적 위치 정보를 계산한 음량의 차이값을 적용하여 입체 음향정보를 생성할 수 있다. 미리 정해진 알람 소리가 비프음이라고 가정하여 설명하기로 한다. 비프음(beep sound)이란, "삐" 라는 음으로 일반적으로 음높이가 높은 짧은 신호 톤으로서, 컴퓨터나 다른 기계에 의해 만들어 진다. 또한, 미리 정해진 알람 소리는 각 전자 기기에 따라 다르게 설정되어 있을 수 있다. 일례로, 음향 재생부(230)는 비프음에 대하여 음량의 차이값을 적용하여 입체 음향정보를 생성할 수 있다. 예를 들면, 음량의 차이값이 클수록 전자 기기와 다른 전자 기기간 거리가 먼 것을 의미할 수 있고, 음량의 차이가 작을수록 전자 기기와 다른 전자 기기간 거리가 가까운 것을 의미할 수 있다. 이때, 비프음에 음량의 차이값을 적용하기 위한 전처리 과정이 수행될 수 있다. 전처리 과정으로는 노이즈 제거, 음량의 차이값을 비프음에 적용하기 위한 포맷이 변경되는 과정 등이 포함될 수 있다. 전처리 과정이 수행됨에 따라 비프음에 음량의 차이값을 적용하여 입체 음향정보가 생성될 수 있다. 이때, 음량의 차이값에 따라 입체 음향정보의 속성 정보(크기, 빈도수, 빠르기)가 조절될 수 있다. In operation 330, the sound reproducing unit 230 may reproduce the stereoscopic sound information generated based on the determined relative position information to the electronic device. The sound reproducing unit 230 may apply a 3D stereophonic sound technology corresponding to the determined relative position information to the reproduced sound output to the electronic device. The sound reproducing unit 230 may generate stereophonic sound information by applying a volume difference value obtained by calculating relative position information with respect to another electronic device determined to a predetermined alarm sound. A description will be made on the assumption that the predetermined alarm sound is a beep sound. A beep sound is a "beep" sound, usually a short, high pitched signal tone produced by a computer or other machine. Also, the predetermined alarm sound may be set differently according to each electronic device. For example, the sound reproducing unit 230 may generate 3D sound information by applying a volume difference value to the beep sound. For example, a larger difference in volume may mean that the distance between the electronic device and another electronic device is greater, and a smaller difference in volume may mean a shorter distance between the electronic device and other electronic devices. In this case, a pre-processing process for applying the difference in volume to the beep sound may be performed. The pre-processing process may include noise removal, a process of changing a format for applying a volume difference value to a beep sound, and the like. As the preprocessing process is performed, 3D sound information may be generated by applying a difference in volume to the beep sound. In this case, the attribute information (size, frequency, and speed) of the stereoscopic sound information may be adjusted according to the difference value of the volume.

음향 재생부(230)는 미리 정해진 알람 소리에 판별된 다른 전자 기기와의 상대적 위치 정보를 계산한 시간의 차이값을 적용하여 음체 음향정보를 생성할 수 있다. 일례로, 음향 재생부(230)는 비프음에 대하여 시간의 차이값을 적용하여 입체 음향정보를 생성할 수 있다. 예를 들면, 시간의 차이값이 클수록 전자 기기와 다른 전자 기기간 거리가 먼 것을 의미할 수 있고, 시간의 차이값이 작을수록 전자 기기와 다른 전자 기기간 거리가 가까운 것을 의미할 수 있다. 이때, 비프음에 시간의 차이값을 적용하기 위한 전처리 과정이 수행될 수 있다. 전처리 과정으로는 노이즈 제거, 시간의 차이값을 비프음에 적용하기 위한 포맷이 변경되는 과정 등이 포함될 수 있다. 전처리 과정이 수행됨에 따라 비프음에 시간의 차이값을 입체 음향정보가 생성될 수 있다. 이때, 시간의 차이값에 따라 입체 음향정보의 속성 정보(크기, 빈도수, 빠르기)가 조절될 수 있다. The sound reproducing unit 230 may generate sound body sound information by applying a time difference value obtained by calculating relative position information with respect to another electronic device determined in advance to the alarm sound. For example, the sound reproducing unit 230 may generate 3D sound information by applying a time difference value to the beep sound. For example, a larger time difference value may mean that the distance between the electronic device and another electronic device is greater, and a smaller time difference value may mean a shorter distance between the electronic device and another electronic device. In this case, a pre-processing process for applying the time difference value to the beep sound may be performed. The pre-processing process may include noise removal, a process of changing a format for applying a time difference value to a beep sound, and the like. As the pre-processing process is performed, stereophonic information may be generated based on the time difference between the beeps. In this case, the attribute information (size, frequency, and speed) of the stereophonic sound information may be adjusted according to the time difference value.

또한, 음향 재생부(230)는 음성 안내를 통해 전자 기기의 위치 정보를 제공할 수 있다. 예를 들면, 10시 방향 3미터 지점에 전자 기기의 위치 정보가 있음을 음성으로 안내할 수 있다. Also, the sound reproducing unit 230 may provide location information of the electronic device through voice guidance. For example, the presence of location information of the electronic device at a point 3 meters in the 10 o'clock direction may be informed by voice.

실시예에 따르면, 전자 기기를 착용한 사용자는 청취 중인 음향(예를 들면, 통화, 음악)을 그대로 재생하면서 공간 정보(예를 들면, 왼쪽, 오른쪽, 위쪽, 아래쪽 등)를 담은 입체 음향정보를 사용하여 다른 전자 기기의 위치 데이터를 판별할 수 있다. 또한, 다른 전자 기기로부터 발생되는 음파 데이터를 주기적 또는 비주기적으로 수신하여 다른 전자 기기의 위치 데이터가 추적될 수 있고, 추적된 위치 데이터에 따라 다른 전자 기기를 찾을 수 있다. According to an embodiment, a user wearing an electronic device receives 3D sound information including spatial information (eg, left, right, top, bottom, etc.) while playing a sound (eg, call, music) being listened to as it is. can be used to determine the location data of other electronic devices. Also, by periodically or aperiodically receiving sound wave data generated from another electronic device, location data of the other electronic device may be tracked, and another electronic device may be found according to the tracked location data.

또한, 미리 정해진 알람 소리가 각 전자 기기에 따라 다르게 설정되어 있을 경우, 전자 기기를 착용한 사용자가 청취 중인 음향을 그대로 재생하면서 복수 개의 다른 전자 기기와 관련된 복수의 입체 음향정보가 재생음으로 출력될 수 있다. 이에, 동시에 복수 개의 다른 전자 기기를 인지할 수 있다.In addition, when a predetermined alarm sound is set differently for each electronic device, a plurality of 3D sound information related to a plurality of other electronic devices may be output as a reproduced sound while the sound being listened to by a user wearing the electronic device is reproduced as it is. have. Accordingly, a plurality of different electronic devices can be recognized at the same time.

이상에서 설명된 장치는 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치 및 구성요소는, 예를 들어, 프로세서, 콘트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPGA(field programmable gate array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 애플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 콘트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.The device described above may be implemented as a hardware component, a software component, and/or a combination of the hardware component and the software component. For example, devices and components described in the embodiments may include, for example, a processor, a controller, an arithmetic logic unit (ALU), a digital signal processor, a microcomputer, a field programmable gate array (FPGA). , a programmable logic unit (PLU), microprocessor, or any other device capable of executing and responding to instructions, may be implemented using one or more general purpose or special purpose computers. The processing device may execute an operating system (OS) and one or more software applications running on the operating system. A processing device may also access, store, manipulate, process, and generate data in response to execution of the software. For convenience of understanding, although one processing device is sometimes described as being used, one of ordinary skill in the art will recognize that the processing device includes a plurality of processing elements and/or a plurality of types of processing elements. It can be seen that can include For example, the processing device may include a plurality of processors or one processor and one controller. Other processing configurations are also possible, such as parallel processors.

소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치에 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.Software may comprise a computer program, code, instructions, or a combination of one or more thereof, which configures a processing device to operate as desired or is independently or collectively processed You can command the device. The software and/or data may be any kind of machine, component, physical device, virtual equipment, computer storage medium or apparatus, to be interpreted by or to provide instructions or data to the processing device. may be embodied in The software may be distributed over networked computer systems and stored or executed in a distributed manner. Software and data may be stored in one or more computer-readable recording media.

실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. The method according to the embodiment may be implemented in the form of program instructions that can be executed through various computer means and recorded in a computer-readable medium. The computer-readable medium may include program instructions, data files, data structures, etc. alone or in combination. The program instructions recorded on the medium may be specially designed and configured for the embodiment, or may be known and available to those skilled in the art of computer software. Examples of the computer-readable recording medium include magnetic media such as hard disks, floppy disks and magnetic tapes, optical media such as CD-ROMs and DVDs, and magnetic such as floppy disks. - includes magneto-optical media, and hardware devices specially configured to store and execute program instructions, such as ROM, RAM, flash memory, and the like. Examples of program instructions include not only machine language codes such as those generated by a compiler, but also high-level language codes that can be executed by a computer using an interpreter or the like.

이상과 같이 실시예들이 비록 한정된 실시예와 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기의 기재로부터 다양한 수정 및 변형이 가능하다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.As described above, although the embodiments have been described with reference to the limited embodiments and drawings, various modifications and variations are possible from the above description by those skilled in the art. For example, the described techniques are performed in an order different from the described method, and/or the described components of the system, structure, apparatus, circuit, etc. are combined or combined in a different form than the described method, or other components Or substituted or substituted by equivalents may achieve an appropriate result.

그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 특허청구범위의 범위에 속한다.Therefore, other implementations, other embodiments, and equivalents to the claims are also within the scope of the following claims.

Claims (11)

위치 탐색 시스템에서 수행되는 위치 탐색 방법에 있어서,
위치 데이터를 탐색하고자 하는 다른 전자 기기로부터 발생되는 소리 데이터를 수신하는 단계;
상기 수신된 소리 데이터를 이용하여 전자 기기를 기준으로 상기 다른 전자 기기와의 상대적 위치 정보를 판별하는 단계; 및
상기 판별된 상대적 위치 정보에 기초하여 생성된 입체 음향정보를 상기 전자 기기에 재생시키는 단계
를 포함하는 위치 탐색 방법.
In the location search method performed in the location search system,
Receiving sound data generated from another electronic device to search for location data;
determining relative location information with the other electronic device based on the electronic device using the received sound data; and
Reproducing the stereophonic sound information generated based on the determined relative position information in the electronic device
A method of locating a location that includes.
제1항에 있어서,
상기 수신하는 단계는,
상기 다른 전자 기기로부터 발생되는 가청 주파수 이상의 음역대의 음파 데이터를 수신하는 단계
를 포함하고,
상기 상대적 위치 정보를 판별하는 단계는,
상기 수신된 음파 데이터를 분석하여 상기 다른 전자 기기와의 상대적 위치 정보를 판별하는 단계
를 포함하는 위치 탐색 방법.
According to claim 1,
The receiving step is
Receiving sound wave data in a sound range higher than an audible frequency generated from the other electronic device
including,
The step of determining the relative position information,
Analyzing the received sound wave data to determine relative position information with the other electronic device
A method of locating a location that includes.
제2항에 있어서,
상기 상대적 위치 정보를 판별하는 단계는,
3 차원 공간에서 상기 전자 기기를 착용한 사용자의 양쪽 귀에 도달되는 음파 데이터에 대한 음량의 차이(Interaural Level Difference; ILD)에 기초하여 상기 다른 전자 기기와의 상대적 위치 정보에 해당하는 음량의 차이값을 계산하는 단계
를 포함하는 위치 탐색 방법.
3. The method of claim 2,
The step of determining the relative position information,
Based on an Interaural Level Difference (ILD) of sound wave data reaching both ears of a user wearing the electronic device in a three-dimensional space, a difference in volume corresponding to relative position information with the other electronic device is calculated. steps to count
A method of locating a location that includes.
제2항에 있어서,
상기 상대적 위치 정보를 판별하는 단계는,
3 차원 공간에서 상기 전자 기기를 착용한 사용자의 양쪽 귀에 도달되는 음파 데이터에 대한 시간의 차이(Interaural Time Difference; ITD)에 기초하여 상기 다른 전자 기기와의 상대적 위치 정보에 해당하는 시간의 차이값을 계산하는 단계
를 포함하는 위치 탐색 방법.
3. The method of claim 2,
The step of determining the relative position information,
Based on an Interaural Time Difference (ITD) of sound wave data reaching both ears of a user wearing the electronic device in a three-dimensional space, a time difference value corresponding to relative location information with the other electronic device is calculated. steps to count
A method of locating a location that includes.
제2항에 있어서,
상기 상대적 위치 정보를 판별하는 단계는,
3 차원 공간에서 다른 전자 기기로부터 발생되는 음파 데이터에 대하여 머리 전달 함수(Head-Related Transfer Function; HRTF)를 사용하여 상기 다른 전자 기기와의 상대적 위치 정보를 판별하는 단계
를 포함하는 위치 탐색 방법.
3. The method of claim 2,
The step of determining the relative position information,
Using a Head-Related Transfer Function (HRTF) for sound wave data generated from another electronic device in a three-dimensional space, determining relative position information with the other electronic device
A method of locating a location that includes.
제1항에 있어서,
상기 재생시키는 단계는,
전자 기기에 출력되는 재생음에 상기 판별된 상대적 위치 정보에 대응하는 3차원 입체 음향 기술을 적용하는 단계
를 포함하는 위치 탐색 방법.
According to claim 1,
The regenerating step is
applying a 3D stereophonic sound technology corresponding to the determined relative position information to the reproduced sound output to the electronic device
A method of locating a location that includes.
제6항에 있어서,
상기 재생시키는 단계는,
미리 정해진 알람 소리에 상기 판별된 다른 전자 기기와의 상대적 위치 정보를 계산한 음량의 차이값을 적용하여 음체 음향정보를 생성하는 단계
를 포함하는 위치 탐색 방법.
7. The method of claim 6,
The regenerating step is
generating sound body sound information by applying a volume difference value obtained by calculating relative position information with respect to the determined other electronic device to a predetermined alarm sound
A method of locating a location that includes.
제6항에 있어서,
상기 재생시키는 단계는,
미리 정해진 알람 소리에 상기 판별된 다른 전자 기기와의 상대적 위치 정보를 계산한 시간의 차이값을 적용하여 음체 음향정보를 생성하는 단계
를 포함하는 위치 탐색 방법.
7. The method of claim 6,
The regenerating step is
generating sound body sound information by applying a time difference value obtained by calculating relative position information with the determined other electronic device to a predetermined alarm sound
A method of locating a location that includes.
제1항에 있어서,
상기 전자 기기는, 상기 다른 전자 기기로부터 발생되는 소리 데이터를 전달받는 것이 가능한 무선 이어폰 또는 무선 헤드셋을 포함하고,
상기 위치 데이터를 탐색하고자 하는 전자 기기는, 가청 주파수 이상의 음역대의 음파를 발생시키는 휴대 기기를 포함하는
것을 특징으로 하는 위치 탐색 방법.
According to claim 1,
The electronic device includes a wireless earphone or a wireless headset capable of receiving sound data generated from the other electronic device,
The electronic device for which the location data is to be searched includes a portable device that generates sound waves in a sound range above an audible frequency.
A location search method, characterized in that.
제1항에 있어서,
상기 재생시키는 단계는,
음성 안내를 통해 전자 기기의 위치 정보를 제공하는 단계
를 포함하는 위치 탐색 방법.
According to claim 1,
The regenerating step is
Step of providing location information of the electronic device through voice guidance
A method of locating a location that includes.
위치 탐색 시스템에 있어서,
위치 데이터를 탐색하고자 하는 다른 전자 기기로부터 발생되는 소리 데이터를 수신하는 소리 수신부;
상기 수신된 소리 데이터를 이용하여 전자 기기를 기준으로 상기 다른 전자 기기와의 상대적 위치 정보를 판별하는 위치 판별부; 및
상기 판별된 상대적 위치 정보에 기초하여 생성된 입체 음향정보를 상기 전자 기기에 재생시키는 음향 재생부
를 포함하는 위치 탐색 시스템.
In the location search system,
a sound receiver configured to receive sound data generated from another electronic device for which location data is to be searched;
a location determining unit that determines relative location information with respect to the electronic device based on the electronic device using the received sound data; and
A sound reproducing unit that reproduces the stereoscopic sound information generated based on the determined relative position information to the electronic device
A location navigation system comprising a.
KR1020210023385A 2020-12-18 2021-02-22 System and methods for locating mobile devices using wireless headsets KR102519156B1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR20200179013 2020-12-18
KR1020200179013 2020-12-18

Publications (3)

Publication Number Publication Date
KR20220088259A true KR20220088259A (en) 2022-06-27
KR102519156B1 KR102519156B1 (en) 2023-04-10
KR102519156B9 KR102519156B9 (en) 2024-01-11

Family

ID=82246746

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210023385A KR102519156B1 (en) 2020-12-18 2021-02-22 System and methods for locating mobile devices using wireless headsets

Country Status (1)

Country Link
KR (1) KR102519156B1 (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20120080751A (en) * 2011-01-10 2012-07-18 주식회사 백송테크 The mobilephone loss prevent system and method using duplicate same protocol with headset profile in bluetooth system
KR101835675B1 (en) * 2016-10-05 2018-03-07 연세대학교 산학협력단 Apparatus for providing3d sound in augmmented reality environmentand method thereof

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20120080751A (en) * 2011-01-10 2012-07-18 주식회사 백송테크 The mobilephone loss prevent system and method using duplicate same protocol with headset profile in bluetooth system
KR101835675B1 (en) * 2016-10-05 2018-03-07 연세대학교 산학협력단 Apparatus for providing3d sound in augmmented reality environmentand method thereof

Also Published As

Publication number Publication date
KR102519156B9 (en) 2024-01-11
KR102519156B1 (en) 2023-04-10

Similar Documents

Publication Publication Date Title
CN109644314B (en) Method of rendering sound program, audio playback system, and article of manufacture
US9560467B2 (en) 3D immersive spatial audio systems and methods
US8620009B2 (en) Virtual sound source positioning
WO2017185663A1 (en) Method and device for increasing reverberation
US20060056638A1 (en) Sound reproduction system, program and data carrier
US10341799B2 (en) Impedance matching filters and equalization for headphone surround rendering
KR20170013931A (en) Determination and use of auditory-space-optimized transfer functions
US10652686B2 (en) Method of improving localization of surround sound
US11337020B2 (en) Controlling rendering of a spatial audio scene
US11356795B2 (en) Spatialized audio relative to a peripheral device
KR20190109019A (en) Method and apparatus for reproducing audio signal according to movenemt of user in virtual space
US11302339B2 (en) Spatial sound reproduction using multichannel loudspeaker systems
CN109327794B (en) 3D sound effect processing method and related product
KR102519156B1 (en) System and methods for locating mobile devices using wireless headsets
WO2023059838A1 (en) Headtracking adjusted binaural audio
US10735885B1 (en) Managing image audio sources in a virtual acoustic environment
EP4030783A1 (en) Indication of responsibility for audio playback
US11736886B2 (en) Immersive sound reproduction using multiple transducers
US20240147183A1 (en) Spatialized audio relative to a peripheral device
WO2023085186A1 (en) Information processing device, information processing method, and information processing program
KR100494288B1 (en) A apparatus and method of multi-channel virtual audio
Gutiérrez A et al. Audition
CN116193196A (en) Virtual surround sound rendering method, device, equipment and storage medium
KR20220043088A (en) Method of producing a sound and apparatus for performing the same
CN117793609A (en) Sound field rendering method and device

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
G170 Re-publication after modification of scope of protection [patent]