WO2018174500A1 - System and program for implementing augmented reality three-dimensional sound reflecting real-life sound - Google Patents

System and program for implementing augmented reality three-dimensional sound reflecting real-life sound Download PDF

Info

Publication number
WO2018174500A1
WO2018174500A1 PCT/KR2018/003189 KR2018003189W WO2018174500A1 WO 2018174500 A1 WO2018174500 A1 WO 2018174500A1 KR 2018003189 W KR2018003189 W KR 2018003189W WO 2018174500 A1 WO2018174500 A1 WO 2018174500A1
Authority
WO
WIPO (PCT)
Prior art keywords
sound
user
computing device
augmented reality
real
Prior art date
Application number
PCT/KR2018/003189
Other languages
French (fr)
Korean (ko)
Inventor
이승학
Original Assignee
주식회사 라이커스게임
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from KR1020170115842A external-priority patent/KR101963244B1/en
Application filed by 주식회사 라이커스게임 filed Critical 주식회사 라이커스게임
Priority to CN201880001772.3A priority Critical patent/CN109076307A/en
Publication of WO2018174500A1 publication Critical patent/WO2018174500A1/en
Priority to US16/168,560 priority patent/US20190058961A1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S7/00Indicating arrangements; Control arrangements, e.g. balance control

Definitions

  • the present invention relates to an augmented reality three-dimensional sound implementation system and program that reflects reality sound.
  • Augmented reality refers to computer graphics technology that blends real world images and virtual images that users see with one image. Augmented reality synthesizes an image relating to a virtual object or information to a specific object of the real world image.
  • Three-dimensional sound refers to a technology that provides three-dimensional sound to feel a sense of reality.
  • 3D sound is implemented by providing sound along a path transmitted from a location of sound generation to a user using vector values of a virtual reality image.
  • the problem to be solved by the present invention is to provide a system and a program that can implement a three-dimensional augmented reality sound reflecting the real sound in real time.
  • An augmented reality sound implementation system for solving the above problems, the first computing device of the first user; And a first sound device that is worn by the first user so that the first user can be provided with 3D augmented reality sound, and is wired or wirelessly connected to the first computing device, and includes a sound recording function.
  • the first sound device obtaining real sound information indicating real sound and transmitting the real sound information to the first computing device; Acquiring, by the first computing device, a first virtual sound indicative of a sound generated in a virtual reality game played on the first computing device; Generating, by the first computing device, a 3D augmented reality sound based on the reality sound information and the first virtual sound; And providing, by the first computing device, the three-dimensional augmented reality sound to the first user through the first acoustic device.
  • the three-dimensional augmented reality sound is provided by an appropriate method of binaural method or positioning method according to the distance between users using the augmented reality game 3 reflects the real sound and virtual sound in real time more realistically
  • the augmented reality sound of the dimension can be realized.
  • FIG. 1 is a schematic conceptual view for explaining a method of implementing augmented reality sound.
  • FIG. 2 is a block diagram illustrating an apparatus for implementing augmented reality sound.
  • FIG. 3 is a flowchart illustrating a first embodiment of a method for implementing augmented reality sound.
  • FIG. 4 is a flowchart illustrating a second embodiment of a method of implementing augmented reality sound.
  • An augmented reality sound implementation system for solving the above problems, the first computing device of the first user; And a first sound device that is worn by the first user so that the first user can be provided with 3D augmented reality sound, and is wired or wirelessly connected to the first computing device and includes an audio recording function.
  • the first sound device obtaining real sound information indicating real sound and transmitting the real sound information to the first computing device; Acquiring, by the first computing device, a first virtual sound indicative of a sound generated in a virtual reality game played on the first computing device; Generating, by the first computing device, a 3D augmented reality sound based on the reality sound information and the first virtual sound; And providing, by the first computing device, the three-dimensional augmented reality sound to the first user through the first acoustic device.
  • the first computing device may include obtaining direction characteristic information indicating a location of generation of the real sound; And the first computing device further considering the direction characteristic information in generating the 3D augmented reality sound.
  • the first computing device determines whether the first user and the second user spaced apart from the first user are closer than a preset distance, and when the first user and the second user are closer than the preset distance,
  • the direction characteristic information of the reality sound may be obtained based on the reality sound information, and the reality sound information may be a binaural type measured by a plurality of microphones in the first sound device.
  • the first computing device determines whether the first user and the second user spaced apart from the first user are closer than a preset distance, and the first user and the second user are not closer than the preset distance.
  • the direction characteristic information of the real sound may be obtained based on the location information of the first user and the second user.
  • the first computing device is a relative position of the first user and the second user spaced apart from the real space and the avatar of the virtual space of the first user and the second user
  • the 3D augmented reality sound may be generated based on the position difference.
  • the position difference may be a case where the second user uses a skill to the first user, and the second user and the avatar of the second user are separated.
  • the position difference may be a case where the second user uses a skill to the first user, and the movement of the avatar of the second user is greater or shorter than the movement of the second user.
  • the 3D augmented reality sound may be generated through blending of the second virtual sound and the reality sound generated to correspond to the position of the avatar.
  • the computer-readable medium may include a program recording a program for executing the augmented reality sound implementation method performed by the augmented reality sound implementation system described above.
  • an application for a terminal device stored in a medium may be included in order to execute the augmented reality sound implementation method performed by the augmented reality sound implementation system described above in combination with the computing device that is hardware.
  • An augmented reality 3D sound implementation method reflecting reality sound according to an embodiment of the present invention is realized by the computing device 200.
  • the augmented reality sound implementation method may be implemented as an application, stored in the computing device 200, and performed by the computing device 200.
  • the computing device 200 may be provided as a mobile device such as a smartphone or a tablet, but is not limited thereto.
  • the computing device 200 may include a camera, output a sound, and process and store data. 200) is enough. That is, the computing device 200 may include a camera and may be provided as a wearable device such as glasses or a band that outputs sound. Any computing device 200 that is not illustrated may be provided.
  • FIG. 1 is a schematic conceptual view for explaining a method of implementing augmented reality sound.
  • a plurality of users 10 and 20 carry sound devices 100-1 and 100-2 and computing devices 200-1 and 200-2 to experience augmented reality content.
  • the present invention is not limited thereto, and the method of implementing augmented reality sound may be substantially the same for two or more user environments.
  • the acoustic device 100 may be provided in the form of headphones, a headset, earphones, and the like.
  • the sound device 100 may not only output a sound including a speaker, but also obtain and record a surrounding sound including a microphone.
  • the acoustic device 100 may be provided in a binaural type to increase the sense of reality. By using the binaural effect, by recording the left-right sound separately, the sound including the direction characteristic information may be obtained.
  • the sound device 100 may be provided as a separate device as the sound output device and the sound recording device.
  • the sound device 100 may obtain reality sound information generated by the users 10 and 20.
  • the acoustic apparatus 100 may obtain reality acoustic information generated around the users 10 and 20. That is, the sound source may be a location where the real sound occurs.
  • the sound source is not limited to sound generated by the plurality of users 10 and 20.
  • the real acoustic information may indicate the acoustic information actually occurring in the reality.
  • the first sound device 100-1 of the first user 10 may transmit the second user 20.
  • the second user 20 may be a user located at a position spaced apart from the first user 10.
  • the acoustic device 100-1 of the first user 10 may also acquire direction characteristic information of the real sound generated by the second user 20.
  • the first computing device 200-1 of the first user 10 may store the virtual sound information and the virtual sound information of the first user 10 based on the direction characteristic information of the real sound obtained from the first sound device 100-1.
  • the 3D augmented reality sound for the first user 10 may be generated by synthesizing the first virtual sound information indicating the sound generated in the real game (eg, background sound, effect sound, etc.).
  • the plurality of computing devices 200-1 and 200-2 or the server may acquire positions of the first user 10 and the second user 20, and generate relative position information by comparing the positions of the first user 10 and the second user 20. .
  • any well known positioning system can be used, including, for example, a GPS system.
  • the plurality of computing devices 200-1 and 200-2 or the server acquires a three-dimensional position of the first user 10 and the second user 20, and compares the three-dimensional positions of each other to the relative three-dimensional position. Information can be generated.
  • relative location information indicating that the second user 20 is located at an 8 o'clock direction, a 50m distance, and a 5m low altitude based on the first user 10 may be generated.
  • the second user 20 may generate a realistic sound.
  • the direction characteristic information of the real sound acquired by the first user 10 is determined based on the relative position information.
  • the 3D augmented reality sound for the first user 10 is synthesized by synthesizing the real sound information obtained by the first user 10 from the second user 20, the direction characteristic information of the real sound, and the first virtual sound information. Can be implemented. According to the determined direction characteristic information of the real sound, elements such as amplitude, phase or frequency of the real sound may be adjusted.
  • the augmented reality sound implementation method by using the relative position information of the binaural type sound device 100 or a plurality of users (10, 20), the three-dimensional by reflecting the real sound in real time Can implement the augmented reality sound.
  • the above-described binaural type sound device 100 and the relative position information of the first user 10 and the second user 20 may be used together.
  • FIG. 2 is a block diagram illustrating an apparatus for implementing augmented reality sound.
  • the sound apparatus 100 may include at least one control unit 110, a storage unit 120, an input unit 130, an output unit 140, a transceiver 150, a GPS unit 160, and the like. It may include.
  • Each component included in the acoustic device 100 may be connected by a bus to communicate with each other.
  • the controller 110 may execute a program command stored in the storage 120.
  • the controller 110 may refer to a central processing unit (CPU), a graphics processing unit (GPU), or a dedicated processor on which methods according to embodiments of the present invention are performed. have.
  • the storage unit 120 may be configured of at least one of a volatile storage medium and a nonvolatile storage medium.
  • the storage unit 120 may be configured as at least one of a read only memory (ROM) and a random access memory (RAM).
  • the input unit 130 may be a recording device capable of recognizing and recording voice.
  • the input unit 130 may be a microphone.
  • the output unit 140 may be an output device capable of outputting voice.
  • the output device may include a speaker or the like.
  • the transceiver 150 may be connected to the computing device 200 or a server to perform communication.
  • the GPS unit 160 may track the location of the sound device 100.
  • the computing device 200 may include at least one control unit 210, a storage unit 220, an input unit 230, an output unit 240, a transceiver unit 250, a GPS unit 260, a camera unit 270, and the like. It may include.
  • Each component included in the computing 200 may be connected by a bus to communicate with each other.
  • the output unit 240 may be an output device capable of outputting a screen.
  • the output device may include a display or the like.
  • the controller 210 may execute a program command stored in the storage 220.
  • the controller 210 may mean a central processing unit (CPU), a graphics processing unit (GPU), or a dedicated processor on which methods according to embodiments of the present invention are performed. have.
  • the storage unit 220 may be configured of at least one of a volatile storage medium and a nonvolatile storage medium.
  • the storage unit 220 may be configured as at least one of a read only memory (ROM) and a random access memory (RAM).
  • the transceiver 250 may be connected to another computing device 200, an acoustic device 110, or a server to perform communication.
  • the GPS unit 260 may track the location of the computing device 200.
  • the camera unit 270 may acquire a real image.
  • the augmented reality sound implementation method may be realized by linking the computing device with another computing device or server.
  • FIG. 3 is a flowchart illustrating a first embodiment of a method for implementing augmented reality sound.
  • the first sound device 100-1 of the first user 10 may obtain reality sound information.
  • the real sound information may be a real sound generated from the second user 20 or a real sound generated around the first user 10.
  • the first sound device 100-1 may transmit reality sound information to the first computing device 200-1 of the first user 10.
  • the first computing device 200-1 may obtain realistic acoustic information from the first acoustic device 100-1 (S300).
  • the first computing device 200-1 may determine whether another user (eg, the second user 20) exists at a distance from the first user 10 (S310).
  • the close distance may be a preset distance.
  • the first computing device 200-1 may acquire direction characteristic information of the real sound based on the real sound information (S320).
  • the real sound information may be binaural type sound information measured by the plurality of input units 130 of the first sound device 100-1.
  • the first computing device 200-1 may acquire first virtual sound information indicating sound generated in the virtual reality game (S321).
  • the first computing device 200-1 may generate the 3D augmented reality sound based on at least one of the real sound information, the direction characteristic information, and the first virtual sound information (S322).
  • the first computing device 200-1 may generate three-dimensional augmented reality sound by blending at least one of real acoustic information, direction characteristic information, and first virtual acoustic information.
  • the first computing device For example, if the first user 10 obtains the sound source of the national anthem verse 1, "God bows so that the sea and the Baekdusan dry and wear out in the north direction of the first user 10", the first computing device.
  • the 200-1 blends the direction characteristic information, the real sound information, and the first virtual sound information indicating the sound generated in the virtual reality game so that the sound source may sound as if the sound is generated in the north, thereby generating 3D augmented reality sound. Can be generated.
  • the first computing device 200-1 may provide 3D augmented reality sound to the first user 10 through the first acoustic device 100-1 (S323).
  • the second computing device 200-2 may determine location information of the first user 10 and the second user 20. Can be obtained (S330).
  • the first computing device 200-1 may acquire direction characteristic information of the real sound based on the location information of the first user 10 and the second user 20 (S331).
  • the first computing device 200-1 may acquire first virtual sound information indicating sound generated in the virtual reality game (S332).
  • the first computing device 200-1 may generate the 3D augmented reality sound based on at least one of the real sound information, the direction characteristic information, and the first virtual sound information (S333).
  • the first computing device 200-1 may generate three-dimensional augmented reality sound by blending at least two or more pieces of information among the real sound information, the direction characteristic information, and the first virtual sound information.
  • the first computing device 200-1 may be a second user ( 20, the first user 10 located at the right side may generate the 3D augmented reality sound in consideration of the direction characteristic information so that the sound source may sound as if it is generated at the left side.
  • the first computing device 200-1 may provide a 3D augmented reality sound to the first user 10 through the first acoustic device 100-1 (S334).
  • FIG. 4 is a flowchart illustrating a second embodiment of a method of implementing augmented reality sound.
  • the first sound device 100-1 of the first user 10 may obtain reality sound information.
  • the real sound information may be a real sound generated from the first user 10 or a real sound generated around the first user 10.
  • the first sound device 100-1 may transmit reality sound information to the first computing device 200-1 of the first user 10.
  • the first computing device 200-1 may obtain realistic acoustic information from the first acoustic device 100-1 (S300).
  • the first computing device 200-1 has a relative position between a plurality of users 10 and 20 in a real space and a relative position of avatars of a plurality of users 10 and 20 in a virtual space in an augmented reality game. It is possible to determine whether a position difference that does not correspond to (S301).
  • the position difference is a case where the second user 20 uses the skill to the first user 10, and may be a case where the avatars of the second user 20 and the second user 20 are separated.
  • a specific example of the case where the avatar is separated may be as follows.
  • the second user 20 may use the skill with respect to the first user 10.
  • the avatar of the second user 20 may be separated and moved to the avatar of the first user 10 to use the skill.
  • the position difference may be a case where the second user 20 uses a skill and the avatar of the second user 20 moves at a moment.
  • Teleportation is commonly referred to in the game as teleport. Teleportation (or teleportation) can mean moving to a space in an instant. It can usually be used to move very far away.
  • the device 200-1 may generate a 3D augmented reality sound in consideration of a position of the avatar of the second user 20 and a position difference of the second user 20.
  • the position difference is a case where the second user 20 uses the skill to the first user 10, and the movement of the avatar of the second user 20 is greater than that of the second user 20. Or short.
  • the first computing device 200-1 may consider sounds that may occur while the avatar of the second user 20 moves rapidly.
  • the first computing device 200-1 may acquire location information of the first user 10 and the second user 20 (S302).
  • the first computing device 200-1 may generate a 3D augmented reality sound based on the position difference (S303).
  • the first computing device 200-1 may generate the 3D augmented reality sound by blending the second virtual sound and the real sound generated to correspond to the positions of the avatars of the plurality of users 10 and 20. Can be generated.
  • the first computing device 200-1 may perform acoustic blending according to the first-person or third-person situation.
  • the first user 10 or the second user 20 uses the skill, so that the position of the avatar of the first user 10 or the second user 20 If different, the first computing device 200-1 may generate a virtual sound and blend it with the real sound according to the third-person situation.
  • the first computing device 200-1 may provide the 3D augmented reality sound to the first user through the first acoustic device 100-1 (S304).
  • the first computing device 200-1 may determine whether another user (eg, the second user 20) exists at a distance from the first user 10 (S310). ).
  • the close distance may be a preset distance.
  • the first computing device 200-1 may acquire direction characteristic information of the real sound based on the real sound information (S320).
  • the real sound information may be binaural type sound information measured by the plurality of input units 130 of the first sound device 100-1.
  • the first computing device 200-1 may acquire first virtual sound information indicating sound generated in the virtual reality game (S321).
  • the first computing device 200-1 may generate the 3D augmented reality sound based on at least one of the real sound information, the direction characteristic information, and the first virtual sound information (S322).
  • the first computing device 200-1 may generate three-dimensional augmented reality sound by blending at least one of real acoustic information, direction characteristic information, and first virtual acoustic information.
  • the first computing device For example, if the first user 10 obtains the sound source of the national anthem verse 1, "God bows so that the sea and the Baekdusan dry and wear out in the north direction of the first user 10", the first computing device.
  • the 200-1 blends the direction characteristic information, the real sound information, and the first virtual sound information indicating the sound generated in the virtual reality game so that the sound source may sound as if the sound is generated in the north, thereby generating 3D augmented reality sound. Can be generated.
  • the first computing device 200-1 may provide 3D augmented reality sound to the first user 10 through the first acoustic device 100-1 (S323).
  • the second computing device 200-2 may determine location information of the first user 10 and the second user 20. Can be obtained (S330).
  • the first computing device 200-1 may acquire direction characteristic information of the real sound based on the location information of the first user 10 and the second user 20 (S331).
  • the first computing device 200-1 may acquire first virtual sound information indicating sound generated in the virtual reality game (S332).
  • the first computing device 200-1 may generate the 3D augmented reality sound based on at least one of the real sound information, the direction characteristic information, and the first virtual sound information (S333).
  • the first computing device 200-1 may generate three-dimensional augmented reality sound by blending at least two or more pieces of information among the real sound information, the direction characteristic information, and the first virtual sound information.
  • the first computing device 200-1 may be a second user ( 20, the first user 10 located at the right side may generate the 3D augmented reality sound in consideration of the direction characteristic information so that the sound source may sound as if it is generated at the left side.
  • the first computing device 200-1 may provide a 3D augmented reality sound to the first user 10 through the first acoustic device 100-1 (S334).
  • the steps of a method or algorithm described in connection with an embodiment of the present invention may be implemented directly in hardware, in a software module executed by hardware, or by a combination thereof.
  • the software module may include random access memory (RAM), read only memory (ROM), erasable programmable ROM (EPROM), electrically erasable programmable ROM (EEPROM), flash memory, hard disk, removable disk, CD-ROM, or It may reside in any form of computer readable recording medium well known in the art.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Signal Processing (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • User Interface Of Digital Computer (AREA)
  • Stereophonic System (AREA)

Abstract

Provided is an augmented reality sound implementation system for executing an augmented reality sound implementation method. The system includes: a first computing device of a first user; and a first sound device which is worn by the first user so that the first user can receive a three-dimensional augmented reality sound, is connected to the first computing device in a wired or wireless manner, and includes a sound recording function. The method includes: a step in which the first sound device acquires real-life sound information which indicates a real-life sound, and transmits the real-life sound information to the first computing device; a step in which the first computing device acquires a first virtual sound which indicates a sound generated from a virtual reality game executed in the first computing device; a step in which the first computing device generates a three-dimensional augmented reality sound on the basis of the real-life sound information and the first virtual sound; and a step in which the first computing device provides the three-dimensional augmented reality sound to the first user through the first sound device.

Description

현실 음향을 반영한 증강 현실 3차원 음향 구현 시스템 및 프로그램Augmented Reality 3D Sound Implementation System and Program Reflecting Real Sound
본 발명은 현실 음향을 반영한 증강 현실 3차원 음향 구현 시스템 및 프로그램에 관한 것이다. The present invention relates to an augmented reality three-dimensional sound implementation system and program that reflects reality sound.
증강 현실은 사용자가 눈으로 보는 현실 세계 이미지와 가상 이미지를 혼합하여 하나의 영상으로 보여주는 컴퓨터 그래픽 기술을 말한다. 증강 현실은 현실 세계 이미지의 특정 객체에 가상의 사물 또는 정보에 관한 이미지를 합성한다.Augmented reality refers to computer graphics technology that blends real world images and virtual images that users see with one image. Augmented reality synthesizes an image relating to a virtual object or information to a specific object of the real world image.
3차원 음향은 현장감을 느낄 수 있도록 입체적인 음향을 제공하는 기술을 말한다. 가상 현실(Virtual Reality) 분야에서는, 가상 현실 영상의 벡터 값을 이용하여 음향의 발생 위치로부터 사용자에게 전달되는 경로에 따라 음향을 제공함으로써 3차원 음향을 구현하고 있다. Three-dimensional sound refers to a technology that provides three-dimensional sound to feel a sense of reality. In the field of virtual reality, 3D sound is implemented by providing sound along a path transmitted from a location of sound generation to a user using vector values of a virtual reality image.
그러나, 증강 현실에서는 현실 음향의 방향 등을 미리 파악할 수가 없고 실시간으로 파악하여야 하는 점에서, 가상 현실 분야의 3차원 음향 구현 기술을 그대로 적용하기 어렵다.However, in augmented reality, since it is impossible to grasp the direction of the real sound in advance, it is difficult to apply the 3D sound realization technology of the virtual reality field as it is.
예를 들어, 가상 현실에서 복수의 사용자가 건물 내부에 있다면 소리가 울리기 때문에, 다른 사용자의 위치를 직관적으로 예측할 수 없는 문제가 있다.For example, in a virtual reality, when a plurality of users are inside a building, a sound is ringing, so there is a problem in that the location of another user cannot be predicted intuitively.
따라서, 증강 현실 분야에서, 현실 음향을 실시간으로 반영하여 3차원 음향을 구현할 수 있는 방법 및 프로그램이 요구된다.Therefore, in the field of augmented reality, there is a need for a method and program capable of realizing 3D sound by reflecting real sound in real time.
본 발명이 해결하고자 하는 과제는 현실 음향을 실시간으로 반영한 3차원의 증강 현실 음향을 구현할 수 있는 시스템 및 프로그램을 제공하는 것이다.The problem to be solved by the present invention is to provide a system and a program that can implement a three-dimensional augmented reality sound reflecting the real sound in real time.
본 발명이 해결하고자 하는 과제들은 이상에서 언급된 과제로 제한되지 않으며, 언급되지 않은 또 다른 과제들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.Problems to be solved by the present invention are not limited to the above-mentioned problems, and other problems not mentioned will be clearly understood by those skilled in the art from the following description.
상술한 과제를 해결하기 위한 본 발명의 일 실시예에 따른 증강 현실 음향 구현 시스템으로, 제1 사용자의 제1 컴퓨팅 장치; 및 상기 제1 사용자가 3차원 증강 현실 음향을 제공받을 수 있도록 상기 제1 사용자에게 착용되며, 상기 제1 컴퓨팅 장치와 유선 또는 무선으로 연결되고, 음향 녹음 기능을 포함하는 제1 음향 장치;를 포함하며, 상기 제1 음향 장치는 현실 음향을 지시하는 현실 음향 정보를 획득하고, 상기 현실 음향 정보를 상기 제1 컴퓨팅 장치로 전송하는 단계; 상기 제1 컴퓨팅 장치는 상기 제1 컴퓨팅 장치에서 수행되는 가상 현실 게임에서 발생하는 음향을 지시하는 제1 가상 음향을 획득하는 단계; 상기 제1 컴퓨팅 장치는 상기 현실 음향 정보와 상기 제1 가상 음향을 기초로 3차원 증강 현실 음향을 생성하는 단계; 및 상기 제1 컴퓨팅 장치는 상기 제1 음향 장치를 통해 상기 제1 사용자에게 상기 3차원 증강 현실 음향을 제공하는 단계;를 포함한다.An augmented reality sound implementation system according to an embodiment of the present invention for solving the above problems, the first computing device of the first user; And a first sound device that is worn by the first user so that the first user can be provided with 3D augmented reality sound, and is wired or wirelessly connected to the first computing device, and includes a sound recording function. The first sound device obtaining real sound information indicating real sound and transmitting the real sound information to the first computing device; Acquiring, by the first computing device, a first virtual sound indicative of a sound generated in a virtual reality game played on the first computing device; Generating, by the first computing device, a 3D augmented reality sound based on the reality sound information and the first virtual sound; And providing, by the first computing device, the three-dimensional augmented reality sound to the first user through the first acoustic device.
상기 본 발명에 의하면, 증강 현실 게임을 이용하는 사용자 사이의 거리에 따라 바이노럴 방식 또는 측위 방식 중 적절한 방법으로 3차원 증강 현실 음향을 제공하기 때문에 현실 음향과 가상 음향을 더욱 현실감 있게 실시간으로 반영한 3차원의 증강 현실 음향을 구현할 수 있다.According to the present invention, since the three-dimensional augmented reality sound is provided by an appropriate method of binaural method or positioning method according to the distance between users using the augmented reality game 3 reflects the real sound and virtual sound in real time more realistically The augmented reality sound of the dimension can be realized.
또한, 증강 현실 게임을 이용하는 사용자의 위치와 사용자의 아바타의 위치 또는 움직임에 차이가 발생할 경우 이러한 차이를 고려한 3차원의 증강 현실 음향을 구현할 수 있다.In addition, when a difference occurs in the position or movement of the user's position using the augmented reality game and the user's avatar, it is possible to implement a three-dimensional augmented reality sound in consideration of the difference.
본 발명의 효과들은 이상에서 언급된 효과로 제한되지 않으며, 언급되지 않은 또 다른 효과들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.Effects of the present invention are not limited to the effects mentioned above, and other effects not mentioned will be clearly understood by those skilled in the art from the following description.
도 1은 증강 현실 음향 구현 방법을 설명하기 위한 개략적인 개념도이다.1 is a schematic conceptual view for explaining a method of implementing augmented reality sound.
도 2는 증강 현실 음향 구현 장치를 도시한 블록도이다.2 is a block diagram illustrating an apparatus for implementing augmented reality sound.
도 3은 증강 현실 음향 구현 방법의 제1 실시예를 도시한 흐름도이다.3 is a flowchart illustrating a first embodiment of a method for implementing augmented reality sound.
도 4는 증강 현실 음향 구현 방법의 제2 실시예를 도시한 흐름도이다.4 is a flowchart illustrating a second embodiment of a method of implementing augmented reality sound.
상술한 과제를 해결하기 위한 본 발명의 일 실시예에 따른 증강 현실 음향 구현 시스템으로, 제1 사용자의 제1 컴퓨팅 장치; 및 상기 제1 사용자가 3차원 증강 현실 음향을 제공받을 수 있도록 상기 제1 사용자에게 착용되며, 상기 제1 컴퓨팅 장치와 유선 또는 무선으로 연결되고, 음향 녹음 기능을 포함하는 제1 음향 장치;를 포함하며, 상기 제1 음향 장치는 현실 음향을 지시하는 현실 음향 정보를 획득하고, 상기 현실 음향 정보를 상기 제1 컴퓨팅 장치로 전송하는 단계; 상기 제1 컴퓨팅 장치는 상기 제1 컴퓨팅 장치에서 수행되는 가상 현실 게임에서 발생하는 음향을 지시하는 제1 가상 음향을 획득하는 단계; 상기 제1 컴퓨팅 장치는 상기 현실 음향 정보와 상기 제1 가상 음향을 기초로 3차원 증강 현실 음향을 생성하는 단계; 및 상기 제1 컴퓨팅 장치는 상기 제1 음향 장치를 통해 상기 제1 사용자에게 상기 3차원 증강 현실 음향을 제공하는 단계;를 포함한다.An augmented reality sound implementation system according to an embodiment of the present invention for solving the above problems, the first computing device of the first user; And a first sound device that is worn by the first user so that the first user can be provided with 3D augmented reality sound, and is wired or wirelessly connected to the first computing device and includes an audio recording function. The first sound device obtaining real sound information indicating real sound and transmitting the real sound information to the first computing device; Acquiring, by the first computing device, a first virtual sound indicative of a sound generated in a virtual reality game played on the first computing device; Generating, by the first computing device, a 3D augmented reality sound based on the reality sound information and the first virtual sound; And providing, by the first computing device, the three-dimensional augmented reality sound to the first user through the first acoustic device.
여기서, 상기 제1 컴퓨팅 장치는 상기 현실 음향의 발생 위치를 지시하는 방향 특성 정보를 획득하는 단계; 및 상기 제1 컴퓨팅 장치는 상기 3차원 증강 현실 음향의 생성에 상기 방향 특성 정보를 더 고려하는 단계;를 포함할 수 있다.The first computing device may include obtaining direction characteristic information indicating a location of generation of the real sound; And the first computing device further considering the direction characteristic information in generating the 3D augmented reality sound.
여기서, 상기 제1 컴퓨팅 장치는 상기 제1 사용자와 상기 제1 사용자와 이격된 제2 사용자가 미리 설정된 거리보다 근접한지 판단하고, 상기 제1 사용자와 상기 제2 사용자가 미리 설정된 거리보다 근접한 경우, 상기 현실 음향 정보를 기초로 상기 현실 음향의 방향 특성 정보를 획득하며, 상기 현실 음향 정보는 상기 제1 음향 장치에서 복수의 마이크로 측정되는 바이노럴(binaural) 타입일 수 있다.Here, the first computing device determines whether the first user and the second user spaced apart from the first user are closer than a preset distance, and when the first user and the second user are closer than the preset distance, The direction characteristic information of the reality sound may be obtained based on the reality sound information, and the reality sound information may be a binaural type measured by a plurality of microphones in the first sound device.
여기서, 상기 제1 컴퓨팅 장치는 상기 제1 사용자와 상기 제1 사용자와 이격된 제2 사용자가 미리 설정된 거리보다 근접한지 판단하고, 상기 제1 사용자와 상기 제2 사용자가 미리 설정된 거리보다 근접하지 않을 경우, 상기 제1 사용자와 상기 제2 사용자의 위치 정보를 기초로 상기 현실 음향의 방향 특성 정보를 획득할 수 있다.Here, the first computing device determines whether the first user and the second user spaced apart from the first user are closer than a preset distance, and the first user and the second user are not closer than the preset distance. In this case, the direction characteristic information of the real sound may be obtained based on the location information of the first user and the second user.
여기서, 상기 제1 컴퓨팅 장치는 상기 제1 사용자와 상기 제1 사용자와 이격된 제2 사용자의 현실 공간에서의 상대적인 위치와 상기 제1 사용자와 상기 제2 사용자의 가상 공간의 아바타(avatar)의 상대적인 위치가 대응하지 않는 위치 차이가 발생할 경우, 상기 위치 차이를 기초로 상기 3차원 증강 현실 음향을 생성할 수 있다.Here, the first computing device is a relative position of the first user and the second user spaced apart from the real space and the avatar of the virtual space of the first user and the second user When a position difference that does not correspond to a position occurs, the 3D augmented reality sound may be generated based on the position difference.
여기서, 상기 위치 차이는 상기 제2 사용자가 상기 제1 사용자에게 스킬(skill)을 사용하는 경우로서, 상기 제2 사용자와 상기 제2 사용자의 아바타가 분리되는 경우일 수 있다.Here, the position difference may be a case where the second user uses a skill to the first user, and the second user and the avatar of the second user are separated.
여기서, 상기 위치 차이는 상기 제2 사용자가 상기 제1 사용자에게 스킬(skill)을 사용하는 경우로서, 상기 제2 사용자의 움직임보다 상기 제2 사용자의 아바타의 움직임이 크거나 짧은 경우일 수 있다.Here, the position difference may be a case where the second user uses a skill to the first user, and the movement of the avatar of the second user is greater or shorter than the movement of the second user.
여기서, 상기 3차원 증강 현실 음향은 상기 아바타의 위치에 대응하도록 생성된 제2 가상 음향과 상기 현실 음향의 블랜딩을 통해 생성될 수 있다.The 3D augmented reality sound may be generated through blending of the second virtual sound and the reality sound generated to correspond to the position of the avatar.
여기서, 전술한 증강 현실 음향 구현 시스템이 수행하는 증강 현실 음향 구현 방법을 실행시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 매체가 포함될 수 있다.Here, the computer-readable medium may include a program recording a program for executing the augmented reality sound implementation method performed by the augmented reality sound implementation system described above.
여기서, 하드웨어인 상기 컴퓨팅 장치와 결합되어 전술한 증강 현실 음향 구현 시스템이 수행하는 증강 현실 음향 구현 방법을 실행시키기 위하여 매체에 저장된 단말장치용 어플리케이션이 포함될 수 있다.Here, an application for a terminal device stored in a medium may be included in order to execute the augmented reality sound implementation method performed by the augmented reality sound implementation system described above in combination with the computing device that is hardware.
본 발명의 기타 구체적인 사항들은 상세한 설명 및 도면들에 포함되어 있다.Other specific details of the invention are included in the detailed description and drawings.
본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나, 본 발명은 이하에서 개시되는 실시예들에 제한되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술 분야의 통상의 기술자에게 본 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. Advantages and features of the present invention and methods for achieving them will be apparent with reference to the embodiments described below in detail with the accompanying drawings. However, the present invention is not limited to the embodiments disclosed below, but can be embodied in various different forms, and the present embodiments only make the disclosure of the present invention complete, and those of ordinary skill in the art to which the present invention belongs. It is provided to fully inform the skilled worker of the scope of the invention, which is defined only by the scope of the claims.
본 명세서에서 사용된 용어는 실시예들을 설명하기 위한 것이며 본 발명을 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다. 명세서에서 사용되는 "포함한다(comprises)" 및/또는 "포함하는(comprising)"은 언급된 구성요소 외에 하나 이상의 다른 구성요소의 존재 또는 추가를 배제하지 않는다. 명세서 전체에 걸쳐 동일한 도면 부호는 동일한 구성 요소를 지칭하며, "및/또는"은 언급된 구성요소들의 각각 및 하나 이상의 모든 조합을 포함한다. 비록 "제1", "제2" 등이 다양한 구성요소들을 서술하기 위해서 사용되나, 이들 구성요소들은 이들 용어에 의해 제한되지 않음은 물론이다. 이들 용어들은 단지 하나의 구성요소를 다른 구성요소와 구별하기 위하여 사용하는 것이다. 따라서, 이하에서 언급되는 제1 구성요소는 본 발명의 기술적 사상 내에서 제2 구성요소일 수도 있음은 물론이다.The terminology used herein is for the purpose of describing particular embodiments only and is not intended to be limiting of the invention. In this specification, the singular also includes the plural unless specifically stated otherwise in the phrase. As used herein, "comprises" and / or "comprising" does not exclude the presence or addition of one or more other components in addition to the mentioned components. Like reference numerals refer to like elements throughout, and "and / or" includes each and all combinations of one or more of the mentioned components. Although "first", "second", etc. are used to describe various components, these components are of course not limited by these terms. These terms are only used to distinguish one component from another. Therefore, of course, the first component mentioned below may be a second component within the technical spirit of the present invention.
다른 정의가 없다면, 본 명세서에서 사용되는 모든 용어(기술 및 과학적 용어를 포함)는 본 발명이 속하는 기술분야의 통상의 기술자에게 공통적으로 이해될 수 있는 의미로 사용될 수 있을 것이다. 또한, 일반적으로 사용되는 사전에 정의되어 있는 용어들은 명백하게 특별히 정의되어 있지 않는 한 이상적으로 또는 과도하게 해석되지 않는다.Unless otherwise defined, all terms used in the present specification (including technical and scientific terms) may be used in a sense that can be commonly understood by those skilled in the art. In addition, terms that are defined in a commonly used dictionary are not ideally or excessively interpreted unless they are specifically defined clearly.
이하, 첨부된 도면을 참조하여 본 발명의 실시예를 상세하게 설명한다.Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings.
본 발명의 실시예에 따른 현실 음향을 반영한 증강 현실 3차원 음향 구현 방법은 컴퓨팅 장치(200)에 의해서 실현된다. 증강 현실 음향 구현 방법은 애플리케이션으로 구현되어, 컴퓨팅 장치(200) 내에 저장되고 컴퓨팅 장치(200)에 의해서 수행될 수 있다. An augmented reality 3D sound implementation method reflecting reality sound according to an embodiment of the present invention is realized by the computing device 200. The augmented reality sound implementation method may be implemented as an application, stored in the computing device 200, and performed by the computing device 200.
예를 들어, 컴퓨팅 장치(200)는 스마트폰, 태블릿 등과 같은 모바일 디바이스로 제공될 수 있으나, 이에 제한되는 것은 아니고, 카메라가 구비되고, 음향을 출력하며, 데이터를 처리 및 저장할 수 있는 컴퓨팅 장치(200)이면 족하다. 즉, 컴퓨팅 장치(200)는 카메라가 구비되고, 음향을 출력하는 안경 또는 밴드 등의 웨어러블 디바이스로 제공될 수도 있다. 예시되지 않은 임의의 컴퓨팅 장치(200)가 제공될 수 있다.For example, the computing device 200 may be provided as a mobile device such as a smartphone or a tablet, but is not limited thereto. The computing device 200 may include a camera, output a sound, and process and store data. 200) is enough. That is, the computing device 200 may include a camera and may be provided as a wearable device such as glasses or a band that outputs sound. Any computing device 200 that is not illustrated may be provided.
도 1은 증강 현실 음향 구현 방법을 설명하기 위한 개략적인 개념도이다.1 is a schematic conceptual view for explaining a method of implementing augmented reality sound.
도 1을 참조하면, 복수의 사용자(10, 20)가 음향 장치(100-1, 100-2)와 컴퓨팅 장치(200-1, 200-2)를 휴대하고 증강 현실 콘텐츠를 체험한다. 예시적으로, 두 사용자(10, 20)만을 도시하였으나, 이에 제한되는 것은 아니고, 증강 현실 음향 구현 방법은 둘 이상의 사용자 환경에 대해서 실질적으로 동일하게 적용될 수 있다.Referring to FIG. 1, a plurality of users 10 and 20 carry sound devices 100-1 and 100-2 and computing devices 200-1 and 200-2 to experience augmented reality content. For example, although only two users 10 and 20 are illustrated, the present invention is not limited thereto, and the method of implementing augmented reality sound may be substantially the same for two or more user environments.
예를 들어, 음향 장치(100)는 헤드폰, 헤드셋, 이어폰 등의 형태로 제공될 수 있다. 음향 장치(100)는 스피커를 포함하여 음향을 출력할 수 있을 뿐만 아니라, 마이크를 포함하여 주변의 음향을 획득하고 녹음할 수 있다. 음향 장치(100)는 현장감을 높이기 위하여 바이노럴(binaural) 타입으로 제공될 수 있다. 바이노럴 효과를 이용하여, 좌-우의 음향을 나누어 녹음함으로써, 방향 특성 정보가 포함된 음향이 획득될 수 있다. 일부 실시예에서, 음향 장치(100)는 음향 출력 장치와 음향 녹음 장치로서 별개의 장치로 제공될 수 있다.For example, the acoustic device 100 may be provided in the form of headphones, a headset, earphones, and the like. The sound device 100 may not only output a sound including a speaker, but also obtain and record a surrounding sound including a microphone. The acoustic device 100 may be provided in a binaural type to increase the sense of reality. By using the binaural effect, by recording the left-right sound separately, the sound including the direction characteristic information may be obtained. In some embodiments, the sound device 100 may be provided as a separate device as the sound output device and the sound recording device.
음향 장치(100)는 사용자들(10, 20)에 의해 발생하는 현실 음향 정보를 획득할 수 있다. 또는, 음향 장치(100)는 사용자들(10, 20) 주변에서 발생하는 현실 음향 정보를 획득할 수도 있다. 즉, 음원(sound source)은 현실 음향이 발생하는 위치일 수 있다. 음원은 복수의 사용자들(10, 20)에 의해 생성되는 음향으로 제한되지 않는다.The sound device 100 may obtain reality sound information generated by the users 10 and 20. Alternatively, the acoustic apparatus 100 may obtain reality acoustic information generated around the users 10 and 20. That is, the sound source may be a location where the real sound occurs. The sound source is not limited to sound generated by the plurality of users 10 and 20.
여기서 현실 음향 정보는 현실에서 실제 발생하는 음향 정보를 지시할 수 있다. 예를 들어, 제2 사용자(20)가 증강 현실 게임을 하면서 제1 사용자(10)에게 소리를 칠 경우, 제1 사용자(10)의 제1 음향 장치(100-1)는 제2 사용자(20)로부터 발생한 현실 음향 정보(소리)를 획득할 수 있다. 여기서 제2 사용자(20)는 제1 사용자(10)와 이격된 곳에 위치하는 사용자일 수 있다.In this case, the real acoustic information may indicate the acoustic information actually occurring in the reality. For example, when the second user 20 yells to the first user 10 while playing an augmented reality game, the first sound device 100-1 of the first user 10 may transmit the second user 20. Real sound information (sound) generated from the Here, the second user 20 may be a user located at a position spaced apart from the first user 10.
제1 사용자(10)의 음향 장치(100-1)는 제2 사용자(20)에 의해 발생되는 현실 음향의 방향 특성 정보도 함께 획득할 수 있다. 제1 사용자(10)의 제1 컴퓨팅 장치(200-1)는 제1 음향 장치(100-1)로부터 획득한 현실 음향의 방향 특성 정보를 기초로 제1 사용자(10)의 현실 음향 정보와 가상 현실 게임 내에서 발생하는 음향(예를 들어, 배경음, 효과음 등)을 지시하는 제1 가상 음향 정보를 합성하여 제1 사용자(10)에 대한 3차원 증강 현실 음향을 생성할 수 있다. The acoustic device 100-1 of the first user 10 may also acquire direction characteristic information of the real sound generated by the second user 20. The first computing device 200-1 of the first user 10 may store the virtual sound information and the virtual sound information of the first user 10 based on the direction characteristic information of the real sound obtained from the first sound device 100-1. The 3D augmented reality sound for the first user 10 may be generated by synthesizing the first virtual sound information indicating the sound generated in the real game (eg, background sound, effect sound, etc.).
음향 장치(100)가 바이노럴 타입의 음향을 지원하지 않거나 제1 사용자(10)와 제2 사용자(20) 사이의 거리가 미리 설정된 거리보다 근접하지 않을 경우 제1 컴퓨팅 장치(200-1)는 제1 사용자(10)와 제2 사용자(20)의 상대적 위치 정보를 기초로 현실 음향의 방향 특성 정보를 획득할 수 있다.The first computing device 200-1 when the sound device 100 does not support the binaural type of sound or the distance between the first user 10 and the second user 20 is not closer than the preset distance. May obtain direction characteristic information of the real sound based on the relative position information of the first user 10 and the second user 20.
복수의 컴퓨팅 장치들(200-1, 200-2) 또는 서버는 제1 사용자(10)와 제2 사용자(20)의 위치를 획득하고, 상호 간의 위치를 비교하여 상대적 위치 정보를 생성할 수 있다. 복수의 사용자들(10, 20)의 위치 획득을 위하여, 예를 들어, GPS 시스템을 포함한 잘 알려진 임의의 측위 시스템이 이용될 수 있다. 복수의 컴퓨팅 장치들(200-1, 200-2) 또는 서버는 제1 사용자(10)와 제2 사용자(20)의 3차원 위치를 획득하고, 상호 간의 3차원 위치를 비교하여 상대적 3차원 위치 정보를 생성할 수 있다. The plurality of computing devices 200-1 and 200-2 or the server may acquire positions of the first user 10 and the second user 20, and generate relative position information by comparing the positions of the first user 10 and the second user 20. . For location acquisition of a plurality of users 10, 20, any well known positioning system can be used, including, for example, a GPS system. The plurality of computing devices 200-1 and 200-2 or the server acquires a three-dimensional position of the first user 10 and the second user 20, and compares the three-dimensional positions of each other to the relative three-dimensional position. Information can be generated.
예를 들어, 도 1에 도시된 바와 같이, 제2 사용자(20)가 제1 사용자(10)를 기준으로 8시 방향, 50m 거리, 5m 낮은 고도에 위치하고 있음을 나타내는 상대적 위치 정보가 생성될 수 있다. 여기서, 제2 사용자(20)가 현실 음향을 생성할 수 있다.For example, as shown in FIG. 1, relative location information indicating that the second user 20 is located at an 8 o'clock direction, a 50m distance, and a 5m low altitude based on the first user 10 may be generated. have. Here, the second user 20 may generate a realistic sound.
그리고, 상대적 위치 정보를 기초로 제1 사용자(10)가 획득한 현실 음향의 방향 특성 정보가 결정된다. 제1 사용자(10)가 제2 사용자(20)로부터 획득한 현실 음향 정보, 현실 음향의 방향 특성 정보, 그리고 제1 가상 음향 정보를 합성하여 제1 사용자(10)에 대한 3차원 증강 현실 음향이 구현될 수 있다. 결정된 현실 음향의 방향 특성 정보에 따라, 현실 음향의 진폭, 위상 또는 주파수 등의 요소가 조정될 수 있다.Then, the direction characteristic information of the real sound acquired by the first user 10 is determined based on the relative position information. The 3D augmented reality sound for the first user 10 is synthesized by synthesizing the real sound information obtained by the first user 10 from the second user 20, the direction characteristic information of the real sound, and the first virtual sound information. Can be implemented. According to the determined direction characteristic information of the real sound, elements such as amplitude, phase or frequency of the real sound may be adjusted.
본 발명의 실시예에 따른 증강 현실 음향 구현 방법에서는, 바이노럴 타입의 음향 장치(100) 또는 복수의 사용자(10, 20)의 상대적 위치 정보를 이용함으로써, 현실 음향을 실시간으로 반영하여 3차원의 증강 현실 음향을 구현할 수 있다.In the augmented reality sound implementation method according to an embodiment of the present invention, by using the relative position information of the binaural type sound device 100 or a plurality of users (10, 20), the three-dimensional by reflecting the real sound in real time Can implement the augmented reality sound.
실시예에 따라, 상술한 바이노럴 타입의 음향 장치(100)와 제1 사용자(10)와 제2 사용자(20)의 상대적 위치 정보가 함께 사용될 수도 있다.According to an exemplary embodiment, the above-described binaural type sound device 100 and the relative position information of the first user 10 and the second user 20 may be used together.
도 2는 증강 현실 음향 구현 장치를 도시한 블록도이다.2 is a block diagram illustrating an apparatus for implementing augmented reality sound.
도 2를 참조하면, 음향 장치(100)는 적어도 하나의 제어부(110), 저장부(120), 입력부(130), 출력부(140), 송수신부(150) 및 GPS부(160) 등을 포함할 수 있다.Referring to FIG. 2, the sound apparatus 100 may include at least one control unit 110, a storage unit 120, an input unit 130, an output unit 140, a transceiver 150, a GPS unit 160, and the like. It may include.
음향 장치(100)에 포함된 각각의 구성 요소들은 버스(bus)에 의해 연결되어 서로 통신을 수행할 수 있다.Each component included in the acoustic device 100 may be connected by a bus to communicate with each other.
제어부(110)는 저장부(120)에 저장된 프로그램 명령(program command)을 실행할 수 있다. 제어부(110)는 중앙 처리 장치(central processing unit, CPU), 그래픽 처리 장치(graphics processing unit, GPU), 또는 본 발명의 실시예들에 따른 방법들이 수행되는 전용의 프로세서(processor)를 의미할 수 있다.The controller 110 may execute a program command stored in the storage 120. The controller 110 may refer to a central processing unit (CPU), a graphics processing unit (GPU), or a dedicated processor on which methods according to embodiments of the present invention are performed. have.
저장부(120)는 휘발성 저장 매체 및 비휘발성 저장 매체 중에서 적어도 하나로 구성될 수 있다. 예를 들어, 저장부(120)는 읽기 전용 메모리(read only memory, ROM) 및 랜덤 액세스 메모리(random access memory, RAM) 중에서 적어도 하나로 구성될 수 있다.The storage unit 120 may be configured of at least one of a volatile storage medium and a nonvolatile storage medium. For example, the storage unit 120 may be configured as at least one of a read only memory (ROM) and a random access memory (RAM).
입력부(130)는 음성을 인식하고 녹음할 수 있는 녹음장치일 수 있다. 예를 들어 입력부(130)는 마이크 등일 수 있다. 출력부(140)는 음성을 출력할 수 있는 출력장치일 수 있다. 출력 장치는 스피커 등을 포함할 수 있다.The input unit 130 may be a recording device capable of recognizing and recording voice. For example, the input unit 130 may be a microphone. The output unit 140 may be an output device capable of outputting voice. The output device may include a speaker or the like.
송수신부(150)는 컴퓨팅 장치(200) 또는 서버와 연결되어 통신을 수행할 수 있다. GPS부(160)는 음향 장치(100) 위치를 추적할 수 있다. The transceiver 150 may be connected to the computing device 200 or a server to perform communication. The GPS unit 160 may track the location of the sound device 100.
컴퓨팅 장치(200)는 적어도 하나의 제어부(210), 저장부(220), 입력부(230), 출력부(240), 송수신부(250), GPS부(260) 및 카메라부(270) 등을 포함할 수 있다.The computing device 200 may include at least one control unit 210, a storage unit 220, an input unit 230, an output unit 240, a transceiver unit 250, a GPS unit 260, a camera unit 270, and the like. It may include.
컴퓨팅(200)에 포함된 각각의 구성 요소들은 버스(bus)에 의해 연결되어 서로 통신을 수행할 수 있다. 출력부(240)는 화면을 출력할 수 있는 출력장치일 수 있다. 출력 장치는 디스플레이 등을 포함할 수 있다. Each component included in the computing 200 may be connected by a bus to communicate with each other. The output unit 240 may be an output device capable of outputting a screen. The output device may include a display or the like.
제어부(210)는 저장부(220)에 저장된 프로그램 명령(program command)을 실행할 수 있다. 제어부(210)는 중앙 처리 장치(central processing unit, CPU), 그래픽 처리 장치(graphics processing unit, GPU), 또는 본 발명의 실시예들에 따른 방법들이 수행되는 전용의 프로세서(processor)를 의미할 수 있다. 저장부(220)는 휘발성 저장 매체 및 비휘발성 저장 매체 중에서 적어도 하나로 구성될 수 있다. 예를 들어, 저장부(220)는 읽기 전용 메모리(read only memory, ROM) 및 랜덤 액세스 메모리(random access memory, RAM) 중에서 적어도 하나로 구성될 수 있다.The controller 210 may execute a program command stored in the storage 220. The controller 210 may mean a central processing unit (CPU), a graphics processing unit (GPU), or a dedicated processor on which methods according to embodiments of the present invention are performed. have. The storage unit 220 may be configured of at least one of a volatile storage medium and a nonvolatile storage medium. For example, the storage unit 220 may be configured as at least one of a read only memory (ROM) and a random access memory (RAM).
송수신부(250)는 다른 컴퓨팅 장치(200), 음향 장치(110) 또는 서버와 연결되어 통신을 수행할 수 있다. GPS부(260)는 컴퓨팅 장치(200) 위치를 추적할 수 있다. 카메라부(270)는 현실 영상을 획득할 수 있다.The transceiver 250 may be connected to another computing device 200, an acoustic device 110, or a server to perform communication. The GPS unit 260 may track the location of the computing device 200. The camera unit 270 may acquire a real image.
일부 실시예에서, 증강 현실 음향 구현 방법은 컴퓨팅 장치와 다른 컴퓨팅 장치 또는 서버의 연계에 의해서 실현될 수도 있다.In some embodiments, the augmented reality sound implementation method may be realized by linking the computing device with another computing device or server.
도 3은 증강 현실 음향 구현 방법의 제1 실시예를 도시한 흐름도이다.3 is a flowchart illustrating a first embodiment of a method for implementing augmented reality sound.
도 3을 참조하면, 제1 사용자(10)의 제1 음향 장치(100-1)는 현실 음향 정보를 획득 할 수 있다. 여기서 현실 음향 정보는 제2 사용자(20)로부터 발생되는 현실 음향 또는 제1 사용자(10) 주변에서 발생되는 현실 음향일 수 있다. Referring to FIG. 3, the first sound device 100-1 of the first user 10 may obtain reality sound information. In this case, the real sound information may be a real sound generated from the second user 20 or a real sound generated around the first user 10.
제1 음향 장치(100-1)는 제1 사용자(10)의 제1 컴퓨팅 장치(200-1)로 현실 음향 정보를 전송할 수 있다. 제1 컴퓨팅 장치(200-1)는 제1 음향 장치(100-1)로부터 현실 음향 정보를 획득할 수 있다(S300).The first sound device 100-1 may transmit reality sound information to the first computing device 200-1 of the first user 10. The first computing device 200-1 may obtain realistic acoustic information from the first acoustic device 100-1 (S300).
제1 컴퓨팅 장치(200-1)는 제1 사용자(10)와 근접한 거리에 다른 사용자(예를 들어, 제2 사용자(20))가 존재하는지 확인할 수 있다(S310). 여기서 근접한 거리는 미리 설정된 거리일 수 있다.The first computing device 200-1 may determine whether another user (eg, the second user 20) exists at a distance from the first user 10 (S310). Herein, the close distance may be a preset distance.
제1 사용자(10)와 제2 사용자(20)가 미리 설정된 거리보다 근접한 경우, 제1 컴퓨팅 장치(200-1)는 현실 음향 정보를 기초로 현실 음향의 방향 특성 정보를 획득할 수 있다(S320). 여기서, 현실 음향 정보는 제1 음향 장치(100-1)의 복수의 입력부(130)에서 측정되는 바이노럴(binaural) 타입의 음향 정보일 수 있다.When the first user 10 and the second user 20 are closer than the preset distance, the first computing device 200-1 may acquire direction characteristic information of the real sound based on the real sound information (S320). ). Here, the real sound information may be binaural type sound information measured by the plurality of input units 130 of the first sound device 100-1.
제1 컴퓨팅 장치(200-1)는 가상 현실 게임 내에서 발생하는 음향을 지시하는 제1 가상 음향 정보를 획득할 수 있다(S321).The first computing device 200-1 may acquire first virtual sound information indicating sound generated in the virtual reality game (S321).
제1 컴퓨팅 장치(200-1)는 현실 음향 정보, 방향 특성 정보, 제1 가상 음향 정보 중 적어도 하나를 기초로 3차원 증강 현실 음향을 생성할 수 있다(S322). 구체적으로 제1 컴퓨팅 장치(200-1)는 현실 음향 정보, 방향 특성 정보, 제1 가상 음향 정보 중 적어도 하나의 정보를 블랜딩하여 3차원 증강 현실 음향을 생성할 수 있다.The first computing device 200-1 may generate the 3D augmented reality sound based on at least one of the real sound information, the direction characteristic information, and the first virtual sound information (S322). In detail, the first computing device 200-1 may generate three-dimensional augmented reality sound by blending at least one of real acoustic information, direction characteristic information, and first virtual acoustic information.
예를 들어, 제1 사용자(10)가 제1 사용자(10)의 북쪽 방향에서 "동해물과 백두산이 마르고 닳도록 하나님이 보우하사 우리 나라 만세" 라는 애국가 1절의 음원을 획득했다면 제1 컴퓨팅 장치(200-1)는 해당 음원이 북쪽에서 발생한 것처럼 들릴 수 있도록 방향 특성 정보와 현실 음향 정보, 그리고 가상 현실 게임 내에서 발생하는 음향을 지시하는 제1 가상 음향 정보를 블랜딩하여 3차원 증강 현실 음향을 생성할 수 있다.For example, if the first user 10 obtains the sound source of the national anthem verse 1, "God bows so that the sea and the Baekdusan dry and wear out in the north direction of the first user 10", the first computing device. The 200-1 blends the direction characteristic information, the real sound information, and the first virtual sound information indicating the sound generated in the virtual reality game so that the sound source may sound as if the sound is generated in the north, thereby generating 3D augmented reality sound. Can be generated.
제1 컴퓨팅 장치(200-1)는 제1 음향 장치(100-1)를 통해 제1 사용자(10)에게 3차원 증강 현실 음향을 제공할 수 있다(S323).The first computing device 200-1 may provide 3D augmented reality sound to the first user 10 through the first acoustic device 100-1 (S323).
제1 사용자(10)와 제2 사용자(20)가 미리 설정된 거리보다 근접하지 않을 경우, 제2 컴퓨팅 장치(200-2)는 제1 사용자(10)와 제2 사용자(20)의 위치 정보를 획득할 수 있다(S330).When the first user 10 and the second user 20 are not closer than the preset distance, the second computing device 200-2 may determine location information of the first user 10 and the second user 20. Can be obtained (S330).
제1 컴퓨팅 장치(200-1)는 제1 사용자(10)와 제2 사용자(20)의 위치 정보를 기초로 현실 음향의 방향 특성 정보를 획득할 수 있다(S331). 제1 컴퓨팅 장치(200-1)는 가상 현실 게임 내에서 발생하는 음향을 지시하는 제1 가상 음향 정보를 획득할 수 있다(S332).The first computing device 200-1 may acquire direction characteristic information of the real sound based on the location information of the first user 10 and the second user 20 (S331). The first computing device 200-1 may acquire first virtual sound information indicating sound generated in the virtual reality game (S332).
제1 컴퓨팅 장치(200-1)는 현실 음향 정보, 방향 특성 정보, 제1 가상 음향 정보 중 적어도 하나를 기초로 3차원 증강 현실 음향을 생성할 수 있다(S333). 구체적으로 제1 컴퓨팅 장치(200-1)는 현실 음향 정보, 방향 특성 정보, 제1 가상 음향 정보 중 적어도 두 개 이상의 정보를 블랜딩하여 3차원 증강 현실 음향을 생성할 수 있다.The first computing device 200-1 may generate the 3D augmented reality sound based on at least one of the real sound information, the direction characteristic information, and the first virtual sound information (S333). In detail, the first computing device 200-1 may generate three-dimensional augmented reality sound by blending at least two or more pieces of information among the real sound information, the direction characteristic information, and the first virtual sound information.
예를 들어, "동해물과 백두산이 마르고 닳도록 하나님이 보우하사 우리 나라 만세" 라는 애국가 1절의 음원이 제2 사용자(20)로부터 발생했다면 제1 컴퓨팅 장치(200-1)는 제2 사용자(20)의 우측에 위치한 제1 사용자(10)가 해당 음원이 좌측에서 발생한 것처럼 들릴 수 있도록 방향 특성 정보를 고려하여 3차원 증강 현실 음향을 생성할 수 있다.For example, if the sound source of the national verse 1, "God bows to dry and wear Donghae and Mt. Baekdu, live in our country," originated from the second user 20, the first computing device 200-1 may be a second user ( 20, the first user 10 located at the right side may generate the 3D augmented reality sound in consideration of the direction characteristic information so that the sound source may sound as if it is generated at the left side.
제1 컴퓨팅 장치(200-1)는 제1 음향 장치(100-1)를 통해 제1 사용자(10)에게 3차원 증강 현실 음향을 제공할 수 있다(S334).The first computing device 200-1 may provide a 3D augmented reality sound to the first user 10 through the first acoustic device 100-1 (S334).
도 4는 증강 현실 음향 구현 방법의 제2 실시예를 도시한 흐름도이다.4 is a flowchart illustrating a second embodiment of a method of implementing augmented reality sound.
도 4를 참조하면, 제1 사용자(10)의 제1 음향 장치(100-1)는 현실 음향 정보를 획득 할 수 있다. 여기서 현실 음향 정보는 제1 사용자(10)로부터 발생되는 현실 음향 또는 제1 사용자(10) 주변에서 발생되는 현실 음향일 수 있다.Referring to FIG. 4, the first sound device 100-1 of the first user 10 may obtain reality sound information. In this case, the real sound information may be a real sound generated from the first user 10 or a real sound generated around the first user 10.
제1 음향 장치(100-1)는 제1 사용자(10)의 제1 컴퓨팅 장치(200-1)로 현실 음향 정보를 전송할 수 있다. 제1 컴퓨팅 장치(200-1)는 제1 음향 장치(100-1)로부터 현실 음향 정보를 획득할 수 있다(S300).The first sound device 100-1 may transmit reality sound information to the first computing device 200-1 of the first user 10. The first computing device 200-1 may obtain realistic acoustic information from the first acoustic device 100-1 (S300).
제1 컴퓨팅 장치(200-1)는 현실 공간에서 복수의 사용자(10, 20) 사이의 상대적인 위치와 증강 현실 게임 내의 가상 공간에서 복수의 사용자(10, 20)의 아바타(avatar)의 상대적인 위치가 대응하지 않는 위치 차이가 발생하는지 확인할 수 있다(S301).The first computing device 200-1 has a relative position between a plurality of users 10 and 20 in a real space and a relative position of avatars of a plurality of users 10 and 20 in a virtual space in an augmented reality game. It is possible to determine whether a position difference that does not correspond to (S301).
위치 차이는 제2 사용자(20)가 제1 사용자(10)에게 스킬(skill)을 사용하는 경우로서, 제2 사용자(20)와 제2 사용자(20)의 아바타가 분리되는 경우일 수 있다. 아바타가 분리되는 경우의 구체적인 예는 다음과 같을 수 있다. 제2 사용자(20)가 제1 사용자(10)에 대해 스킬을 사용할 수 있다. 이 경우 제2 사용자(20)의 아바타가 분리되어 제1 사용자(10) 아바타 쪽으로 이동하여 스킬을 사용하게 될 수 있다. The position difference is a case where the second user 20 uses the skill to the first user 10, and may be a case where the avatars of the second user 20 and the second user 20 are separated. A specific example of the case where the avatar is separated may be as follows. The second user 20 may use the skill with respect to the first user 10. In this case, the avatar of the second user 20 may be separated and moved to the avatar of the first user 10 to use the skill.
또한, 위치 차이는 제2 사용자(20)가 스킬(skill)을 사용하는 경우로서, 제2 사용자(20)의 아바타가 순간 이동하는 경우일 수 있다. 순간이동은 게임 속에서는 일반적으로 텔레포트(teleport)라는 용어로 지칭된다. 순간이동(또는 텔레포트)은 순식간에 어느 공간에 이동하는 것을 의미할 수 있다. 대개 아주 멀리있는 곳으로 이동할 때 쓰일 수 있다. In addition, the position difference may be a case where the second user 20 uses a skill and the avatar of the second user 20 moves at a moment. Teleportation is commonly referred to in the game as teleport. Teleportation (or teleportation) can mean moving to a space in an instant. It can usually be used to move very far away.
예를 들어, 제2 사용자(20)의 아바타가 제1 사용자(10)의 아바타의 동쪽에 위치하는 중 순간이동을 하여 제1 사용자(10)의 아바타의 서쪽에 위치하게 된 경우, 제1 컴퓨팅 장치(200-1)는 제2 사용자(20)의 아바타의 위치와 제2 사용자(20)의 위치 차이를 고려하여 3차원 증강 현실 음향을 생성할 수 있다.For example, when the avatar of the second user 20 is located to the west of the avatar of the first user 10 by teleporting while being located east of the avatar of the first user 10, the first computing is performed. The device 200-1 may generate a 3D augmented reality sound in consideration of a position of the avatar of the second user 20 and a position difference of the second user 20.
또한, 위치 차이는 제2 사용자(20)가 제1 사용자(10)에게 스킬(skill)을 사용하는 경우로서, 제2 사용자(20)의 움직임보다 제2 사용자(20)의 아바타의 움직임이 크거나 짧은 경우일 수 있다.In addition, the position difference is a case where the second user 20 uses the skill to the first user 10, and the movement of the avatar of the second user 20 is greater than that of the second user 20. Or short.
제2 사용자(20)의 움직임보다 제2 사용자(20)의 아바타의 움직임이 크거나 짧은 경우의 예를 들면, 제2 사용자(20)의 스킬 사용으로 인해 제2 사용자(20)가 빠르게 움직이는 경우가 있을 수 있다. 이러한 경우, 제1 컴퓨팅 장치(200-1)는 제2 사용자(20)의 아바타가 빠르게 움직이면서 발생할 수 있는 음향을 고려할 수 있다.When the movement of the avatar of the second user 20 is greater or shorter than the movement of the second user 20. For example, when the second user 20 moves rapidly due to the use of the skill of the second user 20. There can be. In this case, the first computing device 200-1 may consider sounds that may occur while the avatar of the second user 20 moves rapidly.
위치 차이가 발생할 경우 제1 컴퓨팅 장치(200-1)는 제1 사용자(10)와 제2 사용자(20)의 위치 정보를 획득할 수 있다(S302). 제1 컴퓨팅 장치(200-1)는 위치 차이를 기초로 3차원 증강 현실 음향을 생성할 수 있다(S303). When a location difference occurs, the first computing device 200-1 may acquire location information of the first user 10 and the second user 20 (S302). The first computing device 200-1 may generate a 3D augmented reality sound based on the position difference (S303).
제1 컴퓨팅 장치(200-1)는 위치 차이가 발생한 경우 복수의 사용자들(10, 20)의 아바타의 위치에 대응하도록 생성된 제2 가상 음향과 현실 음향의 블랜딩을 통해 3차원 증강 현실 음향을 생성할 수 있다. 제1 컴퓨팅 장치(200-1)는 제1 사용자(10) 또는 제2 사용자(20)가 스킬을 사용할 경우, 1인칭 상황 또는 3인칭 상황에 맞게 음향 블랜딩을 수행할 수 있다. When the location difference occurs, the first computing device 200-1 may generate the 3D augmented reality sound by blending the second virtual sound and the real sound generated to correspond to the positions of the avatars of the plurality of users 10 and 20. Can be generated. When the first user 10 or the second user 20 uses the skill, the first computing device 200-1 may perform acoustic blending according to the first-person or third-person situation.
예를 들어, 1인칭 상황으로 게임을 수행하다가 제1 사용자(10) 또는 제2 사용자(20)가 스킬을 사용하게 되어, 제1 사용자(10) 또는 제2 사용자(20)의 아바타의 위치가 상이하게 되면, 제1 컴퓨팅 장치(200-1)는 3인칭 상황에 맞게 가상 음향을 생성하여 현실 음향과 블랜딩 할 수 있다.For example, while playing a game in a first-person situation, the first user 10 or the second user 20 uses the skill, so that the position of the avatar of the first user 10 or the second user 20 If different, the first computing device 200-1 may generate a virtual sound and blend it with the real sound according to the third-person situation.
제1 컴퓨팅 장치(200-1)는 제1 음향 장치(100-1)를 통해 상기 제1 사용자에게 상기 3차원 증강 현실 음향을 제공할 수 있다(S304).The first computing device 200-1 may provide the 3D augmented reality sound to the first user through the first acoustic device 100-1 (S304).
위치 차이가 발생하지 않을 경우, 제1 컴퓨팅 장치(200-1)는 제1 사용자(10)와 근접한 거리에 다른 사용자(예를 들어, 제2 사용자(20))가 존재하는지 확인할 수 있다(S310). 여기서 근접한 거리는 미리 설정된 거리일 수 있다.If the location difference does not occur, the first computing device 200-1 may determine whether another user (eg, the second user 20) exists at a distance from the first user 10 (S310). ). Herein, the close distance may be a preset distance.
제1 사용자(10)와 제2 사용자(20)가 미리 설정된 거리보다 근접한 경우, 제1 컴퓨팅 장치(200-1)는 현실 음향 정보를 기초로 현실 음향의 방향 특성 정보를 획득할 수 있다(S320). 여기서, 현실 음향 정보는 제1 음향 장치(100-1)의 복수의 입력부(130)에서 측정되는 바이노럴(binaural) 타입의 음향 정보일 수 있다.When the first user 10 and the second user 20 are closer than the preset distance, the first computing device 200-1 may acquire direction characteristic information of the real sound based on the real sound information (S320). ). Here, the real sound information may be binaural type sound information measured by the plurality of input units 130 of the first sound device 100-1.
제1 컴퓨팅 장치(200-1)는 가상 현실 게임 내에서 발생하는 음향을 지시하는 제1 가상 음향 정보를 획득할 수 있다(S321).The first computing device 200-1 may acquire first virtual sound information indicating sound generated in the virtual reality game (S321).
제1 컴퓨팅 장치(200-1)는 현실 음향 정보, 방향 특성 정보, 제1 가상 음향 정보 중 적어도 하나를 기초로 3차원 증강 현실 음향을 생성할 수 있다(S322). 구체적으로 제1 컴퓨팅 장치(200-1)는 현실 음향 정보, 방향 특성 정보, 제1 가상 음향 정보 중 적어도 하나의 정보를 블랜딩하여 3차원 증강 현실 음향을 생성할 수 있다.The first computing device 200-1 may generate the 3D augmented reality sound based on at least one of the real sound information, the direction characteristic information, and the first virtual sound information (S322). In detail, the first computing device 200-1 may generate three-dimensional augmented reality sound by blending at least one of real acoustic information, direction characteristic information, and first virtual acoustic information.
예를 들어, 제1 사용자(10)가 제1 사용자(10)의 북쪽 방향에서 "동해물과 백두산이 마르고 닳도록 하나님이 보우하사 우리 나라 만세" 라는 애국가 1절의 음원을 획득했다면 제1 컴퓨팅 장치(200-1)는 해당 음원이 북쪽에서 발생한 것처럼 들릴 수 있도록 방향 특성 정보와 현실 음향 정보, 그리고 가상 현실 게임 내에서 발생하는 음향을 지시하는 제1 가상 음향 정보를 블랜딩하여 3차원 증강 현실 음향을 생성할 수 있다.For example, if the first user 10 obtains the sound source of the national anthem verse 1, "God bows so that the sea and the Baekdusan dry and wear out in the north direction of the first user 10", the first computing device. The 200-1 blends the direction characteristic information, the real sound information, and the first virtual sound information indicating the sound generated in the virtual reality game so that the sound source may sound as if the sound is generated in the north, thereby generating 3D augmented reality sound. Can be generated.
제1 컴퓨팅 장치(200-1)는 제1 음향 장치(100-1)를 통해 제1 사용자(10)에게 3차원 증강 현실 음향을 제공할 수 있다(S323).The first computing device 200-1 may provide 3D augmented reality sound to the first user 10 through the first acoustic device 100-1 (S323).
제1 사용자(10)와 제2 사용자(20)가 미리 설정된 거리보다 근접하지 않을 경우, 제2 컴퓨팅 장치(200-2)는 제1 사용자(10)와 제2 사용자(20)의 위치 정보를 획득할 수 있다(S330).When the first user 10 and the second user 20 are not closer than the preset distance, the second computing device 200-2 may determine location information of the first user 10 and the second user 20. Can be obtained (S330).
제1 컴퓨팅 장치(200-1)는 제1 사용자(10)와 제2 사용자(20)의 위치 정보를 기초로 현실 음향의 방향 특성 정보를 획득할 수 있다(S331). 제1 컴퓨팅 장치(200-1)는 가상 현실 게임 내에서 발생하는 음향을 지시하는 제1 가상 음향 정보를 획득할 수 있다(S332).The first computing device 200-1 may acquire direction characteristic information of the real sound based on the location information of the first user 10 and the second user 20 (S331). The first computing device 200-1 may acquire first virtual sound information indicating sound generated in the virtual reality game (S332).
제1 컴퓨팅 장치(200-1)는 현실 음향 정보, 방향 특성 정보, 제1 가상 음향 정보 중 적어도 하나를 기초로 3차원 증강 현실 음향을 생성할 수 있다(S333). 구체적으로 제1 컴퓨팅 장치(200-1)는 현실 음향 정보, 방향 특성 정보, 제1 가상 음향 정보 중 적어도 두 개 이상의 정보를 블랜딩하여 3차원 증강 현실 음향을 생성할 수 있다.The first computing device 200-1 may generate the 3D augmented reality sound based on at least one of the real sound information, the direction characteristic information, and the first virtual sound information (S333). In detail, the first computing device 200-1 may generate three-dimensional augmented reality sound by blending at least two or more pieces of information among the real sound information, the direction characteristic information, and the first virtual sound information.
예를 들어, "동해물과 백두산이 마르고 닳도록 하나님이 보우하사 우리 나라 만세" 라는 애국가 1절의 음원이 제2 사용자(20)로부터 발생했다면 제1 컴퓨팅 장치(200-1)는 제2 사용자(20)의 우측에 위치한 제1 사용자(10)가 해당 음원이 좌측에서 발생한 것처럼 들릴 수 있도록 방향 특성 정보를 고려하여 3차원 증강 현실 음향을 생성할 수 있다.For example, if the sound source of the national verse 1, "God bows to dry and wear Donghae and Mt. Baekdu, live in our country," originated from the second user 20, the first computing device 200-1 may be a second user ( 20, the first user 10 located at the right side may generate the 3D augmented reality sound in consideration of the direction characteristic information so that the sound source may sound as if it is generated at the left side.
제1 컴퓨팅 장치(200-1)는 제1 음향 장치(100-1)를 통해 제1 사용자(10)에게 3차원 증강 현실 음향을 제공할 수 있다(S334).The first computing device 200-1 may provide a 3D augmented reality sound to the first user 10 through the first acoustic device 100-1 (S334).
이상에서는 증강 현실(Augmented Reality) 음향 구현 방법에 관하여 설명하였으나, 본 발명이 속하는 기술분야의 통상의 기술자는 본 발명이 증강 현실 음향 구현에 제한되는 것이 아니라 가상 세계 이미지에 현실 이미지를 혼합하는 증강 가상을 포함하는 혼합 현실(Mixed Reality) 음향 구현을 위하여도 실질적으로 동일하게 실시될 수 있다는 것을 이해할 수 있을 것이다.In the above description of the method for implementing augmented reality sound, the person skilled in the art to which the present invention pertains is not limited to the implementation of the augmented reality sound. It will be appreciated that the same may be implemented for a mixed reality sound implementation including the same.
본 발명의 실시예와 관련하여 설명된 방법 또는 알고리즘의 단계들은 하드웨어로 직접 구현되거나, 하드웨어에 의해 실행되는 소프트웨어 모듈로 구현되거나, 또는 이들의 결합에 의해 구현될 수 있다. 소프트웨어 모듈은 RAM(Random Access Memory), ROM(Read Only Memory), EPROM(Erasable Programmable ROM), EEPROM(Electrically Erasable Programmable ROM), 플래시 메모리(Flash Memory), 하드 디스크, 착탈형 디스크, CD-ROM, 또는 본 발명이 속하는 기술 분야에서 잘 알려진 임의의 형태의 컴퓨터 판독가능 기록매체에 상주할 수도 있다.The steps of a method or algorithm described in connection with an embodiment of the present invention may be implemented directly in hardware, in a software module executed by hardware, or by a combination thereof. The software module may include random access memory (RAM), read only memory (ROM), erasable programmable ROM (EPROM), electrically erasable programmable ROM (EEPROM), flash memory, hard disk, removable disk, CD-ROM, or It may reside in any form of computer readable recording medium well known in the art.
이상, 첨부된 도면을 참조로 하여 본 발명의 실시예를 설명하였지만, 본 발명이 속하는 기술분야의 통상의 기술자는 본 발명이 그 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로, 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며, 제한적이 아닌 것으로 이해해야만 한다. In the above, embodiments of the present invention have been described with reference to the accompanying drawings, but those skilled in the art to which the present invention pertains may implement the present invention in other specific forms without changing the technical spirit or essential features. I can understand that. Therefore, it should be understood that the embodiments described above are exemplary in all respects and not restrictive.

Claims (10)

  1. 증강 현실 음향 구현 방법을 수행하는 증강 현실 음향 구현 시스템으로,An augmented reality sound implementation system performing the augmented reality sound implementation method,
    제1 사용자의 제1 컴퓨팅 장치; 및A first computing device of a first user; And
    상기 제1 사용자가 3차원 증강 현실 음향을 제공받을 수 있도록 상기 제1 사용자에게 착용되며, 상기 제1 컴퓨팅 장치와 유선 또는 무선으로 연결되고, 음향 녹음 기능을 포함하는 제1 음향 장치;를 포함하며,And a first sound device that is worn by the first user so that the first user can be provided with 3D augmented reality sound, is connected to the first computing device by wire or wirelessly, and includes a sound recording function. ,
    상기 제1 음향 장치는 현실 음향을 지시하는 현실 음향 정보를 획득하고, 상기 현실 음향 정보를 상기 제1 컴퓨팅 장치로 전송하는 단계;Acquiring, by the first acoustic device, real acoustic information indicating real sound and transmitting the real acoustic information to the first computing device;
    상기 제1 컴퓨팅 장치는 상기 제1 컴퓨팅 장치에서 수행되는 가상 현실 게임에서 발생하는 음향을 지시하는 제1 가상 음향을 획득하는 단계;Acquiring, by the first computing device, a first virtual sound indicative of a sound generated in a virtual reality game played on the first computing device;
    상기 제1 컴퓨팅 장치는 상기 현실 음향 정보와 상기 제1 가상 음향을 기초로 3차원 증강 현실 음향을 생성하는 단계; 및Generating, by the first computing device, a 3D augmented reality sound based on the reality sound information and the first virtual sound; And
    상기 제1 컴퓨팅 장치는 상기 제1 음향 장치를 통해 상기 제1 사용자에게 상기 3차원 증강 현실 음향을 제공하는 단계;를 포함하는, 증강 현실 음향 구현 시스템.And providing, by the first computing device, the three-dimensional augmented reality sound to the first user via the first acoustic device.
  2. 청구항 1에 있어서, The method according to claim 1,
    상기 제1 컴퓨팅 장치는 상기 현실 음향의 발생 위치를 지시하는 방향 특성 정보를 획득하는 단계; 및 Acquiring, by the first computing device, direction characteristic information indicating a location of generation of the real sound; And
    상기 제1 컴퓨팅 장치는 상기 3차원 증강 현실 음향의 생성에 상기 방향 특성 정보를 더 고려하는 단계;를 포함하는, 증강 현실 음향 구현 시스템.And the first computing device further considering the direction characteristic information in the generation of the 3D augmented reality sound.
  3. 청구항 2에 있어서,The method according to claim 2,
    상기 제1 컴퓨팅 장치는 상기 제1 사용자와 상기 제1 사용자와 이격된 제2 사용자가 미리 설정된 거리보다 근접한지 판단하고, 상기 제1 사용자와 상기 제2 사용자가 미리 설정된 거리보다 근접한 경우, 상기 현실 음향 정보를 기초로 상기 현실 음향의 방향 특성 정보를 획득하며, 상기 현실 음향 정보는 상기 제1 음향 장치에서 복수의 마이크로 측정되는 바이노럴(binaural) 타입인, 증강 현실 음향 구현 시스템.The first computing device determines whether the first user and the second user spaced apart from the first user are closer than a preset distance, and when the first user and the second user are closer than a preset distance, the reality Obtaining direction characteristic information of the real sound based on sound information, wherein the real sound information is a binaural type measured by a plurality of microphones in the first acoustic device.
  4. 청구항 2에 있어서,The method according to claim 2,
    상기 제1 컴퓨팅 장치는 상기 제1 사용자와 상기 제1 사용자와 이격된 제2 사용자가 미리 설정된 거리보다 근접한지 판단하고, 상기 제1 사용자와 상기 제2 사용자가 미리 설정된 거리보다 근접하지 않을 경우, 상기 제1 사용자와 상기 제2 사용자의 위치 정보를 기초로 상기 현실 음향의 방향 특성 정보를 획득하는, 증강 현실 음향 구현 시스템.The first computing device determines whether the first user and the second user spaced apart from the first user are closer than a preset distance, and when the first user and the second user are not closer than the preset distance, And obtaining direction characteristic information of the real sound based on location information of the first user and the second user.
  5. 청구항 1에 있어서,The method according to claim 1,
    상기 제1 컴퓨팅 장치는 상기 제1 사용자와 상기 제1 사용자와 이격된 제2 사용자의 현실 공간에서의 상대적인 위치와 상기 제1 사용자와 상기 제2 사용자의 가상 공간의 아바타(avatar)의 상대적인 위치가 대응하지 않는 위치 차이가 발생할 경우,The first computing device has a relative position in a real space of the first user and a second user spaced apart from the first user, and a relative position of an avatar of the virtual space of the first user and the second user. If an inconsistent position difference occurs,
    상기 위치 차이를 기초로 상기 3차원 증강 현실 음향을 생성하는, 증강 현실 음향 구현 시스템.And generating the three-dimensional augmented reality sound based on the position difference.
  6. 청구항 5에 있어서,The method according to claim 5,
    상기 위치 차이는 상기 제2 사용자가 상기 제1 사용자에게 스킬(skill)을 사용하는 경우로서, 상기 제2 사용자와 상기 제2 사용자의 아바타가 분리되는 경우인, 증강 현실 음향 구현 시스템.The location difference is a case where the second user uses the skill to the first user, and the avatar of the second user and the second user are separated.
  7. 청구항 5에 있어서,The method according to claim 5,
    상기 위치 차이는 상기 제2 사용자가 상기 제1 사용자에게 스킬(skill)을 사용하는 경우로서, 상기 제2 사용자의 움직임보다 상기 제2 사용자의 아바타의 움직임이 크거나 짧은 경우인, 증강 현실 음향 구현 시스템.The location difference is a case where the second user uses a skill to the first user, and the motion of the avatar of the second user is greater or shorter than the movement of the second user. system.
  8. 청구항 5에 있어서,The method according to claim 5,
    상기 3차원 증강 현실 음향은 상기 아바타의 위치에 대응하도록 생성된 제2 가상 음향과 상기 현실 음향의 블랜딩을 통해 생성되는, 증강 현실 음향 구현 시스템.And the 3D augmented reality sound is generated through blending the second virtual sound and the real sound generated to correspond to the position of the avatar.
  9. 제1항 내지 제8항 중 어느 하나의 항에 기재된 증강 현실 음향 구현 시스템이 수행하는 증강 현실 음향 구현 방법을 실행시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 매체.A computer readable medium having recorded thereon a program for executing an augmented reality sound implementation method performed by the augmented reality sound implementation system according to any one of claims 1 to 8.
  10. 하드웨어인 상기 컴퓨팅 장치와 결합되어 제1항 내지 제8항 중 어느 하나의 항에 기재된 증강 현실 음향 구현 시스템이 수행하는 증강 현실 음향 구현 방법을 실행시키기 위하여 매체에 저장된 단말장치용 어플리케이션.An application for a terminal device, which is stored in a medium for executing an augmented reality sound implementation method performed by the augmented reality sound implementation system according to any one of claims 1 to 8 in combination with the computing device, which is hardware.
PCT/KR2018/003189 2017-03-20 2018-03-19 System and program for implementing augmented reality three-dimensional sound reflecting real-life sound WO2018174500A1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN201880001772.3A CN109076307A (en) 2017-03-20 2018-03-19 The augmented reality 3-D audio of audio of reflecting reality realizes system and program
US16/168,560 US20190058961A1 (en) 2017-03-20 2018-10-23 System and program for implementing three-dimensional augmented reality sound based on realistic sound

Applications Claiming Priority (6)

Application Number Priority Date Filing Date Title
KR20170034398 2017-03-20
KR10-2017-0034398 2017-03-20
KR10-2017-0102892 2017-08-14
KR20170102892 2017-08-14
KR10-2017-0115842 2017-09-11
KR1020170115842A KR101963244B1 (en) 2017-03-20 2017-09-11 System for implementing augmented reality 3-dimensional sound with real sound and program for the same

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US16/168,560 Continuation US20190058961A1 (en) 2017-03-20 2018-10-23 System and program for implementing three-dimensional augmented reality sound based on realistic sound

Publications (1)

Publication Number Publication Date
WO2018174500A1 true WO2018174500A1 (en) 2018-09-27

Family

ID=63585873

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2018/003189 WO2018174500A1 (en) 2017-03-20 2018-03-19 System and program for implementing augmented reality three-dimensional sound reflecting real-life sound

Country Status (1)

Country Link
WO (1) WO2018174500A1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020157035A1 (en) * 2019-02-01 2020-08-06 Nokia Technologies Oy An apparatus, method or computer program for enabling real-time audio communication between users experiencing immersive audio

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006025281A (en) * 2004-07-09 2006-01-26 Hitachi Ltd Information source selection system, and method
US20120183161A1 (en) * 2010-09-03 2012-07-19 Sony Ericsson Mobile Communications Ab Determining individualized head-related transfer functions
JP2016048534A (en) * 2013-12-25 2016-04-07 キヤノンマーケティングジャパン株式会社 Information processing system, control method thereof, and program; and information processing device, control method thereof, and program
US20160212272A1 (en) * 2015-01-21 2016-07-21 Sriram Srinivasan Spatial Audio Signal Processing for Objects with Associated Audio Content
US20170045941A1 (en) * 2011-08-12 2017-02-16 Sony Interactive Entertainment Inc. Wireless Head Mounted Display with Differential Rendering and Sound Localization

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006025281A (en) * 2004-07-09 2006-01-26 Hitachi Ltd Information source selection system, and method
US20120183161A1 (en) * 2010-09-03 2012-07-19 Sony Ericsson Mobile Communications Ab Determining individualized head-related transfer functions
US20170045941A1 (en) * 2011-08-12 2017-02-16 Sony Interactive Entertainment Inc. Wireless Head Mounted Display with Differential Rendering and Sound Localization
JP2016048534A (en) * 2013-12-25 2016-04-07 キヤノンマーケティングジャパン株式会社 Information processing system, control method thereof, and program; and information processing device, control method thereof, and program
US20160212272A1 (en) * 2015-01-21 2016-07-21 Sriram Srinivasan Spatial Audio Signal Processing for Objects with Associated Audio Content

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020157035A1 (en) * 2019-02-01 2020-08-06 Nokia Technologies Oy An apparatus, method or computer program for enabling real-time audio communication between users experiencing immersive audio

Similar Documents

Publication Publication Date Title
JP7170736B2 (en) interactive augmentation or virtual reality device
JP5992210B2 (en) Information processing program, information processing apparatus, information processing system, and information processing method
WO2016089133A1 (en) Binaural audio signal processing method and apparatus reflecting personal characteristics
WO2019151793A1 (en) Apparatus and method for sharing a virtual reality environment
WO2013019022A2 (en) Method and apparatus for processing audio signal
JP7473676B2 (en) AUDIO PROCESSING METHOD, APPARATUS, READABLE MEDIUM AND ELECTRONIC DEVICE
TW201215179A (en) Virtual spatial sound scape
WO2018186693A1 (en) Sound source reproducing apparatus for reproducing virtual speaker on basis of image information
WO2018182190A1 (en) Use of earcons for roi identification in 360-degree video
WO2016117962A1 (en) Method and user terminal for providing hologram image-based message service, and hologram image display device
WO2018093193A1 (en) System and method for producing audio data to head mount display device
WO2017043795A1 (en) Virtual reality image transmission method, image reproduction method, and program using same
US11806621B2 (en) Gaming with earpiece 3D audio
WO2021169689A1 (en) Sound effect optimization method and apparatus, electronic device, and storage medium
US10788888B2 (en) Capturing and rendering information involving a virtual environment
WO2018174500A1 (en) System and program for implementing augmented reality three-dimensional sound reflecting real-life sound
KR101963244B1 (en) System for implementing augmented reality 3-dimensional sound with real sound and program for the same
WO2018101589A1 (en) Hearing test system and method
US11337025B2 (en) Information processing apparatus and sound generation method
WO2018194320A1 (en) Spatial audio control device according to gaze tracking and method therefor
CN115460508A (en) Audio fidelity method, device and storage medium in virtual scene
JP2018152834A (en) Method and apparatus for controlling audio signal output in virtual auditory environment
JP6431225B1 (en) AUDIO PROCESSING DEVICE, VIDEO / AUDIO PROCESSING DEVICE, VIDEO / AUDIO DISTRIBUTION SERVER, AND PROGRAM THEREOF
CN111462335B (en) Equipment control method and device based on virtual object interaction, medium and equipment
JP6499805B2 (en) Video display device and video display method

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 18772168

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

32PN Ep: public notification in the ep bulletin as address of the adressee cannot be established

Free format text: NOTING OF LOSS OF RIGHTS (EPO FORM 1205A DATED 17.12.2019)

122 Ep: pct application non-entry in european phase

Ref document number: 18772168

Country of ref document: EP

Kind code of ref document: A1