WO2018203579A1 - Stereophonic sound generating device and computer program therefor - Google Patents

Stereophonic sound generating device and computer program therefor Download PDF

Info

Publication number
WO2018203579A1
WO2018203579A1 PCT/KR2017/004677 KR2017004677W WO2018203579A1 WO 2018203579 A1 WO2018203579 A1 WO 2018203579A1 KR 2017004677 W KR2017004677 W KR 2017004677W WO 2018203579 A1 WO2018203579 A1 WO 2018203579A1
Authority
WO
WIPO (PCT)
Prior art keywords
sound
sound source
directions
acoustic
positional relationship
Prior art date
Application number
PCT/KR2017/004677
Other languages
French (fr)
Korean (ko)
Inventor
하수호
Original Assignee
하수호
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 하수호 filed Critical 하수호
Priority to PCT/KR2017/004677 priority Critical patent/WO2018203579A1/en
Publication of WO2018203579A1 publication Critical patent/WO2018203579A1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S7/00Indicating arrangements; Control arrangements, e.g. balance control

Definitions

  • This embodiment relates to a stereo sound generating apparatus and a computer program therefor. More particularly, the present invention relates to a stereophonic sound generating apparatus and a computer program therefor for enabling to implement 3D sound effects identical to actual sounds.
  • a method of realizing a 3D sound effect has been proposed by detecting a distance between a speaker and a listener, and adjusting a volume of a sound based on the distance.
  • the 3D sound implementation method only the acoustic characteristics of the linear sound spreading outward among the sound spreading from the speaker in various directions are considered, and the acoustic characteristics of the sound spreading out in the other direction are not considered at all. There is a limitation.
  • the positional relationship between the listener object and the sound source object in the virtual space is determined, and the acoustic signal output from the sound source object is transmitted to each of a plurality of reception directions centered on the listener object based on the identified positional relationship.
  • the main object of the present invention is to provide a stereoscopic sound generating apparatus and a computer program therefor that can implement 3D sound effects identical to real sounds by implementing different sound characteristics.
  • the present embodiment may further include: a detector configured to detect positions of a listener object and a sound source object in a virtual space and determine a positional relationship between the listener object and the sound source object; A parameter determiner configured to determine an acoustic characteristic to which an acoustic signal output from the sound source object is transmitted for each of a plurality of reception directions divided about the listener object based on the positional relationship in the virtual space; And a signal controller configured to generate a stereoscopic sound by applying acoustic characteristics corresponding to each of the plurality of receiving directions to which the acoustic signal is transmitted, to the acoustic signal.
  • a detector configured to detect positions of a listener object and a sound source object in a virtual space and determine a positional relationship between the listener object and the sound source object
  • a parameter determiner configured to determine an acoustic characteristic to which an acoustic signal output from the sound source object is transmitted for each of a plurality of reception directions divided about the listener
  • detecting the position of the listener object and the sound source object in the virtual space to determine the positional relationship between the listener object and the sound source object; Determining an acoustic characteristic to which an acoustic signal output from the sound source object is transmitted in each of a plurality of directions divided about the listener object based on the positional relationship in the virtual space; And a computer program stored in a recording medium for executing a process of generating a stereoscopic sound by applying acoustic characteristics corresponding to each of the plurality of directions in which the acoustic signal is transmitted to the acoustic signal.
  • the positional relationship between the listener object and the sound source object in the virtual space is determined, and based on the identified positional relationship, the sound signal output from the sound source object for each of a plurality of receiving directions centered on the listener object.
  • FIG. 1 is a block diagram schematically showing a three-dimensional sound generating apparatus according to the present embodiment.
  • FIG. 2 is an exemplary view for explaining a method of identifying a positional relationship between a listener object and a sound source object in a virtual space according to the present embodiment.
  • FIG. 3 is an exemplary diagram illustrating a plurality of reception directions divided by a listener object according to the present embodiment.
  • 4 and 5 are exemplary views illustrating a method for providing stereo sound according to the present embodiment.
  • FIG. 6 is a flowchart illustrating a stereoscopic sound providing method according to the present embodiment.
  • the stereoscopic sound generating apparatus is a device for realizing a stereoscopic sound effect, and is applicable to various fields such as a game, artificial intelligence (AI), augmented reality (AR), virtual reality (VR), etc. as well as an audio system. Can be.
  • the application field of the 3D sound generating device is not limited to a specific field.
  • FIG. 1 is a block diagram schematically showing a three-dimensional sound generating apparatus according to the present embodiment.
  • FIG. 1 is an internal block diagram of a stereophonic sound generating apparatus 100 according to an embodiment of the present invention.
  • the stereophonic sound generating apparatus 100 is implemented as a separate stand-alone device in which hardware of a terminal and software of a stereophonic sound generating application are combined.
  • the components included in the 3D sound generating apparatus 100 may be implemented as software or hardware elements, respectively.
  • the stereoscopic sound generating apparatus 100 includes a detector 110, a parameter determiner 120, a signal controller 130, a storage 140, a user interface 150, a display 160, Audio circuitry 170 and speaker 180.
  • the components included in the stereoscopic sound generating apparatus 100 are not necessarily limited thereto.
  • the detector 110 detects a positional relationship between a listener object and a sound source object used as a reference parameter for stereoscopic sound generation.
  • the detector 110 detects a position of a listener object and at least one sound source object in a virtual space to determine a positional relationship between the listener object and the sound source object.
  • the virtual space may be an arbitrary space generated corresponding to a game space, an AI space, or an actual space in which sound is provided, according to an application field of the 3D sound generating apparatus 100.
  • the method of detecting the virtual space by the detector 110 is not limited to a specific method.
  • the detection unit 110 may receive data related to the virtual space through interworking with a server device (not shown) or a storage medium.
  • the detector 110 divides the virtual space into a plurality of cells according to a lattice structure, and analyzes the positional relationship between the listener object and the sound source object by analyzing the relationship between the cell where the listener object is located and the cell where the sound source object is located.
  • the detector 110 may calculate a separation distance and a separation direction between the objects as a positional relationship between the listener object and the sound source object. To this end, the detector 110 may set a unique coordinate value for each cell divided according to the lattice structure.
  • the parameter determiner 120 determines a sound characteristic when the sound signal output from the sound source object is transmitted to the listener object in order to generate 3D sound.
  • the sound output from the sound source object in the real space is spread not only in the front direction, but also in various directions such as left, right, and rear according to propagation characteristics.
  • the sound propagating in each direction causes a difference in the parallax and incidence direction until reaching the listener object.
  • sounds propagating in a direction other than the straight sound have different acoustic characteristics in terms of sound intensity, parallax, direction, and extinction time when reaching the listener object according to factors such as extinction or reflection.
  • the parameter determiner 120 differently determines acoustic characteristics through which sound signals output from the sound source object are transmitted for each of a plurality of reception directions centered on the listener object. That is, the parameter determiner 120 may display the sound intensity, parallax, and extinction time of the sound signal transmitted from the sound source object differently for each of the plurality of receiving directions centered on the listener object. The same 3D sound effect can be realized.
  • the parameter determiner 120 may have a sound value corresponding to a sound signal in which a corresponding sound signal arrives in a different receiving direction with respect to a first receiving direction in which a sound signal arrives straight from a sound source object among the plurality of directions. Its loudness can be determined to be loud.
  • the parameter determiner 120 is configured to gradually reduce the volume of sound as the distance from the first reception direction with respect to the sound signal transmitted in the left or right reception direction based on the first reception direction among the plurality of directions.
  • the acoustic characteristics can be determined.
  • the plurality of reception directions may be determined based on a sensing direction of the sound perceived by the listener's ear when the sound spreading in each direction in the real space reaches the listener, and may be preferably divided based on the azimuth information. have.
  • Such a plurality of reception directions may be variously set by the user.
  • the parameter determiner 120 receives a plurality of received data by further utilizing reference data stored in the storage 140 based on the positional relationship between the listener object and the sound source object identified through the detector 110. It is possible to differently determine the acoustic characteristics to which the acoustic signal output from the sound source object is transmitted for each direction.
  • the storage unit 140 may store the acoustic parameter variation of each of the plurality of reception directions based on the positional relationship between the listener object and the sound source object, and the detailed description thereof will be described with reference to the storage unit 140. It will be described later in the process.
  • the parameter determiner 120 determines whether the current listener object is spaced apart from the sound source object based on which receiving direction, based on the positional relationship between the listener object and the sound source object detected by the detector 110. . That is, the parameter determiner 120 may determine which receiving direction (hereinafter, the reference receiving direction) of the plurality of receiving directions of the current listener object from the sound source object based on the separation direction between the listener object and the sound source object identified through the detector 110. To be described in detail).
  • the parameter determiner 120 determines acoustic characteristics of a sound signal corresponding to each of the plurality of reception directions based on reference data in the storage 140 corresponding to the reference reception direction.
  • the parameter determiner 120 detects a positional relationship between the listener object and the sound source object when movement of any one of the listener object and the sound source object in the virtual space is detected. Thereafter, the parameter determiner 120 re-determines the acoustic characteristics of the corresponding acoustic signal for each of the plurality of receiving directions based on the re-detected positional relationship and the corresponding reference data in the storage 140.
  • the parameter determiner 120 may determine a positional relationship between each sound source object and a listener object, and may determine the identified positional relationship and the corresponding reference data in the storage 140 corresponding thereto. Based on the plurality of reception directions, the acoustic characteristics of the acoustic signals output from the respective sound source objects are determined.
  • the storage unit 130 stores necessary information necessary for generating a stereoscopic sound.
  • the storage unit 130 stores the acoustic characteristics of the sound signal in each of the plurality of receiving directions according to the positional relationship between the listener object and the sound source object for each virtual space. That is, the storage unit 130 stores the acoustic parameter variation of each of the plurality of receiving directions corresponding to the separation of the listener object by a unit distance in each direction of the plurality of receiving directions divided by the listener object from the sound source object. .
  • the unit distance is preferably a numerical value corresponding to the length of one cell when the virtual space is divided into a plurality of cells according to the lattice structure, but is not necessarily limited thereto.
  • the acoustic parameter variation value is preferably, but is not necessarily limited to, a part or variation value of the sound intensity, parallax and extinction time for the acoustic signal.
  • the parameter determiner 120 may determine acoustic characteristics of each of the plurality of reception directions based on a change value of the acoustic parameter in the storage 140 corresponding to the reference reception direction.
  • the parameter determiner 120 first determines how many cells the distance between the listener object and the sound source object has a difference value based on the separation distance between the listener object and the sound source object identified through the detector 110. Calculate
  • the parameter determiner 120 multiplies a coefficient value corresponding to the calculated difference value by the acoustic parameter change value, and thus, for each of the plurality of reception directions corresponding to the positional relationship between the current listener object and the sound source object.
  • the acoustic characteristics can be determined.
  • the stereophonic sound generating apparatus 100 is required for generating stereoscopic sound. This has the effect of minimizing the storage of data.
  • the signal controller 140 applies and outputs acoustic characteristics corresponding to each of the plurality of reception directions to the acoustic signal.
  • the signal controller 140 receives a control command including sound characteristics determined for each of the plurality of receiving directions from the parameter determiner 120, and adjusts and outputs the output of the acoustic signals in the plurality of receiving directions based on the control command. .
  • the user interface unit 150 provides an interface between the user and the 3D sound generating apparatus 100. That is, the user interface unit 150 provides a means for the user to input a command such as input information to the stereo sound generating apparatus 100, and thereby receives the input information from the user.
  • the user interface unit 150 may receive azimuth information corresponding to a plurality of reception directions as input information.
  • the display unit 160 provides a graphic user interface screen in which the listener object and the acoustic object in the virtual space are arranged, and through this, a path for a sound signal transmitted from a sound source object to a plurality of receiving directions separated by the listener object. Can be displayed.
  • the display 160 may display an acoustic characteristic of an acoustic signal transmitted in each receiving direction in the graphical user interface screen.
  • the audio circuit 170 receives an acoustic signal to which acoustic characteristics corresponding to each of the plurality of receiving directions are applied, converts the received data into an electrical signal, and transmits the received electrical signal to the speaker 180.
  • the speaker 180 converts the received electric signal into a sound wave that can be heard by a human being and outputs it. Meanwhile, in the present exemplary embodiment, the speaker 180 may be implemented as a device separate from the 3D sound generating device.
  • FIG. 2 is an exemplary view for explaining a method of identifying a positional relationship between a listener object and a sound source object in a virtual space according to the present embodiment.
  • the stereoscopic sound generating apparatus 100 may identify a positional relationship between a listener object and a sound source object in a virtual space, and output the sound from the sound source object for each of a plurality of receiving directions centered on the listener object based on the positional relationship.
  • the acoustic characteristics through which the sound signal is transmitted are determined differently.
  • the stereophonic sound generating apparatus 100 divides a virtual space into a plurality of cells according to a lattice structure, and a cell in which a listener object is located and a cell in which a sound source object is located among the plurality of cells. Through the relationship analysis, the positional relationship between the listener object and the sound source object is identified.
  • the stereo sound generating apparatus 100 according to the present embodiment preferably divides the virtual space into 46 to 1640 cells, but is not necessarily limited thereto.
  • the 3D sound generating apparatus 100 may divide the virtual space into various numbers of cells according to a user's selection. On the other hand, when the number of divided cells is large, there is an effect that can accurately determine the positional relationship between the listener object and the sound source object.
  • the separation distance and the separation direction of the sound source object based on the listener object are calculated as the positional relationship between the listener object and the sound source object.
  • the separation distance may be calculated in units of cells, and the separation direction may include azimuth information and azimuth information.
  • FIG. 3 is an exemplary diagram illustrating a plurality of reception directions divided by a listener object according to the present embodiment.
  • the sound output from the sound source object in the real space reaches the listener object while spreading in various directions such as left, right, and rear as well as the front direction according to the propagation characteristics.
  • various directions such as left, right, and rear as well as the front direction according to the propagation characteristics.
  • the sound propagating in the left, right, and rear directions causes a difference in the parallax until reaching the listener object and the incident direction thereof.
  • the 3D sound generating apparatus 100 sets a reception direction in which the respective sounds are transmitted based on the listener object, and transmits a sound signal output from the sound source object for each set reception direction.
  • the 3D sound effect that is identical to the real sound is realized.
  • FIG. 3 an implementation form of a plurality of reception directions set around a listener object may be checked.
  • FIG. 3A illustrates an implementation of a plurality of reception directions when the virtual space is two-dimensional
  • FIG. 3B illustrates a plurality of reception directions when the virtual space is three-dimensional. An implementation form is illustrated.
  • 4 and 5 are exemplary views illustrating a method for providing stereo sound according to the present embodiment.
  • FIG. 4 is an exemplary diagram illustrating a form in which a sound signal output from a sound source object is transmitted to each of a plurality of receiving directions according to a positional relationship between a listener object and a sound source object. Meanwhile, FIG. 4A illustrates a case where there is one sound source object, and FIG. 4B illustrates a case where two sound source objects.
  • FIG. 5 is an exemplary diagram illustrating a case where a positional relationship between a listener object and a sound source object is changed.
  • FIG. 6 is a flowchart illustrating a stereoscopic sound providing method according to the present embodiment.
  • the stereophonic sound generating apparatus 100 detects positions of the listener object and one or more sound source objects in the virtual space, and determines the positional relationship between the listener object and the sound source object (S602).
  • the 3D sound generating apparatus 100 divides the virtual space into a plurality of cells according to a lattice structure, and analyzes the relationship between the cell where the listener object is located and the cell where the sound source object is located among the plurality of cells by analyzing the listener object and the sound source. Identify the positional relationship between objects.
  • the stereoscopic sound generating apparatus 100 determines an acoustic characteristic to which an acoustic signal output from the sound source object is transmitted in each of a plurality of reception directions centered on the listener object based on the positional relationship identified in step S602 (S604). .
  • the 3D sound generating apparatus 100 uses the reference data stored in the storage unit 140 based on the positional relationship between the listener object and the sound source object determined in operation S602, and the sound source object for each of the plurality of reception directions. Differently determine the acoustic characteristics to which the acoustic signal output from the transmission.
  • the stereophonic sound generating apparatus 100 calculates how many cell distances the distance between the listener object and the sound source object is based on the separation distance between the listener object and the sound source object identified in step S602.
  • the stereophonic sound generating apparatus 100 may determine the positional relationship between the current listener object and the sound source object by multiplying a coefficient value corresponding to the calculated difference value by a sound parameter change value corresponding to the reference receiving direction in the storage 140. The acoustic characteristic for each of the corresponding plurality of receiving directions is determined.
  • the stereophonic sound generating apparatus 100 generates stereoscopic sound by applying acoustic characteristics corresponding to each of the plurality of receiving directions to the acoustic signal (S606).
  • the 3D sound generating apparatus 100 When the movement of the object in the virtual space is detected (S608), the 3D sound generating apparatus 100 re-determines the positional relationship between the listener object and the sound source object, and the re-detected positional relationship and the storage unit 140 corresponding thereto.
  • the acoustic characteristics of the corresponding acoustic signal for each of the plurality of receiving directions are re-determined based on the internal reference data (S610).
  • each process is described as being sequentially executed, but is not necessarily limited thereto. In other words, since the process described in FIG. 6 may be applied by changing or executing one or more processes in parallel, FIG. 6 is not limited to the time series order.
  • the stereophonic sound generating method described in FIG. 6 is implemented in a program and can be read using software of a computer (CD-ROM, RAM, ROM, memory card, hard disk, magneto-optical disk, storage device, etc.) Can be recorded.
  • a computer CD-ROM, RAM, ROM, memory card, hard disk, magneto-optical disk, storage device, etc.
  • stereo sound generating device 110 detection unit

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Acoustics & Sound (AREA)
  • Signal Processing (AREA)
  • Stereophonic System (AREA)

Abstract

The present embodiment relates to a stereophonic sound generating device and a computer program therefor, wherein the stereophonic sound generating device detects the positional relationship between a listener object and sound source objects in a virtual space, and on the basis of the detected positional relationship, differently sets acoustic characteristics transmitted by sound signals outputted from the sound source objects, which are separated to center around the listener in a plurality of receiving directions, thereby realizing the same 3D sound effect as actual sound.

Description

입체음향 생성장치 및 그를 위한 컴퓨터 프로그램Stereo sound generating device and computer program therefor
본 실시예는 입체음향 생성장치 및 그를 위한 컴퓨터 프로그램에 관한 것이다. 더욱, 상세하게는, 실제 사운드와 동일한 3D 사운드 효과를 구현할 수 있도록 하기 위한 입체음향 생성장치 및 그를 위한 컴퓨터 프로그램에 관한 것이다.This embodiment relates to a stereo sound generating apparatus and a computer program therefor. More particularly, the present invention relates to a stereophonic sound generating apparatus and a computer program therefor for enabling to implement 3D sound effects identical to actual sounds.
이하에 기술되는 내용은 단순히 본 발명에 따른 일 실시예와 관련되는 배경 정보만을 제공할 뿐 종래기술을 구성하는 것이 아니다.The contents described below merely provide background information related to one embodiment according to the present invention and do not constitute a prior art.
최근, 음향기기 시스템의 기술이 발달함에 따라 음향기기 시스템에서 재생되는 음향을 마치 현장에서 듣는 듯한 느낌으로 구현시켜 제공하는 입체음향 기술이 연구 개발되고 있다. 더불어 3DTV 출시와 함께 3차원 영화와 같이 실제 현장감과 몰입감을 제공하는 3차원 입체 영상이 활성화됨에 따라 이에 부합되는 3차원 입체음향 기술이 필요하게 되었다. 하지만, 기존의 음향기기 시스템의 경우, 3D 사운드(3D Sound)를 구현하기 위해서는 2개 이상의 많은 스피커가 필요하며, 머리 전달함수(HRTF, Head Related Transfer Function)를 이용하는 바이노럴 3차원 오디오가 구비되지 않는 이상 음의 고저감, 거리감, 공간감을 제대로 구현하지 못한다는 문제점이 존재한다. 이를 위해, 스피커와 청취자 사이의 거리를 감지하고, 이를 기반으로 사운드의 볼륨 등을 상이하게 조절하는 방식을 통해 3D 사운드 효과를 구현하는 방법이 제안되었다. 하지만, 이러한, 3D 사운드 구현 방법의 경우 스피커로부터 다양한 방향으로 퍼져나가는 사운드 중 전방으로 퍼져나가는 직진성 사운드에 대한 음향 특성만을 고려할 뿐, 그 외에 방향으로 퍼져나가는 사운드에 대한 음향 특성에 대해서는 전혀 고려하고 있지 않다는 한계점이 존재한다.Recently, as the technology of the audio system is developed, a stereoscopic sound technology for realizing and providing the sound reproduced in the sound system is as if it is heard in the field has been researched and developed. In addition, with the release of 3DTV, 3D stereoscopic images that provide realism and immersion, such as 3D movies, are activated. However, in the existing acoustic system, two or more speakers are needed to realize 3D sound, and binaural three-dimensional audio using a head related transfer function (HRTF) is provided. There is a problem that does not properly implement the high, low sense of distance, the sense of space unless otherwise. To this end, a method of realizing a 3D sound effect has been proposed by detecting a distance between a speaker and a listener, and adjusting a volume of a sound based on the distance. However, in the case of the 3D sound implementation method, only the acoustic characteristics of the linear sound spreading outward among the sound spreading from the speaker in various directions are considered, and the acoustic characteristics of the sound spreading out in the other direction are not considered at all. There is a limitation.
이에, 직진성 사운드뿐만 아니라 좌, 우, 후방 등으로 퍼져나감에 따라 직진성 사운드보다 뒤늦게 청취자에 도달되는 다른 사운드의 음향 특성에 대해서도 모두 고려함으로써 실제 사운드와 동일한 3D 사운도 효과를 구현할 수 있는 새로운 기술을 필요로 한다.Therefore, by considering not only the linear sound but also the acoustic characteristics of other sounds reaching the listeners later than the linear sound as it spreads to the left, right, and rear, a new technology for realizing the same 3D sound effect as the actual sound is introduced. in need.
본 실시예는 가상 공간 내 청취자 객체와 음원 객체 사이의 위치 관계를 파악하고, 파악한 위치 관계에 기반하여, 청취자 객체를 중심으로 구분된 복수의 수신 방향 각각에 대해 음원 객체로부터 출력된 음향 신호가 전달되는 음향 특성을 상이하게 구현함으로써 실제 사운드와 동일한 3D 사운드 효과를 구현할 수 있는 입체음향 생성장치 및 그를 위한 컴퓨터 프로그램을 제공하고자 하는 데 주된 목적이 있다.In the present embodiment, the positional relationship between the listener object and the sound source object in the virtual space is determined, and the acoustic signal output from the sound source object is transmitted to each of a plurality of reception directions centered on the listener object based on the identified positional relationship. The main object of the present invention is to provide a stereoscopic sound generating apparatus and a computer program therefor that can implement 3D sound effects identical to real sounds by implementing different sound characteristics.
본 실시예는, 가상 공간 내 청취자 객체 및 음원 객체에 대한 위치를 검출하여, 상기 청취자 객체와 상기 음원 객체 사이의 위치 관계를 파악하는 검출부; 상기 가상 공간 내에서의 상기 위치 관계에 기반하여, 상기 청취자 객체를 중심으로 구분된 복수의 수신 방향 각각에 대해 상기 음원 객체로부터 출력된 음향 신호가 전달되는 음향 특성을 결정하는 파라미터 결정부; 및 상기 음향 신호가 전달되는 상기 복수의 수신 방향 각각에 대응하는 음향 특성을 상기 음향 신호에 적용하여 입체 음향을 생성하는 신호 제어부를 포함하는 것을 특징으로 하는 입체음향 생성장치를 포함한다.The present embodiment may further include: a detector configured to detect positions of a listener object and a sound source object in a virtual space and determine a positional relationship between the listener object and the sound source object; A parameter determiner configured to determine an acoustic characteristic to which an acoustic signal output from the sound source object is transmitted for each of a plurality of reception directions divided about the listener object based on the positional relationship in the virtual space; And a signal controller configured to generate a stereoscopic sound by applying acoustic characteristics corresponding to each of the plurality of receiving directions to which the acoustic signal is transmitted, to the acoustic signal.
또한, 본 실시예의 다른 측면에 의하면, 하드웨어와 결합하여, 가상 공간 내 청취자 객체 및 음원 객체에 대한 위치를 검출하여, 상기 청취자 객체와 상기 음원 객체 사이의 위치 관계를 파악하는 과정; 상기 가상 공간 내에서의 상기 위치 관계에 기반하여, 상기 청취자 객체를 중심으로 구분된 복수의 방향 각각에 대해 상기 음원 객체로부터 출력된 음향 신호가 전달되는 음향 특성을 결정하는 과정; 및 상기 음향 신호가 전달되는 상기 복수의 방향 각각에 대응하는 음향 특성을 상기 음향 신호에 적용하여 입체 음향을 생성하는 과정을 실행시키기 위한 기록매체에 저장된 컴퓨터 프로그램을 포함한다.In addition, according to another aspect of the present invention, in combination with hardware, detecting the position of the listener object and the sound source object in the virtual space, to determine the positional relationship between the listener object and the sound source object; Determining an acoustic characteristic to which an acoustic signal output from the sound source object is transmitted in each of a plurality of directions divided about the listener object based on the positional relationship in the virtual space; And a computer program stored in a recording medium for executing a process of generating a stereoscopic sound by applying acoustic characteristics corresponding to each of the plurality of directions in which the acoustic signal is transmitted to the acoustic signal.
본 실시예에 따르면, 가상 공간 내 청취자 객체와 음원 객체 사이의 위치 관계를 파악하고, 파악한 위치 관계에 기반하여, 청취자 객체를 중심으로 구분된 복수의 수신 방향 각각에 대해 음원 객체로부터 출력된 음향 신호가 전달되는 음향 특성을 상이하게 구현함으로써 실제 사운드와 동일한 3D 사운드를 구현할 수 있는 효과가 있다.According to the present embodiment, the positional relationship between the listener object and the sound source object in the virtual space is determined, and based on the identified positional relationship, the sound signal output from the sound source object for each of a plurality of receiving directions centered on the listener object By differently implementing the acoustic characteristics to be delivered has the effect that can implement the same 3D sound as the actual sound.
도 1은 본 실시예에 따른 입체음향 생성장치를 개략적으로 나타낸 블록 구성도이다.1 is a block diagram schematically showing a three-dimensional sound generating apparatus according to the present embodiment.
도 2는 본 실시예에 따른 가상 공간 내 청취자 객체와 음원 객체 사이의 위치 관계를 파악하는 방법을 설명하기 위한 예시도이다.FIG. 2 is an exemplary view for explaining a method of identifying a positional relationship between a listener object and a sound source object in a virtual space according to the present embodiment.
도 3은 본 실시예에 따른 청취자 객체를 중심으로 구분된 복수의 수신 방향을 예시한 예시도이다.3 is an exemplary diagram illustrating a plurality of reception directions divided by a listener object according to the present embodiment.
도 4 및 도 5는 본 실시예에 따른 입체음향을 제공하는 방법을 예시한 예시도이다.4 and 5 are exemplary views illustrating a method for providing stereo sound according to the present embodiment.
도 6은 본 실시예에 따른 입체음향 제공 방법을 설명하기 위한 순서도이다.6 is a flowchart illustrating a stereoscopic sound providing method according to the present embodiment.
이하, 본 실시예를 첨부된 도면을 참조하여 상세하게 설명한다.Hereinafter, the present embodiment will be described in detail with reference to the accompanying drawings.
본 실시예에 따른 입체음향 생성장치는 입체음향 효과를 구현하기 위한 장치로서 음향기기 시스템뿐만 아니라, 게임, AI(Artificial Intelligence), AR(Augmented Reality), VR(Virtual Reality) 등과 같은 다양한 분야에 적용될 수 있다. 본 실시예에서는 입체음향 생성장치의 적용 분야에 대해서 특정 분야로 한정하지는 않는다.The stereoscopic sound generating apparatus according to the present embodiment is a device for realizing a stereoscopic sound effect, and is applicable to various fields such as a game, artificial intelligence (AI), augmented reality (AR), virtual reality (VR), etc. as well as an audio system. Can be. In the present embodiment, the application field of the 3D sound generating device is not limited to a specific field.
도 1은 본 실시예에 따른 입체음향 생성장치를 개략적으로 나타낸 블록 구성도이다. 1 is a block diagram schematically showing a three-dimensional sound generating apparatus according to the present embodiment.
도 1은 본 실시예에 따른 입체음향 생성장치(100)의 내부 블록도로서, 이러한, 입체음향 생성장치(100)는 단말기의 하드웨어와 입체음향 생성 애플리케이션의 소프트웨어가 결합된 별도의 자립형 장치로 구현될 수 있으며, 입체음향 생성장치(100)에 포함된 구성요소는 각각 소프트웨어 또는 하드웨어적인 요소로 구현될 수 있다.1 is an internal block diagram of a stereophonic sound generating apparatus 100 according to an embodiment of the present invention. The stereophonic sound generating apparatus 100 is implemented as a separate stand-alone device in which hardware of a terminal and software of a stereophonic sound generating application are combined. The components included in the 3D sound generating apparatus 100 may be implemented as software or hardware elements, respectively.
본 실시예에 따른 입체음향 생성장치(100)는 검출부(110), 파라미터 결정부(120), 신호 제어부(130), 저장부(140), 사용자 인터페이스부(150), 디스플레이부(160), 오디오 회로(170) 및 스피커(180)를 포함한다. 여기서, 입체음향 생성장치(100)에 포함된 구성요소는 반드시 이에 한정되는 것은 아니다.The stereoscopic sound generating apparatus 100 according to the present embodiment includes a detector 110, a parameter determiner 120, a signal controller 130, a storage 140, a user interface 150, a display 160, Audio circuitry 170 and speaker 180. Here, the components included in the stereoscopic sound generating apparatus 100 are not necessarily limited thereto.
검출부(110)는 입체음향 생성을 위한 기준 파라미터로서 사용되는 청취자 객체와 음원 객체 사이의 위치 관계를 파악하는 기능을 수행한다.The detector 110 detects a positional relationship between a listener object and a sound source object used as a reference parameter for stereoscopic sound generation.
본 실시예에 따른 검출부(110)는 가상 공간 내 청취자 객체 및 하나 이상의 음원 객체에 대한 위치를 검출하여, 청취자 객체와 음원 객체 사이의 위치 관계를 파악한다. 여기서, 가상 공간은 입체음향 생성장치(100)의 적용 분야에 따라 게임 공간, AI 공간 혹은 음향이 제공되고 있는 실제 공간에 대응하여 생성된 임의의 공간일 수 있다.The detector 110 detects a position of a listener object and at least one sound source object in a virtual space to determine a positional relationship between the listener object and the sound source object. Here, the virtual space may be an arbitrary space generated corresponding to a game space, an AI space, or an actual space in which sound is provided, according to an application field of the 3D sound generating apparatus 100.
본 실시예에서는 검출부(110)가 가상 공간을 인지하는 방법에 대해서는 특정 방법으로 한정하지는 않는다. 예컨대, 검출부(110)는 서버장치(미도시)와의 연동 또는 저장매체를 통해 가상 공간과 관련한 데이터를 제공받을 수 있다.In the present embodiment, the method of detecting the virtual space by the detector 110 is not limited to a specific method. For example, the detection unit 110 may receive data related to the virtual space through interworking with a server device (not shown) or a storage medium.
검출부(110)는 가상 공간을 격자 구조에 따라 복수 개의 셀로 분할하고, 복수 개의 셀 중 청취자 객체가 위치하는 셀과 음원 객체가 위치하는 셀 간의 관계 분석을 통해 청취자 객체와 음원 객체 사이의 위치 관계를 파악한다.The detector 110 divides the virtual space into a plurality of cells according to a lattice structure, and analyzes the positional relationship between the listener object and the sound source object by analyzing the relationship between the cell where the listener object is located and the cell where the sound source object is located. Figure out.
검출부(110)는 청취자 객체와 음원 객체 사이의 위치 관계로서 각 객체 사이의 이격 거리 및 이격 방향을 산출할 수 있다. 이를 위해, 검출부(110)는 격자 구조에 따라 분할된 각 셀 별로 고유의 좌표값을 설정할 수 있다.The detector 110 may calculate a separation distance and a separation direction between the objects as a positional relationship between the listener object and the sound source object. To this end, the detector 110 may set a unique coordinate value for each cell divided according to the lattice structure.
파라미터 결정부(120)는 입체 음향 생성을 위해, 음원 객체로부터 출력되는 음향 신호가 청취자 객체로 전달 시의 음향 특성을 결정하는 역할을 수행한다.The parameter determiner 120 determines a sound characteristic when the sound signal output from the sound source object is transmitted to the listener object in order to generate 3D sound.
한편, 실제 공간에서 음원 객체로부터 출력되는 사운드는 전파 특성에 따라 전방 방향뿐만 아니라, 좌, 우, 후방 등의 다양한 방향으로 퍼지게 된다. 이 경우, 각 방향으로 전파되는 사운드는 청취자 객체로 도달되기까지의 시차 및 입사 방향에 있어서 차이점이 발생하게 된다. 다시 말해, 직진성 사운드 이외 다른 방향으로 전파되는 사운드들은 소멸 또는 반사 등의 요인에 따라 청취자 객체로 도달 시에 소리의 세기, 시차, 방향, 소멸시간 등에 있어서 상이한 음향 특성을 갖게 된다.On the other hand, the sound output from the sound source object in the real space is spread not only in the front direction, but also in various directions such as left, right, and rear according to propagation characteristics. In this case, the sound propagating in each direction causes a difference in the parallax and incidence direction until reaching the listener object. In other words, sounds propagating in a direction other than the straight sound have different acoustic characteristics in terms of sound intensity, parallax, direction, and extinction time when reaching the listener object according to factors such as extinction or reflection.
이러한 점을 고려하여, 본 실시예에 따른 파라미터 결정부(120)는 청취자 객체를 중심으로 구분된 복수의 수신 방향 각각에 대해 음원 객체로부터 출력된 음향 신호가 전달되는 음향 특성을 상이하게 결정한다. 즉, 파라미터 결정부(120)는 청취자 객체를 중심으로 구분된 복수의 수신 방향 각각에 대하여 음원 객체로부터 전달되는 음향 신호의 소리의 세기, 시차 및 소멸 시간 등을 모두 다르게 나타날 수 있도록 함으로써 실제 사운드와 동일한 3D 사운드 효과가 구현될 수 있도록 한다.In consideration of this point, the parameter determiner 120 according to the present exemplary embodiment differently determines acoustic characteristics through which sound signals output from the sound source object are transmitted for each of a plurality of reception directions centered on the listener object. That is, the parameter determiner 120 may display the sound intensity, parallax, and extinction time of the sound signal transmitted from the sound source object differently for each of the plurality of receiving directions centered on the listener object. The same 3D sound effect can be realized.
예컨대, 파라미터 결정부(120)는 상기의 복수의 방향 중 음원 객체로부터 음향 신호가 직진으로 도달되는 제1 수신 방향에 대해서는 대응되는 음향 신호가 다른 수신 방향으로 도달되는 음향 신호 대비 소리의 크기값이 크도록 그 음향 특성을 결정할 수 있다.For example, the parameter determiner 120 may have a sound value corresponding to a sound signal in which a corresponding sound signal arrives in a different receiving direction with respect to a first receiving direction in which a sound signal arrives straight from a sound source object among the plurality of directions. Its loudness can be determined to be loud.
파라미터 결정부(120)는 상기의 복수의 방향 중 제1 수신 방향을 기준으로 좌측 또는 우측 수신 방향으로 전달되는 음향 신호에 대해서는 제1 수신 방향으로부터 멀어질수록 소리의 크기값이 점진적으로 작아지도록 그 음향 특성을 결정할 수 있다.The parameter determiner 120 is configured to gradually reduce the volume of sound as the distance from the first reception direction with respect to the sound signal transmitted in the left or right reception direction based on the first reception direction among the plurality of directions. The acoustic characteristics can be determined.
한편, 복수의 수신 방향은 실제 공간에서 각 방향으로 퍼져나가는 사운드가 청취자에게 도달 시의 청취자의 귀에서 인지되는 사운드의 감지 방향에 기초하여 결정될 수 있으며, 바람직하게는 방위각 정보를 기준으로 구분될 수 있다. 이러한, 복수의 수신 방향은 사용자에 의해 다양하게 설정될 수도 있다.Meanwhile, the plurality of reception directions may be determined based on a sensing direction of the sound perceived by the listener's ear when the sound spreading in each direction in the real space reaches the listener, and may be preferably divided based on the azimuth information. have. Such a plurality of reception directions may be variously set by the user.
본 실시예에 따른, 파라미터 결정부(120)는 검출부(110)를 통해 파악된 청취자 객체와 음원 객체 사이의 위치 관계를 기반으로, 저장부(140)에 저장된 기준 데이터를 추가 활용하여 복수의 수신 방향 각각에 대해 음원 객체로부터 출력된 음향 신호가 전달되는 음향 특성을 상이하게 결정할 수 있다. 이를 위해, 저장부(140) 내에는 청취자 객체와 음원 객체 사이의 위치 관계에 기반한 복수의 수신 방향 각각의 음향 파라미터 변동값이 저장될 수 있으며, 이에 대한 자세한 설명은 저장부(140)를 설명하는 과정에서 후술하도록 한다.According to the present exemplary embodiment, the parameter determiner 120 receives a plurality of received data by further utilizing reference data stored in the storage 140 based on the positional relationship between the listener object and the sound source object identified through the detector 110. It is possible to differently determine the acoustic characteristics to which the acoustic signal output from the sound source object is transmitted for each direction. To this end, the storage unit 140 may store the acoustic parameter variation of each of the plurality of reception directions based on the positional relationship between the listener object and the sound source object, and the detailed description thereof will be described with reference to the storage unit 140. It will be described later in the process.
파라미터 결정부(120)는 검출부(110)를 통해 파악된 청취자 객체와 음원 객체 사이의 위치 관계를 기반으로 현재 청취자 객체가 음원 객체로부터 복수의 수신 방향 중 어느 수신 방향을 기준으로 이격되었는지를 파악한다. 즉, 파라미터 결정부(120)는 검출부(110)를 통해 파악된 청취자 객체와 음원 객체 사이의 이격 방향을 기반으로 현재 청취자 객체가 음원 객체로부터 복수의 수신 방향 중 어느 수신 방향(이하, 기준 수신 방향으로 명시하여 설명하도록 한다)을 기준으로 이격되었는지를 파악한다.The parameter determiner 120 determines whether the current listener object is spaced apart from the sound source object based on which receiving direction, based on the positional relationship between the listener object and the sound source object detected by the detector 110. . That is, the parameter determiner 120 may determine which receiving direction (hereinafter, the reference receiving direction) of the plurality of receiving directions of the current listener object from the sound source object based on the separation direction between the listener object and the sound source object identified through the detector 110. To be described in detail).
파라미터 결정부(120)는 기준 수신 방향에 대응되는 저장부(140) 내 기준 데이터를 기반으로 복수의 수신 방향 각각에 대응되는 음향 신호의 음향 특성을 결정한다.The parameter determiner 120 determines acoustic characteristics of a sound signal corresponding to each of the plurality of reception directions based on reference data in the storage 140 corresponding to the reference reception direction.
파라미터 결정부(120)는 가상 공간 내 청취자 객체 및 음원 객체 중 어느 하나의 객체에 대한 이동이 감지되는 경우 청취자 객체와 음원 객체 사이의 위치 관계를 재파악한다. 이후, 파라미터 결정부(120)는 재파악된 위치 관계 및 이에 대응되는 저장부(140) 내 기준 데이터를 기반으로 복수의 수신 방향 각각에 대하여 대응되는 음향 신호의 음향 특성을 재결정한다.The parameter determiner 120 detects a positional relationship between the listener object and the sound source object when movement of any one of the listener object and the sound source object in the virtual space is detected. Thereafter, the parameter determiner 120 re-determines the acoustic characteristics of the corresponding acoustic signal for each of the plurality of receiving directions based on the re-detected positional relationship and the corresponding reference data in the storage 140.
파라미터 결정부(120)는 가상 공간 내 음원 객체가 복수 개가 존재하는 경우 각각의 음원 객체와 청취자 객체 사이의 위치 관계를 파악하고, 파악된 위치 관계 및 이에 대응되는 저장부(140) 내 기준 데이터를 기반으로 복수의 수신 방향에 대해 각각의 음원 객체로부터 출력된 음향 신호가 전달되는 음향 특성을 결정한다.When there are a plurality of sound source objects in the virtual space, the parameter determiner 120 may determine a positional relationship between each sound source object and a listener object, and may determine the identified positional relationship and the corresponding reference data in the storage 140 corresponding thereto. Based on the plurality of reception directions, the acoustic characteristics of the acoustic signals output from the respective sound source objects are determined.
저장부(130)는 입체음향을 생성하는 과정에 있어서 필요한 필요정보들을 저장한다.The storage unit 130 stores necessary information necessary for generating a stereoscopic sound.
저장부(130)는 가상 공간별로 청취자 객체와 음원 객체 사이의 위치 관계에 따른 복수의 수신 방향 각각에 대한 음향 신호의 음향 특성을 저장한다. 즉, 저장부(130)는 음원 객체로부터 청취자 객체를 중심으로 구분된 복수의 수신 방향의 각 방향으로 단위 거리만큼의 청취자 객체의 이격에 대응하는 복수의 수신 방향 각각의 음향 파라미터 변동값을 저장한다. 이때, 단위 거리는, 가상 공간을 격자 구조에 따라 복수 개의 셀로 분할했을 시의 한 셀의 길이에 대응되는 수치값인 것이 바람직하나 반드시 이에 한정되는 것은 아니다.The storage unit 130 stores the acoustic characteristics of the sound signal in each of the plurality of receiving directions according to the positional relationship between the listener object and the sound source object for each virtual space. That is, the storage unit 130 stores the acoustic parameter variation of each of the plurality of receiving directions corresponding to the separation of the listener object by a unit distance in each direction of the plurality of receiving directions divided by the listener object from the sound source object. . In this case, the unit distance is preferably a numerical value corresponding to the length of one cell when the virtual space is divided into a plurality of cells according to the lattice structure, but is not necessarily limited thereto.
음향 파라미터 변동값은 음향 신호에 대한 소리 세기, 시차 및 소멸시간 중 일부 또는 변동값인 것이 바람직하나 반드시 이에 한정되는 것은 아니다.The acoustic parameter variation value is preferably, but is not necessarily limited to, a part or variation value of the sound intensity, parallax and extinction time for the acoustic signal.
한편, 본 실시예에 따른 파라미터 결정부(120)는 기준 수신 방향에 대응되는 저장부(140) 내 음향 파라미터 변동값을 기반으로 복수의 수신 방향 각각에 대한 음향 특성을 결정할 수 있다.Meanwhile, the parameter determiner 120 according to the present exemplary embodiment may determine acoustic characteristics of each of the plurality of reception directions based on a change value of the acoustic parameter in the storage 140 corresponding to the reference reception direction.
이를 위해, 파라미터 결정부(120)는 먼저, 검출부(110)를 통해 파악된 청취자 객체와 음원 객체 사이의 이격 거리를 기반으로 청취자 객체와 음원 객체 사이의 거리가 몇 셀 정도의 차이값을 갖는지를 산출한다.To this end, the parameter determiner 120 first determines how many cells the distance between the listener object and the sound source object has a difference value based on the separation distance between the listener object and the sound source object identified through the detector 110. Calculate
이후, 파라미터 결정부(120)는 산출된 차이값에 대응되는 계수값을 상기의 음향 파라미터 변동값에 곱하는 방식을 통해 현재 청취자 객체와 음원 객체 사이의 위치 관계에 대응되는 복수의 수신 방향 각각에 대한 음향 특성을 결정할 수 있다.Thereafter, the parameter determiner 120 multiplies a coefficient value corresponding to the calculated difference value by the acoustic parameter change value, and thus, for each of the plurality of reception directions corresponding to the positional relationship between the current listener object and the sound source object. The acoustic characteristics can be determined.
이러한, 저장부(130)의 음향 파라미터 변동값 제공 형태 및 이를 이용한 파리미터 결정부(120)의 음향 특성 결정 방법에 따라 본 실시예에 따른 입체음향 생성장치(100)는 입체음향의 생성을 위한 필요 데이터의 저장을 최소화할 수 있는 효과가 있다.According to the form of providing the acoustic parameter variation value of the storage unit 130 and the acoustic characteristic determination method of the parameter determiner 120 using the same, the stereophonic sound generating apparatus 100 according to the present embodiment is required for generating stereoscopic sound. This has the effect of minimizing the storage of data.
신호 제어부(140)는 복수의 수신 방향 각각에 대응하는 음향 특성을 음향 신호에 적용하여 출력한다.The signal controller 140 applies and outputs acoustic characteristics corresponding to each of the plurality of reception directions to the acoustic signal.
신호 제어부(140)는 파라미터 결정부(120)로부터 복수의 수신 방향 각각에 대하여 결정된 음향 특성을 포함하는 제어명령을 수신하고, 이를 기반으로 복수의 수신 방향으로의 음향 신호의 출력을 조절하여 출력한다.The signal controller 140 receives a control command including sound characteristics determined for each of the plurality of receiving directions from the parameter determiner 120, and adjusts and outputs the output of the acoustic signals in the plurality of receiving directions based on the control command. .
사용자 인터페이스부(150)는 사용자와 입체음향 생성장치(100) 사이의 인터페이스를 제공한다. 즉, 사용자 인터페이스부(150)는 사용자가 입체음향 생성장치(100)에 입력정보와 같은 명령 등을 입력할 수 있는 수단을 제공하고, 이를 통해, 사용자로부터 입력정보를 수신한다.The user interface unit 150 provides an interface between the user and the 3D sound generating apparatus 100. That is, the user interface unit 150 provides a means for the user to input a command such as input information to the stereo sound generating apparatus 100, and thereby receives the input information from the user.
본 실시예에 따른 사용자 인터페이스부(150)는 입력정보로서 복수의 수신 방향에 대응되는 방위각 정보를 수신할 수 있다.The user interface unit 150 according to the present exemplary embodiment may receive azimuth information corresponding to a plurality of reception directions as input information.
디스플레이부(160)는 가상 공간 내 청취자 객체 및 음향 객체가 배치된 그래픽 유저 인터페이스 화면을 제공하고, 이를 통해, 음원 객체로부터 청취자 객체를 중심으로 구분된 복수의 수신 방향으로 전달되는 음향 신호에 대한 경로를 디스플레이할 수 있다.The display unit 160 provides a graphic user interface screen in which the listener object and the acoustic object in the virtual space are arranged, and through this, a path for a sound signal transmitted from a sound source object to a plurality of receiving directions separated by the listener object. Can be displayed.
디스플레이부(160)는 그래픽 유저 인터페이스 화면 내 각각의 수신 방향으로 전달되는 음향 신호에 대한 음향 특성을 디스플레이할 수도 있다.The display 160 may display an acoustic characteristic of an acoustic signal transmitted in each receiving direction in the graphical user interface screen.
오디오 회로(170)는 복수의 수신 방향 각각에 대응하는 음향 특성이 적용된 음향 신호를 수신하고, 수신한 데이터를 전기신호로 변환하여 스피커(180)로 전송한다.The audio circuit 170 receives an acoustic signal to which acoustic characteristics corresponding to each of the plurality of receiving directions are applied, converts the received data into an electrical signal, and transmits the received electrical signal to the speaker 180.
스피커(180)는 수신한 전기신호를 인간이 들을 수 있는 음파로 변환하여 출력한다. 한편, 본 실시예에 있어서 스피커(180)는 입체음향 생성장치와 별개의 장치로 구현될 수도 있다.The speaker 180 converts the received electric signal into a sound wave that can be heard by a human being and outputs it. Meanwhile, in the present exemplary embodiment, the speaker 180 may be implemented as a device separate from the 3D sound generating device.
도 2는 본 실시예에 따른 가상 공간 내 청취자 객체와 음원 객체 사이의 위치 관계를 파악하는 방법을 설명하기 위한 예시도이다.FIG. 2 is an exemplary view for explaining a method of identifying a positional relationship between a listener object and a sound source object in a virtual space according to the present embodiment.
본 실시예에 따른 입체음향 생성장치(100)는 가상 공간 내 청취자 객체와 음원 객체 사이의 위치 관계를 파악하고, 이를 기반으로 청취자 객체를 중심으로 구분된 복수의 수신 방향 각각에 대해 음원 객체로부터 출력된 음향 신호가 전달되는 음향 특성을 상이하게 결정한다. The stereoscopic sound generating apparatus 100 according to the present exemplary embodiment may identify a positional relationship between a listener object and a sound source object in a virtual space, and output the sound from the sound source object for each of a plurality of receiving directions centered on the listener object based on the positional relationship. The acoustic characteristics through which the sound signal is transmitted are determined differently.
도 2에 도시하듯이, 본 실시예에 따른 입체음향 생성장치(100)는 가상 공간을 격자 구조에 따라 복수 개의 셀로 분할하고, 복수 개의 셀 중 청취자 객체가 위치하는 셀과 음원 객체가 위치하는 셀 간의 관계 분석을 통해 청취자 객체와 음원 객체 사이의 위치 관계를 파악한다. 이때, 본 실시예 따른 입체음향 생성장치(100)는 가상 공간을 46 내지 1640개의 셀로 분할하는 것이 바람직하나 반드시 이에 한정되는 것은 아니다. 예컨대, 입체음향 생성장치(100)는 사용자의 선택에 따라 가상 공간을 다양한 개수의 셀로 분할할 수 있다. 한편, 분할된 셀의 개수가 많을 경우 청취자 객체와 음원 객체 사이의 위치 관계를 보다 정밀하게 판별할 수 있는 효과가 있다.As shown in FIG. 2, the stereophonic sound generating apparatus 100 according to the present exemplary embodiment divides a virtual space into a plurality of cells according to a lattice structure, and a cell in which a listener object is located and a cell in which a sound source object is located among the plurality of cells. Through the relationship analysis, the positional relationship between the listener object and the sound source object is identified. In this case, the stereo sound generating apparatus 100 according to the present embodiment preferably divides the virtual space into 46 to 1640 cells, but is not necessarily limited thereto. For example, the 3D sound generating apparatus 100 may divide the virtual space into various numbers of cells according to a user's selection. On the other hand, when the number of divided cells is large, there is an effect that can accurately determine the positional relationship between the listener object and the sound source object.
도 2를 참조하면, 청취자 객체와 음원 객체 사이의 위치 관계로서 청취자 객체를 기준으로 한 음원 객체의 이격 거리 및 이격 방향이 산출되는 것을 확인할 수 있다. 이때, 이격 거리는 셀 단위로 산출될 수 있으며, 이격 방향으로는 방위 정보 및 방위각 정보가 포함될 수 있다.Referring to FIG. 2, it can be seen that the separation distance and the separation direction of the sound source object based on the listener object are calculated as the positional relationship between the listener object and the sound source object. In this case, the separation distance may be calculated in units of cells, and the separation direction may include azimuth information and azimuth information.
도 3은 본 실시예에 따른 청취자 객체를 중심으로 구분된 복수의 수신 방향을 예시한 예시도이다.3 is an exemplary diagram illustrating a plurality of reception directions divided by a listener object according to the present embodiment.
실제 공간에서 음원 객체로부터 출력되는 사운드는 전파 특성에 따라 전방 방향뿐만 아니라, 좌, 우, 후방 등의 다양한 방향으로 퍼지면서 청취자 객체로 도달하게 된다. 이 경우, 전방 방향으로 전파되는 사운드를 제외하고, 좌, 우, 후방 방향으로 전파되는 사운드는 청취자 객체로 도달되기까지의 시차 및 그 입사 방향에 있어서 차이점이 발생하게 된다. The sound output from the sound source object in the real space reaches the listener object while spreading in various directions such as left, right, and rear as well as the front direction according to the propagation characteristics. In this case, except for the sound propagating in the forward direction, the sound propagating in the left, right, and rear directions causes a difference in the parallax until reaching the listener object and the incident direction thereof.
이 점을 고려하여, 본 실시예에 따른 입체음향 생성장치(100)는 청취자 객체를 중심으로 각각의 사운드들이 전달되는 수신 방향을 설정하고, 설정된 수신 방향마다 음원 객체로부터 출력된 음향 신호가 전달되는 음향 특성을 상이하게 결정함으로써 실제 사운드와 동일한 3D 사운드 효과를 구현하게 된다.In consideration of this point, the 3D sound generating apparatus 100 according to the present exemplary embodiment sets a reception direction in which the respective sounds are transmitted based on the listener object, and transmits a sound signal output from the sound source object for each set reception direction. By differently determining the acoustic characteristics, the 3D sound effect that is identical to the real sound is realized.
도 3을 참조하면, 청취자 객체를 중심으로 설정된 복수의 수신 방향에 대한 구현 형태를 확인할 수 있다. 한편, 도 3의 (a)는 가상 공간이 2차원인 경우의 복수의 수신 방향에 대한 구현 형태를 예시하였으며, 도 3의 (b)는 가상 공간이 3차원인 경우의 복수의 수신 방향에 대한 구현 형태를 예시하였다.Referring to FIG. 3, an implementation form of a plurality of reception directions set around a listener object may be checked. Meanwhile, FIG. 3A illustrates an implementation of a plurality of reception directions when the virtual space is two-dimensional, and FIG. 3B illustrates a plurality of reception directions when the virtual space is three-dimensional. An implementation form is illustrated.
도 4 및 도 5는 본 실시예에 따른 입체음향을 제공하는 방법을 예시한 예시도이다.4 and 5 are exemplary views illustrating a method for providing stereo sound according to the present embodiment.
도 4는 청취자 객체와 음원 객체의 위치 관계에 따라 음원 객체로부터 출력된 음향 신호가 복수의 수신 방향 각각으로 전달되는 형태를 예시한 예시도이다. 한편, 도 4의 (a)는 음원 객체가 1개인 경우에 대하여 예시하였으며, 도 4의 (b)는 음원 객체가 2개인 경우에 대하여 예시하였다.4 is an exemplary diagram illustrating a form in which a sound signal output from a sound source object is transmitted to each of a plurality of receiving directions according to a positional relationship between a listener object and a sound source object. Meanwhile, FIG. 4A illustrates a case where there is one sound source object, and FIG. 4B illustrates a case where two sound source objects.
도 4를 참조하면, 음원 객체로부터 출력되는 음향 신호가 청취자 객체의 각 수신 방향으로 도달되기까지의 시차 및 그 입사 방향이 상이하게 설정된 것을 확인할 수 있다.Referring to FIG. 4, it can be seen that the parallax until the sound signal output from the sound source object is reached in each reception direction of the listener object and its incident direction are set differently.
도 5는 청취자 객체와 음원 객체 사이에 위치 관계가 변동된 경우를 예시한 예시도이다.5 is an exemplary diagram illustrating a case where a positional relationship between a listener object and a sound source object is changed.
도 5를 참조하면, 청취자 객체와 음원 객체 사이의 위치 관계의 변동에 따라 음원 객체로부터 출력된 음향 신호가 복수의 수신 방향 각각으로 전달되는 형태가 재설정된 것을 확인할 수 있다.Referring to FIG. 5, it may be confirmed that a form in which a sound signal output from a sound source object is transmitted to each of a plurality of receiving directions is reset according to a change in the positional relationship between the listener object and the sound source object.
도 6은 본 실시예에 따른 입체음향 제공 방법을 설명하기 위한 순서도이다.6 is a flowchart illustrating a stereoscopic sound providing method according to the present embodiment.
입체음향 생성장치(100)는 가상 공간 내 청취자 객체 및 하나 이상의 음원 객체에 대한 위치를 검출하여, 청취자 객체와 음원 객체 사이의 위치 관계를 파악한다(S602). 단계 S602에서 입체음향 생성장치(100)는 가상 공간을 격자 구조에 따라 복수 개의 셀로 분할하고, 복수 개의 셀 중 청취자 객체가 위치하는 셀과 음원 객체가 위치하는 셀 간의 관계 분석을 통해 청취자 객체와 음원 객체 사이의 위치 관계를 파악한다.The stereophonic sound generating apparatus 100 detects positions of the listener object and one or more sound source objects in the virtual space, and determines the positional relationship between the listener object and the sound source object (S602). In operation S602, the 3D sound generating apparatus 100 divides the virtual space into a plurality of cells according to a lattice structure, and analyzes the relationship between the cell where the listener object is located and the cell where the sound source object is located among the plurality of cells by analyzing the listener object and the sound source. Identify the positional relationship between objects.
입체음향 생성장치(100)는 단계 S602에서 파악된 위치 관계에 기반하여 청취자 객체를 중심으로 구분된 복수의 수신 방향 각각에 대해 음원 객체로부터 출력된 음향 신호가 전달되는 음향 특성을 결정한다(S604). 단계 S604에서 입체음향 생성장치(100)는 단계 S602에서 파악된 청취자 객체와 음원 객체 사이의 위치 관계를 기반으로, 저장부(140)에 저장된 기준 데이터를 활용하여 복수의 수신 방향 각각에 대해 음원 객체로부터 출력된 음향 신호가 전달되는 음향 특성을 상이하게 결정한다.The stereoscopic sound generating apparatus 100 determines an acoustic characteristic to which an acoustic signal output from the sound source object is transmitted in each of a plurality of reception directions centered on the listener object based on the positional relationship identified in step S602 (S604). . In operation S604, the 3D sound generating apparatus 100 uses the reference data stored in the storage unit 140 based on the positional relationship between the listener object and the sound source object determined in operation S602, and the sound source object for each of the plurality of reception directions. Differently determine the acoustic characteristics to which the acoustic signal output from the transmission.
입체음향 생성장치(100)는 단계 S602에서 파악된 청취자 객체와 음원 객체 사이의 이격 방향을 기반으로 현재 청취자 객체가 음원 객체로부터 복수의 수신 방향 중 어느 수신 방향(=기준 수신 방향)을 기준으로 이격되었는지를 파악한다.The stereophonic sound generating apparatus 100 spaces the current listener object from a sound source object based on which receiving direction (= reference receiving direction) based on the separation direction between the listener object and the sound source object identified in step S602. Find out if
입체음향 생성장치(100)는 단계 S602에서 파악된 청취자 객체와 음원 객체 사이의 이격 거리를 기반으로 청취자 객체와 음원 객체 사이의 거리가 몇 셀 정도의 차이값을 갖는지를 산출한다.The stereophonic sound generating apparatus 100 calculates how many cell distances the distance between the listener object and the sound source object is based on the separation distance between the listener object and the sound source object identified in step S602.
입체음향 생성장치(100)는 산출된 차이값에 대응되는 계수값을 저장부(140) 내 기준 수신 방향에 대응되는 음향 파라미터 변동값에 곱하는 방식을 통해 현재 청취자 객체와 음원 객체 사이의 위치 관계에 대응되는 복수의 수신 방향 각각에 대한 음향 특성을 결정한다.The stereophonic sound generating apparatus 100 may determine the positional relationship between the current listener object and the sound source object by multiplying a coefficient value corresponding to the calculated difference value by a sound parameter change value corresponding to the reference receiving direction in the storage 140. The acoustic characteristic for each of the corresponding plurality of receiving directions is determined.
입체음향 생성장치(100)는 복수의 수신 방향 각각에 대응하는 음향 특성을 음향 신호에 적용하여 입체 음향을 생성한다(S606).The stereophonic sound generating apparatus 100 generates stereoscopic sound by applying acoustic characteristics corresponding to each of the plurality of receiving directions to the acoustic signal (S606).
입체음향 생성장치(100)는 가상 공간 내 객체의 이동이 감지되는 경우(S608), 청취자 객체와 음원 객체 사이의 위치 관계를 재파악하고, 재파악된 위치 관계 및 이에 대응되는 저장부(140) 내 기준 데이터를 기반으로 복수의 수신 방향 각각에 대하여 대응되는 음향 신호의 음향 특성을 재결정한다(S610).When the movement of the object in the virtual space is detected (S608), the 3D sound generating apparatus 100 re-determines the positional relationship between the listener object and the sound source object, and the re-detected positional relationship and the storage unit 140 corresponding thereto. The acoustic characteristics of the corresponding acoustic signal for each of the plurality of receiving directions are re-determined based on the internal reference data (S610).
도 6에서는 각각의 과정을 순차적으로 실행하는 것으로 기재하고 있으나, 반드시 이에 한정되는 것은 아니다. 다시 말해, 도 6에 기재된 과정을 변경하여 실행하거나 하나 이상의 과정을 병렬적으로 실행하는 것으로 적용 가능할 것이므로, 도 6은 시계열적인 순서로 한정되는 것은 아니다.In FIG. 6, each process is described as being sequentially executed, but is not necessarily limited thereto. In other words, since the process described in FIG. 6 may be applied by changing or executing one or more processes in parallel, FIG. 6 is not limited to the time series order.
한편, 도 6에 기재된 입체음향 생성방법은 프로그램으로 구현되고 컴퓨터의 소프트웨어를 이용하여 읽을 수 있는 기록매체(CD-ROM, RAM, ROM, 메모리 카드, 하드 디스크, 광자기 디스크, 스토리지 디바이스 등)에 기록될 수 있다.On the other hand, the stereophonic sound generating method described in FIG. 6 is implemented in a program and can be read using software of a computer (CD-ROM, RAM, ROM, memory card, hard disk, magneto-optical disk, storage device, etc.) Can be recorded.
이상의 설명은 본 실시예의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 실시예가 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 실시예의 본질적인 특성에서 벗어나지 않는 범위에서 다양한 수정 및 변형이 가능할 것이다. 따라서, 본 실시예들은 본 실시예의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시예에 의하여 본 실시예의 기술 사상의 범위가 한정되는 것은 아니다. 본 실시예의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 실시예의 권리범위에 포함되는 것으로 해석되어야 할 것이다.The above description is merely illustrative of the technical idea of the present embodiment, and those skilled in the art to which the present embodiment belongs may make various modifications and changes without departing from the essential characteristics of the present embodiment. Therefore, the present embodiments are not intended to limit the technical idea of the present embodiment but to describe the present invention, and the scope of the technical idea of the present embodiment is not limited by these embodiments. The scope of protection of the present embodiment should be interpreted by the following claims, and all technical ideas within the scope equivalent thereto should be construed as being included in the scope of the present embodiment.
(부호의 설명)(Explanation of the sign)
100: 입체음향 생성장치 110: 검출부100: stereo sound generating device 110: detection unit
120: 파라미터 결정부 130: 저장부120: parameter determination unit 130: storage unit
140: 신호 제어부 150: 사용자 인터페이스부140: signal controller 150: user interface unit
160: 디스플레이부 170: 오디오 회로160: display unit 170: audio circuit
180: 스피커180: speaker

Claims (13)

  1. 가상 공간 내 청취자 객체 및 음원 객체에 대한 위치를 검출하여, 상기 청취자 객체와 상기 음원 객체 사이의 위치 관계를 파악하는 검출부;A detector configured to detect positions of a listener object and a sound source object in a virtual space, and determine a positional relationship between the listener object and the sound source object;
    상기 가상 공간 내에서의 상기 위치 관계에 기반하여, 상기 청취자 객체를 중심으로 구분된 복수의 수신 방향 각각에 대해 상기 음원 객체로부터 출력된 음향 신호가 전달되는 음향 특성을 결정하는 파라미터 결정부; 및A parameter determiner configured to determine an acoustic characteristic to which an acoustic signal output from the sound source object is transmitted for each of a plurality of reception directions divided about the listener object based on the positional relationship in the virtual space; And
    상기 음향 신호가 전달되는 상기 복수의 수신 방향 각각에 대응하는 음향 특성을 상기 음향 신호에 적용하여 입체 음향을 생성하는 신호 제어부Signal control unit for generating a three-dimensional sound by applying a sound characteristic corresponding to each of the plurality of receiving directions to which the sound signal is transmitted to the sound signal
    를 포함하는 것을 특징으로 하는 입체음향 생성장치.Stereo sound generating device comprising a.
  2. 제 1항에 있어서,The method of claim 1,
    상기 검출부는,The detection unit,
    상기 가상 공간을 격자 구조에 따라 복수 개의 셀로 분할하고, 상기 복수 개의 셀 중 상기 청취자 객체가 위치하는 셀과 상기 음원 객체가 위치하는 셀 간의 관계 분석을 통해 각 객체 사이의 이격 거리 및 이격 방향을 포함한 상기 위치 관계를 파악하는 것을 특징으로 하는 입체음향 생성장치.The virtual space is divided into a plurality of cells according to a lattice structure, and includes a separation distance and a separation direction between each object by analyzing a relationship between a cell where the listener object is located and a cell where the sound source object is located among the plurality of cells. Stereoscopic sound generating apparatus characterized in that for grasping the positional relationship.
  3. 제 2항에 있어서,The method of claim 2,
    상기 음원 객체로부터 상기 복수의 수신 방향의 각 방향으로 단위 거리만큼의 상기 청취자 객체의 이격에 대응하는 상기 복수의 수신 방향 각각의 음향 파라미터 변동값을 저장하는 저장부를 더 포함하는 것을 특징으로 하는 입체음향 생성장치.And a storage unit for storing acoustic parameter variation values of each of the plurality of receiving directions corresponding to the separation of the listener object by a unit distance in each direction of the plurality of receiving directions from the sound source object. Generating device.
  4. 제 3항에 있어서,The method of claim 3, wherein
    상기 음향 파라미터 변동값은,The acoustic parameter variation value is,
    상기 음향 신호에 대한 소리 세기, 시차 및 소멸시간 중 일부 또는 전부에 대한 변동값인 것을 특징으로 하는 입체음향 생성장치.And a variation value for some or all of the sound intensity, parallax, and extinction time of the sound signal.
  5. 제 3항에 있어서,The method of claim 3, wherein
    상기 파라미터 결정부는,The parameter determiner,
    상기 검출부를 이용하여 파악된 상기 위치 관계를 기반으로 현재 청취자 객체가 음원 객체로부터 상기 복수의 수신 방향 중 어느 수신 방향을 기준으로 이격되었는지를 파악하고, 파악된 수신 방향에 대응되는 상기 저장부 내 음향 파라미터의 변동값을 기반으로 상기 복수의 수신 방향 각각에 대한 상기 음향 특성을 결정하는 것을 특징으로 하는 입체음향 생성장치.Based on the positional relationship determined using the detection unit, the current listener object is identified based on which receiving direction of the plurality of receiving directions from the sound source object, and the sound in the storage unit corresponding to the detected receiving direction is determined. And determining the acoustic characteristics for each of the plurality of receiving directions based on a change value of a parameter.
  6. 제 5항에 있어서,The method of claim 5,
    상기 파라미터 결정부는,The parameter determiner,
    상기 복수의 방향 중 상기 음원 객체로부터 음향 신호가 직진으로 도달되는 제1 수신 방향에 대해서는 대응되는 음향 신호가 다른 수신 방향으로 도달되는 음향 신호 대비 소리의 크기값이 크도록 상기 음향 특성을 결정하는 것을 특징으로 하는 입체음향 생성장치.The sound characteristic is determined such that a loudness value of the sound signal is greater than that of the sound signal in which the corresponding sound signal reaches the other receiving direction with respect to the first receiving direction in which the sound signal arrives straight from the sound source object among the plurality of directions. Stereoscopic sound generating device characterized in that.
  7. 제 6항에 있어서,The method of claim 6,
    상기 파라미터 결정부는,The parameter determiner,
    상기 복수의 방향 중 상기 제1 수신 방향을 기준으로 좌측 또는 우측 수신 방향으로 전달되는 음향 신호에 대해서는 상기 제1 수신 방향으로부터 멀어질수록 소리의 크기값이 점진적으로 작아지도록 상기 음향 특성을 결정하는 것을 특징으로 하는 입체음향 생성장치.Regarding the acoustic signals transmitted in the left or right receiving direction based on the first receiving direction among the plurality of directions, determining the acoustic characteristics such that the sound value gradually decreases as the distance from the first receiving direction increases. Stereoscopic sound generating device characterized in that.
  8. 제 3항에 있어서,The method of claim 3, wherein
    상기 파라미터 결정부는,The parameter determiner,
    상기 가상 공간 내 상기 청취자 객체 및 상기 음원 객체 중 어느 하나의 객체에 대한 이동이 감지되는 경우 상기 청취자 객체와 상기 음원 객체 사이의 위치 관계를 재파악하고, 재파악된 위치 관계 및 상기 음향 파라미터 변동값을 기반으로 상기 복수의 수신 방향 각각에 대한 상기 음향 특성을 재결정하는 것을 특징으로 하는 입체음향 생성장치.When the movement of any one of the listener object and the sound source object in the virtual space is detected, the positional relationship between the listener object and the sound source object is reexamined, and the redetected positional relationship and the acoustic parameter variation value And re-determining the acoustic characteristics for each of the plurality of reception directions based on the plurality of reception directions.
  9. 제 1항에 있어서,The method of claim 1,
    상기 복수의 수신 방향에 대응되는 방위각 정보를 입력받기 위한 사용자 인터페이스부를 더 포함하는 것을 특징으로 하는 입체음향 생성장치.And a user interface unit for receiving azimuth information corresponding to the plurality of reception directions.
  10. 하드웨어와 결합하여,In combination with hardware,
    가상 공간 내 청취자 객체 및 음원 객체에 대한 위치를 검출하여, 상기 청취자 객체와 상기 음원 객체 사이의 위치 관계를 파악하는 과정;Detecting a position of a listener object and a sound source object in a virtual space and determining a positional relationship between the listener object and the sound source object;
    상기 가상 공간 내에서의 상기 위치 관계에 기반하여, 상기 청취자 객체를 중심으로 구분된 복수의 방향 각각에 대해 상기 음원 객체로부터 출력된 음향 신호가 전달되는 음향 특성을 결정하는 과정; 및Determining an acoustic characteristic to which an acoustic signal output from the sound source object is transmitted in each of a plurality of directions divided about the listener object based on the positional relationship in the virtual space; And
    상기 음향 신호가 전달되는 상기 복수의 방향 각각에 대응하는 음향 특성을 상기 음향 신호에 적용하여 입체 음향을 생성하는 과정Generating stereoscopic sound by applying acoustic characteristics corresponding to each of the plurality of directions in which the acoustic signal is transmitted to the acoustic signal;
    을 실행시키기 위한 기록매체에 저장된 컴퓨터 프로그램.A computer program stored in a recording medium for executing the program.
  11. 제 10항에 있어서,The method of claim 10,
    상기 위치 관계를 파악하는 과정은,The process of identifying the positional relationship,
    상기 가상 공간을 격자 구조에 따라 복수 개의 셀로 분할하고, 상기 복수 개의 셀 중 상기 청취자 객체가 위치하는 셀과 상기 음원 객체가 위치하는 셀 간의 관계 분석을 통해 각 객체 사이의 이격 거리 및 이격 방향을 포함한 상기 위치 관계를 파악하는 과정을 포함하는 것을 특징으로 하는 기록매체에 저장된 컴퓨터 프로그램.The virtual space is divided into a plurality of cells according to a lattice structure, and includes a separation distance and a separation direction between each object by analyzing a relationship between a cell where the listener object is located and a cell where the sound source object is located among the plurality of cells. And determining the positional relationship.
  12. 제 11항에 있어서,The method of claim 11,
    상기 음향 특성을 결정하는 과정은,The process of determining the acoustic characteristics,
    상기 파악하는 과정을 통해 파악된 상기 위치 관계를 기반으로 현재 청취자 객체가 음원 객체로부터 상기 복수의 수신 방향 중 어느 수신 방향을 기준으로 이격되었는지를 확인하고, 확인결과에 기반하여 상기 복수의 수신 방향 각각에 대한 상기 음향 특성을 결정하는 과정을 포함하는 것을 특징으로 하는 기록매체에 저장된 컴퓨터 프로그램.Based on the positional relationship determined through the determining, the controller determines whether a current listener object is spaced apart from a sound source object based on which receiving direction from among the plurality of receiving directions, and based on a check result, each of the plurality of receiving directions And determining the acoustic characteristics for the recording medium.
  13. 제 12항에 있어서,The method of claim 12,
    상기 음향 특성을 결정하는 과정은,The process of determining the acoustic characteristics,
    상기 확인결과 및 기 저장된 상기 음원 객체로부터 상기 복수의 수신 방향의 각 방향으로 단위 거리만큼의 상기 청취자 객체의 이격에 대응하는 상기 복수의 수신 방향 각각의 음향 파라미터 변동값을 기반으로 상기 복수의 수신 방향 각각에 대한 상기 음향 특성을 결정하는 과정을 포함하는 것을 특징으로 하는 기록매체에 저장된 컴퓨터 프로그램.The plurality of receiving directions based on the confirmation result and acoustic parameter variation values of the plurality of receiving directions corresponding to the separation of the listener object by a unit distance in each direction of the plurality of receiving directions from the previously stored sound source object; Determining the acoustic characteristics for each of the computer programs stored in the recording medium.
PCT/KR2017/004677 2017-05-02 2017-05-02 Stereophonic sound generating device and computer program therefor WO2018203579A1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
PCT/KR2017/004677 WO2018203579A1 (en) 2017-05-02 2017-05-02 Stereophonic sound generating device and computer program therefor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/KR2017/004677 WO2018203579A1 (en) 2017-05-02 2017-05-02 Stereophonic sound generating device and computer program therefor

Publications (1)

Publication Number Publication Date
WO2018203579A1 true WO2018203579A1 (en) 2018-11-08

Family

ID=64016155

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2017/004677 WO2018203579A1 (en) 2017-05-02 2017-05-02 Stereophonic sound generating device and computer program therefor

Country Status (1)

Country Link
WO (1) WO2018203579A1 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0991460A (en) * 1995-09-26 1997-04-04 Nippon Telegr & Teleph Corp <Ntt> Sound field control method
WO2014036121A1 (en) * 2012-08-31 2014-03-06 Dolby Laboratories Licensing Corporation System for rendering and playback of object based audio in various listening environments
US20160360334A1 (en) * 2014-02-26 2016-12-08 Tencent Technology (Shenzhen) Company Limited Method and apparatus for sound processing in three-dimensional virtual scene
US20170013386A1 (en) * 2015-07-06 2017-01-12 Bose Corporation Simulating Acoustic Output at a Location Corresponding to Source Position Data
US9602946B2 (en) * 2014-12-19 2017-03-21 Nokia Technologies Oy Method and apparatus for providing virtual audio reproduction

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0991460A (en) * 1995-09-26 1997-04-04 Nippon Telegr & Teleph Corp <Ntt> Sound field control method
WO2014036121A1 (en) * 2012-08-31 2014-03-06 Dolby Laboratories Licensing Corporation System for rendering and playback of object based audio in various listening environments
US20160360334A1 (en) * 2014-02-26 2016-12-08 Tencent Technology (Shenzhen) Company Limited Method and apparatus for sound processing in three-dimensional virtual scene
US9602946B2 (en) * 2014-12-19 2017-03-21 Nokia Technologies Oy Method and apparatus for providing virtual audio reproduction
US20170013386A1 (en) * 2015-07-06 2017-01-12 Bose Corporation Simulating Acoustic Output at a Location Corresponding to Source Position Data

Similar Documents

Publication Publication Date Title
WO2015060660A1 (en) Method of generating multi-channel audio signal and apparatus for carrying out same
CN1658709B (en) Sound reproduction apparatus and sound reproduction method
WO2009123409A2 (en) Method and apparatus for generating additional information bit stream of multi-object audio signal
WO2010101362A2 (en) Metadata generating method and apparatus and image processing method and apparatus using metadata
US20110299707A1 (en) Virtual spatial sound scape
WO2013103256A1 (en) Method and device for localizing multichannel audio signal
WO2013019022A2 (en) Method and apparatus for processing audio signal
WO2011139090A2 (en) Method and apparatus for reproducing stereophonic sound
US9769585B1 (en) Positioning surround sound for virtual acoustic presence
JP2000152397A (en) Three-dimensional acoustic reproducing device for plural listeners and its method
US10979809B2 (en) Combination of immersive and binaural sound
WO2015152661A1 (en) Method and apparatus for rendering audio object
US9843883B1 (en) Source independent sound field rotation for virtual and augmented reality applications
EP3499917A1 (en) Enabling rendering, for consumption by a user, of spatial audio content
US20120109645A1 (en) Dsp-based device for auditory segregation of multiple sound inputs
WO2018203579A1 (en) Stereophonic sound generating device and computer program therefor
Malham Toward reality equivalence in spatial sound diffusion
WO2018194320A1 (en) Spatial audio control device according to gaze tracking and method therefor
JP2011234177A (en) Stereoscopic sound reproduction device and reproduction method
KR101038574B1 (en) 3D Audio localization method and device and the recording media storing the program performing the said method
CN108668215A (en) Panorama range system
WO2018070564A1 (en) Sound output method and device for multiple displays
WO2014171791A1 (en) Apparatus and method for processing multi-channel audio signal
CN208241895U (en) Panorama range system
KR101111734B1 (en) Sound reproduction method and apparatus distinguishing multiple sound sources

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 17908188

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 17908188

Country of ref document: EP

Kind code of ref document: A1