KR20190045696A - Apparatus and method for synthesizing virtual sound - Google Patents
Apparatus and method for synthesizing virtual sound Download PDFInfo
- Publication number
- KR20190045696A KR20190045696A KR1020170138567A KR20170138567A KR20190045696A KR 20190045696 A KR20190045696 A KR 20190045696A KR 1020170138567 A KR1020170138567 A KR 1020170138567A KR 20170138567 A KR20170138567 A KR 20170138567A KR 20190045696 A KR20190045696 A KR 20190045696A
- Authority
- KR
- South Korea
- Prior art keywords
- virtual
- sound
- sound wave
- virtual space
- virtual object
- Prior art date
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S1/00—Two-channel systems
- H04S1/002—Non-adaptive circuits, e.g. manually adjustable or static, for enhancing the sound image or the spatial distribution
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
- G06T17/10—Constructive solid geometry [CSG] using solid primitives, e.g. cylinders, cubes
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S1/00—Two-channel systems
- H04S1/007—Two-channel systems in which the audio signals are in digital form
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S2420/00—Techniques used stereophonic systems covered by H04S but not provided for in its groups
- H04S2420/07—Synergistic effects of band splitting and sub-band processing
Abstract
Description
본 발명은 가상 공간에서의 음향 효과 구현에 있어서, 보다 현실감 있는 음향의 구현이 가능하도록 하기 위한 장치 및 방법에 관한 것이다.The present invention relates to an apparatus and a method for realizing a more realistic sound in realizing a sound effect in a virtual space.
근래에 들어, 가상 현실 혹은 증강 현실과 같이 가상의 정보를 이용하여 구현된 다양한 컨텐츠가 제안되고 있다. 일반적인 가상 현실(virtual reality)은 컴퓨터 등을 사용하여 인공적인 기술로 만들어 낸 가상 공간으로서, 실제와 유사하지만 실제가 아닌 특징이 있다. 증강 현실(augmented reality, AR)은 가상 현실의 한 분야로서, 사용자가 보는 현실의 객체에 가상의 정보를 합성하여, 가상의 정보를 현실의 일부로서 인식하도록 할 수 있는 기법을 가리킨다.In recent years, various contents implemented using virtual information such as virtual reality or augmented reality have been proposed. A typical virtual reality is a virtual space created by artificial technology using a computer or the like. Augmented reality (AR) is a field of virtual reality, which refers to a technique that allows virtual information to be recognized as a part of reality by compositing virtual information with the actual objects that the user sees.
이와 같은 가상 현실 혹은 증강 현실이 적용된 가상 공간(virtual space)에서는, 시각적 컨텐츠뿐 아니라 청각적 컨텐츠도 사용자에게 제공될 수 있다. 예컨대, 가상 공간 내를 이동할 수 있는 가상의 캐릭터의 시선과 사용자의 시선이 서로 일치하도록 함으로써, 사용자가 상기 캐릭터의 입장에서 상기 가상 공간 내에 구현된 가상의 사물을 직접 볼 수 있도록 할 수 있다. 이에 더하여, 상기 가상 공간 내에는 가상의 음원(音源)이 위치할 수 있으며, 이 때 사용자는 상기 캐릭터의 입장에서 상기 음원이 방사하는 소리를 들을 수도 있다.In the virtual space in which the virtual reality or the augmented reality is applied, not only the visual content but also the auditory content can be provided to the user. For example, by making the line of sight of a virtual character movable in the virtual space coincide with the line of sight of the user, the user can directly view a virtual object implemented in the virtual space in the position of the character. In addition, a virtual sound source may be located in the virtual space, and the user may hear the sound emitted by the sound source from the position of the character.
현실 세계에서는 같은 소리라 해도 청취자의 위치 혹은 주변 환경에 따라 다르게 들릴 수 있다. 전술한 바와 같은 청각적 컨텐츠를 사용자에게 제공하는 가상 공간에서도, 상기 가상 공간의 구체적인 환경 및 청각적 컨텐츠의 청취 위치 등을 고려하여 음향 효과를 구현해야, 보다 실감나는 컨텐츠를 사용자에게 제공할 수 있을 것이다.In the real world, the same sounds can be heard differently depending on the location of the listener or the surrounding environment. It is necessary to implement a sound effect in consideration of the specific environment of the virtual space and the listening position of the auditory contents even in the virtual space providing the auditory contents to the user as described above, will be.
본 발명이 해결하고자 하는 과제는, 가상 공간을 통해 청각적 컨텐츠를 제공받는 사용자에게 보다 현실감 있는 컨텐츠를 제공하기 위한 장치 및 방법에 관한 것이다.An object of the present invention is to provide an apparatus and method for providing more realistic contents to a user who is provided with auditory contents through a virtual space.
다만, 본 발명이 해결하고자 하는 과제는 이상에서 언급한 것으로 제한되지 않으며, 언급되지 않은 또 다른 해결하고자 하는 과제는 아래의 기재로부터 본 발명이 속하는 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.It is to be understood, however, that the present invention is not limited to the above-mentioned embodiments, but other and further objects which need not be mentioned can be clearly understood by those skilled in the art from the following description will be.
본 발명의 일 실시예에 따른 가상 음향 합성 방법은, 영상 데이터로부터 실제 객체에 대한 정보를 획득하는 단계, 3차원의 가상 공간 내에, 상기 실제 객체를 3차원 모델링하여 생성되는 가상 객체를 위치시키는 단계, 상기 가상 공간 내에 위치하는 가상 음원(音源)으로부터 방사되는 하나 이상의 가상 음파(音波)에 대해, 상기 가상 객체의 위치 및 형상에 기초하여 상기 음파의 상기 가상 공간 내에서의 진행 경로를 결정하는 단계 및 상기 음파의 진행 경로에 기초하여, 상기 가상 공간 내의 소정 위치에서 감지될 것으로 예상되는 소리를 합성하는 단계를 포함할 수 있다.A virtual sound synthesis method according to an embodiment of the present invention includes acquiring information on an actual object from image data, positioning a virtual object generated by three-dimensionally modeling the real object in a three-dimensional virtual space , Determining, for one or more virtual sound waves (sound waves) emitted from a virtual sound source located in the virtual space, a traveling path in the virtual space of the sound waves based on the position and shape of the virtual object And synthesizing a sound that is expected to be sensed at a predetermined position in the virtual space based on the traveling path of the sound wave.
본 발명의 일 실시예에 따른 가상 음향 합성 장치는, 영상 데이터로부터 실제 객체에 대한 정보를 획득하는 정보 획득부, 3차원의 가상 공간 내에, 상기 실제 객체를 3차원 모델링하여 생성되는 가상 객체를 위치시키는 가상 공간 정보 생성부, 상기 가상 공간 내에 위치하는 가상 음원(音源)으로부터 방사되는 하나 이상의 가상 음파(音波)에 대해, 상기 가상 객체의 위치 및 형상에 기초하여 상기 음파의 상기 가상 공간 내에서의 진행 경로를 결정하는 연산부 및 상기 음파의 진행 경로에 기초하여, 상기 가상 공간 내의 소정 위치에서 감지될 것으로 예상되는 소리를 합성하는 음향 합성부를 포함할 수 있다.A virtual sound synthesis apparatus according to an embodiment of the present invention includes an information acquisition unit for acquiring information on an actual object from image data, a virtual object generated by three-dimensionally modeling the real object in a three- (Sound source) radiated from a virtual sound source (sound source) located in the virtual space, a virtual space information generating unit for generating a virtual space in the virtual space based on the position and the shape of the virtual object And an acoustic synthesizer for synthesizing a sound that is expected to be sensed at a predetermined position in the virtual space based on a traveling path of the sound wave.
본 발명의 일 실시예에 따르면, 가상 현실과 증강 현실 등을 이용하여 구현된 가상 공간을 통해 청각적 컨텐츠를 사용자에게 제공함에 있어서, 상기 가상 공간 내의 객체 배치 및 청각적 컨텐츠의 청취 위치 등에 기초하여, 가상 음원으로부터 방사된 음파(音波)의 직진(直進) 및 반사(反射)가 고려된 음향 효과를 구현할 수 있다. 이를 통해, 보다 현실에 가까운 청각적 컨텐츠를 사용자에게 제공할 수 있으며, 사용자가 가상 공간을 마치 현실의 공간처럼 느끼도록 할 수 있다.According to an embodiment of the present invention, in providing auditory contents to a user through a virtual space implemented using a virtual reality and an augmented reality, , It is possible to realize a sound effect which considers straightness and reflection of a sound wave radiated from a virtual sound source. Accordingly, it is possible to provide auditory contents closer to reality to the user, and the user can make the virtual space feel like a real space.
도 1은 본 발명의 일 실시예에 따른 가상 음향 합성 방법에 대해 개념적으로 설명하기 위한 도면이다.
도 2는 본 발명의 일 실시예에 따른 가상 음향 합성 방법에 이용될 수 있는 영상 데이터를 예시적으로 설명하기 위한 도면이다.
도 3은 본 발명의 일 실시예에 따른 가상 음향 합성 장치의 구성을 도시한 도면이다.
도 4는 본 발명의 일 실시예에 따른 가상 음향 합성 방법의 각 단계를 도시한 도면이다.
도 5 및 6은 본 발명의 일 실시예에 따른 가상 음향 합성 방법 중 가상 객체에 의한 음파의 반사에 대해 설명하기 위한 도면이다.1 is a conceptual diagram for explaining a virtual sound synthesis method according to an embodiment of the present invention.
2 is a diagram for explaining image data that can be used in a virtual sound synthesis method according to an embodiment of the present invention.
3 is a diagram illustrating a configuration of a virtual sound synthesizer according to an embodiment of the present invention.
4 is a diagram illustrating each step of a virtual sound synthesis method according to an embodiment of the present invention.
5 and 6 are views for explaining reflection of a sound wave by a virtual object in a virtual sound synthesis method according to an embodiment of the present invention.
본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다.BRIEF DESCRIPTION OF THE DRAWINGS The advantages and features of the present invention and the manner of achieving them will become apparent with reference to the embodiments described in detail below with reference to the accompanying drawings. The present invention may, however, be embodied in many different forms and should not be construed as limited to the embodiments set forth herein. Rather, these embodiments are provided so that this disclosure will be thorough and complete, and will fully convey the scope of the invention to those skilled in the art. To fully disclose the scope of the invention to those skilled in the art, and the invention is only defined by the scope of the claims.
본 발명의 실시예들을 설명함에 있어서 공지 기능 또는 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략할 것이다. 그리고 후술되는 용어들은 본 발명의 실시예에서의 기능을 고려하여 정의된 용어들로서 이는 사용자, 운용자의 의도 또는 관례 등에 따라 달라질 수 있다. 그러므로 그 정의는 본 명세서 전반에 걸친 내용을 토대로 내려져야 할 것이다.In the following description of the present invention, a detailed description of known functions and configurations incorporated herein will be omitted when it may make the subject matter of the present invention rather unclear. The following terms are defined in consideration of the functions in the embodiments of the present invention, which may vary depending on the intention of the user, the intention or the custom of the operator. Therefore, the definition should be based on the contents throughout this specification.
도 1은 본 발명의 일 실시예에 따른 가상 음향 합성 방법에 대해 개념적으로 설명하기 위한 도면이다. 도 1의 가상 공간(10)은 시각 혹은 청각을 통해 사용자가 인지할 수 있는 컨텐츠를 제공하기 위한 3차원의 가상적 공간일 수 있다. 가상 공간(10)의 사용자는 가상 공간(10) 내에 위치하는 가상 캐릭터(20)를 통해 이와 같은 컨텐츠를 제공받을 수 있다.1 is a conceptual diagram for explaining a virtual sound synthesis method according to an embodiment of the present invention. The
가상 공간(10) 내에는 하나 이상의 가상 객체(30)가 위치할 수 있다. 예컨대, 도 1의 가상 공간(10)은 벽과 바닥, 천장으로 둘러싸인 방(房, room)일 수 있으며, 가상 객체(30)는 방 내에 비치된 가구 등의 사물일 수 있다. 또한, 가상 공간(10) 내의 소정 위치에는 가상 음원(40)이 위치하여 사용자에게 음악이나 음성 등의 청각적 컨텐츠를 제공할 수 있다.In the
가상 음원(40)은 직진성(直進性)을 갖는 하나 이상의 음파를 가상 공간(10) 내에 방사(放射)할 수 있다. 비유하자면, 상기 가상 음원(40)에서 방사되는 각 음파는 광원(光源)으로부터 방사되는 각 광선속(光線束)에 대응된다고 볼 수 있다. 물론 이러한 음파는 실제의 음파가 아닌, 사용자가 청취할 청각적 컨텐츠를 전송하는 것으로 상정되는 가상의 음파이다.The
가상 캐릭터(20)의 위치, 즉 가상 음원(40)이 제공하는 청각적 컨텐츠의 청취 위치에 도달하는 음파 중에는, 가상 음원(40)과 가상 캐릭터(20)를 연결하는 직선 경로를 직진하여 상기 청취 위치에 도달하는 음파(41)가 있을 수 있다. 하지만 이와 달리, 가상 객체(30) 혹은 가상 공간(10)의 벽면에 반사됨으로써 상기 청취 위치에 도달하는 음파(42)도 있을 수 있다. 이와 같은 현상은 현실에서 일어나는 음파의 직진 및 반사를 가상 공간(10)에 반영한 결과라 할 수 있다.A sound path reaching the position of the
상기한 바와 같은 각 음파(41, 42)를 합성하여 사용자에게 들려줌으로써, 현실에 보다 가까운 실감나는 청각적 컨텐츠를 사용자에게 제공하는 것이 가능하다. 이 때, 가상 공간(10)의 형태 혹은 가상 객체(30)의 가상 공간(10) 내에서의 배치가 달라지거나, 가상 캐릭터(20)의 이동에 의해 청취 위치가 변화된 경우, 이를 반영하여 새롭게 합성된 음향을 사용자에게 제공할 필요가 있다. 일반화시켜 말하면, 가상 공간(10)의 형태, 가상 객체(30)의 배치 등에 기초하여 가상 음원(40)으로부터 방사되는 각 음파의 진행 경로를 계산하고, 상기 계산 결과에 기초하여 소정의 청취 위치에서 느껴질 음향 효과를 구현할 수 있다.By synthesizing the
가상 공간(10) 내에 배치될 가상 객체(30)는 순수한 가상 객체일 수도 있지만, 증강 현실에 의해 현실의 실제 객체가 증강되어 생성된 객체일 수도 있다. 예컨대, 사용자가 카메라(camera) 등의 촬영 장치를 통해 현실의 객체를 촬영한 경우, 아래의 도 3을 통해 설명할 가상 음향 합성 장치(100)는 상기 현실 객체를 3차원 모델링하여 가상 객체(30)를 생성하고, 생성된 가상 객체(30)를 가상 공간(10) 내에 배치할 수 있다.The
도 2는 본 발명의 일 실시예에 따른 가상 음향 합성 방법에 이용될 수 있는 영상 데이터를 예시적으로 설명하기 위한 도면이다. 전술한 실제 객체를 촬영한 영상은, 예컨대 도 2와 같이 깊이(depth) 정보를 갖는 영상(50)일 수 있다. 이러한 영상(50)은 뎁스 카메라(depth camera)를 통해 얻어질 수 있다.2 is a diagram for explaining image data that can be used in a virtual sound synthesis method according to an embodiment of the present invention. The image of the above-described actual object may be, for example, an
도 3은 본 발명의 일 실시예에 따른 가상 음향 합성 장치의 구성을 도시한 도면이다. 본 발명의 일 실시예에 따른 가상 음향 합성 장치(100)는 정보 획득부(110),
가상 공간 정보 생성부(120), 연산부(130) 및 음향 합성부(140)를 포함할 수 있다. 단, 도 3의 가상 음향 합성 장치(100)는 본 발명의 일 실시예에 불과하므로, 도 3에 의해 본 발명의 사상이 제한 해석되는 것은 아니다.3 is a diagram illustrating a configuration of a virtual sound synthesizer according to an embodiment of the present invention. The virtual
정보 획득부(110)는 실제 객체를 촬영한 영상 데이터로부터 촬영된 실제 객체에 대한 정보를 획득할 수 있다. 영상 데이터는 도 2를 통해 설명한 바와 같이 깊이 정보를 갖는 영상(50)일 수 있으나, 반드시 이에 한정되는 것은 아니다. 상기 영상 데이터의 획득을 위해, 정보 획득부(110)는 뎁스 카메라 등의 영상 촬영 장치를 포함하여 구현될 수 있다. 혹은, 정보 획득부(110)는 가상 음향 합성 장치(100)와는 별개로 존재하는 영상 촬영 장치에 의해 촬영된 영상을 전송받을 수 있으며, 이 경우 정보 획득부(110)는 데이터의 수신을 위한 데이터 버스, 혹은 유/무선 통신 모듈을 통해 구현될 수 있다.The
가상 공간 정보 생성부(120)는 3차원의 가상 공간(10) 내에, 영상 데이터에 의해 촬영된 실제 객체를 3차원 모델링하여 생성되는 가상 객체(30)를 위치시킬 수 있다. 이를 위해, 가상 공간 정보 생성부(120)는 가상 공간(10)을 생성할 수 있다. 또한, 가상 공간 정보 생성부(120)는 특정한 실제 객체의 영상이 획득될 경우 상기 영상으로부터 추출된 실제 객체의 정보를 이용하여 실제 객체에 대한 3차원 모델링을 수행함으로써 가상 객체(30)를 생성하고, 생성된 가상 객체(30)를 가상 공간(10)에 배치할 수 있다. 또한, 가상 공간 정보 생성부(120)는 가상 공간(10)의 소정 위치에 가상 음원(40)을 배치할 수도 있다. 이러한 가상 공간 정보 생성부(120)는 마이크로프로세서(microprocessor)를 포함하는 연산 장치에 의해 구현될 수 있으며, 이는 후술할 연산부(130) 및 음향 합성부(140)에 있어서도 같다.The virtual space
연산부(130)는 가상 공간(10) 내의 가상 음원(40)으로부터 방사되는 하나 이상의 가상 음파에 대해, 가상 공간(10)의 구조, 가상 객체(30)의 위치 및 형상 등에 기초하여 상기 각 음파의 가상 공간(10) 내에서의 진행 경로를 결정할 수 있다. 상기 각 음파는 기본적으로 가상 음원(40)으로부터 방사되면 방사된 방향으로 직진하나, 직진 중 가상 객체(30)의 표면과 만나면 반사된 후 반사된 방향으로 재차 직진할 수 있다. 연산부(130)는 이와 같은 각 음파의 직진 및 반사를 고려하여 각 음파의 진행 경로를 결정할 수 있다.The
음향 합성부(140)는 상기 결정된 각 음파의 진행 경로에 기초하여, 가상 공간(10) 내의 소정 위치에서 감지될 것으로 예상되는 소리를 합성할 수 있다. 즉, 음향 합성부(140)는 가상 음원(40)으로부터 방사되는 음파에 의해 가상 공간(10) 내의 가상 캐릭터(20)가 듣게 될 것으로 예상되는 소리를 생성할 수 있다. 더 나아가, 음향 합성부(140)는 사용자가 실제로 소리를 들을 수 있도록 합성된 소리를 재생할 수 있으며, 이 경우 스피커(speaker)와 같은 청각적 컨텐츠의 출력을 위한 하드웨어 장치를 포함하여 구현될 수 있다.The
도 4는 본 발명의 일 실시예에 따른 가상 음향 합성 방법의 각 단계를 도시한 도면이다. 도 4의 방법은 도 3을 참조하여 설명한 가상 음향 합성 장치(100)를 이용하여 수행될 수 있으며, 도 1 내지 3과 중복되는 부분에 대해서는 설명이 생략될 수 있다. 단, 도 4의 방법은 본 발명의 일 실시예에 불과하므로 도 4에 의해 본 발명의 사상이 제한 해석되는 것은 아니며, 도 4의 방법의 각 단계는 도 4에 제시된 바와 그 순서를 달리하여 수행될 수 있음은 물론이다.4 is a diagram illustrating each step of a virtual sound synthesis method according to an embodiment of the present invention. The method of FIG. 4 can be performed using the
우선, 정보 획득부(110)는 영상 데이터로부터 실제 객체의 정보를 획득할 수 있다(S110). 이어서, 가상 공간 정보 생성부(120)는 실제 객체로부터 생성된 가상 객체(30)를 가상 공간(10) 내에 배치할 수 있다(S120). 그리고 연산부(130)는 가상 음원(40)으로부터 방사되는 음파의 진행 경로를 결정할 수 있다(S130).First, the
이하에서는 상기 단계 S120 및 S130에 대해 보다 구체적으로 설명하도록 한다. 가상 공간 정보 생성부(120)는 영상 데이터로부터 실제 객체 정보를 추출할 때, 영상 데이터 내에서 실제 객체에 해당하는 부분에 대한 구획(segmentation)을 수행한 후, 상기 실제 객체를 모델링한 가상 객체(30)의 형상 및 가상 공간(10) 내에서의 위치를 결정할 수 있다. Hereinafter, steps S120 and S130 will be described in more detail. The virtual space
또한, 가상 공간 정보 생성부(120)는 상기 영상 데이터에 담긴 실제 객체의 형상에 관한 정보로부터 상기 실제 객체의 속성이 기 정해진 복수의 속성 중 어떤 속성에 해당되는지를 파악할 수 있다. 여기서 실제 객체의 속성이란, 예컨대 실제 객체의 종류(텔레비전, 소파, 장롱 등)가 될 수 있다. 가상 공간 정보 생성부(120)는 실제 객체와 동일한 속성을 실제 객체로부터 모델링된 가상 객체(30)에 대해서도 부여할 수 있다. 지금까지 서술한 바와 같은 가상 공간 정보 생성부(120)의 동작은, 예컨대 딥 러닝(deep learning) 기법을 이용하여 구현될 수 있다.The virtual space
상기 가상 객체(30)의 위치 및 형상 등의 정보는 연산부(130)가 가상 음원(40)으로부터 방사되는 각 음파의 진행 경로를 결정하는 데 이용될 수 있다. 구체적으로, 연산부(130)는 직진하던 각 음파가 어느 지점에서 반사되는지, 반사가 된다면 어느 방향으로 반사되는지를 결정하는 데 상기 위치 및 형상에 관한 정보를 이용할 수 있다. The information such as the position and shape of the
또한, 연산부(130)는 상기 음파의 진행 경로뿐 아니라, 상기 진행 경로 상의 임의의 위치에서의 음파의 세기(intensity)에 관한 정보도 산출할 수 있다. 현실 세계에서도 음파의 세기는 음원으로부터의 거리가 멀어질수록 감소하는 것을 참조하여, 연산부(130)는 소정의 감쇠율(減衰率)에 기초하여 음파의 진행에 따른 음파의 세기 변화에 대한 정보를 산출할 수 있다. In addition, the
아울러, 현실 세계에서는 반사 전과 반사 후의 음파의 세기가 다르다는 것 역시 알려져 있다. 이를 반영하여, 연산부(130)는 음파의 반사가 있을 때에 소정의 반사율(反射率) 및 반사 전의 음파의 세기에 기초하여 반사 후의 음파의 세기를 산출할 수 있다. 경우에 따라, 가상 객체(30)에 부딪힌 음파는 일반적인 반사 외에 반사 후 음파가 여러 방향으로 분산되는 산란(散亂)을 겪을 수도 있다. 이와 같은 산란도 반사의 일종이라 볼 수 있으며, 이와 같은 산란이 일어나도록 설정된 경우, 연산부(130)는 소정의 산란 정보에 기초하여 산란 후의 각 분산된 음파의 진행 경로 및 세기에 관한 정보를 산출할 수 있다.In addition, it is also known that in the real world, the intensity of the reflected waves differs from that of the reflected waves. In consideration of this, the calculating
한편, 상기 반사율은 가상 객체(30)의 속성에 따라 다를 수 있으므로, 연산부(130)는 반사의 원인이 된 가상 객체(30)의 속성에 대응되는 반사율을 상기 반사 후의 음파의 세기 산출에 이용할 수 있다. 이와 같은 반사율 및 전술한 감쇠율과 관련된 정보를 이용하여, 연산부(130)는 음파의 진행 경로 및 음파의 세기 변화에 대한 정보를 산출할 수 있다.Since the reflectivity may vary depending on the attributes of the
이하에서는 도 5 및 6을 참조하여, 가상 객체(30)에 의해 반사된 음파의 반사 후 진행 경로를 산출하는 법에 대해 보다 상세히 설명하도록 한다. 도 5 및 6은 본 발명의 일 실시예에 따른 가상 음향 합성 방법 중 가상 객체에 의한 음파의 반사에 대해 설명하기 위한 도면이다. Hereinafter, a method of calculating a traveling path after reflection of a sound wave reflected by the
우선 도 5를 참조하면, 가상 공간 정보 생성부(120)에 의해 복수의 폴리곤(polygon)으로 구획된 가상 객체(30)의 표면(60)을 확인할 수 있다. 즉, 가상 공간 정보 생성부(120)는 복수의 폴리곤을 포함하는 메쉬(mesh)를 이용하여 가상 객체(30)의 형상을 정의할 수 있다. 도 5의 예시에 의하면, 각 폴리곤은 삼각형 형상을 가짐을 볼 수 있다.Referring to FIG. 5, the virtual space
연산부(130)는 도 5의 여러 폴리곤들 중, 가상 객체(30)로 입사되는 음파(63)와 교차하는 폴리곤(61)을 식별할 수 있다. 이와 같은 식별 동작은, 폴리곤을 포함하는 평면과 입사되는 음파(63)가 만나는 점이 해당 폴리곤 내부에 존재하는지 판단하는 동작을 각 폴리곤에 대해 수행함으로써 가능할 수 있다. 그리고 도 5에서 확인할 수 있는 바와 같이, 연산부(130)는 식별된 폴리곤(61)의 법선 벡터(normal vector, 62)를 기준으로 한 입사각(入射角, θi)과 반사각(反射角, θf)이 서로 동일하도록, 반사 후의 음파(64)의 진행 경로를 결정할 수 있다.The
지금까지는 도 5를 참조하여, 메쉬를 이용하여 모델링된 가상 객체(30)에 의한 음파의 반사를 처리하는 실시예에 대해 서술하였다. 이하에서는 이와 달리, 메쉬를 생성하지 않고도 영상 데이터의 깊이 정보만을 이용하여 음파의 반사를 처리하는 실시예에 대해 도 6을 참조하여 설명하도록 한다.Up to now, an embodiment has been described with reference to FIG. 5 for processing reflection of a sound wave by the
도 6은 실제 객체를 촬영한, 깊이 정보를 포함하고 있는 영상(70)을 나타내고 있다. 가상 공간 정보 생성부(120)는 이와 같은 깊이 영상(70)을 이용하여, 촬영된 실제 객체에 대응되는 가상 객체(30)의 표면을 구현할 수 있다. 이를 위해 우선, 가상 공간 정보 생성부(120)는 가상 객체(30)의 표면을 복수의 영역(71)으로 분할할 수 있다. 도 6은 이해를 쉽게 하기 위해 상기 복수의 영역(71)으로 구획된 가상 객체(30)의 표면을 영상(70)의 대응되는 위치에 겹쳐 보이도록 한 것이다.FIG. 6 shows an
각 영역(71)은 저마다 복수의 기준점(72)을 포함할 수 있다. 즉, 이와 같은 복수의 기준점(72)은 가상 객체(30)의 표면에 위치한다고 볼 수 있으며, 가상 공간 정보 생성부(120)는 깊이 영상(70)의 각 화소(pixel)의 깊이 정보에 기초하여 각 기준점(72)의 가상 공간(10) 내에서의 위치를 결정할 수 있다. 즉, 각각의 기준점(72)은 저마다 하나씩 깊이 영상(70)의 각 화소에 대응될 수 있다.Each
이와 같은 상태에서, 가상 객체(30)의 표면에 대한 정보를 반영하여, 가상 객체(30)에 입사된 음파의 반사 경로를 계산하는 방법에 대해 설명하도록 한다. 우선 하나의 방법으로, 가상 공간(10) 내에서의 각 기준점(72)의 위치를 나타내는 좌표에 기초하여, 가상 객체(30)의 표면을 구성하는 곡면을 다항식(polynomial)을 이용하여 표현하는 방법을 들 수 있다. 즉, 가상 공간 정보 생성부(120)는 상기 각 기준점(72)을 지나는 곡면을 다항식을 이용해 근사하여 나타낼 수 있다. In this state, a method of calculating the reflection path of a sound wave incident on the
단, 가상 객체(30)의 표면을 구성하는 모든 기준점(72)을 지나는 곡면을 하나의 다항식으로 나타내고자 한다면 다항식의 차수가 지나치게 높아질 수 있으므로, 가상 공간 정보 생성부(120)는 각 영역(71)별로 서로 다른 다항식을 적용할 수 있다. 이 경우, 가상 공간 정보 생성부(120)는 특정한 하나의 영역(71)에 포함된 기준점(72)들만을 지나는 곡면을 나타내는 다항식을 구하는 과정을, 각 영역(71)에 대해 수행할 수 있다.However, if the curved surface passing through all the
이와 같이 다항식을 이용하여 표면을 나타낸 가상 객체(30)에 음파가 입사될 경우, 연산부(130)는 상기 입사된 음파의 경로와, 상기 가상 객체(30)를 이루는 곡면 간의 교점을 산출할 수 있다. 이와 같은 교점의 산출은 각 영역(71)을 이루는 다항식들을 이용하여 수행될 수 있으며, 구체적인 과정에 대해서는 통상의 기술자에게 용이한 것이므로 자세한 설명을 생략하도록 한다. 연산부(130)는 상기 입사된 음파가 상기 교점에서 반사되도록 하되, 상기 교점에서의 상기 곡면의 법선을 기준으로 한 입사각과 반사각이 서로 동일하도록 반사된 음파의 진행 경로를 결정할 수 있다.When a sound wave is incident on the
이하에서는 전술한 방법과 또 다른 방법에 대해 설명하도록 한다. 가상 객체(30)의 표면이 복수의 영역(71)으로 분할될 수 있음은 위에서 설명한 바와 같다. 이 때, 복수의 영역(71)에 수직한 방향, 즉 본래의 깊이 영상(70)에 수직한 방향과 동일한 방향을 시선의 방향으로 하여 가상 객체(30)를 바라볼 때, 상기 각 영역(71)을 구분하기 위한 격자는 시선의 방향과 수직한 기준 평면에 놓여 있다고 생각할 수 있다. Hereinafter, the above-described method and another method will be described. The surface of the
이 때, 임의의 한 영역(71)은 해당 영역 전체에서 동일한 깊이를 갖고 있다고 가정할 수 있다. 가상 공간 정보 생성부(120)는 이와 같은 특정 영역(71)의 깊이의 값을, 해당 특정 영역(71)에 속한 모든 기준점(72)의 깊이를 평균한 값과 같도록 설정할 수 있다. 이에 따라, 서로 다른 영역(70)끼리는 깊이가 다를 수 있다.At this time, it can be assumed that one
상기 각 영역(71)의 깊이 값을 이용하여, 연산부(130)는 가상 객체(30)에 입사된 음파가 각 영역(71) 중 어떤 영역(71)과 만나는지를 구할 수 있으며, 더 나아가 상기 입사된 음파가 반사되는 점이 상기 기준 평면 상에서 어느 위치에 존재하는지도 구할 수 있다.Using the depth value of each of the
다음으로, 연산부(130)는 상기 반사되는 점에서의 법선을 구하고, 상기 법선에 대하여 입사각과 반사각이 동일하도록 반사된 음파의 진행 경로를 구할 수 있다. 상기 법선을 구하기 위해, 우선 도 6을 통해 설명된 각 기준점(72)들에서의 법선을 구할 수 있다. 각 기준점(72)에서의 법선은, 해당 기준점(72)의 깊이 값 및 인접한 기준점(72)의 깊이 값을 이용하여 구할 수 있다. 보다 구체적으로는 다음의 수학식 1 및 2를 참고하여 유한차분법(finite difference approximation)을 통해 구할 수 있다. Next, the
여기서 i와 j는 기준점(72)의 인덱스(index)를 나타내며, i는 상기 기준 평면에서의 x축 방향에서의 인덱스, j는 y축 방향에서의 인덱스를 각각 나타낼 수 있다. h는 기준 평면 상에서 서로 인접한 기준점(72) 간의 거리를, u는 특정 기준점(72)에서의 깊이의 값을 각각 나타낸다. 즉, ui,j는 (i, j)의 인덱스를 갖는 기준점(72)에서의 깊이의 값을 나타낸다. uxx(xi, yj) 및 uyy(xi, yj)는 (i, j)의 인덱스를 갖는 기준점(72)에서의 깊이의 2계 미분값을 나타내는데, uxx(xj, yj)는 x축 방향의, uyy(xj, yj)는 y축 방향의 2계 미분값을 각각 나타낸다.Here, i and j represent the index of the
연산부(130)는 전술한 바와 같은 과정을 거쳐 각 기준점(72)들에서의 상기 수학식 1 및 2의 값을 구할 수 있으며, 이에 기초하여 각 기준점(72)들에서의 3차원 가상 공간(10)에서의 법선(보다 정확히는, 단위 길이를 갖는 법선 벡터)을 구할 수 있다. 그리고 연산부(130)는 반사가 이루어지는 점에 인접한(예컨대, 반사가 이루어지는 점으로부터 기 정해진 거리 내에 있는) 기준점(72)들에서의 법선을 이용하여(예컨대, 4개의 인접한 기준점(72) 각각에서의 법선 벡터를, 각 인접한 기준점(72)들로부터의 거리에 기초해 가중평균하여) 상기 반사되는 점에서의 법선을 구할 수 있으며, 이를 통해 반사된 후의 음파의 진행 경로를 결정할 수 있다.The
지금까지 설명한 바와 같이 각 음파의 진행 경로 및 진행에 따른 음파의 세기와 관련된 정보가 결정되고 나면, 음향 합성부(140)는 상기 결정된 정보에 기초하여 음향 합성을 수행할 수 있다(S140). 이 때, 음향 합성부(140)는 상기 합성된 가상 음향에 실제 음향을 부가하여 최종적인 음향을 사용자에게 출력할 수도 있다. 본 발명의 일 실시예에 의한 가상 음향 합성 방법의 전술한 일련의 단계들을 통해, 보다 현실에 가까운 청각적 컨텐츠를 사용자에게 제공할 수 있으며, 사용자가 가상 공간을 마치 현실의 공간처럼 느끼도록 할 수 있다.After the information related to the propagation path of each sound wave and the intensity of the sound wave due to the progress of the sound wave is determined as described above, the
본 발명에 첨부된 블록도의 각 블록과 흐름도의 각 단계의 조합들은 컴퓨터 프로그램 인스트럭션들에 의해 수행될 수도 있다. 이들 컴퓨터 프로그램 인스트럭션들은 범용 컴퓨터, 특수용 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비의 인코딩 프로세서에 탑재될 수 있으므로, 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비의 인코딩 프로세서를 통해 수행되는 그 인스트럭션들이 블록도의 각 블록 또는 흐름도의 각 단계에서 설명된 기능들을 수행하는 수단을 생성하게 된다. 이들 컴퓨터 프로그램 인스트럭션들은 특정 방식으로 기능을 구현하기 위해 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비를 지향할 수 있는 컴퓨터 이용 가능 또는 컴퓨터 판독 가능 메모리에 저장되는 것도 가능하므로, 그 컴퓨터 이용가능 또는 컴퓨터 판독 가능 메모리에 저장된 인스트럭션들은 블록도의 각 블록 또는 흐름도 각 단계에서 설명된 기능을 수행하는 인스트럭션 수단을 내포하는 제조 품목을 생산하는 것도 가능하다. 컴퓨터 프로그램 인스트럭션들은 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비 상에 탑재되는 것도 가능하므로, 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비 상에서 일련의 동작 단계들이 수행되어 컴퓨터로 실행되는 프로세스를 생성해서 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비를 수행하는 인스트럭션들은 블록도의 각 블록 및 흐름도의 각 단계에서 설명된 기능들을 실행하기 위한 단계들을 제공하는 것도 가능하다.Combinations of each step of the flowchart and each block of the block diagrams appended to the present invention may be performed by computer program instructions. These computer program instructions may be embedded in an encoding processor of a general purpose computer, special purpose computer, or other programmable data processing apparatus, so that the instructions, performed through the encoding processor of a computer or other programmable data processing apparatus, Thereby creating means for performing the functions described in each step of the flowchart. These computer program instructions may also be stored in a computer usable or computer readable memory capable of directing a computer or other programmable data processing apparatus to implement the functionality in a particular manner so that the computer usable or computer readable memory It is also possible for the instructions stored in the block diagram to produce a manufacturing item containing instruction means for performing the functions described in each block or flowchart of the block diagram. Computer program instructions may also be stored on a computer or other programmable data processing equipment so that a series of operating steps may be performed on a computer or other programmable data processing equipment to create a computer- It is also possible that the instructions that perform the processing equipment provide the steps for executing the functions described in each block of the block diagram and at each step of the flowchart.
또한, 각 블록 또는 각 단계는 특정된 논리적 기능(들)을 실행하기 위한 하나 이상의 실행 가능한 인스트럭션들을 포함하는 모듈, 세그먼트 또는 코드의 일부를 나타낼 수 있다. 또, 몇 가지 대체 실시예들에서는 블록들 또는 단계들에서 언급된 기능들이 순서를 벗어나서 발생하는 것도 가능함을 주목해야 한다. 예컨대, 잇달아 도시되어 있는 두 개의 블록들 또는 단계들은 사실 실질적으로 동시에 수행되는 것도 가능하고 또는 그 블록들 또는 단계들이 때때로 해당하는 기능에 따라 역순으로 수행되는 것도 가능하다.Also, each block or each step may represent a module, segment, or portion of code that includes one or more executable instructions for executing the specified logical function (s). It should also be noted that in some alternative embodiments, the functions mentioned in the blocks or steps may occur out of order. For example, two blocks or steps shown in succession may in fact be performed substantially concurrently, or the blocks or steps may sometimes be performed in reverse order according to the corresponding function.
이상의 설명은 본 발명의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 발명의 본질적인 품질에서 벗어나지 않는 범위에서 다양한 수정 및 변형이 가능할 것이다. 따라서, 본 발명에 개시된 실시예들은 본 발명의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시예에 의하여 본 발명의 기술 사상의 범위가 한정되는 것은 아니다. 본 발명의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 균등한 범위 내에 있는 모든 기술사상은 본 발명의 권리범위에 포함되는 것으로 해석되어야 할 것이다.The above description is merely illustrative of the technical idea of the present invention, and various modifications and changes may be made by those skilled in the art without departing from the essential characteristics of the present invention. Therefore, the embodiments disclosed in the present invention are intended to illustrate rather than limit the scope of the present invention, and the scope of the technical idea of the present invention is not limited by these embodiments. The scope of protection of the present invention should be construed according to the following claims, and all technical ideas within the scope of equivalents thereof should be construed as falling within the scope of the present invention.
본 발명의 일 실시예에 따르면, 가상 공간을 통해 청각적 컨텐츠를 사용자에게 제공함에 있어서, 상기 가상 공간 내의 객체 배치 및 청각적 컨텐츠의 청취 위치 등이 고려된 음향 효과를 구현할 수 있다. 이를 통해, 보다 현실에 가까운 청각적 컨텐츠를 사용자에게 제공할 수 있으며, 사용자가 가상 공간을 마치 현실의 공간처럼 느끼도록 할 수 있다.According to an embodiment of the present invention, in providing auditory contents to a user through a virtual space, a sound effect can be implemented in consideration of object placement in the virtual space and listening positions of auditory contents. Accordingly, it is possible to provide auditory contents closer to reality to the user, and the user can make the virtual space feel like a real space.
10: 가상 공간
20: 가상 캐릭터
30: 가상 객체
40: 가상 음원
50: 영상 데이터
100: 가상 음향 합성 장치
110: 정보 획득부
120: 가상 공간 정보 생성부
130: 연산부
140: 음향 합성부10: Virtual space
20: Virtual characters
30: Virtual objects
40: virtual sound source
50: image data
100: Virtual sound synthesizer
110: Information obtaining unit
120: Virtual space information generation unit
130:
140:
Claims (11)
3차원의 가상 공간 내에, 상기 실제 객체를 3차원 모델링하여 생성되는 가상 객체를 위치시키는 단계;
상기 가상 공간 내에 위치하는 가상 음원(音源)으로부터 방사되는 하나 이상의 가상 음파(音波)에 대해, 상기 가상 객체의 위치 및 형상에 기초하여 상기 음파의 상기 가상 공간 내에서의 진행 경로를 결정하는 단계; 및
상기 음파의 진행 경로에 기초하여, 상기 가상 공간 내의 소정 위치에서 감지될 것으로 예상되는 소리를 합성하는 단계를 포함하는
가상 음향 합성 방법.Obtaining information on an actual object from the image data;
Positioning a virtual object generated by three-dimensionally modeling the real object in a three-dimensional virtual space;
Determining, for at least one virtual sound wave (sound wave) emitted from a virtual sound source located in the virtual space, a traveling path of the sound wave in the virtual space based on the position and shape of the virtual object; And
Synthesizing a sound that is expected to be sensed at a predetermined position in the virtual space based on a traveling path of the sound wave
Virtual sound synthesis method.
상기 음파는, 상기 가상 공간 내에서 직진성(直進性)을 가지며, 상기 가상 객체의 표면과 만날 경우 반사되는
가상 음향 합성 방법.The method according to claim 1,
Wherein the sound waves have straightness in the virtual space and are reflected when they meet with the surface of the virtual object
Virtual sound synthesis method.
상기 가상 객체의 표면은, 복수의 폴리곤(polygon)에 의해 구획되며,
상기 진행 경로를 결정하는 단계는,
상기 폴리곤 중 상기 음파와 만나는 폴리곤을 식별하는 단계; 및
상기 음파가 상기 식별된 폴리곤에 의해 반사되도록 하되, 상기 식별된 폴리곤의 법선 벡터(normal vector)를 기준으로 한 입사각(入射角)과 반사각(反射角)이 서로 동일하도록 상기 음파의 진행 경로를 결정하는 단계를 포함하는
가상 음향 합성 방법.3. The method of claim 2,
The surface of the virtual object is partitioned by a plurality of polygons,
The method of claim 1,
Identifying a polygon in the polygon that meets the sound wave; And
(The incident angle) and the reflection angle (reflection angle) based on the normal vector of the identified polygon are equal to each other, so that the sound wave is reflected by the identified polygon ≪ / RTI >
Virtual sound synthesis method.
상기 가상 객체가, 기 정해진 복수의 속성 중 어떤 속성에 해당하는지 식별하는 단계; 및
상기 가상 객체의 속성에 대응되는 소정의 반사율(反射率)과, 상기 음파의 진행에 따른 소정의 감쇠율(減衰率)에 기초하여, 상기 진행 경로를 진행함에 따른 상기 음파의 세기 변화에 대한 정보를 획득하는 단계를 더 포함하며,
상기 합성하는 단계는, 상기 음파의 진행 경로 및 상기 음파의 세기 변화에 대한 정보에 기초하여 상기 예상되는 소리를 합성하는 단계를 포함하는
가상 음향 합성 방법.3. The method of claim 2,
Identifying which of a plurality of predetermined attributes the virtual object corresponds to; And
Information about a change in strength of the sound wave due to the progress of the progress path is calculated based on a predetermined reflectance (reflectance) corresponding to the attribute of the virtual object and a predetermined attenuation rate (decay rate) according to the progress of the sound wave Further comprising the steps of:
Wherein the synthesizing step includes synthesizing the expected sound based on information about a progress path of the sound wave and a change in intensity of the sound wave
Virtual sound synthesis method.
상기 위치시키는 단계는, 상기 영상 데이터의 각 화소(pixel)의 깊이(depth) 정보에 기초하여, 상기 가상 객체의 표면을 모델링하기 위한 복수 개의 점의 상기 가상 공간 내에서의 위치를 결정하는 단계를 포함하는
가상 음향 합성 방법.3. The method of claim 2,
Wherein the positioning includes determining a position within the virtual space of a plurality of points for modeling the surface of the virtual object based on depth information of each pixel of the image data Included
Virtual sound synthesis method.
상기 위치시키는 단계는, 상기 복수 개의 점의 위치를 나타내는 좌표에 기초하여, 상기 가상 객체의 표면을 구성하는 곡면을 다항식(polynomial)을 이용하여 표현하는 단계를 포함하는
가상 음향 합성 방법.6. The method of claim 5,
Wherein the positioning includes expressing a curved surface constituting the surface of the virtual object using a polynomial based on coordinates indicating the positions of the plurality of points
Virtual sound synthesis method.
상기 진행 경로를 결정하는 단계는,
상기 가상 객체로 입사되는 상기 음파의 경로와 상기 곡면 간의 교점을 상기 다항식을 이용하여 산출하는 단계; 및
상기 음파가 상기 교점에서 반사되도록 하되, 상기 곡면의 상기 교점에서의 법선을 기준으로 한 입사각과 반사각이 서로 동일하도록 상기 진행 경로를 결정하는 단계를 포함하는
가상 음향 합성 방법.The method according to claim 6,
The method of claim 1,
Calculating an intersection between the path of the sound wave incident on the virtual object and the curved surface using the polynomial equation; And
Determining the path of travel so that the sound waves are reflected at the intersection point such that an incident angle and a reflection angle with respect to a normal line at the intersection of the curved surface are equal to each other,
Virtual sound synthesis method.
상기 진행 경로를 결정하는 단계는,
상기 가상 객체로 입사되는 상기 음파의 경로와 상기 가상 객체의 표면 간의 교점에서의 법선을, 상기 복수 개의 점들 중 상기 교점으로부터 소정 거리 내에 존재하는 점들의 가상 공간 내에서의 위치에 기초하여 구하는 단계; 및
상기 음파가 상기 교점에서 반사되도록 하되, 상기 법선을 기준으로 한 입사각과 반사각이 서로 동일하도록 상기 진행 경로를 결정하는 단계를 포함하는
가상 음향 합성 방법.6. The method of claim 5,
The method of claim 1,
Obtaining a normal at an intersection between a path of the sound wave incident on the virtual object and a surface of the virtual object based on a position in a virtual space of points existing within a predetermined distance from the intersection among the plurality of points; And
Determining the path of travel so that the sound waves are reflected at the intersection, wherein an incidence angle and a reflection angle with respect to the normal line are equal to each other
Virtual sound synthesis method.
3차원의 가상 공간 내에, 상기 실제 객체를 3차원 모델링하여 생성되는 가상 객체를 위치시키는 가상 공간 정보 생성부;
상기 가상 공간 내에 위치하는 가상 음원(音源)으로부터 방사되는 하나 이상의 가상 음파(音波)에 대해, 상기 가상 객체의 위치 및 형상에 기초하여 상기 음파의 상기 가상 공간 내에서의 진행 경로를 결정하는 연산부; 및
상기 음파의 진행 경로에 기초하여, 상기 가상 공간 내의 소정 위치에서 감지될 것으로 예상되는 소리를 합성하는 음향 합성부를 포함하는
가상 음향 합성 장치.An information obtaining unit for obtaining information on an actual object from the image data;
A virtual space information generation unit that positions a virtual object generated by three-dimensionally modeling the real object within a three-dimensional virtual space;
An operation unit for determining a traveling path of the sound wave in the virtual space based on a position and a shape of the virtual object for one or more virtual sound waves (sound waves) radiated from a virtual sound source located in the virtual space; And
And an acoustic synthesis unit for synthesizing a sound that is expected to be sensed at a predetermined position in the virtual space based on the traveling path of the sound wave
Virtual sound synthesizer.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020170138567A KR101975920B1 (en) | 2017-10-24 | 2017-10-24 | Apparatus and method for synthesizing virtual sound |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020170138567A KR101975920B1 (en) | 2017-10-24 | 2017-10-24 | Apparatus and method for synthesizing virtual sound |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20190045696A true KR20190045696A (en) | 2019-05-03 |
KR101975920B1 KR101975920B1 (en) | 2019-05-09 |
Family
ID=66545522
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020170138567A KR101975920B1 (en) | 2017-10-24 | 2017-10-24 | Apparatus and method for synthesizing virtual sound |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR101975920B1 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102523048B1 (en) * | 2022-04-08 | 2023-04-18 | 조현석 | Sound conversion system and method in virtual reality |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20210123198A (en) | 2020-04-02 | 2021-10-13 | 주식회사 제이렙 | Argumented reality based simulation apparatus for integrated electrical and architectural acoustics |
US11582571B2 (en) | 2021-05-24 | 2023-02-14 | International Business Machines Corporation | Sound effect simulation by creating virtual reality obstacle |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005080124A (en) * | 2003-09-02 | 2005-03-24 | Japan Science & Technology Agency | Real-time sound reproduction system |
KR20130109615A (en) | 2012-03-28 | 2013-10-08 | 삼성전자주식회사 | Virtual sound producing method and apparatus for the same |
US20160109284A1 (en) * | 2013-03-18 | 2016-04-21 | Aalborg Universitet | Method and device for modelling room acoustic based on measured geometrical data |
-
2017
- 2017-10-24 KR KR1020170138567A patent/KR101975920B1/en active IP Right Grant
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005080124A (en) * | 2003-09-02 | 2005-03-24 | Japan Science & Technology Agency | Real-time sound reproduction system |
KR20130109615A (en) | 2012-03-28 | 2013-10-08 | 삼성전자주식회사 | Virtual sound producing method and apparatus for the same |
US20160109284A1 (en) * | 2013-03-18 | 2016-04-21 | Aalborg Universitet | Method and device for modelling room acoustic based on measured geometrical data |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102523048B1 (en) * | 2022-04-08 | 2023-04-18 | 조현석 | Sound conversion system and method in virtual reality |
WO2023195830A1 (en) * | 2022-04-08 | 2023-10-12 | 조현석 | System and method for converting sound in virtual space |
Also Published As
Publication number | Publication date |
---|---|
KR101975920B1 (en) | 2019-05-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111095952B (en) | 3D audio rendering using volumetric audio rendering and scripted audio detail levels | |
Schissler et al. | Efficient HRTF-based spatial audio for area and volumetric sources | |
US20200302688A1 (en) | Method and system for generating an image | |
JP3528284B2 (en) | 3D sound system | |
CN113597777B (en) | Audio processing | |
KR101975920B1 (en) | Apparatus and method for synthesizing virtual sound | |
US10382881B2 (en) | Audio system and method | |
KR101835675B1 (en) | Apparatus for providing3d sound in augmmented reality environmentand method thereof | |
CN113711278A (en) | Method and system for processing virtual 3D object surface interactions | |
KR102398850B1 (en) | Sound control system that realizes 3D sound effects in augmented reality and virtual reality | |
EP2552130B1 (en) | Method for sound signal processing, and computer program for implementing the method | |
JP2022041721A (en) | Binaural signal generation device and program | |
Cowan et al. | Interactive rate acoustical occlusion/diffraction modeling for 2D virtual environments & games | |
TWI797577B (en) | Apparatus and method for rendering a sound scene comprising discretized curved surfaces | |
WO2015011471A2 (en) | Acoustic spatial sensory aid | |
JP2001346300A (en) | Simulated sound generator and method of generating simulated sound | |
Dias et al. | 3D reconstruction and spatial auralization of the Painted Dolmen of Antelas | |
JP6086453B2 (en) | Acoustic system and method for setting virtual sound source thereof | |
Cowan | A graph-based real-time spatial sound framework | |
CN116421971A (en) | Method and device for generating spatial audio signal, storage medium and electronic equipment | |
KR20200095766A (en) | Device and method for simulation of the presence ofone or more sound sources in virtual positions inthree-dimensional acoustic space | |
TW202348048A (en) | Diffraction modelling based on grid pathfinding |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |