KR20060004528A - Apparatus and method for creating 3d sound having sound localization function - Google Patents
Apparatus and method for creating 3d sound having sound localization function Download PDFInfo
- Publication number
- KR20060004528A KR20060004528A KR1020040053673A KR20040053673A KR20060004528A KR 20060004528 A KR20060004528 A KR 20060004528A KR 1020040053673 A KR1020040053673 A KR 1020040053673A KR 20040053673 A KR20040053673 A KR 20040053673A KR 20060004528 A KR20060004528 A KR 20060004528A
- Authority
- KR
- South Korea
- Prior art keywords
- sound
- input
- speaker
- stereoscopic
- headphone
- Prior art date
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S7/00—Indicating arrangements; Control arrangements, e.g. balance control
- H04S7/30—Control circuits for electronic adaptation of the sound field
- H04S7/302—Electronic adaptation of stereophonic sound system to listener position or orientation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S1/00—Two-channel systems
- H04S1/002—Non-adaptive circuits, e.g. manually adjustable or static, for enhancing the sound image or the spatial distribution
- H04S1/005—For headphones
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S3/00—Systems employing more than two channels, e.g. quadraphonic
- H04S3/008—Systems employing more than two channels, e.g. quadraphonic in which the audio signals are in digital form, i.e. employing more than two discrete digital channels
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S2400/00—Details of stereophonic systems covered by H04S but not provided for in its groups
- H04S2400/11—Positioning of individual sound objects, e.g. moving airplane, within a sound field
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S2420/00—Techniques used stereophonic systems covered by H04S but not provided for in its groups
- H04S2420/01—Enhancing the perception of the sound image or of the spatial distribution using head related transfer functions [HRTF's] or equivalents thereof, e.g. interaural time difference [ITD] or interaural level difference [ILD]
Abstract
본 발명은 사용자 또는 그래픽 정보로부터 소리객체의 위치정보를 추출하여 재생 소리가 3차원 공간상에 정위되도록 하는 방법 및 장치에 관한 것이다.The present invention relates to a method and apparatus for extracting location information of a sound object from user or graphic information so that playback sounds are located in a three-dimensional space.
본 발명은 원음(1)을 원하는 위치에 위치시키기 위한 위치정보가 입력되는 위치 정보 수신 장치(2, 3); 상기 원음(1)과, 상기 위치 정보 수신 장치(2,3)로부터 입력된 위치 정보와, HRTF DB를 이용하여 원하는 위치에 음상이 형성되도록 변환하는 3차원 사운드 합성기(4); 상기 3차원 사운드 합성기(4)의 출력을 수신하여, 스피커 재생인지 또는 헤드폰 재생인지의 선택 결과에 따라, 헤드폰 재생이면 상기 출력을 헤드폰(7)으로 전달하는 선택장치(5); 상기 선택장치(5)에서의 선택 결과가 스피커 재생이면, 상기 출력을 스피커로 재생할 때에 발생하는 크로스토크를 제거하여 스피커(8)로 출력하는 입체음향 가속기(6)를 포함한다.The present invention provides position information receiving apparatuses 2 and 3 to which position information for positioning the original sound 1 at a desired position is input; A three-dimensional sound synthesizer (4) for converting the original sound (1), the position information input from the position information receiving apparatuses (2, 3), and an HRTF DB to form a sound image at a desired position; A selection device (5) which receives the output of the three-dimensional sound synthesizer (4) and delivers the output to the headphone (7) in the case of headphone reproduction according to a selection result of whether speaker reproduction or headphone reproduction; If the selection result in the selection device 5 is speaker reproduction, a stereophonic accelerator 6 for outputting to the speaker 8 by removing the crosstalk generated when the output is reproduced by the speaker is included.
이상과 같은 본 발명을 이용하면, 헤드폰 재생시와 스피커 재생시 모두에 대하여 사용자 또는 게임/그래픽 정보에서 추출된 3차원 위치나 이동 경로의 입력으로 음상 정위가 가능하게 된다.According to the present invention as described above, the stereoscopic positioning is possible by input of the three-dimensional position or the movement path extracted from the user or game / graphic information for both the headphone playback and the speaker playback.
입체음향, 음상정위, HRTFStereo sound, sound stereo, HRTF
Description
도1은 본 발명의 구성의 개략도.1 is a schematic diagram of a configuration of the present invention.
도2는 본 발명에 적용되는 위치 정위를 가진 입체 음향의 합성 방법을 도시함.Figure 2 shows a method of synthesizing stereo sound having a positioning applied to the present invention.
도3은 본 발명에 적용되는 입체음향 가속기의 사용유무에 따른 사운드의 범위를 도시함.Figure 3 shows the range of sound depending on the presence or absence of the stereoacoustic accelerator applied to the present invention.
*도면의 주요부분에 대한 부호의 설명** Description of the symbols for the main parts of the drawings *
1 : 원음 2, 3 : 위치 정보1:
4 : 3차원 사운드 합성기 5 : 선택기4: 3D Sound Synthesizer 5: Selector
6 : 입체 음향 가속기6: stereo accelerator
본 발명은 사용자 또는 그래픽 정보로부터 소리객체의 위치정보를 추출하여 재생 소리가 3차원 공간상에 정위되도록 하는 방법 및 장치에 관한 것이다.The present invention relates to a method and apparatus for extracting location information of a sound object from user or graphic information so that playback sounds are located in a three-dimensional space.
임의의 3차원 공간상에 음상을 정위하기 위해서 인간이 소리의 위치를 판별 하는 원리를 함수화한 HRTF(Head Related Transfer Function) DB가 사용된다. HRTF DB는 인간을 중심으로 3차원 공간상의 여러 지점으로부터 발산되는 소리가 인간의 고막 또는 귀 입구, 또는 인간의 청각부의 일부분까지의 전달체계를 데이터베이스화한 것으로 방향성이 없는 음원을 HRTF DB를 통해 처리하면 이어폰 재생환경에서 소리가 특정위치에서 발생되는 것처럼 느낄 수 있도록 위치감(음상정위)을 부여할 수 있다.In order to locate a sound image in an arbitrary three-dimensional space, a HRTF (Head Related Transfer Function) DB is used, which is a function of the principle of determining the position of sound. HRTF DB is a database of the transmission system of sound emitted from various points in 3D space centered on human being to human eardrum or ear inlet or part of human auditory part. This can give a sense of position (sound stereotactic) to feel as if the sound is generated at a specific location in the earphone playback environment.
그러나 일반적으로 휴대용 단말기(휴대폰, PDA. MP3폰 등)에서는 소리를 사용자가 지정하는 3차원 공간상에 위치시키는 방법이 없고, 음원 파일 자체에는 3차원 위치정보가 없으므로 휴대용 단말기에서의 사운드 재생에서는 사용자의 위치 지정 또는 게임/그래픽에 따른 위치 및 이동 경로 지정과 연동하여 3차원적으로 특정 위치에 소리객체가 존재하는 것처럼 재생하거나 특정 이동 경로를 따라 소리객체가 이동하는 것처럼 재생하지 못하고, 원음을 단순히 재생하거나 단순한 효과처리만을 하여 재생한다.In general, however, there is no method of placing sound in a three-dimensional space designated by a user in a portable terminal (mobile phone, PDA, MP3 phone, etc.), and since the sound source file itself does not have three-dimensional location information, a user plays a sound in a portable terminal. It can't play as if the sound object exists at a specific position in three dimensions or moves as the sound object moves along a specific movement path in conjunction with the positioning of the game or the position and movement path according to the game / graphic. Play back by simply processing or simply effecting it.
따라서 스테레오가 지원되는 휴대 단말기 환경에서 사용자 또는 게임/그래픽에서 소리 객체가 3차원적으로 위치 또는 이동하는 효과음이 필요한 경우에도 이를 처리할 수 없다.Therefore, even in a mobile terminal environment in which stereo is supported, even if a sound object needs to be moved or moved three-dimensionally in a user or game / graphic, it cannot be processed.
한편, 설령 3차원적으로 음상정위 처리를 할 수 있어 소리객체가 특정 위치에 존재하거나 이동하는 것처럼 처리할 수 있다고 하더라도, 헤드폰 재생 환경과 스피커 재생 환경이 입체음향 재생 관점에서 매우 상이하기 때문에 두 재생 환경를 모두 만족하는 입체음향 처리가 불가능하였다.On the other hand, even if the stereoscopic stereoscopic processing can be performed in three dimensions so that the sound object can be processed as if it exists or moves in a specific position, the two reproductions are performed because the headphone reproduction environment and the speaker reproduction environment are very different in terms of stereophonic sound reproduction. It was not possible to process stereophonic sound that satisfies all the environments.
시 말하면, 헤드폰으로 재생되는 입체 음향을 스피커로 출력하게 되면, 스피커에서 사람의 귀로 가는 신호 중 교차되는 신호인 크로스토크로 인하여 음상이 사람의 머리와 두 개의 스피커 사이에서만 형성되게 되어, 스피커 재생환경에서 입체음향의 품질을 떨어지게 된다. In other words, when the stereo sound reproduced by the headphones is output to the speaker, the sound image is formed only between the human head and the two speakers due to the crosstalk, which is an intersecting signal from the speaker to the human ear. The quality of the stereo sound is degraded.
본 발명은 상기의 종래기술의 문제점을 감안하여, 헤드폰 재생시와 스피커 재생시 모두에 대하여 사용자 또는 게임/그래픽 정보에서 추출된 3차원 위치나 이동경로의 입력으로 음상 정위가 가능하게 하는 방법과 이 방법을 위한 장치를 제공한다.SUMMARY OF THE INVENTION In view of the problems of the prior art, the present invention provides a method for enabling sound image positioning by input of a three-dimensional position or a movement path extracted from a user or game / graphic information for both headphone playback and speaker playback. It provides a device for.
보다 구체적으로 설명하면, 본 발명은 사용자 또는 게임/그래픽 정보에서 추출된 3차원 위치나 이동경로를 입력으로, 재생하고자 하는 원음과 3차원 좌표로부터 3차원 스테레오 사운드를 합성하고, 스피커 재생환경 또는 헤드폰 재생환경에 따라 입체 처리에 사용되는 시스템의 파라메터를 변경하여 3차원 사운드를 재생할 수 있도록 하는 방법 및 장치를 제공한다. In more detail, the present invention synthesizes a three-dimensional stereo sound from the original sound and the three-dimensional coordinates to be reproduced by inputting a three-dimensional position or a movement path extracted from the user or game / graphic information, and speaker playback environment or headphones The present invention provides a method and apparatus for reproducing three-dimensional sound by changing parameters of a system used for stereoscopic processing according to a reproduction environment.
이제, 본 발명의 구성을 도1을 참고로 하여 설명하도록 한다.Now, the configuration of the present invention will be described with reference to FIG.
사운드를 원하는 곳에 위치시키기(음상정위) 위해서는 원음(1)을 사용자가 입력하는 3차원 위치정보(2) 또는 게임이나 그래픽과 맵핑된 위치정보(3)를 이용하여, 3차원 사운드 합성기(4)를 통해 비로소 3차원 공간에 위치한 사운드로 합성된다.In order to position the sound (describation), the
이제, 스피커 재생과 헤드폰 재생에 따라 다른 처리를 하는데, 스피커 재생 또는 헤드폰 재생인지의 선택(재생모드의 선택)은 선택기(5)에 의해 이루어진다. 선택기(5)는 사용자가 휴대용 단말기의 외부 스위치 선택 또는 화면상의 메뉴 선택 등에 의해 선택되는 재생모드에 따라, 헤드폰(7)에 의한 재생의 경우에는 별도의 부가 처리 없이 재생하고 스피커(8)에 의한 재생의 경우에는 특수한 신호처리를 하는 장치(이하에서 설명하는 스피커용 입체음향 가속기(6))를 거쳐서 스피커(8)로 재생을 해야 한다.Now, different processing is performed in accordance with speaker reproduction and headphone reproduction, and selection of whether speaker reproduction or headphone reproduction (selection of reproduction mode) is made by the
다시 말하면, 3차원 사운드 합성기(4)에서 출력되는 음향은 헤드폰(7)으로 들을 때는 입체음향을 느낄 수 있지만, 이 출력을 추가적인 처리과정이 없이 스피커(8)로 출력하게 되면, 스피커(8)에서 사람의 귀로 가는 신호 중 교차되는 신호인 크로스토크로 인하여 도3의 상단에서와 같이 음상이 사람의 머리와 두 개의 스피커 사이에서만 형성되게 되어, 스피커 재생환경에서 입체음향의 품질이 떨어지게 된다. 그래서 스피커(8)로 출력할 때 크로스토크 되는 신호를 제거하기 위해 양 스피커 출력에 크로스토크를 상쇄시킬 수 있는 신호를 합쳐 출력하게 되고, 이 과정을 거치면 도3의 하단에서와 같이 스피커(8)로 청취를 하여도 음상의 왜곡이 적어 입체음향의 청취가 가능해진다.In other words, the sound output from the three-
이제, 3차원 사운드 합성기(4)과 입체 음향 가속기(6)에 대하여 구체적으로 설명하기로 한다.Now, the three-
먼저 3차원 사운드 합성기(4)에 대하여 설명하기로 한다.First, the three-
3차원 사운드 합성기(4)에서는 도2에서와 같이 3차원 좌표정보를 가지고 사 운드가 3차원 공간상에 위치하도록 사운드를 합성한다. 도2는 사운드가 3차원 공간상에 위치하도록 사운드를 합성하는 방법으로 어떠한 위치정보도 갖지 않은 일반 음원을 입력으로 했을 때, 사운드 위치정보 블록에서 사용자의 입력 또는 3차원 좌표정보로부터 HRTF DB에서 해당 위치정보를 갖는 데이터를 찾을 수 있는 수평각, 고도각으로 좌표값을 환산하고, 이 값을 통해 HRTF DB로부터 얻은 해당 위치의 데이터와 원음을 콘볼루션 연산을 수행하게 되면 합성된 사운드의 위치 블록과 같이 사운드 위치정보 블록에서 지정한 위치에 음상이 형성되게 된다.In the
이제, 마지막으로 입체 음향 가속기(6)에 대하여 설명하기로 한다.Now, finally, the
위에서 설명한 바와 같이, 음향을 스피커(8)에서 재생하는 경우에는 크로스토크를 제거해 주는 입체음향 가속기(6)에서의 처리과정(이하에서는 "eXTX"라고 칭함)이 필요한데, 이하에서는 설명의 편의상 스피커가 L, R의 2채널인 경우에 대해 설명하기로 한다.As described above, when sound is reproduced from the
eXTX에서 쓰이는 필터(Q)는 2입력 2출력이며 다음과 같이 도출할 수 있다. 3D음향소스(X)는 스피커출력(V)을 통해 최종적으로 귀에서의 음압(d)으로 청취자가 인식하게 되며, 여기서 스피커에서의 음압과 귀에서의 음압사이의 관계식은 수학식 1과 같이 표현된다.The filter (Q) used in eXTX is 2
아래의 수학식 1에서 Hv 는 Transaural 시스템에서의 스피커 출력으로 귀에서의 음압(d)과 같다고 볼 수 있으며, A는 스피커와 사람의 두 귀간의 거리 중 가까운 거리의 신호특성이며 S는 먼 거리, 즉 교차되는 신호특성이다.In
헤드폰 청취의 경우 입력 3D음향과 귀에서 듣는 음향과의 관계식은 아래의 수학식 2와 같다.In the case of headphone listening, the relationship between the input 3D sound and the sound heard in the ear is expressed by
여기서 x는 헤드폰용 신호로 귀에서의 음압이다.Where x is the headphone signal, the sound pressure at the ear.
그리고, 스피커 청취의 경우 입력 3D음향과 귀에서 듣는 음향과의 관계식은 아래의 수학식 3과 같이 표현된다.In the case of speaker listening, the relationship between the input 3D sound and the sound heard in the ear is expressed by
결국, 스피커 청취시에도 헤드폰의 경우과 같은 결과를 얻기 위하여 크로스토크를 제거하기 위한 Transaural 시스템의 역함수로 구성된 eXTX의 필터 (Q)는 아래의 수학식 4와 같다.As a result, the filter (Q) of the eXTX, which is composed of the inverse function of the Transaural system for removing crosstalk to obtain the same result as in the case of the headphones, is expressed by
eXTX에서 Q의 구현은 좌우스피커간의 거리와 스피커와 청취자의 귀축 중앙과의 거리를 이용하여 구현한다. HRTF(Head Related Transfer Function) 모델을 이용하여 스피커와 귀간의 왼쪽 스피커에서 왼쪽 귀로/오른쪽 스피커에서 오른쪽 귀로 입사되는 신호인 직접 경로(Direct path)와 왼쪽 스피커에서 오른쪽 귀로/오른쪽 스피커에서 왼쪽 귀로 입사되는 신호인 교차 경로(Cross path)의 거리를 구한 후, HRTF에서 추출된 파라미터 a와 b를 적용하여 신호처리를 수행하며 그 수식은 특정 주파수에서 다음과 같이 표현된다.The implementation of Q in the eXTX is achieved using the distance between the left and right speakers and the distance between the center of the speaker and the listener's ear axis. Using the HRTF (Head Related Transfer Function) model, the direct path, which is a signal from the left speaker to the left ear / right speaker to the right ear, between the speaker and the ear, and from the left speaker to the right ear / right speaker to the left ear After obtaining the distance of the cross path which is a signal, signal processing is performed by applying parameters a and b extracted from the HRTF, and the expression is expressed as follows at a specific frequency.
위 수학식 5에서 파라미터 a는 직접 경로와 교차경로 간의 게인 비율이며, b는 직접 경로와 교차경로 간의 지연(delay)이다.In
이상에서는 본 발명의 바람직한 실시 예를 설명하였으나, 본 발명은 이 실시 예에 한정되는 것이 아니라 본 발명의 정신을 벗어나지 않는 범위 내에서 다양한 변형이 가능하다는 점을 유의해야 한다.Although the preferred embodiment of the present invention has been described above, it should be noted that the present invention is not limited to this embodiment and various modifications can be made without departing from the spirit of the present invention.
예를 들면, 이상에서는 본 발명이 휴대용 단말기에 사용되는 것으로 기재하였으나, 본 발명은 음향기기(오디오, 미니콤포너트, 카세트 등)와 영상기기(TV, 캠코더 등)를 포함하는 다양한 미디어 장치의 음향처리부에도 적용이 가능하다.For example, while the present invention has been described as being used in a portable terminal, the present invention provides a sound of various media devices including audio equipment (audio, mini-component, cassette, etc.) and video equipment (TV, camcorder, etc.). It is also applicable to the processing unit.
이상과 같은 본 발명을 이용하면, 헤드폰 재생시와 스피커 재생시 모두에 대하여 사용자 또는 게임/그래픽 정보에서 추출된 3차원 위치나 이동경로의 입력으로 음상 정위가 가능하게 된다.According to the present invention as described above, the stereoscopic positioning is possible by input of the three-dimensional position or the movement path extracted from the user or game / graphic information for both the headphone playback and the speaker playback.
Claims (14)
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020040053673A KR100566131B1 (en) | 2004-07-09 | 2004-07-09 | Apparatus and Method for Creating 3D Sound Having Sound Localization Function |
US11/175,326 US7599498B2 (en) | 2004-07-09 | 2005-07-07 | Apparatus and method for producing 3D sound |
JP2005201960A JP2006025439A (en) | 2004-07-09 | 2005-07-11 | Apparatus and method for creating 3d sound |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020040053673A KR100566131B1 (en) | 2004-07-09 | 2004-07-09 | Apparatus and Method for Creating 3D Sound Having Sound Localization Function |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20060004528A true KR20060004528A (en) | 2006-01-12 |
KR100566131B1 KR100566131B1 (en) | 2006-03-30 |
Family
ID=37116821
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020040053673A KR100566131B1 (en) | 2004-07-09 | 2004-07-09 | Apparatus and Method for Creating 3D Sound Having Sound Localization Function |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR100566131B1 (en) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100667001B1 (en) * | 2006-02-21 | 2007-01-10 | 삼성전자주식회사 | Sweet spot maintenance method and device for binaural sound listening in dual speaker hand phone |
CN103945301A (en) * | 2014-04-24 | 2014-07-23 | Tcl集团股份有限公司 | Audio system balance adjustment method and device |
US8923536B2 (en) | 2007-01-25 | 2014-12-30 | Samsung Electronics Co., Ltd. | Method and apparatus for localizing sound image of input signal in spatial position |
KR200487178Y1 (en) | 2017-12-07 | 2018-09-20 | (주)공구모아 | Device For Stink-proof Of Sinkhole |
-
2004
- 2004-07-09 KR KR1020040053673A patent/KR100566131B1/en active IP Right Grant
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100667001B1 (en) * | 2006-02-21 | 2007-01-10 | 삼성전자주식회사 | Sweet spot maintenance method and device for binaural sound listening in dual speaker hand phone |
US8923536B2 (en) | 2007-01-25 | 2014-12-30 | Samsung Electronics Co., Ltd. | Method and apparatus for localizing sound image of input signal in spatial position |
CN103945301A (en) * | 2014-04-24 | 2014-07-23 | Tcl集团股份有限公司 | Audio system balance adjustment method and device |
CN103945301B (en) * | 2014-04-24 | 2018-04-17 | Tcl集团股份有限公司 | A kind of sound system balance adjusting method and device |
KR200487178Y1 (en) | 2017-12-07 | 2018-09-20 | (주)공구모아 | Device For Stink-proof Of Sinkhole |
Also Published As
Publication number | Publication date |
---|---|
KR100566131B1 (en) | 2006-03-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR100878457B1 (en) | Sound image localizer | |
US5459790A (en) | Personal sound system with virtually positioned lateral speakers | |
KR101512992B1 (en) | A device for and a method of processing audio data | |
US7599498B2 (en) | Apparatus and method for producing 3D sound | |
US8488820B2 (en) | Spatial audio processing method, program product, electronic device and system | |
US8442244B1 (en) | Surround sound system | |
US9788134B2 (en) | Method for processing of sound signals | |
JP2002209300A (en) | Sound image localization device, conference unit using the same, portable telephone set, sound reproducer, sound recorder, information terminal equipment, game machine and system for communication and broadcasting | |
KR20180102596A (en) | Synthesis of signals for immersive audio playback | |
EP3895451A1 (en) | Method and apparatus for processing a stereo signal | |
US11221820B2 (en) | System and method for processing audio between multiple audio spaces | |
CN109587601A (en) | The system that sound is movable into and out listener head using virtual acoustic system | |
JP2018110366A (en) | 3d sound video audio apparatus | |
US20170272889A1 (en) | Sound reproduction system | |
JP2003009296A (en) | Acoustic processing unit and acoustic processing method | |
WO2022004421A1 (en) | Information processing device, output control method, and program | |
US10440495B2 (en) | Virtual localization of sound | |
KR20050064442A (en) | Device and method for generating 3-dimensional sound in mobile communication system | |
KR100566131B1 (en) | Apparatus and Method for Creating 3D Sound Having Sound Localization Function | |
JP5281695B2 (en) | Acoustic transducer | |
KR100574868B1 (en) | Apparatus and Method for playing three-dimensional sound | |
KR102058228B1 (en) | Method for authoring stereoscopic contents and application thereof | |
KR19980031979A (en) | Method and device for 3D sound field reproduction in two channels using head transfer function | |
US20230011591A1 (en) | System and method for virtual sound effect with invisible loudspeaker(s) | |
JP6972858B2 (en) | Sound processing equipment, programs and methods |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
A302 | Request for accelerated examination | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant | ||
FPAY | Annual fee payment |
Payment date: 20130325 Year of fee payment: 8 |
|
FPAY | Annual fee payment |
Payment date: 20140320 Year of fee payment: 9 |
|
FPAY | Annual fee payment |
Payment date: 20160309 Year of fee payment: 11 |
|
FPAY | Annual fee payment |
Payment date: 20170707 Year of fee payment: 12 |
|
FPAY | Annual fee payment |
Payment date: 20180921 Year of fee payment: 13 |
|
FPAY | Annual fee payment |
Payment date: 20190318 Year of fee payment: 14 |