WO2023195830A1 - System and method for converting sound in virtual space - Google Patents

System and method for converting sound in virtual space Download PDF

Info

Publication number
WO2023195830A1
WO2023195830A1 PCT/KR2023/004772 KR2023004772W WO2023195830A1 WO 2023195830 A1 WO2023195830 A1 WO 2023195830A1 KR 2023004772 W KR2023004772 W KR 2023004772W WO 2023195830 A1 WO2023195830 A1 WO 2023195830A1
Authority
WO
WIPO (PCT)
Prior art keywords
virtual
data
virtual space
sound
physical force
Prior art date
Application number
PCT/KR2023/004772
Other languages
French (fr)
Korean (ko)
Inventor
조현석
Original Assignee
조현석
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 조현석 filed Critical 조현석
Publication of WO2023195830A1 publication Critical patent/WO2023195830A1/en

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/005Correction of errors induced by the transmission channel, if related to the coding algorithm
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S3/00Systems employing more than two channels, e.g. quadraphonic
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S7/00Indicating arrangements; Control arrangements, e.g. balance control

Definitions

  • the present invention relates to a sound conversion system and method in virtual space, and more specifically, to a sound conversion system and method in virtual space that converts sounds that a user can hear based on physical forces generated in virtual space. It's about.
  • stereoscopic sound can be reproduced by adjusting the direction of multi-channel virtual speakers in response to changes in the direction of the head through head tracking based on headphones.
  • the three-dimensional position of the object sound source can be reproduced in more detail by rendering the direction and distance of the object sound source according to head tracking.
  • Dolby's ATMOS and DTS's DTS-X are used for movie content
  • Dolby's AC4 and MPEG's MPEG-H 3D Audio are used for broadcast content.
  • Republic of Korea Patent No. 10-2271395 (2021.06.24) discloses a sound effect method and a computing device for performing the same.
  • the present invention is intended to solve the above problems, and to provide a sound conversion system and method in virtual space that can generate sound according to the occurrence of physical force in virtual space regardless of the predetermined position in virtual space. It is Ham.
  • a sound conversion method in a virtual space implemented by a sound conversion system in a virtual space includes the steps of forming a virtual atmosphere in the virtual space; Generating physical force in the virtual space; and generating virtual data on the virtual atmosphere based on the physical force, wherein the virtual data may be data about the state of the virtual atmosphere changed by the physical force.
  • FIG. 1 is a schematic diagram illustrating communication of a sound conversion system in virtual space according to an embodiment of the present invention.
  • Figure 2 is a schematic block diagram of a server of a sound conversion system in virtual space according to an embodiment of the present invention.
  • Figure 3 is a schematic diagram illustrating virtual data of a sound conversion system in virtual space according to an embodiment of the present invention.
  • Figure 4 is a schematic diagram illustrating virtual data, wave data, and sound of a sound conversion system in virtual space according to an embodiment of the present invention.
  • Figure 5 is a schematic flowchart illustrating a sound conversion method in virtual space according to an embodiment of the present invention.
  • a sound conversion method in a virtual space implemented by a sound conversion system in a virtual space includes the steps of forming a virtual atmosphere in the virtual space; Generating physical force in the virtual space; and generating virtual data on the virtual atmosphere based on the physical force, wherein the virtual data may be data about the state of the virtual atmosphere changed by the physical force.
  • specifying a predetermined location in the virtual space specifying the virtual data corresponding to the predetermined location; Converting the virtual data into wave data; And it may further include converting the wave data into sound.
  • the method may further include transmitting the virtual data or the wave data to another electronic device.
  • the method may further include changing character characteristics based on the virtual data.
  • a sound conversion system in virtual space includes an atmosphere forming unit that forms a virtual atmosphere in virtual space; a physical force generator that generates physical force in the virtual space; and a virtual data generator that generates virtual data on the virtual atmosphere based on the physical force, wherein the virtual data may be data about the state of the virtual atmosphere that is changed by the physical force.
  • a location specification unit that specifies a predetermined location in the virtual space
  • a virtual data specification unit that specifies the virtual data corresponding to the predetermined location
  • a wave data conversion unit that converts the virtual data into wave data
  • it may further include a sound converter that converts the wave data into sound.
  • it may further include a communication unit that transmits the virtual data or the wave data to another electronic device.
  • it may further include a characteristic changing unit that changes the characteristics of the character based on the virtual data.
  • FIG. 1 is a schematic diagram illustrating communication of a sound conversion system in virtual space according to an embodiment of the present invention.
  • Figure 2 is a schematic block diagram of the configuration of a server of a sound conversion system in virtual space according to an embodiment of the present invention.
  • Figure 3 is a schematic diagram illustrating virtual data of a sound conversion system in virtual space according to an embodiment of the present invention.
  • Figure 4 is a schematic diagram for explaining virtual data, wave data, and sound of a sound conversion system in virtual space according to an embodiment of the present invention.
  • Figure 5 is a schematic flowchart for explaining a sound conversion method in virtual space according to an embodiment of the present invention.
  • 'part' includes a unit realized by hardware, a unit realized by software, and a unit realized using both. Additionally, one unit may be realized using two or more pieces of hardware, and two or more units may be realized using one piece of hardware.
  • the present invention may refer to a system 10 and a method for converting sounds generated in a virtual reality environment to a user.
  • the sound conversion system 10 in the virtual space includes a server (S) that forms a virtual space and calculates/processes events occurring in the virtual space; and a user electronic device (P1, P2) that communicates with the server (S) and plays its character in a virtual space.
  • S server
  • P1, P2 user electronic device
  • the user's electronic devices refer to devices that can communicate with the server (S) and play their characters in the virtual space, and may be mobile terminals, desktops, etc., but are not limited to the types. You can.
  • the sound conversion method in the virtual space can be implemented by the sound conversion system 10 in the virtual space.
  • the server S includes an atmosphere forming unit 110, a physical force generating unit 120, a virtual data generating unit 130, a location specifying unit 140, which will be described below. It may include a controller 100 including a virtual data specification unit 150, a wave data conversion unit 160, a sound conversion unit 170, and a characteristic change unit 180, and may receive a predetermined calculation value/input from the administrator.
  • An input unit 500 that can receive values, data, etc., a communication unit 300 that communicates with other electronic devices (P1, P2) including the user's electronic device (P1, P2), and a device that stores predetermined data/information. It may further include a memory unit 200 and a display unit 400 that displays predetermined data/information.
  • the wave data converter 160 and/or the sound converter 170 are not part of the server S but are part of the user's electronic devices P1 and P2. It may also be included in the configuration.
  • the sound conversion method may include forming a virtual atmosphere in the virtual space (S10).
  • the step of forming the virtual atmosphere (S10) may be implemented by the atmosphere forming unit 110.
  • the administrator of the server (S) may input a predetermined input value defining the virtual atmosphere of the virtual space through the input unit 500, and the atmosphere forming unit 110 may input a predetermined value entered by the administrator.
  • the virtual standby corresponding to the input value can be formed.
  • a predetermined input value defining the virtual atmosphere may mean temperature, pressure, humidity, etc. of the virtual space.
  • the user may input a predetermined input value defining the virtual waiting through his/her electronic device (P1, P2) and transmit it to the communication unit 300,
  • the atmosphere forming unit 110 may form the virtual atmosphere corresponding to a predetermined input value entered by the user.
  • the sound conversion method may further include generating a physical force in the virtual space (S20).
  • the physical force may mean the force that is the source of generating sound in the virtual space.
  • the step of generating the physical force (S20) may be implemented by the physical force generator 120.
  • the administrator of the server S may preset an object that generates the physical force in a virtual space through the input unit 500.
  • an object that generates physical force could be a bomb that explodes at a specific point in time.
  • the physical force generator 120 can explode a bomb when a specific point in time arrives and generate the physical force corresponding to the explosive force on the virtual atmosphere of the virtual space.
  • the physical force may mean temperature, pressure, humidity, etc. that change with time and affect the virtual atmosphere.
  • the user can input a predetermined input value defining the physical force through his/her electronic device (P1, P2) and transmit it to the communication unit 300, and generate the physical force.
  • Unit 120 may generate the physical force corresponding to a predetermined input value input by the user on the virtual atmosphere.
  • the user's character may install a bomb in the virtual space that explodes at a specific time.
  • the sound conversion method may further include a step (S30) of generating virtual data on the virtual atmosphere based on the physical force.
  • the virtual data may mean data about the state of the virtual atmosphere that is changed by the physical force generated on the virtual atmosphere.
  • the physical force is generated on the virtual atmosphere by the step (S20) of generating the physical force in the initial state set by the step (S10) of forming the virtual atmosphere, and the physical force is generated on the virtual atmosphere by the physical force. It can change from the initial state to another state.
  • the temperature, pressure, and/or humidity of the virtual atmosphere may increase or decrease due to the physical force over time, and changes such as waves may occur.
  • the virtual data may mean data about the state of the virtual atmosphere changed by the physical force.
  • the step of generating the virtual data (S30) may be implemented by the virtual data generator 130.
  • the virtual data generator 130 generates the physical force over time based on the object that generated the physical force at a predetermined location (X1) in the virtual space. You can define the state of the virtual atmosphere that changes by.
  • the state of the virtual atmosphere at the location of X2, which is relatively close to It can be defined as the virtual data that is relatively little affected by the physical force, and the state of the virtual atmosphere at the location of X4, which is far away from It can be.
  • the virtual data generator 130 generates the virtual data on the virtual atmosphere based on the physical force when the physical force is generated from an object that generates the physical force, regardless of the user's character position in the virtual space. can do.
  • the virtual data generator 130 may generate the virtual data that changes in the virtual atmosphere over time based on the point in time when the physical force was generated, regardless of the user's character position.
  • the virtual data may be generated by the virtual data generator 130 and stored in the memory unit 200 according to the location of the virtual space and the passage of time from when the physical force was generated.
  • the sound conversion method may further include a step (S40) of specifying a predetermined location in the virtual space.
  • the predetermined location refers to a specific location in the virtual space for generating sound in the virtual space, and may refer to the location of the user's character.
  • the step of specifying the predetermined location (S40) may be implemented by the location specification unit 140.
  • the user may input a predetermined location in the virtual space through his/her electronic devices (P1, P2) or input an input value for locating his/her character at a predetermined location and transmit it to the communication unit 300.
  • the location specification unit 140 can position the user's character at a location in the virtual space corresponding to a predetermined input value entered by the user or specify the location.
  • the user may input not only the predetermined location but also a specific point in time or time in the present or the past through his/her electronic devices (P1, P2).
  • the sound conversion method may further include a step (S50) of specifying the virtual data corresponding to the predetermined location.
  • the step of specifying the virtual data (S50) may be implemented by the virtual data specification unit 150.
  • the virtual data specification unit 150 selects the virtual data corresponding to the predetermined location and/or a specific time point specified by the step (S40) of specifying the predetermined location among the numerous virtual data. (specific) can be done.
  • the virtual data specification unit 150 may select (specify) the virtual data corresponding to the predetermined location and/or specific time point among the numerous virtual data stored in the memory unit 200.
  • the sound conversion method may further include a step (S60) of converting the virtual data selected by the step (S50) of specifying the virtual data into wave data.
  • the wave data is intermediate data for converting the virtual data into sound, and may mean data having information about waves (sound waves) corresponding to the virtual data.
  • the step of changing to wave data is a step that is implemented only when the virtual data exists by specifying the virtual data (S50), and may not be implemented if the virtual data does not exist.
  • the step of converting into wave data (S60) may be implemented by the wave data conversion unit 160.
  • the wave data conversion unit 160 may be a component of the controller 100 of the server S, but may also be a component of the user's electronic devices P1 and P2.
  • the wave data conversion unit 160 is a component of the user's electronic device (P1, P2)
  • the user's electronic device (P1, P2) is the virtual data specified in the step (S50).
  • Virtual data can be received, and the received virtual data can be converted into the wave data.
  • the wave data converter 160 may use the virtual data to generate the wave data including frequency, pitch, wavelength, period, amplitude, sound pressure, phase, etc. that constitute a sound wave.
  • the sound conversion method may further include converting the wave data into sound (S70).
  • sound refers to a sound that a user can hear through a speaker or headphone
  • the step of converting the sound into sound (S70) can be implemented by the sound conversion unit 170.
  • the sound conversion unit 170 is a component that converts the wave data, which is digital information, into sound (mp3, FLAC, or wav, etc.), which is an audible sound wave, and is a component of the controller 100 of the server (S). It may be, or it may be a component of the user's electronic devices (P1, P2).
  • the user can hear sounds generated in the virtual space at a certain location and time point through the user's electronic devices (P1, P2).
  • the sound conversion method may further include transmitting the virtual data, the wave data, or the sound to another electronic device (S80).
  • the virtual data, the wave data, or the sound at a predetermined location and point in the virtual space specified by the first user among the plurality of users are transmitted to the server (S) or the first user. It may be transmitted to the second user's electronic device (P2) through the user's electronic device (P1).
  • the second user can hear the sound from the location specified by the first user or where the first user's character is located.
  • the sound conversion method may further include a step (S90) of changing the characteristics of the character based on the virtual data.
  • the step of changing the characteristics of the character (S90) may be implemented by the characteristic change unit 180.
  • a user's character Player Character
  • NPC Non-Player Character
  • the virtual data according to the character may be acquired, and the characteristic change unit 180 may change the characteristics of the character according to the acquired virtual data.
  • the character that acquires the virtual data generated by the physical force may change to a gentle personality and/or appearance, and if the physical force is generated by an explosion of an explosive. In this case, the character that has acquired the virtual data generated by the physical force may change to an aggressive personality and/or appearance.
  • the characteristic changing unit 180 can change the characteristics (personality, appearance, etc.) of the character based on the virtual data corresponding to the character located in the virtual space.
  • the step of specifying the predetermined location is described as being implemented after the step of generating the virtual data, but it is not limited thereto, and the step of forming the virtual atmosphere (S10) or It is obvious that this can be implemented immediately after the step of generating the physical force (S20).
  • the sound conversion system 10 in the virtual space may refer to a device that implements the sound conversion method in the virtual space through the configurations described above.
  • the sound conversion method and system 10 in the virtual space can generate and store the virtual data, regardless of whether a character exists, when the physical force is generated in the virtual space.
  • the user can obtain the virtual data corresponding to a specific location in the virtual space and a specific time in the past, finally listen to the sound, and transmit it to other users.

Abstract

A method for converting a sound in a virtual space implemented by a system for converting a sound in the virtual space according to an embodiment of the present invention may comprise the steps of: forming a virtual atmosphere in the virtual space; generating a physical force in the virtual space; and generating virtual data on the virtual atmosphere on the basis of the physical force, wherein the virtual data is data about the state of the virtual atmosphere changed by the physical force.

Description

가상공간에서의 소리 변환 시스템 및 그 방법Sound conversion system and method in virtual space
본 발명은 가상공간에서의 소리 변환 시스템 및 그 방법에 관한 것으로서, 더욱 상세하게는 가상공간에서 발생되는 물리력에 기초하여 사용자가 들을 수 있는 소리를 변환시키는 가상공간에서의 소리 변환 시스템 및 그 방법에 관한 것이다.The present invention relates to a sound conversion system and method in virtual space, and more specifically, to a sound conversion system and method in virtual space that converts sounds that a user can hear based on physical forces generated in virtual space. It's about.
VR(Virtual Reality)환경에서 입체 음향의 재현에 있어, 헤드폰 기반하여 헤드 트래킹에 의해 머리의 방향의 변화에 대한 멀티채널 가상 스피커의 방향을 조정함으로써 입체 음향은 재현될 수 있다.In the reproduction of stereoscopic sound in a VR (Virtual Reality) environment, stereoscopic sound can be reproduced by adjusting the direction of multi-channel virtual speakers in response to changes in the direction of the head through head tracking based on headphones.
게임과 같이 컴퓨터 그래픽에 의한 영상을 활용하는 객체기반 오디오의 경우, 객체음원의 방향 및 거리를 헤드 트래킹에 따라 렌더링함으로써 객체음원의 3차원 위치는 보다 자세하게 재현될 수 있다. In the case of object-based audio that uses images using computer graphics, such as games, the three-dimensional position of the object sound source can be reproduced in more detail by rendering the direction and distance of the object sound source according to head tracking.
하지만, 현실 공간을 녹음한 경우에는 모든 소리를 객체기반 오디오로 표현하는 것이 어렵기 때문에 채널기반 오디오와 객체기반 오디오를 포함하는 하이브리드 포맷의 오디오가 사용되고 있다. However, when recording a real space, it is difficult to express all sounds with object-based audio, so a hybrid audio format including channel-based audio and object-based audio is used.
현재 영화 콘텐츠를 중심으로 돌비의 ATMOS, DTS의 DTS-X, 방송 콘텐츠를 중심으로 돌비의 AC4, MPEG의 MPEG-H 3D Audio가 하이브리드 포맷의 오디오를 이용하고 있다.Currently, Dolby's ATMOS and DTS's DTS-X are used for movie content, and Dolby's AC4 and MPEG's MPEG-H 3D Audio are used for broadcast content.
한편, 대한민국 등록특허 제10-2271395호(2021.06.24)에서는 음향 효과 방법 및 이를 수행하기 위한 컴퓨팅 장치를 개시하고 있다.Meanwhile, Republic of Korea Patent No. 10-2271395 (2021.06.24) discloses a sound effect method and a computing device for performing the same.
그러나, 음향 효과(소리)를 발생시키기 위해 가상 공간 내의 소정의 지점들을 기준으로 레이를 방출함에 따라 소정의 지점에 대해서만 음향 효과가 발생되는 한계가 있다.However, as rays are emitted based on certain points in the virtual space to generate sound effects (sounds), there is a limitation in that sound effects are generated only for certain points.
본 발명은 상기와 같은 문제를 해결하기 위한 것으로서, 가상공간에서의 소정의 위치에 관계없이 가상공간에서의 물리력 발생에 따른 소리를 생성시킬 수 있는 가상공간에서의 소리 변환 시스템 및 그 방법을 제공하고자 함이다.The present invention is intended to solve the above problems, and to provide a sound conversion system and method in virtual space that can generate sound according to the occurrence of physical force in virtual space regardless of the predetermined position in virtual space. It is Ham.
본 발명이 해결하고자 하는 과제가 상술한 과제로 제한되는 것은 아니며, 언급되지 아니한 과제들은 본 명세서 및 첨부된 도면으로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.The problem to be solved by the present invention is not limited to the above-mentioned problems, and problems not mentioned can be clearly understood by those skilled in the art from this specification and the attached drawings. .
본 발명의 일 실시예에 따른 가상공간에서 소리 변환 시스템에 의해 구현되는 가상공간에서의 소리 변환 방법은 상기 가상공간에 가상대기를 형성하는 단계; 상기 가상공간에서 물리력을 발생시키는 단계; 및 상기 물리력에 기초하여 상기 가상대기 상에 가상데이터를 생성시키는 단계;를 포함하며, 상기 가상데이터는 상기 물리력에 의해 변화되는 상기 가상대기의 상태에 대한 데이터일 수 있다.A sound conversion method in a virtual space implemented by a sound conversion system in a virtual space according to an embodiment of the present invention includes the steps of forming a virtual atmosphere in the virtual space; Generating physical force in the virtual space; and generating virtual data on the virtual atmosphere based on the physical force, wherein the virtual data may be data about the state of the virtual atmosphere changed by the physical force.
본 발명의 일 실시예에 따른 가상공간에서의 소리 변환 방법에 의하면, 가상공간에서의 소정의 위치에 관계없이 가상공간에서의 물리력 발생에 따른 소리를 생성시킬 수 있는 장점이 있다.According to the sound conversion method in virtual space according to an embodiment of the present invention, there is an advantage of being able to generate sound according to the generation of physical force in virtual space regardless of a predetermined position in virtual space.
본 발명의 효과가 상술한 효과들로 제한되는 것은 아니며, 언급되지 아니한 효과들은 본 명세서 및 첨부된 도면으로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확히 이해될 수 있을 것이다.The effects of the present invention are not limited to the effects described above, and effects not mentioned can be clearly understood by those skilled in the art from this specification and the attached drawings.
도 1은 본 발명의 일 실시예에 따른 가상공간에서의 소리 변환 시스템의 통신을 설명하기 위한 개략도.1 is a schematic diagram illustrating communication of a sound conversion system in virtual space according to an embodiment of the present invention.
도 2는 본 발명의 일 실시예에 따른 가상공간에서의 소리 변환 시스템의 서버의 개략 구성 블록도.Figure 2 is a schematic block diagram of a server of a sound conversion system in virtual space according to an embodiment of the present invention.
도 3은 본 발명의 일 실시예에 따른 가상공간에서의 소리 변환 시스템의 가상데이터를 설명하기 위한 개략도.Figure 3 is a schematic diagram illustrating virtual data of a sound conversion system in virtual space according to an embodiment of the present invention.
도 4는 본 발명의 일 실시예에 따른 가상공간에서의 소리 변환 시스템의 가상데이터, 파동데이터 및 소리를 설명하기 위한 개략도.Figure 4 is a schematic diagram illustrating virtual data, wave data, and sound of a sound conversion system in virtual space according to an embodiment of the present invention.
도 5는 본 발명의 일 실시예에 따른 가상공간에서의 소리 변환 방법을 설명하기 위한 개략 순서도.Figure 5 is a schematic flowchart illustrating a sound conversion method in virtual space according to an embodiment of the present invention.
이하에서는 도면을 참조하여 본 발명의 구체적인 실시예를 상세하게 설명한다. 다만, 본 발명의 사상은 제시되는 실시예에 제한되지 아니하고, 본 발명의 사상을 이해하는 당업자는 동일한 사상의 범위 내에서 다른 구성요소를 추가, 변경, 삭제 등을 통하여, 퇴보적인 다른 발명이나 본 발명 사상의 범위 내에 포함되는 다른 실시예를 용이하게 제안할 수 있을 것이나, 이 또한 본원 발명 사상 범위 내에 포함된다고 할 것이다. Hereinafter, specific embodiments of the present invention will be described in detail with reference to the drawings. However, the spirit of the present invention is not limited to the presented embodiments, and those skilled in the art who understand the spirit of the present invention may add, change, or delete other components within the scope of the same spirit, or create other degenerative inventions or this invention. Other embodiments that are included within the scope of the invention can be easily proposed, but this will also be said to be included within the scope of the invention of the present application.
본 발명의 일 실시예에 따른 가상공간에서 소리 변환 시스템에 의해 구현되는 가상공간에서의 소리 변환 방법은 상기 가상공간에 가상대기를 형성하는 단계; 상기 가상공간에서 물리력을 발생시키는 단계; 및 상기 물리력에 기초하여 상기 가상대기 상에 가상데이터를 생성시키는 단계;를 포함하며, 상기 가상데이터는 상기 물리력에 의해 변화되는 상기 가상대기의 상태에 대한 데이터일 수 있다.A sound conversion method in a virtual space implemented by a sound conversion system in a virtual space according to an embodiment of the present invention includes the steps of forming a virtual atmosphere in the virtual space; Generating physical force in the virtual space; and generating virtual data on the virtual atmosphere based on the physical force, wherein the virtual data may be data about the state of the virtual atmosphere changed by the physical force.
또, 상기 가상공간 상의 소정의 위치를 특정하는 단계; 상기 소정의 위치에 대응하는 상기 가상데이터를 특정하는 단계; 상기 가상데이터를 파동데이터로 변환하는 단계; 및 상기 파동데이터를 소리로 변환하는 단계;를 더 포함할 수 있다.Also, specifying a predetermined location in the virtual space; specifying the virtual data corresponding to the predetermined location; Converting the virtual data into wave data; And it may further include converting the wave data into sound.
또, 상기 가상데이터 또는 상기 파동데이터를 타 전자장치로 전송하는 단계;를 더 포함할 수 있다.Additionally, the method may further include transmitting the virtual data or the wave data to another electronic device.
또, 상기 가상데이터에 기초하여 캐릭터의 특성을 변화시키는 단계;를 더 포함할 수 있다.Additionally, the method may further include changing character characteristics based on the virtual data.
본 발명의 다른 일 실시예에 따른 가상공간에서의 소리 변환 시스템은 가상공간에 가상대기를 형성하는 대기 형성부; 상기 가상공간에서 물리력을 발생시키는 물리력 발생부; 및 상기 물리력에 기초하여 상기 가상대기 상에 가상데이터를 생성시키는 가상데이터 생성부;를 포함하며, 상기 가상데이터는 상기 물리력에 의해 변화되는 상기 가상대기의 상태에 대한 데이터일 수 있다.A sound conversion system in virtual space according to another embodiment of the present invention includes an atmosphere forming unit that forms a virtual atmosphere in virtual space; a physical force generator that generates physical force in the virtual space; and a virtual data generator that generates virtual data on the virtual atmosphere based on the physical force, wherein the virtual data may be data about the state of the virtual atmosphere that is changed by the physical force.
또, 상기 가상공간 상의 소정의 위치를 특정하는 위치 특정부; 상기 소정의 위치에 대응하는 상기 가상데이터를 특정하는 가상데이터 특정부; 상기 가상데이터를 파동데이터로 변환하는 파동데이터 변환부; 및 상기 파동데이터를 소리로 변환하는 소리 변환부;를 더 포함할 수 있다.Additionally, a location specification unit that specifies a predetermined location in the virtual space; a virtual data specification unit that specifies the virtual data corresponding to the predetermined location; A wave data conversion unit that converts the virtual data into wave data; And it may further include a sound converter that converts the wave data into sound.
또, 상기 가상데이터 또는 상기 파동데이터를 타 전자장치로 전송하는 통신부;를 더 포함할 수 있다.In addition, it may further include a communication unit that transmits the virtual data or the wave data to another electronic device.
또, 상기 가상데이터에 기초하여 캐릭터의 특성을 변화시키는 특성 변화부;를 더 포함할수 있다.In addition, it may further include a characteristic changing unit that changes the characteristics of the character based on the virtual data.
각 실시예의 도면에 나타나는 동일한 사상의 범위 내의 기능이 동일한 구성요소는 동일한 참조부호를 사용하여 설명한다.Components with the same function within the scope of the same idea shown in the drawings of each embodiment are described using the same reference numerals.
도 1은 본 발명의 일 실시예에 따른 가상공간에서의 소리 변환 시스템의 통신을 설명하기 위한 개략도이다.1 is a schematic diagram illustrating communication of a sound conversion system in virtual space according to an embodiment of the present invention.
도 2는 본 발명의 일 실시예에 따른 가상공간에서의 소리 변환 시스템의 서버의 개략 구성 블록도이다.Figure 2 is a schematic block diagram of the configuration of a server of a sound conversion system in virtual space according to an embodiment of the present invention.
도 3은 본 발명의 일 실시예에 따른 가상공간에서의 소리 변환 시스템의 가상데이터를 설명하기 위한 개략도이다.Figure 3 is a schematic diagram illustrating virtual data of a sound conversion system in virtual space according to an embodiment of the present invention.
도 4는 본 발명의 일 실시예에 따른 가상공간에서의 소리 변환 시스템의 가상데이터, 파동데이터 및 소리를 설명하기 위한 개략도이다.Figure 4 is a schematic diagram for explaining virtual data, wave data, and sound of a sound conversion system in virtual space according to an embodiment of the present invention.
도 5는 본 발명의 일 실시예에 따른 가상공간에서의 소리 변환 방법을 설명하기 위한 개략 순서도이다.Figure 5 is a schematic flowchart for explaining a sound conversion method in virtual space according to an embodiment of the present invention.
첨부된 도면은 본 발명의 기술적 사상을 보다 명확하게 표현하기 위하여, 본 발명의 기술적 사상과 관련성이 떨어지거나 당업자로부터 용이하게 도출될 수 있는 부분은 간략화 하거나 생략하였다.In order to more clearly express the technical idea of the present invention, the attached drawings simplify or omit parts that are less relevant to the technical idea of the present invention or that can be easily derived from those skilled in the art.
명세서 전체에서, 어떤 부분이 다른 부분과 "연결"되어 있다고 할 때, 이는 "직접적으로 연결"되어 있는 경우뿐 아니라, 그 중간에 다른 소자를 사이에 두고 "전기적으로 연결"되어 있는 경우도 포함한다. 또한 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미하며, 하나 또는 그 이상의 다른 특징이나 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다. Throughout the specification, when a part is said to be "connected" to another part, this includes not only the case where it is "directly connected," but also the case where it is "electrically connected" with another element in between. . In addition, when a part is said to "include" a certain component, this does not mean excluding other components unless specifically stated to the contrary, but may further include other components, and one or more other features. It should be understood that it does not exclude in advance the presence or addition of numbers, steps, operations, components, parts, or combinations thereof.
본 명세서에 있어서 '부(部)'란, 하드웨어에 의해 실현되는 유닛(unit), 소프트웨어에 의해 실현되는 유닛, 양방을 이용하여 실현되는 유닛을 포함한다. 또한, 1 개의 유닛이 2 개 이상의 하드웨어를 이용하여 실현되어도 되고, 2 개 이상의 유닛이 1 개의 하드웨어에 의해 실현되어도 된다.In this specification, 'part' includes a unit realized by hardware, a unit realized by software, and a unit realized using both. Additionally, one unit may be realized using two or more pieces of hardware, and two or more units may be realized using one piece of hardware.
본 명세서에 있어서 단말 또는 디바이스가 수행하는 것으로 기술된 동작이나 기능 중 일부는 해당 단말 또는 디바이스와 연결된 서버에서 대신 수행될 수도 있다. 이와 마찬가지로, 서버가 수행하는 것으로 기술된 동작이나 기능 중 일부도 해당 서버와 연결된 단말 또는 디바이스에서 수행될 수도 있다.In this specification, some of the operations or functions described as being performed by a terminal or device may instead be performed on a server connected to the terminal or device. Likewise, some of the operations or functions described as being performed by the server may also be performed on a terminal or device connected to the server.
이하에서는, 도 1 내지 도 5를 참조하여, 본 발명의 일 실시예에 따른 가상공간에서의 소리 변환 시스템(10) 및 그 방법을 설명하겠다.Hereinafter, the sound conversion system 10 and method in virtual space according to an embodiment of the present invention will be described with reference to FIGS. 1 to 5.
일례로, 본 발명은 가상공간(Virtual Reality) 환경에서 발생되는 소리를 사용자에게 변환시켜 들려주는 시스템(10) 및 방법을 의미할 수 있다.For example, the present invention may refer to a system 10 and a method for converting sounds generated in a virtual reality environment to a user.
일례로, 도 1에 도시한 바와 같이, 상기 가상공간에서의 소리 변환 시스템(10)은 가상공간을 형성하며 가상공간에서 발생되는 이벤트를 연산/처리하는 서버(S); 및 상기 서버(S)와 통신하여 가상공간 상에서 자신의 캐릭터를 플레이하는 사용자 전자장치(P1, P2)를 포함할 수 있다.For example, as shown in FIG. 1, the sound conversion system 10 in the virtual space includes a server (S) that forms a virtual space and calculates/processes events occurring in the virtual space; and a user electronic device (P1, P2) that communicates with the server (S) and plays its character in a virtual space.
일례로, 사용자는 제1 사용자 및 제2 사용자 등 복수의 사용자가 존재할 수 있다.For example, there may be multiple users, such as a first user and a second user.
사용자의 전자장치(P1, P2)는 상기 서버(S)와 통신하여 상기 가상공간에서 자신의 캐릭터를 플레이할 수 있는 장치를 의미하는 것으로서, 이동단말기, 데스크탑 등일 수 있으며, 그 종류에는 한정되지 않을 수 있다.The user's electronic devices (P1, P2) refer to devices that can communicate with the server (S) and play their characters in the virtual space, and may be mobile terminals, desktops, etc., but are not limited to the types. You can.
상기 가상공간에서의 소리 변환 방법은 상기 가상공간에서의 소리 변환 시스템(10)에 의해 구현될 수 있다.The sound conversion method in the virtual space can be implemented by the sound conversion system 10 in the virtual space.
이하에서는, 도 1 내지 도 5를 참조하여, 상기 가상공간에서의 소리 변환 방법 및 시스템(10)을 더욱 자세히 설명하겠다.Hereinafter, the sound conversion method and system 10 in the virtual space will be described in more detail with reference to FIGS. 1 to 5.
일례로, 도 2에 도시한 바와 같이, 상기 서버(S)는 아래에서 설명될 대기 형성부(110), 물리력 발생부(120), 가상데이터 생성부(130), 위치 특정부(140), 가상데이터 특정부(150), 파동데이터 변환부(160), 소리 변환부(170), 특성 변화부(180)를 구비하는 컨트롤러(100)를 포함할 수 있고, 관리자로부터 소정의 연산값/입력값, 데이터 등을 입력 받을 수 있는 입력부(500), 사용자의 전자장치(P1, P2)를 포함하는 타 전자장치(P1, P2)와 통신하는 통신부(300), 소정의 데이터/정보를 저장하는 메모리부(200) 및 소정의 데이터/정보를 표시하는 디스플레이부(400)를 더 포함할 수 있다.For example, as shown in FIG. 2, the server S includes an atmosphere forming unit 110, a physical force generating unit 120, a virtual data generating unit 130, a location specifying unit 140, which will be described below. It may include a controller 100 including a virtual data specification unit 150, a wave data conversion unit 160, a sound conversion unit 170, and a characteristic change unit 180, and may receive a predetermined calculation value/input from the administrator. An input unit 500 that can receive values, data, etc., a communication unit 300 that communicates with other electronic devices (P1, P2) including the user's electronic device (P1, P2), and a device that stores predetermined data/information. It may further include a memory unit 200 and a display unit 400 that displays predetermined data/information.
한편, 아래에서 더욱 자세히 설명되겠지만, 상기 파동데이터 변환부(160) 및/또는 상기 소리 변환부(170)는 상기 서버(S)의 일 구성이 아닌 사용자의 상기 전자장치(P1, P2)에 일 구성으로 포함될 수도 있다.Meanwhile, as will be explained in more detail below, the wave data converter 160 and/or the sound converter 170 are not part of the server S but are part of the user's electronic devices P1 and P2. It may also be included in the configuration.
여기서, 일례로, 상기 소리 변환 방법은 상기 가상공간에 가상대기를 형성하는 단계(S10)를 포함할 수 있다.Here, as an example, the sound conversion method may include forming a virtual atmosphere in the virtual space (S10).
상기 가상대기를 형성하는 단계(S10)는 상기 대기 형성부(110)에 의해 구현될 수 있다.The step of forming the virtual atmosphere (S10) may be implemented by the atmosphere forming unit 110.
일례로, 상기 서버(S)의 관리자는 상기 입력부(500)를 통해 가상공간의 상기 가상대기를 정의하는 소정의 입력값을 입력할 수 있고, 상기 대기 형성부(110)는 관리자가 입력한 소정의 입력값에 대응하는 상기 가상대기를 형성할 수 있다.For example, the administrator of the server (S) may input a predetermined input value defining the virtual atmosphere of the virtual space through the input unit 500, and the atmosphere forming unit 110 may input a predetermined value entered by the administrator. The virtual standby corresponding to the input value can be formed.
일례로, 상기 가상대기를 정의하는 소정의 입력값은 가상공간의 온도, 압력, 습도 등을 의미할 수 있다.For example, a predetermined input value defining the virtual atmosphere may mean temperature, pressure, humidity, etc. of the virtual space.
한편, 상기 가상대기를 형성하는 단계(S10)는 사용자가 자신의 전자장치(P1, P2)를 통해 상기 가상대기를 정의하는 소정의 입력값을 입력하여 상기 통신부(300)로 전송할 수 있고, 상기 대기 형성부(110)는 사용자가 입력한 소정의 입력값에 대응하는 상기 가상대기를 형성할 수도 있다.Meanwhile, in the step of forming the virtual waiting (S10), the user may input a predetermined input value defining the virtual waiting through his/her electronic device (P1, P2) and transmit it to the communication unit 300, The atmosphere forming unit 110 may form the virtual atmosphere corresponding to a predetermined input value entered by the user.
한편, 상기 소리 변환 방법은 상기 가상공간에서 물리력을 발생시키는 단계(S20)를 더 포함할 수 있다.Meanwhile, the sound conversion method may further include generating a physical force in the virtual space (S20).
여기서, 상기 물리력은 상기 가상공간에서 소리를 발생시키는 원천이 되는 힘을 의미할 수 있다.Here, the physical force may mean the force that is the source of generating sound in the virtual space.
일례로, 상기 물리력을 발생시키는 단계(S20)는 상기 물리력 발생부(120)에 의해 구현될 수 있다.For example, the step of generating the physical force (S20) may be implemented by the physical force generator 120.
일례로, 상기 서버(S)의 관리자는 상기 입력부(500)를 통해 가상공간에서 상기 물리력을 발생시키는 객체를 미리 설정할 수 있다.For example, the administrator of the server S may preset an object that generates the physical force in a virtual space through the input unit 500.
예들 들어, 물리력을 발생시키는 객체는 특정 시점에 폭발하는 폭탄일 수 있다.For example, an object that generates physical force could be a bomb that explodes at a specific point in time.
이 때, 상기 물리력 발생부(120)는 특정 시점이 도래하는 경우 폭탄을 폭발시킬 수 있으며, 폭발력에 상응하는 상기 물리력을 상기 가상공간의 상기 가상대기 상에 발생시킬 수 있다.At this time, the physical force generator 120 can explode a bomb when a specific point in time arrives and generate the physical force corresponding to the explosive force on the virtual atmosphere of the virtual space.
일례로, 상기 물리력은 상기 가상대기에 영향을 주는 시간에 따라 변화되는 온도, 압력, 습도 등을 의미할 수 있다.For example, the physical force may mean temperature, pressure, humidity, etc. that change with time and affect the virtual atmosphere.
한편, 상기 물리력을 발생시키는 단계(S20)는 사용자가 자신의 전자장치(P1, P2)를 통해 상기 물리력을 정의하는 소정의 입력값을 입력하여 상기 통신부(300)로 전송할 수 있고, 상기 물리력 발생부(120)는 사용자가 입력한 소정의 입력값에 대응하는 상기 물리력을 상기 가상대기 상에 발생시킬 수도 있다.Meanwhile, in the step of generating the physical force (S20), the user can input a predetermined input value defining the physical force through his/her electronic device (P1, P2) and transmit it to the communication unit 300, and generate the physical force. Unit 120 may generate the physical force corresponding to a predetermined input value input by the user on the virtual atmosphere.
예를 들어, 사용자의 캐릭터가 특정 시점에 폭발하는 폭탄을 상기 가상공간에 설치할 수도 있다.For example, the user's character may install a bomb in the virtual space that explodes at a specific time.
한편, 상기 소리 변환 방법은 상기 물리력에 기초하여 상기 가상대기 상에 가상데이터를 생성시키는 단계(S30)를 더 포함할 수 있다.Meanwhile, the sound conversion method may further include a step (S30) of generating virtual data on the virtual atmosphere based on the physical force.
여기서, 상기 가상데이터는 상기 가상대기 상에서 발생된 상기 물리력에 의해 변화되는 상기 가상대기의 상태에 대한 데이터를 의미할 수 있다.Here, the virtual data may mean data about the state of the virtual atmosphere that is changed by the physical force generated on the virtual atmosphere.
즉, 상기 가상대기는 상기 가상대기를 형성하는 단계(S10)에 의해 세팅된 최초 상태에서 상기 물리력을 발생시키는 단계(S20)에 의해 상기 가상대기 상에 상기 물리력이 발생되는 바, 상기 물리력에 의해 최초 상태에서 다른 상태로 변화될 수 있다.That is, the physical force is generated on the virtual atmosphere by the step (S20) of generating the physical force in the initial state set by the step (S10) of forming the virtual atmosphere, and the physical force is generated on the virtual atmosphere by the physical force. It can change from the initial state to another state.
예를 들어, 상기 가상대기는 시간에 따라 상기 물리력에 의해 상기 가상대기의 온도, 압력 및/또는 습도가 높아지거나 낮아지며, 파동이 발생되는 변화가 일어날 수 있다.For example, in the virtual atmosphere, the temperature, pressure, and/or humidity of the virtual atmosphere may increase or decrease due to the physical force over time, and changes such as waves may occur.
따라서, 상기 가상데이터는 상기 물리력에 의해 변화되는 상기 가상대기의 상태에 대한 데이터를 의미할 수 있다.Accordingly, the virtual data may mean data about the state of the virtual atmosphere changed by the physical force.
일례로, 상기 가상데이터를 생성시키는 단계(S30)는 상기 가상데이터 생성부(130)에 의해 구현될 수 있다.For example, the step of generating the virtual data (S30) may be implemented by the virtual data generator 130.
예를 들어, 도 3에 도시한 바와 같이, 상기 가상데이터 생성부(130)는 상기 가상공간 상의 소정의 위치(X1)에서 상기 물리력을 발생시킨 객체를 기준으로, 시간의 흐름에 따라 상기 물리력에 의해 변화되는 상기 가상대기의 상태를 정의할 수 있다.For example, as shown in FIG. 3, the virtual data generator 130 generates the physical force over time based on the object that generated the physical force at a predetermined location (X1) in the virtual space. You can define the state of the virtual atmosphere that changes by.
X1과 상대적으로 가까운 X2의 위치에서의 상기 가상대기의 상태는 상기 물리력에 영향을 상대적으로 많이 받는 상기 가상데이터로 정의될 수 있고, X1과 상대적으로 먼 X3의 위치에서의 상기 가상대기의 상태는 상기 물리력에 영향을 상대적으로 적게 받는 상기 가상데이터로 정의될 수 있으며, X1과 많이 떨어져 있는 X4의 위치에서의 상기 가상대기의 상태는 상기 물리력에 영향을 받지 않아 상기 가상데이터가 생성되지 않는 최초 상태일 수 있다.The state of the virtual atmosphere at the location of X2, which is relatively close to It can be defined as the virtual data that is relatively little affected by the physical force, and the state of the virtual atmosphere at the location of X4, which is far away from It can be.
상기 가상데이터 생성부(130)는 상기 가상공간에서의 사용자의 캐릭터 위치에 관계없이, 상기 물리력을 발생시키는 객체에서 상기 물리력이 발생된 경우 상기 물리력에 기초하여 상기 가상대기 상에 상기 가상데이터를 생성할 수 있다.The virtual data generator 130 generates the virtual data on the virtual atmosphere based on the physical force when the physical force is generated from an object that generates the physical force, regardless of the user's character position in the virtual space. can do.
즉, 상기 가상데이터 생성부(130)는 사용자의 캐릭터 위치에 관계없이, 상기 물리력이 발생된 시점을 기준으로 시간의 흐름에 따라 상기 가상대기 상에 변화되는 상기 가상데이터를 생성할 수 있다.That is, the virtual data generator 130 may generate the virtual data that changes in the virtual atmosphere over time based on the point in time when the physical force was generated, regardless of the user's character position.
일례로, 상기 가상데이터는 상기 가상공간의 위치 및 상기 물리력이 발생된 시점부터의 시간의 흐름에 따라 상기 가상데이터 생성부(130)에 의해 생성되어 상기 메모리부(200)에 저장될 수 있다.For example, the virtual data may be generated by the virtual data generator 130 and stored in the memory unit 200 according to the location of the virtual space and the passage of time from when the physical force was generated.
한편, 상기 소리 변환 방법은 상기 가상공간 상의 소정의 위치를 특정하는 단계(S40)를 더 포함할 수 있다.Meanwhile, the sound conversion method may further include a step (S40) of specifying a predetermined location in the virtual space.
여기서, 소정의 위치는 상기 가상공간에서 소리를 생성하기 위한 상기 가상공간 상의 특정 위치를 의미하는 것으로서, 사용자의 캐릭터의 위치를 의미할 수 있다.Here, the predetermined location refers to a specific location in the virtual space for generating sound in the virtual space, and may refer to the location of the user's character.
상기 소정의 위치를 특정하는 단계(S40)는 상기 위치 특정부(140)에 의해 구현될 수 있다.The step of specifying the predetermined location (S40) may be implemented by the location specification unit 140.
일례로, 사용자는 자신의 전자장치(P1, P2)를 통해 상기 가상공간 상에 소정의 위치를 입력하거나, 자신의 캐릭터를 소정의 위치에 위치시키는 입력값을 입력하여 상기 통신부(300)로 전송할 수 있고, 상기 위치 특정부(140)는 사용자가 입력한 소정의 입력값에 대응하는 상기 가상공간의 위치에 사용자의 캐릭터를 위치시키서나 그 위치를 특정할 수 있다.For example, the user may input a predetermined location in the virtual space through his/her electronic devices (P1, P2) or input an input value for locating his/her character at a predetermined location and transmit it to the communication unit 300. The location specification unit 140 can position the user's character at a location in the virtual space corresponding to a predetermined input value entered by the user or specify the location.
한편, 사용자는 자신의 전자장치(P1, P2)를 통해 상기 소정의 위치뿐만 아니라 현재 또는 과거의 특정 시점, 시간을 입력할 수도 있다.Meanwhile, the user may input not only the predetermined location but also a specific point in time or time in the present or the past through his/her electronic devices (P1, P2).
한편, 상기 소리 변환 방법은 상기 소정의 위치에 대응하는 상기 가상데이터를 특정하는 단계(S50)를 더 포함할 수 있다.Meanwhile, the sound conversion method may further include a step (S50) of specifying the virtual data corresponding to the predetermined location.
상기 가상데이터를 특정하는 단계(S50)는 상기 가상데이터 특정부(150)에 의해 구현될 수 있다.The step of specifying the virtual data (S50) may be implemented by the virtual data specification unit 150.
일례로, 상기 가상데이터 특정부(150)는 수 많은 상기 가상데이터 중 상기 소정의 위치를 특정하는 단계(S40)에 의해 특정된 상기 소정의 위치 및/또는 특정 시점과 대응되는 상기 가상데이터를 선택(특정)할 수 있다.For example, the virtual data specification unit 150 selects the virtual data corresponding to the predetermined location and/or a specific time point specified by the step (S40) of specifying the predetermined location among the numerous virtual data. (specific) can be done.
일례로, 상기 가상데이터 특정부(150)는 상기 메모리부(200)에 저장된 수 많은 상기 가상데이터 중 상기 소정의 위치 및/또는 특정 시점과 대응되는 상기 가상데이터를 선택(특정)할 수 있다.For example, the virtual data specification unit 150 may select (specify) the virtual data corresponding to the predetermined location and/or specific time point among the numerous virtual data stored in the memory unit 200.
이 후, 상기 소리 변환 방법은 상기 가상데이터를 특정하는 단계(S50)에 의해 선택된 상기 가상데이터를 파동데이터로 변환하는 단계(S60)를 더 포함할 수 있다.Afterwards, the sound conversion method may further include a step (S60) of converting the virtual data selected by the step (S50) of specifying the virtual data into wave data.
일례로, 상기 파동데이터는 상기 가상데이터를 소리로 변환하기 위한 중간 데이터로서, 상기 가상데이터에 대응하는 파동(음파)에 대한 정보를 가지는 데이터를 의미할 수 있다.For example, the wave data is intermediate data for converting the virtual data into sound, and may mean data having information about waves (sound waves) corresponding to the virtual data.
일례로, 상기 파동데이터로 변화하는 단계는 상기 가상데이터를 특정하는 단계(S50)에 의해 상기 가상데이터가 존재하는 경우에만 구현되는 단계로서, 만약 상기 가상데이터가 없는 경우에는 구현되지 않을 수 있다.For example, the step of changing to wave data is a step that is implemented only when the virtual data exists by specifying the virtual data (S50), and may not be implemented if the virtual data does not exist.
일례로, 상기 파동데이터로 변환하는 단계(S60)는 상기 파동데이터 변환부(160)에 의해 구현될 수 있다.For example, the step of converting into wave data (S60) may be implemented by the wave data conversion unit 160.
일례로, 상기 파동데이터 변환부(160)는 상기 서버(S)의 상기 컨트롤러(100)의 일 구성일 수 있으나, 한편으로 사용자의 전자장치(P1, P2)의 일 구성일 수 있다.For example, the wave data conversion unit 160 may be a component of the controller 100 of the server S, but may also be a component of the user's electronic devices P1 and P2.
만약, 상기 파동데이터 변환부(160)가 사용자의 전자장치(P1, P2)의 일 구성인 경우, 사용자의 전자장치(P1, P2)는 상기 가상데이터를 특정하는 단계(S50)에서 특정된 상기 가상데이터를 수신할 수 있으며, 수신한 상기 가상데이터를 상기 파동데이터로 변환할 수 있다.If the wave data conversion unit 160 is a component of the user's electronic device (P1, P2), the user's electronic device (P1, P2) is the virtual data specified in the step (S50). Virtual data can be received, and the received virtual data can be converted into the wave data.
일례로, 상기 파동데이터 변환부(160)는 상기 가상데이터를 이용하여 음파를 구성하는 주파수, 피치, 파장, 주기, 진폭, 음압, 위상 등을 포함하는 상기 파동데이터를 생성할 수 있다.For example, the wave data converter 160 may use the virtual data to generate the wave data including frequency, pitch, wavelength, period, amplitude, sound pressure, phase, etc. that constitute a sound wave.
이 후, 상기 소리 변환 방법은 상기 파동데이터를 소리로 변환하는 단계(S70)를 더 포함할 수 있다.After this, the sound conversion method may further include converting the wave data into sound (S70).
여기서, 소리는 사용자가 스피커 또는 헤드폰 등을 통해 들을 수 있는 소리를 의미하는 것으로서, 상기 소리로 변환하는 단계(S70)는 상기 소리 변환부(170)에 의해 구현될 수 있다.Here, sound refers to a sound that a user can hear through a speaker or headphone, and the step of converting the sound into sound (S70) can be implemented by the sound conversion unit 170.
일례로, 상기 소리 변환부(170)는 디지털 정보인 상기 파동데이터를 가청 음파인 소리(mp3, FLAC 또는 wav 등)로 변환하는 구성으로서, 상기 서버(S)의 상기 컨트롤러(100)의 일 구성일 수도 있고, 한편으로 사용자의 전자장치(P1, P2)의 일 구성일 수도 있다.For example, the sound conversion unit 170 is a component that converts the wave data, which is digital information, into sound (mp3, FLAC, or wav, etc.), which is an audible sound wave, and is a component of the controller 100 of the server (S). It may be, or it may be a component of the user's electronic devices (P1, P2).
그 결과, 사용자는 자신의 전자장치(P1, P2)를 통해 자신이 특정한 소정의 위치 및 소정의 시점에 상기 가상공간에서 발생된 소리를 들을 수 있다.As a result, the user can hear sounds generated in the virtual space at a certain location and time point through the user's electronic devices (P1, P2).
한편, 상기 소리 변환 방법은 상기 가상데이터, 상기 파동데이터 또는 상기 소리를 타 전자장치로 전송하는 단계(S80)를 더 포함할 수 있다.Meanwhile, the sound conversion method may further include transmitting the virtual data, the wave data, or the sound to another electronic device (S80).
이를 보다 자세히 설명하자면, 복수의 사용자 중 제1 사용자에 의해 특정된 상기 가상공간에서의 소정의 위치 및 시점에서의 상기 가상데이터, 상기 파동데이터 또는 상기 소리는 상기 서버(S) 또는 상기 제1 사용자의 전자장치(P1)를 통해 제2 사용자의 전자장치(P2)로 전송될 수 있다.To explain this in more detail, the virtual data, the wave data, or the sound at a predetermined location and point in the virtual space specified by the first user among the plurality of users are transmitted to the server (S) or the first user. It may be transmitted to the second user's electronic device (P2) through the user's electronic device (P1).
그 결과, 제2 사용자는 상기 제1 사용자가 특정하거나 상기 제1 사용자의 캐릭터가 위치하는 곳의 소리를 들을 수 있다.As a result, the second user can hear the sound from the location specified by the first user or where the first user's character is located.
한편, 상기 소리 변환 방법은 상기 가상데이터에 기초하여 캐릭터의 특성을 변화시키는 단계(S90)를 더 포함할 수 있다.Meanwhile, the sound conversion method may further include a step (S90) of changing the characteristics of the character based on the virtual data.
상기 캐릭터의 특성을 변화시키는 단계(S90)는 상기 특성 변화부(180)에 의해 구현될 수 있다.The step of changing the characteristics of the character (S90) may be implemented by the characteristic change unit 180.
이를 보다 자세히 설명하자면, 사용자의 캐릭터(Player Character) 또는 NPC(Non-Player Character)는 상기 소정의 위치를 특정하는 단계(S40)에 의해 상기 가상공간 상에 위치될 때, 수 많은 상기 물리력 발생에 따른 상기 가상데이터를 획득할 수 있으며, 상기 특성 변화부(180)는 획득한 상기 가상데이터에 따라 캐릭터의 특성을 변화시킬 수 있다.To explain this in more detail, when a user's character (Player Character) or NPC (Non-Player Character) is located in the virtual space by specifying the predetermined location (S40), numerous physical forces are generated. The virtual data according to the character may be acquired, and the characteristic change unit 180 may change the characteristics of the character according to the acquired virtual data.
예를 들어, 상기 물리력이 피아노 연주에 의해 발생된 경우 상기 물리력에 의해 생성된 상기 가상데이터를 획득한 캐릭터는 순한 성격 및/또는 외모로 변화될 수 있고, 상기 물리력이 폭발물의 폭발에 의해 발생된 경우 상기 물리력에 의해 생성된 상기 가상데이터를 획득한 캐릭터는 공격적인 성격 및/또는 외모로 변화될 수 있다.For example, when the physical force is generated by playing a piano, the character that acquires the virtual data generated by the physical force may change to a gentle personality and/or appearance, and if the physical force is generated by an explosion of an explosive. In this case, the character that has acquired the virtual data generated by the physical force may change to an aggressive personality and/or appearance.
즉, 상기 특성 변화부(180)는 상기 가상공간 상에 위치하는 캐릭터에 대응되는 상기 가상데이터를 기초로 하여 캐릭터의 특성(성격, 외모 등)을 변화시킬 수 있다.That is, the characteristic changing unit 180 can change the characteristics (personality, appearance, etc.) of the character based on the virtual data corresponding to the character located in the virtual space.
한편, 도 5에는 상기 소정의 위치를 특정하는 단계(S40)는 상기 가상데이터를 생성시키는 단계 이후에 구현되는 것으로 설명하였으나, 여기에 한정되는 것은 아니며, 상기 가상대기를 형성하는 단계(S10) 또는 상기 물리력을 발생시키는 단계(S20) 직후에 구현될 수 있음은 자명하다.Meanwhile, in FIG. 5, the step of specifying the predetermined location (S40) is described as being implemented after the step of generating the virtual data, but it is not limited thereto, and the step of forming the virtual atmosphere (S10) or It is obvious that this can be implemented immediately after the step of generating the physical force (S20).
한편, 상기 가상공간에서의 소리 변환 시스템(10)은 앞서 설명한 구성들을 통해 상기 가상공간에서의 소리 변환 방법을 구현하는 장치를 의미할 수 있다.Meanwhile, the sound conversion system 10 in the virtual space may refer to a device that implements the sound conversion method in the virtual space through the configurations described above.
앞서 설명한 바와 같이, 상기 가상공간에서의 소리 변환 방법 및 시스템(10)은 상기 가상공간에서 상기 물리력이 발생된 경우, 캐릭터의 존재 여부와 관계 없이, 상기 가상데이터를 생성하여 저장할 수 있다.As described above, the sound conversion method and system 10 in the virtual space can generate and store the virtual data, regardless of whether a character exists, when the physical force is generated in the virtual space.
그 결과, 사용자는 상기 가상공간에서의 특정 위치 및 과거의 특정 시점에 해당하는 상기 가상데이터를 획득하여 최종적으로 해당 소리를 들을 수 있으며, 다른 사용자에게도 전송할 수 있다.As a result, the user can obtain the virtual data corresponding to a specific location in the virtual space and a specific time in the past, finally listen to the sound, and transmit it to other users.
상기에서는 본 발명에 따른 실시예를 기준으로 본 발명의 구성과 특징을 설명하였으나 본 발명은 이에 한정되지 않으며, 본 발명의 사상과 범위 내에서 다양하게 변경 또는 변형할 수 있음은 본 발명이 속하는 기술분야의 당업자에게 명백한 것이며, 따라서 이와 같은 변경 또는 변형은 첨부된 특허청구범위에 속함을 밝혀둔다.In the above, the configuration and features of the present invention have been described based on the embodiments according to the present invention, but the present invention is not limited thereto, and various changes or modifications may be made within the spirit and scope of the present invention. It is obvious to those skilled in the art, and therefore, it is stated that such changes or modifications fall within the scope of the appended patent claims.

Claims (8)

  1. 가상공간에서 소리 변환 시스템에 의해 구현되는 가상공간에서의 소리 변환 방법에 있어서,In the sound conversion method in virtual space implemented by the sound conversion system in virtual space,
    상기 가상공간에 가상대기를 형성하는 단계;forming a virtual atmosphere in the virtual space;
    상기 가상공간에서 물리력을 발생시키는 단계; 및Generating physical force in the virtual space; and
    상기 물리력에 기초하여 상기 가상대기 상에 가상데이터를 생성시키는 단계;를 포함하며,It includes: generating virtual data on the virtual atmosphere based on the physical force,
    상기 가상데이터는,The virtual data is,
    상기 물리력에 의해 변화되는 상기 가상대기의 상태에 대한 데이터인,Data about the state of the virtual atmosphere changed by the physical force,
    가상공간에서의 소리 변환 방법.How to convert sound in virtual space.
  2. 제1항에 있어서,According to paragraph 1,
    상기 가상공간 상의 소정의 위치를 특정하는 단계;Specifying a predetermined location in the virtual space;
    상기 소정의 위치에 대응하는 상기 가상데이터를 특정하는 단계;specifying the virtual data corresponding to the predetermined location;
    상기 가상데이터를 파동데이터로 변환하는 단계; 및Converting the virtual data into wave data; and
    상기 파동데이터를 소리로 변환하는 단계;를 더 포함하는,Converting the wave data into sound; further comprising,
    가상공간에서의 소리 변환 방법.How to convert sound in virtual space.
  3. 제2항에 있어서,According to paragraph 2,
    상기 가상데이터 또는 상기 파동데이터를 타 전자장치로 전송하는 단계;를 더 포함하는,Transmitting the virtual data or the wave data to another electronic device; further comprising,
    가상공간에서의 소리 변환 방법.How to convert sound in virtual space.
  4. 제2항에 있어서,According to paragraph 2,
    상기 가상데이터에 기초하여 캐릭터의 특성을 변화시키는 단계;를 더 포함하는,Further comprising: changing the characteristics of the character based on the virtual data,
    가상공간에서의 소리 변환 방법.How to convert sound in virtual space.
  5. 가상공간에 가상대기를 형성하는 대기 형성부;an atmosphere forming unit that forms a virtual atmosphere in virtual space;
    상기 가상공간에서 물리력을 발생시키는 물리력 발생부; 및a physical force generator that generates physical force in the virtual space; and
    상기 물리력에 기초하여 상기 가상대기 상에 가상데이터를 생성시키는 가상데이터 생성부;를 포함하며,It includes a virtual data generator that generates virtual data on the virtual atmosphere based on the physical force,
    상기 가상데이터는,The virtual data is,
    상기 물리력에 의해 변화되는 상기 가상대기의 상태에 대한 데이터인,Data about the state of the virtual atmosphere changed by the physical force,
    가상공간에서의 소리 변환 시스템.A sound conversion system in virtual space.
  6. 제5항에 있어서,According to clause 5,
    상기 가상공간 상의 소정의 위치를 특정하는 위치 특정부;a location specification unit that specifies a predetermined location in the virtual space;
    상기 소정의 위치에 대응하는 상기 가상데이터를 특정하는 가상데이터 특정부;a virtual data specification unit that specifies the virtual data corresponding to the predetermined location;
    상기 가상데이터를 파동데이터로 변환하는 파동데이터 변환부; 및A wave data conversion unit that converts the virtual data into wave data; and
    상기 파동데이터를 소리로 변환하는 소리 변환부;를 더 포함하는,Further comprising a sound conversion unit that converts the wave data into sound,
    가상공간에서의 소리 변환 시스템.A sound conversion system in virtual space.
  7. 제6항에 있어서,According to clause 6,
    상기 가상데이터 또는 상기 파동데이터를 타 전자장치로 전송하는 통신부;를 더 포함하는,Further comprising; a communication unit transmitting the virtual data or the wave data to another electronic device;
    가상공간에서의 소리 변환 시스템.A sound conversion system in virtual space.
  8. 제6항에 있어서,According to clause 6,
    상기 가상데이터에 기초하여 캐릭터의 특성을 변화시키는 특성 변화부;를 더 포함하는,Further comprising a characteristic change unit that changes the characteristics of the character based on the virtual data,
    가상공간에서의 소리 변환 시스템.A sound conversion system in virtual space.
PCT/KR2023/004772 2022-04-08 2023-04-10 System and method for converting sound in virtual space WO2023195830A1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020220043766A KR102523048B1 (en) 2022-04-08 2022-04-08 Sound conversion system and method in virtual reality
KR10-2022-0043766 2022-04-08

Publications (1)

Publication Number Publication Date
WO2023195830A1 true WO2023195830A1 (en) 2023-10-12

Family

ID=86100656

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2023/004772 WO2023195830A1 (en) 2022-04-08 2023-04-10 System and method for converting sound in virtual space

Country Status (2)

Country Link
KR (1) KR102523048B1 (en)
WO (1) WO2023195830A1 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101111734B1 (en) * 2011-01-13 2012-02-15 한국과학기술원 Sound reproduction method and apparatus distinguishing multiple sound sources
KR101835675B1 (en) * 2016-10-05 2018-03-07 연세대학교 산학협력단 Apparatus for providing3d sound in augmmented reality environmentand method thereof
KR20190045696A (en) * 2017-10-24 2019-05-03 에스케이텔레콤 주식회사 Apparatus and method for synthesizing virtual sound
KR20190109019A (en) * 2018-03-16 2019-09-25 한국전자통신연구원 Method and apparatus for reproducing audio signal according to movenemt of user in virtual space
KR20200050707A (en) * 2018-11-02 2020-05-12 주식회사 모두앤모두 System for generating subtitle using graphic objects

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101111734B1 (en) * 2011-01-13 2012-02-15 한국과학기술원 Sound reproduction method and apparatus distinguishing multiple sound sources
KR101835675B1 (en) * 2016-10-05 2018-03-07 연세대학교 산학협력단 Apparatus for providing3d sound in augmmented reality environmentand method thereof
KR20190045696A (en) * 2017-10-24 2019-05-03 에스케이텔레콤 주식회사 Apparatus and method for synthesizing virtual sound
KR20190109019A (en) * 2018-03-16 2019-09-25 한국전자통신연구원 Method and apparatus for reproducing audio signal according to movenemt of user in virtual space
KR20200050707A (en) * 2018-11-02 2020-05-12 주식회사 모두앤모두 System for generating subtitle using graphic objects

Also Published As

Publication number Publication date
KR102523048B1 (en) 2023-04-18

Similar Documents

Publication Publication Date Title
WO2018182274A1 (en) Audio signal processing method and device
WO2018056780A1 (en) Binaural audio signal processing method and apparatus
WO2014092509A1 (en) Glasses apparatus and method for controlling glasses apparatus, audio apparatus and method for providing audio signal and display apparatus
WO2018147701A1 (en) Method and apparatus for processing audio signal
WO2020191934A1 (en) Control method and device for terminal loudspeaker, and computer readable storage medium
WO2019004524A1 (en) Audio playback method and audio playback apparatus in six degrees of freedom environment
WO2016190535A1 (en) Device and method for sound wave communication
WO2014021670A1 (en) Mobile apparatus and control method thereof
WO2019139301A1 (en) Electronic device and subtitle expression method thereof
EP2737727A2 (en) Method and apparatus for processing audio signal
WO2020050473A1 (en) Device and method for adaptively controlling preamble in uwb network
WO2018093193A1 (en) System and method for producing audio data to head mount display device
WO2019156338A1 (en) Method for acquiring noise-refined voice signal, and electronic device for performing same
WO2018053904A1 (en) Information processing method and terminal
WO2023195830A1 (en) System and method for converting sound in virtual space
WO2019035622A1 (en) Audio signal processing method and apparatus using ambisonics signal
WO2019031767A1 (en) Display apparatus and controlling method thereof
WO2020055022A1 (en) Method for controlling beam and electronic device therefor
WO2022239988A1 (en) Dance matching method and system
WO2020091431A1 (en) Subtitle generation system using graphic object
WO2023058860A1 (en) Electronic device for processing multi-signed apk file, and operating method therefor
WO2020262823A1 (en) Electronic device for processing image and image processing method thereof
WO2018194320A1 (en) Spatial audio control device according to gaze tracking and method therefor
WO2020226270A1 (en) Device and method for creating and sending custom emoticon
WO2018035928A1 (en) Method and system for automatically switching audio output mode

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 23785054

Country of ref document: EP

Kind code of ref document: A1