KR100312750B1 - Virtual musical performance apparatus and method thereof using sensor - Google Patents

Virtual musical performance apparatus and method thereof using sensor Download PDF

Info

Publication number
KR100312750B1
KR100312750B1 KR1020000003667A KR20000003667A KR100312750B1 KR 100312750 B1 KR100312750 B1 KR 100312750B1 KR 1020000003667 A KR1020000003667 A KR 1020000003667A KR 20000003667 A KR20000003667 A KR 20000003667A KR 100312750 B1 KR100312750 B1 KR 100312750B1
Authority
KR
South Korea
Prior art keywords
song
sensor
user
melody
playing
Prior art date
Application number
KR1020000003667A
Other languages
Korean (ko)
Other versions
KR20010076489A (en
Inventor
황재인
김정현제라드
안의재
Original Assignee
정명식
학교법인 포항공과대학교
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 정명식, 학교법인 포항공과대학교 filed Critical 정명식
Priority to KR1020000003667A priority Critical patent/KR100312750B1/en
Publication of KR20010076489A publication Critical patent/KR20010076489A/en
Application granted granted Critical
Publication of KR100312750B1 publication Critical patent/KR100312750B1/en

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H5/00Instruments in which the tones are generated by means of electronic generators
    • G10H5/02Instruments in which the tones are generated by means of electronic generators using generation of basic tones
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2220/00Input/output interfacing specifically adapted for electrophonic musical tools or instruments
    • G10H2220/091Graphical user interface [GUI] specifically adapted for electrophonic musical instruments, e.g. interactive musical displays, musical instrument icons or menus; Details of user interactions therewith
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2220/00Input/output interfacing specifically adapted for electrophonic musical tools or instruments
    • G10H2220/155User input interfaces for electrophonic musical instruments
    • G10H2220/201User input interfaces for electrophonic musical instruments for movement interpretation, i.e. capturing and recognizing a gesture or a specific kind of movement, e.g. to control a musical instrument

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Electrophonic Musical Instruments (AREA)

Abstract

본 발명은 사용자의 동작을 감지하여 그에 맞는 미디음을 생성하는 센서를 이용한 가상 연주장치 및 그 방법에 관한 것이다.The present invention relates to a virtual performance device and a method using a sensor for sensing the user's motion to generate a corresponding MIDI sound.

본 발명에 따른 센서를 이용한 가상연주장치는, 저장된 곡 중에서 연주할 곡을 선택하는 선택부; 사용자가 두드리는 탭의 세기와 빠르기를 감지하는 탭센서; 상기 선택된 곡의 멜로디에 따른 반주를 생성하며 제어신호에 따라 템포와 음의 세기를 제어하여 출력하는 음악연주부; 상기 연주되는 곡의 현재의 음악정보를 그랙픽으로 시각화하여 디스플레이하는 그래픽 디스플레이부; 및 상기 선택신호를 유입하여 상기 메모리에 해당 곡의 데이터를 리드하여 음악연주부에 출력하며, 상기 센서신호를 유입하여 상기 음악연주부와 그래픽 디스플레이부를 제어하는 중앙제어부를 구비함을 특징으로 한다.The virtual performance device using the sensor according to the present invention, the selection unit for selecting a song to play from the stored song; A tap sensor for detecting the strength and speed of the tapping by the user; A music player which generates accompaniment according to the selected song's melody and controls and outputs tempo and sound intensity according to a control signal; A graphic display unit which visualizes and displays current music information of the played song as a graphic; And a central control unit for inputting the selection signal to read data of the corresponding song in the memory and outputting the data to the music player, and introducing the sensor signal to control the music player and the graphic display unit.

본 발명에 의하면 디스플레이되는 그래픽 화면에 따라 연주곡의 멜로디에 맞추어 사용자가 탭을 두드림으로써 멜로디에 따라 자동으로 반주가 출력되어 해당 곡을 손쉽게 연주할 수 있으며, 연주되는 곡의 빠르기와 볼륨, 멜로디 음의 높이 등이 각 객체로서 입체적으로 시각화되어 나타남으로써 보다 흥미를 갖고 연주할 수 있다According to the present invention, accompaniment is automatically output according to the melody by tapping the tab according to the melody of the played song according to the displayed graphic screen, so that the user can easily play the song, and the speed and volume of the played song, Height can be played with more interest by visualizing each object as a three-dimensional visualization.

Description

센서를 이용한 가상 연주장치 및 그 방법{Virtual musical performance apparatus and method thereof using sensor}Virtual musical performance apparatus and method using sensor

본 발명은 가상연주장치에 관한 것으로서, 특히 사용자의 동작을 감지하여 그에 맞는 미디음을 생성하는 센서를 이용한 가상 연주장치 및 그 방법에 관한 것이다.BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a virtual playing device, and more particularly, to a virtual playing device using a sensor for sensing a user's motion and generating a corresponding MIDI sound, and a method thereof.

일반적으로 음악을 연주하기 위해서는 직접 실제 물리적인 악기를 사용하여 연주하는 방법이 있고, 원래 녹음되어 있는 음악을 믹서를 사용하여 변형시켜 연주하는 방법이 있다. 또한, 미디(MIDI: musical instrument digital interface)악기나 전자악기를 사용해서 연주하는 다양한 방법이 있다.In general, in order to play music, there is a method of playing using a real physical instrument directly, and there is a method of transforming and playing music originally recorded using a mixer. There are also a variety of ways to play using MIDI or musical instrument digital interface instruments.

실제 악기를 사용하는 경우에는 연주자가 연주하고자 하는 악보에 따라 정확한 동작으로 악기에 어떤 힘을 가했을 때 악기와 연주자와의 상호작용에 의해 음악이 연주된다. 믹서 등을 사용하는 경우에는 녹음된 음악이나 소리의 일정 부분들을 주파수나 진폭 등을 변화시켜서 변조된 음으로 새로운 음악 소리를 창출한다. 여기서, 전자악기나 미디악기는 기존의 악기와 유사한 인터페이스 예컨대, 피아노나 바이올린 같은 모양과 같은 인터페이스를 가지고 있는 반면에 그 작동은 전자적으로 이루어진다.In the case of using a real instrument, the music is played by the interaction between the instrument and the player when a certain force is applied to the instrument with the correct movement according to the score that the player wants to play. In the case of using a mixer or the like, certain parts of the recorded music or sound are changed in frequency or amplitude to create new music sound with modulated sound. Here, the electronic or mid-instrument has an interface similar to that of a conventional musical instrument, for example, a piano or a violin-like interface, while its operation is performed electronically.

이러한 전자피아노 또는 이와 유사한 전자악기를 통하여 원하는 대로 음악을 연주하기 위해서는, 피아노나 전자악기와 기본 구성이 동일한 악기를 잘 연주할 수 있거나, 혹은 오케스트라를 동원하여 지휘를 할 수 있는 실제의 음악적 연주능력과 실력이 요구된다. 따라서, 악기 연주를 전문적으로 배운 연주자나 각별한 노력을 가지고 배운 사람을 제외하고는 일반적으로 악기를 연주한다는 것은 매우 어려운 일이다.In order to play music as desired through such an electronic piano or similar electronic musical instrument, the actual musical performance capable of playing the piano or the same musical instrument as the basic configuration well or conducting with an orchestra And skill is required. Therefore, it is very difficult to play musical instruments in general except for those who have learned to play musical instruments professionally or who have learned with special effort.

또한, 다른 방법으로는 직접적인 연주실력이 없더라도 컴퓨터나 신세사이저에서 미디나 전자음악관련 소프트웨어를 실행시키고 미리 저장된 곡중에서 선택하여 원하는 대로 편집하여 연주하는 방법이 있다. 그러나 현재 미디관련 소프트웨어는 연주하는 동안에 실시간에 연주곡을 다양하고 쉽게 변형되도록 하는 기능을 제공하지 않고 있다. 또한, 현재 미디 관련 소프트웨어는 음악의 청각적인 면 이외에는 디스플레이지원이 미미한 실정이며, 실시간으로 음악을 따라 하는 기존 오락기기로는 비트매니어나 댄스 댄스 리볼루션 등이 있으나 이러한 오락기기들은 음악에 맞춰서 정해진 동작을 하는 것으로 비교적 사용자의 수동적인 요소가 요구된다.In addition, there is a method of playing a MIDI or electronic music related software from a computer or synthesizer and selecting from among pre-stored songs and editing and playing it as desired even if there is no direct performance. However, current MIDI-related software does not provide the ability to easily and easily modify the song in real time while playing. In addition, the current MIDI-related software has a lack of display support except for the acoustic aspect of music. Existing entertainment devices that follow the music in real time include beat mann and dance dance revolution, but these entertainment devices are designed to match the music. Doing so requires a relatively passive user component.

이에 따라, 음악을 변형시키는 능동적인 주체로서, 사용자의 동작에 따라 해당 곡의 빠르기, 각 음의 높낮이 및 멜로디, 음세기, 각 음표의 진행 등이 바뀌어 연주되어 악기를 숙련되게 다루지 못하더라고, 사용자가 감정과 약간의 박자를 맞출 수 있는 능력만 있다면 상당히 복잡한 음악을 연주하는 기분을 청각뿐만 아니라 시각적으로 느낄 수 있도록 하는 다양한 연주장치가 요구되었다.Accordingly, as an active subject who transforms music, the speed of each song, the height and melody of each note, the intensity of each note, and the progress of each note are changed and played according to the user's motion, so that the user cannot handle the instrument skillfully. The ability to match emotions with a few beats required a variety of performance devices that would allow you to feel not only hearing but also visually playing a fairly complex piece of music.

본 발명은 상술한 요구에 부응하여 창출된 것으로서, 사용자가 행동에 따라 선택된 곡의 빠르기, 각 음의 높낮이, 멜로디 음세기 등이 반영되어 연주되고, 3차원 그래픽영상으로 디스플레이시켜 음악을 실제 연주하는 기분을 청각뿐만 아니라 시각적으로 느낄 수 있도록 하는 센서를 이용한 가상 연주장치와 방법을 제공하는 데 목적이 있다.The present invention was created in response to the above-described demands, and the user is played by reflecting the speed of the selected song according to the action, the height of each note, the melody sound intensity, and the like, and displaying a 3D graphic image to actually play the music. The object of the present invention is to provide a virtual performance device and a method using a sensor that can visually feel as well as hearing.

도 1은 본 발명에 의한 센서를 이용한 가상연주장치의 블록도이다.1 is a block diagram of a virtual performance device using a sensor according to the present invention.

도 2는 도 1에 도시된 장치에서의 가상 연주과정을 나타내는 흐름도이다.2 is a flowchart illustrating a virtual playing process in the apparatus shown in FIG. 1.

도 3은 도 1의 탭센서의 작동에 따라 음악연주부에서 반주가 출력되는 것을 설명하기 위한 악보이다.3 is a sheet music for explaining that accompaniment is output from a music player according to the operation of the tap sensor of FIG.

도 4는 도 1의 디스플레이부에서 연주되는 곡의 템포와 볼륨 등의 음악정보를 가상공간의 우주에 대응시켜 디스플레이한 일실시예의 화면이다.4 is a screen of an exemplary embodiment in which music information such as tempo and volume of a song played in the display unit of FIG. 1 is displayed in correspondence with the universe of a virtual space.

<도면의 주요 부분에 대한 부호설명><Code Description of Main Parts of Drawing>

10 ... 선택부, 12 ... 탭센서10 ... selection, 12 ... tap sensor

14 ... 헤드트랙센서, 16 ... 데이터 글러브14 ... head track sensor, 16 ... data glove

18 ... 메모리, 20 ... 중앙제어부18 ... memory, 20 ... central control

22 ... 음악연주부, 24 ... 스피커22 ... music player, 24 ... speaker

26 ... 그래픽제어부, 28 ... 디스플레이부.26 ... graphic control unit, 28 ... display unit.

상기의 목적을 달성하기 위한 본 발명에 의한 소정의 곡을 사용자의 탭 동작을 감지하는 센서 또는 키보드, 태블릿(tablet), 타치 스크린 등에 따라 상기 곡에 대한 연주음을 출력시키고 시각적인 영상으로 변화시켜 연주하는 가상연주방법에 있어서,In order to achieve the above object, a predetermined song according to the present invention outputs a playing sound for the song according to a sensor or a keyboard for detecting a user's tap operation, a tablet, a tablet screen, and changes to a visual image. In the virtual playing method to play,

사용자가 상기 곡의 멜로디에 대응하여 두드리는 탭 동작과, 데이터 글러브를 통한 동작을 감지하는 과정;Detecting a tap operation by a user in response to a melody of the song and a motion through a data glove;

상기 탭 동작이 감지되면 상기 선택된 곡의 멜로디에 대한 반주를 생성하고, 상기 데이터 글러브 감지신호에 따라 연주곡의 템포와 볼륨을 제어하여 연주하는 과정; 및Generating accompaniment about the melody of the selected song when the tap motion is detected, and controlling the tempo and volume of the played song according to the data glove detection signal; And

상기 선택곡의 멜로디 음의 높이와 템포, 탭의 세기, 볼륨크기를 나타내는 객체들을 화면상에서 크기와 빠르기의 변화로서 사용자가 연주하기에 도움을 줄 수 있도록 시각화하여 디스플레이하는 과정을 포함함을 특징으로 한다.And a process of visualizing and displaying objects representing the height, tempo, tap strength, and volume of the melody of the selected song to help the user play as a change in size and speed on the screen. do.

상기 디스플레이는 입체적으로 디스플레이됨을 특징으로 한다.The display is characterized in that the three-dimensional display.

사용자의 탭 동작을 감지하는 센서에 따라 곡의 연주와 시각적인 영상으로 변화시켜 연주하는 가상연주장치는,According to the sensor that detects the user's tap motion, the virtual performance device that changes and plays the song performance and visual image,

멜로디 데이터(MEDI)의 연주곡을 저장하는 메모리;A memory for storing a performance song of melody data MEDI;

상기 저장된 곡 중에서 연주할 곡을 선택하는 선택부;A selection unit for selecting a song to play from the stored songs;

사용자가 두드리는 탭의 세기와 빠르기를 감지하는 탭센서;A tap sensor for detecting the strength and speed of the tapping by the user;

상기 선택된 곡의 멜로디에 따른 반주를 생성하며 제어신호에 따라 템포와 음의 세기를 제어하여 출력하는 음악연주부;A music player which generates accompaniment according to the selected song's melody and controls and outputs tempo and sound intensity according to a control signal;

상기 연주되는 곡의 현재의 음악정보를 그랙픽으로 시각화하여 디스플레이하는 그래픽 디스플레이부; 및A graphic display unit which visualizes and displays current music information of the played song as a graphic; And

상기 선택신호를 유입하여 상기 메모리에 해당 곡의 데이터를 리드하여 음악연주부에 출력하며, 상기 센서신호를 유입하여 상기 음악연주부와 그래픽 디스플레이부를 제어하는 중앙제어부를 구비함을 특징으로 한다.And a central control unit for inputting the selection signal to read data of the corresponding song in the memory and outputting the data to the music player, and introducing the sensor signal to control the music player and the graphic display unit.

사용자의 머리 움직임에 따라 입체적으로 디스플레이하기 위한 헤드트랙센서를 더 구비할 수 있다.The apparatus may further include a head track sensor for displaying three-dimensionally according to the movement of the user's head.

상기 그래픽 디스플레이부는 HMD(head mounted display)나, 프로젝터, 모니터 또는 LCD(liquid crystal display)화면으로 디스플레이함을 특징으로 한다.The graphic display unit may display a head mounted display (HMD), a projector, a monitor, or a liquid crystal display (LCD) screen.

사용자의 손 동작에 따라 연주곡의 볼륨과 템포를 조정하기 위해 센서신호를 상기 중앙제어부에 출력하는 데이터 글러브를 더 구비함을 특징으로 한다.And a data glove for outputting a sensor signal to the central control unit in order to adjust the volume and tempo of the music played according to the user's hand motion.

이하, 첨부 도면을 참조하여 본 발명의 실시예를 설명하기로 한다.Hereinafter, embodiments of the present invention will be described with reference to the accompanying drawings.

도 1은 본 발명에 의한 센서를 이용한 가상연주장치의 블록도이다.1 is a block diagram of a virtual performance device using a sensor according to the present invention.

도 1에 도시된 장치는 연주곡의 멜로디 데이터를 저장하는 메모리(18); 사용자가 연주하고자 원하는 곡을 메모리(18)에서 선택하기 위한 선택부(10), 멜로디에 따라 사용자가 손가락으로 두들기는 촉감의 세기와 빠르기를 감지하는 탭센서(12), 출력되는 연주곡의 템포와 볼륨을 제어하기 위한 데이터 글러브(data glove)(16), 사용자의 머리움직임을 감지하기 위한 헤드트랙센서(14), 헤드트랙센서(14)에 의한 머리위치정보에 따라 사용자의 관점을 달리하여 3차원 그래픽으로 디스플레이하는 디스플레이부(28), 헤드트랙센서(14)와 데이터 글러브(16), 탭센서(12)에서 감지되는 탭핑의 세기에 따라 연주되는 곡의 템포와 볼륨의 크기를 나타내는 객체를 그래픽으로 시각화하여 HMD(head mounted display) 등에 입체적으로 디스플레이하는 그래픽제어부(26), 탭센서(12)에서 감지되는 탭신호에 따라 선택된 곡의 미디음을 출력하는 음악연주부(22)와 선택신호를 유입하여 상기 메모리에 해당 곡의 데이터를 리드하여 음악연주부에 출력하며, 상기 센서신호를 유입하여 상기 음악연주부(22)와 그래픽제어부(26)를 제어하는 중앙제어부(20)를 구비한다.The apparatus shown in FIG. 1 includes a memory 18 for storing melody data of a performance song; A selection unit 10 for selecting a song that the user wants to play in the memory 18, a tap sensor 12 which senses the strength and speed of the user's tactile touch with a finger according to the melody, and a tempo of the output song Data glove (16) for controlling the volume, the head track sensor 14 for detecting the user's head movement, the head position information by the head track sensor 14 to change the user's perspective 3 An object indicating the tempo and volume of the song played according to the intensity of tapping detected by the display unit 28, the head track sensor 14, the data glove 16, and the tap sensor 12, which are displayed in the dimensional graphics. Graphical control unit 26 for visualizing graphically and three-dimensional display such as head mounted display (HMD), and music player 22 for outputting the MIDI sound of the selected song according to the tap signal detected by the tap sensor 12 and A central control unit 20 which inputs a selection signal and reads data of a corresponding song into the memory and outputs the data to a music player, and inflows the sensor signal to control the music player 22 and the graphic controller 26; Equipped.

도 2는 도 1에 도시된 장치에서의 가상 연주과정을 나타내는 흐름도이다.2 is a flowchart illustrating a virtual playing process in the apparatus shown in FIG. 1.

도 2의 흐름도를 참조하여 개괄적으로 동작을 구분하여 보면, 사용자가 메모리(18)에 멜로디 데이터가 저장된 곡들 중에서 연주하고자 하는 곡을 선택부(10)를 통하여 선택하는 30단계와, 센서를 감지하는 단계로서 선택된 연주곡의 멜로디에 맞추어 사용자가 한 손으로 두드리는 탭의 감지와, 사용자 머리의 위치, 사용자의 다른 쪽 손에 장착한 데이터 글러브(16)의 손동작 움직임을 감지하는 32단계와, 탭신호에 따라 선택된 곡의 해당 멜로디에 대한 반주곡을 생성함과 동시에 데이터 글러브(16)에 의한 손동작 감지신호에 따라 연주되는 곡의 템포와 볼륨을 조절하는 34단계, 멜로디의 음높이와 32단계에서 감지된 탭의 빠르기에 따라 대응하여 변하는 객체를 화면상에 디스플레이하며 헤드트랙센서(14)에 따라 사용자의 관점에서 입체적으로 디스플레이하는 36단계로 구분된다.Referring to the flowchart of FIG. 2, the operation is generally divided into steps 30 through which the user selects a song to be played through the selection unit 10 among songs in which the melody data is stored in the memory 18, and detects a sensor. In step 32, the user senses tapping with one hand according to the melody of the selected music, position of the user's head, and hand movement of the data glove 16 mounted on the other hand of the user; The tap detected in step 34 and step 32 of adjusting the tempo and volume of the song played according to the hand gesture detection signal by the data glove 16 while simultaneously generating an accompaniment for the corresponding melody of the selected song according to the Display objects that change correspondingly according to the fast speed on the screen, and display them three-dimensionally from the user's point of view according to the head track sensor 14. It is divided into 36 steps:

세부적인 동작을 살펴보면 중앙제어부(20)는 선택부(10)의 선택신호에 따라 해당 곡을 메모리(18)로부터 리드하여 음악연주부(22)에 출력한다. 사용자가 연주되는 곡의 멜로디에 따라 탭센서(12)를 소정의 세기와 빠르기로 사용자의 감정에따라 변화를 주어 두드리면 중앙제어부(20)는 센서신호에 따라 음악연주부(22)와 그래픽제어부(26)를 제어한다. 음악연주부(22)에서는 탭센서(12)에서 감지된 탭신호에 따라 선택된 곡의 멜로디에 맞추어 반주를 출력하며 탭센서(12)에서 감지된 세기와 따라 연주곡의 멜로디음의 세기를 제어한다.In detail, the central controller 20 reads the corresponding song from the memory 18 according to the selection signal of the selector 10 and outputs the corresponding song to the music player 22. When the user taps the tap sensor 12 according to the user's emotion at a predetermined strength and speed according to the melody of the song being played, the central controller 20 may play the music player 22 and the graphic controller according to the sensor signal. 26). The music player 22 outputs accompaniment according to the melody of the selected song according to the tap signal sensed by the tap sensor 12, and controls the strength of the melody sound of the performance song according to the intensity detected by the tap sensor 12.

도 3은 연주되는 곡의 주 멜로디 트랙에 맞추어 탭센서(12)를 두드릴 때 각 탭에 따라서 음악연주부(22)에서 자동으로 반주가 출력되는 것을 설명하기 위한 악보이다. 여기서, 참조부호 37, 39는 사용자가 두드리는 제1탭과 제3탭에 따라 출력되는 각각의 반주트랙을 나타내고 참조부호 38은 제2탭에서 반주가 없는 경우를 나타내며 손가락으로 탭센서(12)를 두들김으로서 해당 멜로디를 진행시키고 생성된 반주트랙을 자동으로 연주한다. 멜로디가 연주되는 트랙인데 멜로디가 연주되어야 할 시점마다 손가락으로 탭센서(12)를 두들기면 멜로디가 연주되고 반주는 자동적으로 따라서 연주된다. 그리고, 반주가 끝난 후에 다음 멜로디를 연주하기 위한 손가락 입력이 들어오기를 기다리면서 연주는 멈추게 되며, 멜로디 연주가 원래 속도보다 느리게 나오면 반주도 멜로디에 맞추어서 대기상태가 된다. 또한, 사용자가 멜로디에 대한 탭동작이 너무 빨라서 반주가 나오는 도중에 멜로디 음을 연주하려고 하면 연주되지 않고 제 시간에 맞추어서 연주된다. 이때, 연주되는 음악의 템포를 빠르게 하거나 느리게 하는 것은 데이터 글러브(16)를 올리거나 내려서 제어한다. 중앙제어부(20)는 데이터 글러브(16)에서 감지된 신호에 따라 음악연주부(22)를 제어한다.3 is a score for explaining that the accompaniment is automatically output from the music player 22 according to each tap when tapping the tap sensor 12 in accordance with the main melody track of the song to be played. Here, reference numerals 37 and 39 denote respective accompaniment tracks output according to the first tap and the third tap that the user taps, and reference numeral 38 denotes a case in which there is no accompaniment in the second tap. By tapping, you play the corresponding melody and play the generated accompaniment track automatically. When the melody is played, the melody is played by tapping the tap sensor 12 with a finger every time the melody is to be played, and the accompaniment is automatically played accordingly. After the accompaniment is finished, the performance is stopped while waiting for a finger input to play the next melody, and when the melody performance is slower than the original speed, the accompaniment also becomes a standby state according to the melody. Also, if the user attempts to play a melody note while the accompaniment is played because the tap operation for the melody is too fast, it is not played but is played on time. At this time, to speed up or slow down the tempo of the music being played is controlled by raising or lowering the data glove 16. The central controller 20 controls the music player 22 according to the signal detected by the data glove 16.

한편, 그래픽제어부(26)는 멜로디의 음 높이와 빠르기를 시각적으로 형상화하여 그래픽의 각 객체 움직임의 빠르기를 제어하고, 두들김의 세기에 따라 객체의 사이즈를 제어하여 사용자가 장착한 디스플레이부(28)에 입체적으로 디스플레이한다. 따라서, 사용자가 멜로디와 취향에 따라 손가락으로 두들기는 시점과 세기를 반영한 입체적인 화면을 사용자가 볼 수 있다.Meanwhile, the graphic controller 26 visually shapes the pitch and speed of the melody to control the speed of movement of each object in the graphic, and controls the size of the object according to the strength of the beat so that the user is equipped with the display unit 28. Display in three dimensions. Therefore, the user can see a three-dimensional screen reflecting the time and intensity of the user's finger tapping according to the melody and taste.

헤드트랙센서(14)는 사용자의 머리에 장착되어 사용자의 머리 움직임 정보를 중앙제어부(20)에 전송하면, 중앙제어부(20)는 그래픽제어부(26)를 제어하여 사용자가 머리 움직임에 따라 입체적으로 연주되는 음악정보가 디스플레이되도록 한다.When the head track sensor 14 is mounted on the user's head and transmits the user's head movement information to the central controller 20, the central controller 20 controls the graphic controller 26 so that the user can three-dimensionally change the head movement. Allows music information to be displayed to be displayed.

또한, 중앙제어부(20)는 데이터 글러브(16)를 착용한 사용자가 주먹을 쥐었다가 펴는 정도의 감지신호를 유입하여 음악연주부(22)에서 출력되는 연주곡의 볼륨이 작게 또는 크게 되도록 제어한다.In addition, the central control unit 20 controls the volume of the playing music output from the music player 22 by introducing a detection signal of the degree that the user wearing the data glove 16 clenched his fist and straightened.

도 4는 도 1의 디스플레이부에서 연주되는 곡의 템포와 볼륨 등의 정보를 가상공간의 우주에 대응시켜 디스플레이한 일실시예의 화면이다.4 is a screen of an exemplary embodiment in which information such as tempo and volume of a song played in the display unit of FIG. 1 is displayed in correspondence with the universe of a virtual space.

도 4에서, 우주 천체를 배경으로 하여 지구(42)를 중심으로 주위의 작은 소행성들이 위치하여 연주곡의 템포, 볼륨 등 연주되는 음악의 정보를 나타낸다. 지구(42)의 크기는 현재 연주되는 음악의 볼륨으로 표현되며, 볼륨이 커질수록 지구(42)의 크기는 커지며, 작아지면 지구(42)의 크기가 작게 디스플레이된다. 화면 상부에 위치한 행성(40)은 현재 연주되는 음의 높이를 나타내고, 행성(43)은 이미 연주된 음들을 나타내며, 행성(44)은 현재의 멜로디 음을 나타내며 멜로디 음이 다음 멜로디 음을 나타내는 행성(46)까지 사이에 연결되어 위치한 행성들은 다음 음이 연주될 시점까지 해당 행성들의 칼라가 순차적으로 바뀜으로써 사용자는 다음음이 연주될 시점을 쉽게 알 수 있다.In FIG. 4, small asteroids around the earth 42 are located in the background of the cosmic celestial body to show information of music to be played, such as tempo and volume of the music. The size of the earth 42 is represented by the volume of the music currently being played. As the volume increases, the size of the earth 42 increases, and when the size decreases, the size of the earth 42 is displayed smaller. Planet 40 at the top of the screen represents the height of the currently playing note, planet 43 represents the notes already played, planet 44 represents the current melody note and the melody note represents the next melody note. The connected planets up to (46) are sequentially changed colors until the next note is played, so that the user can easily know when the next note is to be played.

도 1에 도시된 장치에서 각 센서는 RS-232C 프로토콜을 이용하여 중앙제어부(20)와 접속되며, 주요 구성요소를 컴퓨터와 사운드 확장카드를 이용하여 구현될 수 있으며 선택부(10)는 컴퓨터의 키보드나 태블릿(tablet), 타치스크린 등으로서 대체할 수 있다. 또한, 일종의 음악정보교류를 위한 프로토콜(API)을 이용하는 모듈간의 통신방법을 이용하면 기존의 음악연주시스템과 연결하여 실행시킬 수 있다. 또한, 본 발명으로부터 디스플레이를 HMD 대신에 LCD(liquid crystal display)로 하고 볼륨조정버튼과 탭센서(12)를 연주기 본체에 장착시키면 간단한 휴대용연주장치 등과 같은 다양한 변형 실시예가 가능한다.In the apparatus shown in FIG. 1, each sensor is connected to the central control unit 20 using the RS-232C protocol, and main components may be implemented using a computer and a sound expansion card. It can be replaced by a keyboard, tablet, or touch screen. In addition, by using a communication method between modules using a protocol (API) for music information exchange, it can be executed in connection with an existing music playing system. In addition, from the present invention, if the display is an LCD (liquid crystal display) instead of the HMD and the volume adjustment button and the tap sensor 12 are mounted on the main body of the player, various modified embodiments such as a simple portable playing device are possible.

기존의 악기 연주를 배우기 위해서는 많은 시간과 노력이 필요하지만, 본 발명에 의하면 디스플레이되는 그래픽 화면에 따라 연주곡의 멜로디에 맞추어 사용자가 탭을 두드림으로써 멜로디에 따라 자동으로 반주가 출력되어 해당 곡을 손쉽게 연주할 수 있으며, 연주되는 곡의 빠르기와 볼륨, 멜로디 음의 높이 등이 각 객체로서 입체적으로 시각화되어 나타남으로써 보다 흥미를 갖고 연주할 수 있다. 이는 유아 및 악기에 대한 훈련이 부족한 사람들이 쉽게 연주할 수 기능을 제공한다.It takes a lot of time and effort to learn to play a traditional instrument, according to the present invention, the accompaniment is automatically output according to the melody by tapping the tab in accordance with the melody of the performance in accordance with the graphic screen displayed to easily play the song The speed, volume, and melody height of the song being played can be displayed with three-dimensional visualization of each object, making it possible to play with more interest. It provides the ability to play easily by infants and those who lack training on musical instruments.

Claims (7)

소정의 곡을 사용자의 탭 동작을 감지하는 센서 또는 키보드, 태블렛(tablet), 타치 스크린 등에 따라 상기 곡에 대한 연주음을 출력시키고 시각적인 영상으로 변화시켜 연주하는 가상연주방법에 있어서,In the virtual playing method of playing a predetermined song by playing a sensor or a keyboard that detects the user's tap operation, the tablet (tablet), the touch screen, etc., the sound of the song and changing to a visual image, 사용자가 상기 곡의 멜로디에 대응하여 두드리는 탭 동작과, 데이터 글러브를 통한 동작을 감지하는 과정;Detecting a tap operation by a user in response to a melody of the song and a motion through a data glove; 상기 탭 동작이 감지되면 상기 선택된 곡의 멜로디에 대한 반주를 생성하여 연주하는 과정; 및Generating and playing an accompaniment for the melody of the selected song when the tap motion is detected; And 사용자가 연주하기에 도움을 줄 수 있도록 상기 선택곡의 멜로디 음의 높이와 템포, 탭의 세기, 볼륨크기에 대한 정보를 각 음과 대응되는 객체들의 크기와 빠르기의 변화로서 화면상에 시각화하여 디스플레이하는 과정을 포함함을 특징으로 하는 센서를 이용한 가상연주방법.In order to help the user play, the information about the height, tempo, tap strength, and volume of the melody of the selected song is visualized and displayed on the screen as a change in size and speed of the object corresponding to each note. Virtual playing method using a sensor, characterized in that it comprises a process for. 제1항에 있어서, 데이터 글러브 감지신호에 따라 연주곡의 템포와 볼륨을 제어하는 과정을 더 포함함을 특징으로 하는 센서를 이용한 가상 연주방법.The method of claim 1, further comprising controlling a tempo and a volume of a performance song according to the data glove detection signal. 제1항에 있어서,The method of claim 1, 상기 디스플레이하는 과정은 입체적으로 디스플레이됨을 특징으로 하는 센서를 이용한 가상 연주장치.The displaying process is a virtual playing device using a sensor characterized in that the three-dimensional display. 멜로디 데이터의 연주곡을 저장하는 메모리;A memory for storing a performance song of melody data; 상기 저장된 곡 중에서 연주할 곡을 선택하는 선택부;A selection unit for selecting a song to play from the stored songs; 사용자가 두드리는 탭의 세기와 빠르기를 감지하는 탭센서;A tap sensor for detecting the strength and speed of the tapping by the user; 상기 선택된 곡의 멜로디에 따른 반주를 생성하며 제어신호에 따라 템포와 음의 세기를 제어하여 출력하는 음악연주부;A music player which generates accompaniment according to the selected song's melody and controls and outputs tempo and sound intensity according to a control signal; 상기 연주되는 곡의 현재의 음악정보를 그랙픽으로 시각화하여 디스플레이하는 그래픽 디스플레이부; 및A graphic display unit which visualizes and displays current music information of the played song as a graphic; And 상기 선택신호를 유입하여 상기 메모리에 해당 곡의 데이터를 리드하여 음악연주부에 출력하며, 상기 센서신호를 유입하여 상기 음악연주부와 그래픽 디스플레이부를 제어하는 중앙제어부를 구비함을 특징으로 하는 센서를 이용한 가상 연주장치.A sensor having a central control unit for inputting the selection signal to read data of the corresponding song in the memory and outputting the data to the music player, and introducing the sensor signal to control the music player and the graphic display unit; Virtual playing device used. 제3항에 있어서, 사용자의 머리 움직임에 따라 입체적으로 디스플레이하기 위한 헤드트랙센서를 더 구비함을 특징으로 센서를 이용한 가상 연주장치.The virtual performance device using the sensor according to claim 3, further comprising a head track sensor for displaying three-dimensionally according to the movement of the user's head. 제3항에 있어서, 상기 그래픽 디스플레이부는 HMD(head mounted display)로 디스플레이함을 특징으로 하는 센서를 이용한 가상 연주장치.The virtual performance device using a sensor according to claim 3, wherein the graphic display unit displays a head mounted display (HMD). 제3항에 있어서, 사용자의 손 동작에 따라 연주곡의 볼륨과 템포를 조정하기 위해 센서신호를 상기 중앙제어부에 출력하는 데이터 글러브를 더 구비함을 특징으로 하는 센서를 이용한 가상 연주장치.4. The virtual playing apparatus according to claim 3, further comprising a data glove for outputting a sensor signal to the central control unit in order to adjust the volume and tempo of the playing song according to a user's hand motion.
KR1020000003667A 2000-01-26 2000-01-26 Virtual musical performance apparatus and method thereof using sensor KR100312750B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020000003667A KR100312750B1 (en) 2000-01-26 2000-01-26 Virtual musical performance apparatus and method thereof using sensor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020000003667A KR100312750B1 (en) 2000-01-26 2000-01-26 Virtual musical performance apparatus and method thereof using sensor

Publications (2)

Publication Number Publication Date
KR20010076489A KR20010076489A (en) 2001-08-16
KR100312750B1 true KR100312750B1 (en) 2001-11-03

Family

ID=19641579

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020000003667A KR100312750B1 (en) 2000-01-26 2000-01-26 Virtual musical performance apparatus and method thereof using sensor

Country Status (1)

Country Link
KR (1) KR100312750B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8666695B2 (en) 2009-09-22 2014-03-04 Samsung Electronics Co., Ltd. Real-time motion recognition system and method

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100343229B1 (en) * 2000-06-23 2002-07-05 유현철 Drum practice device
KR100703262B1 (en) * 2005-02-26 2007-04-03 삼성전자주식회사 Apparatus and method for controlling music play in mobile communication terminal
KR100756347B1 (en) * 2006-08-08 2007-09-10 강지영 Electronic device for musical performance by using a sensor
KR101082589B1 (en) 2009-07-23 2011-11-10 한국과학기술원 System for providing Aspect Level News Browsing Service that reduce Media-Bias Effect and Method therefor
KR101602724B1 (en) 2014-12-17 2016-03-14 경북대학교 산학협력단 System for Constructioning Skin in Interactive Architectural and Method Thereof
KR101631516B1 (en) 2015-02-23 2016-06-27 경북대학교 산학협력단 System for Generating Free Form of Digital Architectural Design and Method thereof
CN108257586A (en) * 2018-03-12 2018-07-06 冯超 A kind of portable performance equipment, music generating method and system
US20210030348A1 (en) * 2019-08-01 2021-02-04 Maestro Games, SPC Systems and methods to improve a user's mental state
KR102306630B1 (en) * 2020-01-31 2021-09-28 손영철 Effect sound producer for singing room
KR102193719B1 (en) * 2020-06-30 2020-12-21 안주영 Music visualizing sysmem, method and computer readable recording medium

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8666695B2 (en) 2009-09-22 2014-03-04 Samsung Electronics Co., Ltd. Real-time motion recognition system and method
US8990042B2 (en) 2009-09-22 2015-03-24 Samsung Electronics Co., Ltd. Real-time motion recognition system and method

Also Published As

Publication number Publication date
KR20010076489A (en) 2001-08-16

Similar Documents

Publication Publication Date Title
US8858330B2 (en) Music video game with virtual drums
US20110191674A1 (en) Virtual musical interface in a haptic virtual environment
US8360836B2 (en) Gaming device, game processing method and information memory medium
JP2003177663A5 (en)
JP2009527782A (en) Apparatus and method for generating note signal and apparatus and method for outputting output signal indicating pitch class
KR100312750B1 (en) Virtual musical performance apparatus and method thereof using sensor
WO2009007512A1 (en) A gesture-controlled music synthesis system
Ward et al. Music technology and alternate controllers for clients with complex needs
US20140149911A1 (en) Electronic musical instrument and application for same
JP4692189B2 (en) Ensemble system
WO2006011342A1 (en) Music sound generation device and music sound generation system
WO2007133971A2 (en) Method and system for processing music on a computer device
JP2004271783A (en) Electronic instrument and playing operation device
JP2007034115A (en) Music player and music performance system
JP4131279B2 (en) Ensemble parameter display device
JP2016062081A (en) Music teaching device
Baloian et al. Visualization for the Mind’s Eye
KR101476526B1 (en) Method learning music with smart device
JP2008165098A (en) Electronic musical instrument
JP4407354B2 (en) Electronic game machine
Sourin Music in the air with leap motion controller
US20150325225A1 (en) Method for musical composition, musical composition program product and musical composition system
JP6552065B2 (en) Performance equipment
JP3866745B2 (en) GAME DEVICE, ITS CONTROL METHOD, AND PROGRAM
McGlynn Interaction design for digital musical instruments

Legal Events

Date Code Title Description
A201 Request for examination
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20081014

Year of fee payment: 8

LAPS Lapse due to unpaid annual fee