WO2012026681A2 - 네트워크를 이용한 가상현실 무도 시스템 및 그 제어 방법 - Google Patents

네트워크를 이용한 가상현실 무도 시스템 및 그 제어 방법 Download PDF

Info

Publication number
WO2012026681A2
WO2012026681A2 PCT/KR2011/005467 KR2011005467W WO2012026681A2 WO 2012026681 A2 WO2012026681 A2 WO 2012026681A2 KR 2011005467 W KR2011005467 W KR 2011005467W WO 2012026681 A2 WO2012026681 A2 WO 2012026681A2
Authority
WO
WIPO (PCT)
Prior art keywords
user
motion
image
information
dalian
Prior art date
Application number
PCT/KR2011/005467
Other languages
English (en)
French (fr)
Other versions
WO2012026681A9 (ko
WO2012026681A3 (ko
Inventor
윤상범
Original Assignee
Yun Sang Bum
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from KR1020100082129A external-priority patent/KR101007944B1/ko
Priority claimed from KR1020100082131A external-priority patent/KR101007947B1/ko
Application filed by Yun Sang Bum filed Critical Yun Sang Bum
Publication of WO2012026681A2 publication Critical patent/WO2012026681A2/ko
Publication of WO2012026681A3 publication Critical patent/WO2012026681A3/ko
Publication of WO2012026681A9 publication Critical patent/WO2012026681A9/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/285Analysis of motion using a sequence of stereo image pairs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • G06T2207/10021Stereoscopic video; Stereoscopic image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person

Definitions

  • the present invention relates to a virtual reality martial arts apparatus and a method thereof, and more particularly, a network for detecting a plurality of user motions using a network and performing martial arts training, examination and training in a virtual space in comparison with a pre-programmed reference motion.
  • the present invention relates to a virtual reality martial arts system and its control method.
  • the martial arts defined in the present invention mean all kinds of martial arts such as taekwondo, kung fu, karate, pore, kendo and marshall art, and various fighting sports such as boxing, wrestling and martial arts.
  • An object of the present invention is to detect a large number of user motions using a network, perform a competition and training in a virtual space by comparing with a pre-programmed reference motion, and implement this as a stereoscopic image to exchange and mutual information in real time between the practitioner and the device. By doing so, the practitioner alone can effectively perform martial arts training and judging based on the contents of the training through real-time posture correction.
  • Another object of the present invention it is possible to effectively compete with the remote Dalian through network communication, it is possible to select the Dalian according to various Dalian conditions according to the item, grade, region and gender.
  • Still another object of the present invention is that there is no risk of injury due to the competition with the virtual character of the Dalian, and since there is no risk of injury, the attack area can be attacked anywhere without limiting the effect of the Dalian.
  • the present invention by detecting the user's body movement, compared to the virtual character movement of the remote Dalian and perform the dalian and display and configure it as an image without being subjected to time and space constraints in the home or school or school, By interacting in real time through the exchange of information, you can effectively fight against yourself and avoid the risk of injury.
  • the present invention can be applied to a variety of fields, such as various dances, gymnastics, sports, etc. in addition to the above-described martial arts field can learn a standardized body motion.
  • FIG. 1 is a block diagram showing a virtual reality martial arts system using a network in accordance with the present invention.
  • FIG. 2 is a block diagram illustrating a user terminal of FIG. 1.
  • FIG. 2 is a block diagram illustrating a user terminal of FIG. 1.
  • Figure 3 is a perspective view showing an embodiment for implementing a virtual reality martial arts training system using a hologram according to the present invention.
  • FIG. 4 is a plan view of FIG.
  • FIG. 5 is a conceptual diagram illustrating an example of implementing an image using a hologram display module.
  • FIG. 6 is a conceptual diagram illustrating an example of implementing an image using a 3D stereoscopic image display module.
  • FIG. 7 is a view showing an embodiment of the 3D stereoscopic glasses of FIG.
  • FIG. 8 is a conceptual diagram illustrating an example using an HMD module.
  • FIG. 9 illustrates an embodiment of the HMD module of FIG. 8.
  • FIG. 10 is a screen configuration diagram showing an image of the user operation and the correction value according to the present invention.
  • 11 and 12 are flowcharts illustrating a control method of a virtual reality martial arts system using a network according to the present invention, and a control flowchart illustrating a virtual reality martial arts training and screening method.
  • FIG. 13 and 14 are flow charts showing a control method of the virtual reality martial arts ball system using a network according to the present invention, a control flowchart showing a virtual reality martial arts method.
  • FIG. 1 is a block diagram showing a virtual reality martial arts training system using a network according to the present invention.
  • the present invention is a network manager terminal 10, network server 20, user information management means 21, training information management means 22, examination information management means 23, examination decision management means ( 24, video information management means 25, communication means 26, Dalian information management means 27, Dalian progress information management means 28, data management means 30, user information DB 31, training Information DB 32, Examination Information DB 33, Examination Decision DB 34, Video Information DB 35, Dalian Information DB 32, Dalian Progress Information DB 33, Internet Network 40 and Users Terminal 50 is included.
  • the network server 20 includes user information management means 21, training information management means 22, examination information management means 23, examination decision management means 24, video information management means 25, and communication means 26. ).
  • the user information management means 21 receives the user information transmitted from the user terminal 50 and logs in by comparing with the previously stored information.
  • the training information management means 22 transmits corresponding training progress information according to the training item and the grade transmitted from the user terminal 50, receives the training results, updates and manages the training results.
  • the training progress information may include information such as the number of times of training, date, access time, and cumulative time according to each item and grade.
  • the audit information management means 23 transmits the corresponding review information according to the audit item and the grade transmitted from the user terminal 50, receives the audit result, updates and manages the audit result.
  • the judging determination management means 24 determines whether the examination is passed according to the difference value transmitted from the user terminal 50, and determines the acceptance and grade in a relative evaluation method in the classification according to the region, age, and gender ranking. do.
  • the Dalian information management means 27 transmits and receives Dalian information to the user terminal 50, and updates and manages Dalian's grade, region, gender information and Dalian records.
  • Dalian progress information management means 28 transmits and receives the Dalian progress information to the user terminal 50, and updates and manages Dalian order, victory and deduction information, win and lose information, ranking information.
  • the Dalian progress information management means 23 may manage the Dalian ranking according to region, age, and gender, but determine the ranking by a relative evaluation method of determining the ranking within the classification.
  • Image information management means 25 receives, updates and manages the user motion image transmitted from the user terminal 50.
  • the communication means 26 transmits and receives information with the user terminal 50.
  • the data management means 30 inputs and outputs each piece of information at the request of the network server 20.
  • the data management means 30 includes a user information DB 31 for storing user information; A training information DB 32 for storing training progress information; An examination information DB 33 for storing the examination proceeding information; A judging decision DB 34 for storing judging decision information; A Dalian information DB 36 for storing Dalian information; Dalian progress information DB 37 for storing Dalian progress information; Image information DB (35) for storing the user's motion image.
  • the network manager terminal 10 accesses the network server 20 to transmit and receive network manager information.
  • the training information management means 22 and the examination information management means 23 aggregate the region, age and gender rank according to the difference value and the size of the correction value, and update the respective training and examination information.
  • the user terminal 50 may be installed in a home or a painting or a school, and may be used without being restricted by time and space.
  • the user terminal 50 is connected to the Internet network 40 to transmit and receive user information with the network server 20, select the training item and class to receive the training progress information accordingly or select the audit item and class
  • the network server 20 selects the training item and class to receive the training progress information accordingly or select the audit item and class
  • the area classification of the user terminal 50 is preferably confirmed through an access IP of a user assigned by an ISP (Internet Service Provider).
  • ISP Internet Service Provider
  • FIG. 2 is a block diagram illustrating the user terminal of FIG. 1
  • FIG. 3 is a perspective view showing an embodiment for implementing a virtual reality martial arts training system using a hologram according to the present invention
  • FIG. 4 is a plan view of FIG. 3. to be.
  • the user terminal 50 of the present invention the input unit 100, login key 110, training condition selection key 120, examination condition selection key 130, Dalian condition selection key 120, Motion recognition unit 200, motion capture camera 210, geomagnetic sensor 220, acceleration sensor 230, gyro sensor 240, position sensor 300, resistive touch pad 310, control unit 400 ), Program driving module 410, motion determination module 420, comparison module 430, determination module 440, image generation module 450, sound generation module 460, hitting drive module 470, data
  • the sound output unit 800, a speaker 810, a user image photographing unit 900, a blow driving unit 1000, a vibration motor 1010, and a low frequency stimulator 1020 are included.
  • the input unit 100 receives user information and logs in, and selects training conditions or examination conditions for each grade. In addition, select the sport, class, region and gender competition conditions.
  • the input unit 100 is composed of a login key 110, a training condition selection key 120, an examination condition selection key 130, a Dalian condition selection key 120.
  • the login key 110 identifies and logs in the true user through the input user information.
  • the user may log in by inputting numbers, letters, etc. through the login key 110, or may log in using a separate card or an electronic chip.
  • the training condition selection key 120 selects any one training program to be executed from a plurality of pre-stored training programs, and the examination condition selection key 130 selects the corresponding audit program for each grade.
  • the competition condition selection key 120 selects any one of a plurality of items, grades, regions, and gender competition conditions stored in advance, or a combination thereof.
  • the motion recognition unit 200 recognizes a user's motion.
  • the motion recognition unit 200 may be composed of a plurality of motion capture camera 210, as shown in FIG.
  • the plurality of motion capture cameras 210 are arranged to photograph the user from various angles, attach a plurality of markers to the body of the user, and detect the motion of the marker by infrared photographing to recognize the user's motion.
  • the marker is attached to the user's head, torso, both wrists and both ankles, the user's body is preferably interpreted as a set of joint models having a link structure.
  • motion capture refers to an operation of attaching a sensor to a body to record a human body's motion in digital form. After attaching the sensor to various parts of the body, the position of the sensor allows the virtual character to move in the same motion.
  • Motion capture is the process of storing a physical object's motion as numerical data and handing it over to a virtual object made by a computer.
  • the term "motion capture” refers to the input of a physical object's motion into a computer and stored as numerical data on the computer.
  • a quick look at the process involves attaching a sensor that can detect motion to an object, and storing numerical data as the object moves at regular intervals.
  • CG-processed video using motion capture has the advantage of showing high quality video with more realistic motion.
  • a special marker (sensor) is attached to the joint of a person. And the position and rotation data of the markers are recognized in real time by a special device to create a 'motion data set' or 'motion curve'.
  • Infrared reflector method captures the motion of the markers of the joint of the motion actor by six to eight cameras in two dimensions and tracks the motion in three dimensions.
  • the gesture recognition unit 200 may attach one of the geomagnetic sensor 220, the acceleration sensor 230, and the gyro sensor 240 to the user's body or a combination thereof.
  • the geomagnetic sensor 220 detects the direction of the geomagnetic.
  • the geomagnetic sensor 220 detects the magnetic field of the earth and can know information about east, west, north and south like a compass.
  • the acceleration sensor 230 detects acceleration by generating acceleration in the piezoelectric material.
  • the acceleration sensor 230 generates acceleration in a conventional piezoelectric material, a force is applied to generate an electric charge.
  • the gyro sensor 240 detects the rotation angle acceleration through the vertical force of the rotation angle.
  • the gyro sensor 240 generates a Coriolis force in the vertical direction of the rotating angle, and detects the vertical force in the same principle as the acceleration sensor.
  • the position detecting unit 300 may detect a position and weight movement of the user by detecting a movement position and pressure of the user's foot on a plane.
  • the position detecting unit 300 may be a resistive touch pad 310 having a scaffold type disposed on the bottom surface.
  • the resistive touch pad 310 has a predetermined area and is formed of two panels overlapped to generate a resistance in the pressure part, thereby measuring the position of the coordinate pressed by the user's foot and the pressure thereof.
  • the data storage unit 500 stores training programs for each grade and a screening program corresponding to the selection of the input unit 100, stores the moving speed, distance, position, and angle for a reference motion in advance, and stores user information and determination results. Save it.
  • the data storage unit 500 stores a competition program corresponding to a selection, a grade, a region, and a gender competition condition corresponding to the selection of the input unit 100, and stores user information and a determination result.
  • the data storage unit 500 may be configured by various data storage means such as a hard disk storage device or a RAM.
  • the control unit 400 drives the training program or the examination program stored in the data storage unit 500 according to the selection result of the input unit 100, recognizes a user's motion through the motion recognition unit 200, and Determine the correct motion of the user according to the movement position of the user detected from the position sensor 300, and the moving speed, distance, position and angle for the determined user motion and the reference motion stored in the data storage 500 Compare and detect the difference value, and generate a correction value indicative of the correct operation of the user according to the calculated difference value, or determine whether the user passed the examination and determine the corresponding grade to store in the data storage unit 500 Generate a user motion image by using a pre-stored virtual character, generate a correction image of the calculated difference value and the correction value, and describe the corresponding motion image. Print the phrase.
  • the controller 400 drives the corresponding Dalian program stored in the data storage unit 500 according to the selection result of the input unit 100, and detects the user's motion and the position recognized by the motion recognition unit 200. Determining the correct user motion in the 3D space with reference to the movement position of the user's foot detected by the unit 300, and compares the user's motion with the opponent's motion of the opponent to determine the effective value of the attack, and determine the corresponding score to the victory or deduction Accumulate and generate a user motion image and a Dalian action image using a pre-stored virtual character, and generate a user hit response image and a Dalian hit response image using a virtual character of the opponent according to the determined effective attack value.
  • the driving force signal can be generated accordingly.
  • control unit 400 includes a drive module 470.
  • the program driving module 410 drives the training program or the audit program stored in the data storage unit 500 according to the selection result of the training program selection module 120 or the audit program selection module 130.
  • the program driving module 410 drives the corresponding Dalian program stored in the data storage unit 500 according to the selection result of the item, the grade, the region, and the gender related condition of the input unit 100.
  • the motion determination module 420 recognizes the user's motion through the motion recognition unit 200 and determines the correct motion of the user in the 3D space according to the movement position of the user detected by the position detection unit 300. .
  • the comparison module 430 detects the operation difference value by comparing the movement speed, distance, position, and angle with respect to the user motion determined from the motion determination module 420 and the reference motion stored in the data storage unit 500.
  • comparison module 430 may compare whether the operations of the user and the Dalian movement overlap each other in a predetermined space.
  • the determination module 440 generates a correction value indicating a correct operation of the user according to the difference value calculated by the comparison module 430 when the training program is driven, and is calculated by the comparison module 430 when the examination program is driven.
  • the difference of the operation difference is judged by judging by passing the evaluation standard value, and the corresponding grade is determined.
  • the correction value generated by the determination module 440 has a predetermined range, and the number of training sessions of the user is counted so that the accuracy of the calibration value is gradually decreased to increase its accuracy as the training times increase. desirable. As a result, the user may acquire skills and improve skills in a natural manner so that the user is not overwhelmed.
  • the determination module 440 is the effective value of the attack according to the moving speed, distance, position and angle of each movement when the user motion and the Dalian movements overlap in a certain space as a result of the comparison of the comparison module 430 Determine a corresponding score according to the magnitude of the attack effective value and accumulate victory points or deduction points.
  • the attack valid value has a certain range, and it is preferable to increase the accuracy by gradually decreasing the range of the attack valid value as the number of encounters is counted and the number of encounters increases.
  • the user may acquire skills and improve skills in a natural manner so that the user is not overwhelmed.
  • the image generation module 450 generates a user's motion image using a pre-stored virtual character, and compares the difference value calculated by the comparison module 430 and the correction value generated by the determination module 440 with the corresponding correction image. Create with phrase.
  • the correction image may be a graphic representation of a correction value in a vector form
  • the description phrase may be a correction or sentence recorded on the correction value
  • the image generation module 450 generates a user motion image and a Dalian motion image using a pre-stored virtual character, and a hit reaction using the virtual character of the opponent according to the attack valid value determined by the determination module 440.
  • An image can be generated.
  • the present invention may further include a user image capturing unit 900 for capturing an image of a user.
  • the control unit 400 may generate a user motion image by using the image actually captured by the user image capturing unit 900.
  • the sound generation module 460 generates description speech corresponding to the user motion image and the correction image. In addition, it can be generated along with the effect sound and background music. In addition, the user generates the sound effect and the background music according to the motion image of the user and the batter and the response image generated by the image generating module 450.
  • the main image display unit 600 synthesizes and displays the corrected image and the descriptive text generated according to the difference value and the correction value on the image of the user generated by the controller 400. In addition, the main image display unit 600 displays the user motion image and the Dalian motion image of the controller.
  • the main image display unit 600 may be any one of a 3D stereoscopic image display module 610, a holographic image display module 620, and an HMD module 630.
  • the present invention may further include a background image display unit 700 for displaying the effect image and the background image on the conventional flat panel display module 710.
  • the effect image and the background image are generated by the image generation module 450.
  • the blue star pattern may be displayed as the effect image
  • the red circular pattern may be displayed as the effect image
  • each effect image may be displayed while displaying the fireworks image as the background image. It can also be superimposed.
  • the blow driving module 470 generates and outputs a blow driving signal according to the effective attack value.
  • the impact driving unit 1000 implements a physical vibration or a shock according to the impact driving signal of the controller 400 and transmits it to the user's body.
  • the striking driving unit 1000 may include a vibration motor 1010 for generating vibration at a predetermined intensity according to the striking driving signal or a low frequency stimulator 1020 for outputting a low frequency signal at a predetermined intensity according to the striking driving signal.
  • the vibration motor 1010 and low frequency stimulator 1020 is preferably attached to the user wearable clothes to be in close contact with the user's body, the configuration can be selectively used wired or wireless communication method and power Rechargeable batteries can be used as a source.
  • the holographic image display module 620 of the present invention reproduces a continuous stereoscopic image by making interference stripes using the principle of holography.
  • FIG. 5 is a conceptual diagram illustrating an example of an image using a hologram display module.
  • a hologram is a three-dimensional image and looks three-dimensionally like the real thing, and is made using the principle of holography. It is a medium that records interference fringes that reproduce three-dimensional images.
  • the principle of holography is to split the beam from the laser into two, one light shining directly on the screen, and the other light shining on the object we want to see. In this case, the light directly shining on the screen is called a reference beam, and the light shining on the object is called an object beam. Since object light is light reflected from each surface of an object, the phase difference (distance from the surface of the object to the screen) varies depending on the surface of the object.
  • the unmodified reference light interferes with the object light, and the interference fringe is stored on the screen.
  • Films in which such interference fringes are stored are called holograms.
  • the ray used to record must be shot back on the screen plate.
  • the light beam used for reproduction must be exactly the same as the reference light used for recording because only waves with the same frequency as in recording are reproduced in three dimensions, and waves with different wavelengths and phases pass through the stored hologram without any effect. do.
  • the 3D stereoscopic image display module 610 displays a 3D stereoscopic image, which is displayed in stereoscopic form, through the 3D glasses 611 worn by the user and the 3D glasses 611.
  • the main image display unit 600 may be formed of a flat panel display device such as an ordinary LCD, an LED, or a PDP, and a 3D glasses 611 worn by a user may be further added to display a 3D stereoscopic image on a screen.
  • FIG. 6 is a conceptual diagram illustrating an example of an image using a 3D stereoscopic image display module
  • FIG. 7 is a diagram illustrating an embodiment of the 3D stereoscopic glasses of FIG. 5, wherein the 3D glasses 611 are polarized glasses or liquid crystals. Shutter glasses can be applied.
  • the polarized eyeglasses make a stereoscopic sense by separating the images photographed by the two cameras into light information in the vertical direction and the horizontal direction.
  • the liquid crystal shutter glasses require power by closing one side of the glasses to alternately view one by one.
  • a separate battery may be provided to be rechargeable.
  • the 3D glasses 611 of the present invention but the glasses legs are formed, it is also preferable to form the glasses legs in the form of a band.
  • FIG 8 and 9 illustrate an example in which the main image display unit 600 is configured as the HMD module 630.
  • FIG. 8 is a conceptual diagram illustrating an example using an HMD module
  • FIG. 9 is a diagram illustrating an embodiment of the HMD module of FIG. 8, wherein the head mounted display (HMD) module 630 is worn on a user's head.
  • the implemented image is displayed on the HMD screen.
  • HMD head mounted display
  • the HMD is divided into an open type and a closed type according to a mono and stereo type and shape. This has an even greater effect on immersion by blocking our view with HMD as we watch movies.
  • the screen uses CRT and LCD, but the latter is used a lot. This is because power consumption is low.
  • the background image display unit 700 displays the effect image and the background image generated by the image generation module 450.
  • the flat panel display module 710 may be applied to the background image display unit 700.
  • the flat panel display module 710 refers to a conventional flat panel display (FPD) composed of LCD, LED, or PDP.
  • the sound output unit 800 outputs a description voice corresponding to the correction value generated by the sound generation module 460 through the speaker 810.
  • the respective sound effects and background music for the main image, the effect image, and the background image may be output together with the description voice.
  • a plurality of speakers may be arranged to implement stereoscopic sound such as 5.1ch.
  • FIG. 10 is a screen configuration diagram showing a user motion and a correction value according to the present invention as an image.
  • a user motion image is generated using a pre-stored virtual character or a user image.
  • the difference value calculated by the comparison module 430 and the correction value generated by the determination module 440 may be generated as a correction image, and a corresponding description sentence may be output. That is, as shown, by displaying data such as angle, speed, power, etc. in each part of the main image, the user can confirm the accuracy of the operation by himself.
  • 11 and 12 are flowcharts illustrating a control method of a virtual reality martial arts system using a network according to the present invention, and in particular, a flowchart illustrating a martial arts training and screening method.
  • the user logs in to the network server 20 connected to the Internet network 40 using the user terminal 50.
  • the user information management means 21 of the network server 20 receives the user information transmitted from the user terminal 50, and compares with the information previously stored in the user information DB 31 to log in (S0101). ⁇ S0103).
  • a user may log in to the device by inputting user information by numbers, letters, etc. through the login key 110 of the input unit 100 of the user terminal 50.
  • a user may log in using a separate IC card or an electronic chip in which user information is input.
  • the training condition selection key 120 may select any one training condition to be executed among a plurality of pre-stored training conditions.
  • the audit condition selection key 130 may select any one of the audit conditions to be executed among a plurality of pre-stored audit condition.
  • the training item and grade selected by the user terminal 50 are transmitted to the network server 20, and the training progress information according to the training item and grade is trained by the training information management means 22.
  • the information is read from the DB 32 and transmitted to the user terminal 50, and the user terminal 50 drives the training program accordingly (S0104 to S0107).
  • the audit item and the rating selected in the user terminal 50 is transmitted to the network server 20, the examination information management means 23, the examination proceeding information according to the audit item and rating It reads from the examination information DB 33 and transmits it to the user terminal 50, thereby driving the examination program (S108 ⁇ S110).
  • the motion recognition unit 200 of the user terminal 50 detects the user's movement speed, distance, position, and angle.
  • the position detecting unit 300 detects the movement position of the user's foot on a plane
  • the control unit 400 detects the movement of the user's foot detected by the motion recognition unit 200 and the movement of the user's foot detected by the position detecting unit 300.
  • the exact user motion of the 3D space is determined with reference to the position (S0111 to S0113).
  • the comparison determination module 430 of the control unit 400 of the user terminal 50 compares the user operation with a reference operation previously stored in the data storage unit 500 to generate a difference value and a correction value.
  • the image generation module 450 generates a user's motion image using a pre-stored virtual character, and also generates a correction image and an explanation sentence for the correction value.
  • the main image display unit 600 synthesizes and displays the corrected image and the descriptive text on the user operation image generated by the image generation module 450, and displays the sound generated by the sound generation module 460. 800) (S0114 to S0117).
  • the step of recognizing the user action Using the geomagnetic sensor 220 attached to the user's body or clothes to detect the direction of the geomagnetism, or to generate an acceleration on the piezoelectric material using the acceleration sensor 230 to detect the acceleration or use the gyro sensor 240 By detecting the rotation angle acceleration through the vertical force of the rotating angle can recognize the user's motion.
  • the image generation module 450 of the controller 400 generates an effect image and a background image further, and the background image display unit 700 displays the effect image and the background image on the screen.
  • the 3D stereoscopic image display module 610 is used to display 3D stereoscopic images shown through 3D glasses worn by a user on the screen, or the holographic image display module 620 is used to create interference stripes based on a holographic principle.
  • the stereoscopic image is reproduced or worn on the user's head using the HMD (Head Mounted Display) module 630, and the implemented image is displayed on the HMD screen.
  • HMD Head Mounted Display
  • the sound generating module 460 of the control unit 400 generates the explanatory voice corresponding to the correction value, and generates the effect sound and the background music according to the sound output unit 800.
  • the sound output unit 800 generates the explanatory sound, the effect sound and the background music. It outputs through a plurality of speakers (810).
  • the user terminal 50 performing the training program transmits the correction value and the user operation image to the network server 20 and receives the user operation image from the image information management means 25 of the network server 20.
  • the image information DB (35) To store in the image information DB (35).
  • the training information management means 22 obtains and aggregates regional, age, and gender training rankings according to the correction values, updates the training progress information in the training information DB 32, and updates the training information in the user terminal 50.
  • the user terminal 50 receives the result of the training and displays the result on the screen (S0118 to S0123).
  • the user terminal 50 performing the screening program transmits the difference value of the user's motion and the user's motion image to the network server 20, the image information management means 25 receives the user's motion image and the image information DB Save at 35.
  • the judging information management means 23 obtains and aggregates the region, age, and gender judging rank according to the difference value, and determines whether to pass according to the difference value transmitted from the judging decision management means 24. At this time, the judging decision management means 24 determines the acceptance and grade in a relative evaluation method within the classification according to the region, age, gender ranking.
  • the area classification of the user terminal 50 is preferably confirmed through an access IP of a user assigned by an ISP (Internet Service Provider).
  • ISP Internet Service Provider
  • the examination information information is updated to the examination information DB 33 and transmitted to the user terminal, and the result of the examination is received by the user terminal and displayed on the screen (S0124 to S0130).
  • a difference value of a larger part such as an upper body angle, a knee angle, a body rotation rate, and a foot usage part can be detected according to the user's body shape, height, and weight.
  • the difference value may be detected based on the standard operation of the model closest to the practitioner through classification according to each person's body type, height, and weight.
  • the operation of the cyber master may be previewed through an image screen. If you say a front kick, you can go forward with your body moving backwards, but when you attack your opponent in front of you, the weight must go forward to deliver the correct force.
  • the cybermaster poses and outputs a voice to kick him. In some cases, you can print a variety of words, but for example, "To kick me, your body must come forward. I'm ready. You can output voice as
  • the cyber master on the video screen may fall down and display a response to the intensity. It is also possible to use the effect with a color such as a blue light entering the eyeglasses in the correct attack.
  • the user terminal 50 connected to the network server 20 is logged out and the system is terminated (S0131 to S0132).
  • FIG. 13 and 14 are flowcharts illustrating a control method of a virtual reality martial arts system using a network according to the present invention, and in particular, a control flowchart illustrating a martial arts competition method.
  • the user logs in to the network server 20 connected to the Internet network 40 using the user terminal 50.
  • the user information management means 21 of the network server 20 receives the user information transmitted from the user terminal 50, and compares with the information previously stored in the user information DB 31 to log in (S1101). ⁇ S1103).
  • the user can log in to the device by inputting the user information by numbers, letters, etc. through the login key 110 of the input unit 100 of the user terminal 50, using a separate IC card or an electronic chip into which the user information is input. You can also log in.
  • the Dalian information is received from the network server 20, and the item, the grade, the area and the gender Dalian conditions are selected and transmitted using the Dalian condition selection key 120 (S1104 to S1105).
  • the Dalian information includes grade, area and gender information for another user terminal 51 logged into the network server 20 and in a Dalian standby state.
  • the Dalian information is managed by Dalian information management means 22 and stored in the Dalian information DB 32.
  • the Dalian progress information management means 23 reads the Dalian progress information according to the selection from the Dalian progress information DB 33 and transmits it to the user terminal 50, thereby driving the Dalian program (S1106 to S1107). ).
  • the motion recognition unit 200 of the user terminal 50 detects the user's movement speed, distance, position, and angle.
  • the position detecting unit 300 detects the movement position of the user's foot on a plane
  • the control unit 400 detects the movement of the user's foot detected by the motion recognition unit 200 and the movement of the user's foot detected by the position detecting unit 300.
  • the user's motion in the 3D space is determined with reference to the location (S1108 to S1110).
  • the image generation module 450 generates a user motion image by using the prestored virtual character and transmits the image to the network server 20 through the communication unit 1100 (S1111).
  • the user receives the action video from the network server 20, and displays the user action image and the action image generated by the image generating module 450 on the main image display unit 600 with a background image. (S1112 to S1113).
  • the image generating module 450 of the controller 400 further generates an effect image and a background image according to the user motion image and the Dalian motion image, and the effect image and the background image are displayed on the background image display unit 700. It is preferable to indicate separately.
  • the background image display unit 700 further displays the effect image and the background image generated by the image generation module 450 on the rear side of the main image display unit 600 to display the user's image displayed by the main image display unit 600.
  • the image can be emphasized more three-dimensionally.
  • the main image display unit 600 is preferably composed of a hologram or a transparent screen on which the image can be projected.
  • the effect sound and the background music generated in the sound generation module 460 is output to the sound output unit 800 (S1114).
  • the controller 400 compares the user's motion with the Dalian's motion to determine the attack valid value (S1115 to S1116).
  • the comparison module 430 and the determination module 440 of the control unit compares whether the motions of the user motion and the Dalian movement overlap each other in a predetermined space, and when the overlapping results, the movement of each motion is overlapped.
  • Effective attack value can be determined according to speed, distance, position and angle.
  • the controller 400 generates a user motion image and a Dalian action image using the pre-stored virtual character, respectively, and uses the virtual character of the opponent according to the determined effective attack value. Create a hit response image.
  • Each of the hit response images generated by the controller 400 may be displayed on the main image display unit 600.
  • a user hitting response image is generated according to the Dalian attack effective value, and the user hitting response image is displayed using a virtual character, and a hit driving signal is received (S1121 to S1123). ).
  • the blow drive signal output from the blow drive module 470 of the control unit 400 in the blow drive unit 1000 According to implement the physical vibration or shock to the user's body (S1124).
  • the corresponding points according to the effective attack value are determined to accumulate points or deductions, and the Dalian information DB and Dalian progress information DB are updated by transmitting the corresponding Dalian information and Dalian progress information.
  • the determination result is displayed on the screen, the data is saved, and the corresponding program ends (S1127 to S1129).

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Processing Or Creating Images (AREA)
  • Information Transfer Between Computers (AREA)

Abstract

네트워크를 이용한 가상현실 무도 시스템 및 제어방법이 개시된다. 개시된 본 발명은, 사용자 정보를 입력받아 로그인시키고, 등급별 수련 조건, 심사 조건 또는 대련 조건을 선택하여 데이터 저장부에 저장된 해당 수련, 심사 또는 대련 프로그램을 선택적으로 구동시키고, 사용자의 동작과 발의 이동 위치를 감지하여 사용자의 정확한 이동 위치를 감지하고, 감지된 사용자의 위치를 참조하여 3D공간의 사용자 동작을 결정하고, 수련 또는 심사 프로그램 구동시 상기 사용자 동작과 상기 데이터 저장부에 미리 저장된 기준 동작을 비교하여 그 동작차이값을 산출하고, 상기 차이값에 따라 사용자의 올바른 동작을 지시하는 보정값을 생성하거나 심사합격여부를 판정한 후, 사용자 동작영상을 생성하여 상기 차이값과 보정값에 대한 보정영상 및 설명문구와 함께 표시하며, 대련 프로그램 구동시에는 사용자 동작영상 및 원격지 대련자 동작영상을 표시하며 각각의 동작을 비교하여 공격유효값을 판정하고, 판정된 공격유효값에 따라 상대방의 가상 캐릭터를 이용한 타격반응영상을 생성하여 표시함과 아울러, 타격구동신호를 생성하여 물리적 진동 또는 충격을 구현하여 사용자 신체에 전달함으로써, 가상공간 상에서 수련, 심사 및 대련을 효과적으로 수행할 수 있다.

Description

네트워크를 이용한 가상현실 무도 시스템 및 그 제어 방법
본 발명은 가상현실 무도 장치 및 그 방법에 관한 것으로, 더욱 상세하게는 네트워크를 이용하여 다수의 사용자 동작을 감지하고 미리 프로그램된 기준 동작과 비교하여 가상공간 상에서 무도 수련, 심사 및 대련을 수행하는 네트워크를 이용한 가상현실 무도 시스템 및 그 제어방법에 관한 것이다.
본 발명에서 정의하는 무도란 태권도, 쿵푸, 공수도, 기공, 검도 및 마샬아트(Martial art) 등의 각종 무술들과, 권투, 레슬링, 격투기 등의 각종 격투 스포츠를 총괄하여 의미한다.
이러한 무도를 수련하려면, 일반적으로 수련자가 도장이나 학원으로 직접 찾아가야 하나, 시간 및 장소의 제한 때문에 바쁜 현대인들에게는 무도 수련에 많은 어려움이 있었다.
이러한 어려움을 해결하기 위한 종래기술로는 도장이나 학원에 다니지 않고도 교육용 동영상 자료를 온라인으로 전송받아 무술 또는 생활체육을 수련할 수 있고, 그 수련 성취도를 원격 심사에 의하여 알 수 있도록 하는 방법에 대하여 대한민국 공개특허공보 공개번호 특2002-0041688호(발명의 명칭 : 무술 및 생활체육에 대한 온라인 원격 교육 및 심사방법)가 공개된 바 있다.
그러나, 이러한 종래기술은, 단순히 교육용 동영상을 재생하여 시청하는 일방적인 해설 위주의 교육 기능만을 제공하므로 사용자와 장치간 실시간 상호 정보 교환이 이루어지지 못하기 때문에 수련시 수련자의 자세를 즉시 교정받거나, 수련 내용에 따른 심사를 효과적으로 수행할 수 없는 문제점이 있었다.
또한, 수련자 혼자서 효과적으로 대련을 수행할 수 없고, 원하는 레벨의 대련자를 선택하여 대련을 수행하기 어려우며, 실제 대련자와 대련을 수행할 경우 부상 등의 위험이 있는 문제점이 있었다.
또한. 부상의 위험으로 인하여 공격 부위 등을 제한할 경우 실질적인 공격을 할 수 없기 때문에 대련 효과가 저하되는 문제점도 있었다.
본 발명의 목적은, 네트워크를 이용하여 다수의 사용자 동작을 감지하고 미리 프로그램된 기준 동작과 비교하여 가상공간 상에서 대련 및 수련을 수행하고, 이를 입체 영상으로 구현하여 수련자와 장치간 실시간 정보 교환 및 상호 작용이 이루어지도록 함으로써, 수련자 혼자서도 실시간 자세 교정을 통한 무도 수련과 수련 내용에 따른 심사를 효과적으로 수행할 수 있는 것이다.
본 발명의 다른 목적은, 원격지에 있는 대련자와 네트워크 통신을 통하여 효과적으로 대련을 할 수 있고, 종목, 등급, 지역 및 성별에 따른 다양한 대련 조건에 따른 대련자를 선택할 수 있는 것이다.
본 발명의 또 다른 목적은, 대련자의 가상 캐릭터와 대련하기 때문에 부상의 위험이 없으며, 부상의 위험이 없기 때문에 공격 부위를 제한하지 않고 어디든지 공격할 수 있어 대련 효과를 높일 수 있는 것이다.
따라서, 본 발명에 의하면, 사용자의 신체 동작을 감지하고, 원격지 대련자의 가상 캐릭터 동작과 비교하여 대련을 수행하고 이를 영상으로 구성하여 디스플레이함으로써 가정 또는 도장이나 학원에서 시간적 공간적 제약을 받지 않고, 장치와의 정보 교환을 통하여 실시간으로 상호 작용함으로써 혼자서도 효과적으로 대련을 할 수 있으며, 부상 등의 위험을 방지할 수 있다.
또한, 본 발명은 상술한 무도 분야 외에도 정형화된 몸동작을 익힐 수 있는 분야, 예로서, 각종 댄스, 체조, 스포츠 등의 다양한 분야에 응용될 수 있다.
도 1은 본 발명에 따른 네트워크를 이용한 가상현실 무도 시스템을 나타낸 블록 구성도.
도 2는 도 1의 사용자 단말기를 나타낸 블록 구성도.
도 3은 본 발명에 따른 홀로그램을 이용하여 가상현실 무도 수련시스템을 구현하기 위한 일실시예를 나타낸 사시도.
도 4는 도 3의 평면도.
도 5는 홀로그램 디스플레이 모듈을 이용하여 영상을 구현한 예를 나타낸 개념도.
도 6은 3D 입체 영상 디스플레이 모듈을 이용하여 영상을 구현한 예를 나타낸 개념도.
도 7은 도 6의 3D 입체 안경의 일실시예를 나타낸 도면.
도 8은 HMD모듈을 이용한 예를 나타낸 개념도.
도 9는 도 8의 HMD모듈의 일실시예를 나타낸 도면.
도 10은 본 발명에 따른 사용자 동작 및 보정값을 영상으로 표시한 화면 구성도.
도 11 및 도 12는 본 발명에 따른 네트워크를 이용한 가상현실 무도 시스템의 제어방법을 나타낸 흐름도로서, 가상현실 무도 수련 및 심사 방법을 나타낸 제어 흐름도.
도 13 및 도 14은 본 발명에 따른 네트워크를 이용한 가상현실 무도 시스템의 제어방법을 나타낸 흐름도로서, 가상현실 무도 대련 방법을 나타낸 제어 흐름도.
도 1은 본 발명에 따른 네트워크를 이용한 가상현실 무도 수련시스템을 나타낸 블록 구성도이다.
도시된 바와 같이, 본 발명은 네트워크 관리자 단말기(10), 네트워크서버(20), 사용자 정보 관리수단(21), 수련정보 관리수단(22), 심사정보 관리수단(23), 심사판정 관리수단(24), 영상정보 관리수단(25), 통신수단(26), 대련자 정보 관리수단(27), 대련진행정보 관리수단(28),데이터 관리수단(30), 사용자 정보 DB(31), 수련정보 DB(32), 심사정보 DB(33), 심사판정 DB(34), 영상정보 DB(35), 대련자 정보 DB(32), 대련진행정보 DB(33), 인터넷망(40) 및 사용자 단말기(50)를 포함한다.
네트워크서버(20)는 사용자 정보 관리수단(21), 수련정보 관리수단(22), 심사정보 관리수단(23), 심사판정 관리수단(24), 영상정보 관리수단(25), 통신수단(26)을 포함한다.
사용자 정보 관리수단(21)은 상기 사용자 단말기(50)로부터 전송된 사용자 정보를 수신하고 미리 저장된 정보와 비교하여 로그인시킨다.
수련정보 관리수단(22)은 상기 사용자 단말기(50)로부터 전송된 수련 종목 및 등급에 따라 해당 수련진행정보를 전송하고, 그 수련 결과를 수신하여 업데이트 및 관리한다.
상기 수련진행정보는 각각의 종목 및 등급에 따른 수련횟수, 일자, 접속시간, 누적시간 등의 정보를 포함할 수 있다.
심사정보 관리수단(23)은 상기 사용자 단말기(50)로부터 전송된 심사 종목 및 등급에 따라 해당 심사진행정보를 전송하고, 그 심사 결과를 수신하여 업데이트 및 관리한다.
심사판정 관리수단(24)은 상기 사용자 단말기(50)로부터 전송된 차이값에 따라 심사 합격 여부를 판정하되, 지역별, 연령별, 성별 순위에 따라 해당 분류내에서 상대 평가 방식으로 합격여부 및 등급을 결정한다.
대련자 정보 관리수단(27)은 상기 사용자 단말기(50)에 대련자 정보를 송수신하고, 대련자의 등급, 지역, 성별 정보와 대련 기록들을 업데이트 및 관리한다.
대련진행정보 관리수단(28)은 상기 사용자 단말기(50)에 대련진행정보를 송수신하고, 대련 순서, 승점 및 감점 정보, 승패 정보, 랭킹 정보들을 업데이트 및 관리한다.
상기 대련진행정보 관리수단(23)은, 지역별, 연령별, 성별에 따라 대련 랭킹을 기록 관리하되, 해당 분류내에서 순위를 결정하는 상대 평가 방식으로 랭킹을 결정할 수 있다.
영상정보 관리수단(25)은 상기 사용자 단말기(50)로부터 전송된 사용자 동작영상을 수신하여 업데이트 및 관리한다.
통신수단(26)은 상기 사용자 단말기(50)와 정보를 송수신한다.
데이터 관리수단(30)은 상기 네트워크서버(20)의 요청에 따라 각각의 정보를 입출력시킨다. 이를 위하여, 상기 데이터 관리수단(30)은 사용자 정보를 저장하는 사용자 정보 DB(31); 수련진행정보를 저장하는 수련정보 DB(32); 심사진행정보를 저장하는 심사정보 DB(33); 심사판정 정보를 저장하는 심사판정 DB(34); 대련자 정보를 저장하는 대련자 정보 DB(36); 대련진행정보를 저장하는 대련진행정보 DB(37); 사용자 동작영상을 저장하는 영상정보 DB(35)를 포함한다.
네트워크 관리자 단말기(10)는 상기 네트워크서버(20)에 접속하여 네트워크 관리자 정보를 송수신한다.
상기 수련정보 관리수단(22) 및 심사정보 관리수단(23)은, 상기 차이값 및 보정값의 크기에 따라 지역별, 연령별, 성별 순위를 집계하여, 각각의 수련 및 심사진행정보를 업데이트한다.
사용자 단말기(50)는 가정 또는 도장이나 학원에 설치되어 시간적 공간적 제약을 받지 않고 이용할 수 있다. 이와 같은, 사용자 단말기(50)는 인터넷망(40)에 접속되어 네트워크서버(20)와 사용자 정보를 송수신하며, 수련 종목 및 등급을 선택하여 이에 따른 수련진행정보를 수신하거나 심사 종목 및 등급을 선택하여 이에 따른 심사진행정보를 수신하여 각각의 수련프로그램 또는 심사프로그램을 수행하고, 사용자 동작영상과 함께 그 차이값 및 보정값을 전송하면서 수련 및 심사기능을 수행한다. 또한, 대련자 정보를 수신하여 종목, 등급, 지역 및 성별 대련조건을 검색 및 선택하고, 이에 따른 대련 진행 정보를 수신하여 해당 대련 프로그램을 구동하고, 사용자 동작영상과 함께 대련자 동작영상 및 타격구동신호를 송수신하여 대련기능을 수행한다. 이에 대한 더욱 상세한 구성은 첨부된 도 2 내지 도 4를 참조하여 후술하기로 한다.
상기 사용자 단말기(50)의 지역 분류는, ISP(Internet Service Provider)에서 할당된 사용자의 접속 IP를 통하여 확인하는 것이 바람직하다.
도 2는 도 1의 사용자 단말기를 나타낸 블록 구성도이고, 도 3은 본 발명에 따른 홀로그램을 이용하여 가상현실 무도 수련시스템을 구현하기 위한 일실시예를 나타낸 사시도이며, 도 4는 도 3의 평면도이다.
도시된 바와 같이, 본 발명의 사용자 단말기(50)는, 입력부(100), 로그인키(110), 수련조건 선택키(120), 심사조건 선택키(130), 대련조건 선택키(120), 동작 인식부(200), 모션 캡쳐 카메라(210), 지자기 센서(220), 가속도 센서(230), 자이로 센서(240), 위치 감지부(300), 저항식 터치패드(310), 제어부(400), 프로그램 구동모듈(410), 동작결정모듈(420), 비교모듈(430), 판정모듈(440), 영상생성모듈(450), 음향생성모듈(460), 타격구동모듈(470), 데이터 저장부(500), 메인영상 표시부(600), 3D 입체 영상 디스플레이모듈(610), 홀로그램 영상 디스플레이모듈(620), HMD모듈(630), 배경영상 표시부(700), 평판디스플레이모듈(710), 음향 출력부(800), 스피커(810), 사용자 영상 촬영부(900), 타격 구동부(1000), 진동모터(1010) 및 저주파 자극기(1020)를 포함한다.
입력부(100)는 사용자 정보를 입력받아 로그인시키고, 등급별 수련 조건 또는 심사 조건을 선택한다. 또한, 종목, 등급, 지역 및 성별 대련조건을 선택한다.
이를 위하여, 상기 입력부(100)는 로그인키(110), 수련조건 선택키(120), 심사조건 선택키(130), 대련조건 선택키(120)로 구성된다.
로그인키(110)는 입력된 사용자 정보를 통해 진정한 사용자를 식별하여 로그인한다. 사용자는 로그인키(110)를 통하여 숫자, 문자 등을 입력하여 로그인할 수 있으며, 별도의 카드 또는 전자칩을 이용하여 로그인할 수도 있다.
수련조건 선택키(120)는 미리 저장된 다수의 등급별 수련 프로그램중 실행할 어느 하나의 수련 프로그램을 선택하고, 심사 조건 선택키(130)는 해당 등급별 심사 프로그램을 선택한다.
대련조건 선택키(120)는 미리 저장된 다수의 종목, 등급, 지역 및 성별 대련조건중 어느 하나의 조건 또는 이들의 조합을 선택한다.
동작 인식부(200)는 사용자 동작을 인식한다. 이를 위하여, 상기 동작 인식부(200)는 도 2에 도시된 바와 같이, 다수의 모션 캡쳐 카메라(210)로 구성될 수 있다.
다수의 모션 캡쳐 카메라(210)는 여러 각도에서 사용자를 촬영할 수 있도록 배치되고, 사용자의 신체에 다수의 마커를 부착하고, 상기 마커의 동작을 적외선 촬영으로 검출하여 사용자의 동작을 인식한다. 여기서 상기 마커는 사용자의 머리, 몸통, 양 손목 및 양 발목에 부착되며, 사용자의 신체는 링크 구조를 갖는 관절 모델 집합으로 해석되는 것이 바람직하다.
잘 알려진 바와 같이, 모션 캡쳐(motion capture)란 몸에 센서를 부착시켜 인체의 동작을 디지털 형태로 기록하는 작업을 말한다. 신체 여러 부분에 센서를 부착한 뒤에 센서의 위치값을 통해 가상캐릭터가 같은 동작으로 움직이게 하는 것이 이 기술의 핵심이다. 어떤 실제물체의 동작을 수치적 데이타로 저장하였다가 컴퓨터로 만든 가상의 물체에 동작 데이터를 넘겨주는 과정을 모션 캡쳐라 할 수 있다. 여기서 말하는‘모션 캡쳐’란 실제 물체의 동작을 컴퓨터에 입력해 수치적 데이터로 컴퓨터에 저장하는 것을 말한다. 간단히 과정을 살펴보면 동작을 감지할 수 있는 센서를 물체에 부착하고, 물체가 이동할 때의 수치 데이터를 일정 간격을 두고 저장하는 것이다. 이렇게 ‘동작 캡처’를 활용해 CG 처리된 영상은 부드러운 곡선을 그리며 보다 현실적인 동작으로 퀄리티 높은 영상을 보여주는 장점이 있다. 이러한 경우에는 사람의 관절에 '특수마커(센서)'를 부착시킨다. 그리고 마커들의 위치, 회전 데이터를 특수 장치에 의해 실시간으로 인식시켜 'motion data set' 혹은 '동작커브(motion curve)'를 만들게 된다. 적외선 리플렉터 방식은 동작연기자의 관절 부위의 마커를 6∼8개의 카메라가 2차원적으로 포착하여 그 동작을 3차원적으로 추적하여 동작을 캡처하는 방식이다.
한편, 상기 동작 인식부(200)는 지자기 센서(220), 가속도 센서(230), 자이로 센서(240)중 어느 하나를 사용자의 신체에 부착하거나 또는 이들의 조합하여 부착할 수 있다.
지자기 센서(220)는 지자기의 방향을 감지한다. 상기 지자기 센서(220)는 지구의 자기장을 감지하여 나침반과 같이 동서남북을 정보를 알 수 있다.
가속도 센서(230)는 압전재료에 가속을 발생시켜 가속도를 감지한다. 상기 가속도 센서(230)는 통상의 압전재료에 가속을 발생시키면, 힘이 걸려서 전하가 발생하는 원리를 이용한다.
자이로 센서(240)는 회전하는 각의 수직힘을 통하여 회전각가속도를 감지한다. 상기 자이로 센서(240)는 회전하는 각의 수직방향으로 코리올리스 힘이 발생하게 되고, 이 수직힘을 가속도 센서와 마찬가지 원리로 감지하는 것이다.
위치 감지부(300)는 평면상에서 사용자 발의 이동 위치와 압력을 감지하여 사용자의 위치 및 무게 이동을 감지할 수 있다.
상기 위치 감지부(300)는 바닥면에 배치되는 발판 형태의 저항식 터치패드(310)가 적용될 수 있다.
저항식 터치패드(310)는 소정 면적을 갖으며, 압력부위에 저항이 발생하도록 겹쳐진 두장의 패널로 형성되어 사용자의 발이 누르는 좌표의 위치와 그 압력을 측정할 수 있다.
데이터 저장부(500)는 상기 입력부(100)의 선택에 대응되는 등급별 수련 프로그램과 심사 프로그램을 저장하며, 기준 동작에 대한 이동 속도, 거리, 위치 및 각도를 미리 저장하고, 사용자 정보 및 판정 결과를 저장한다.
또한, 데이터 저장부(500)는 상기 입력부(100)의 선택에 대응되는 종목, 등급, 지역 및 성별 대련조건에 따른 대련 프로그램을 저장하고, 사용자 정보 및 판정 결과를 저장한다.
상기 데이터 저장부(500)는 하드 디스크 기억 장치나 RAM 등의 각종 데이터 기억 수단에 의해 구성될 수 있다.
제어부(400)는 상기 입력부(100)의 선택 결과에 따라 상기 데이터 저장부(500)에 저장된 해당 수련 프로그램 또는 심사 프로그램을 구동시키고, 상기 동작 인식부(200)를 통하여 사용자 동작을 인식하며, 상기 위치 감지부(300)로부터 감지된 사용자의 이동 위치에 따라 상기 사용자의 정확한 동작을 결정하고, 결정된 사용자 동작과 상기 데이터 저장부(500)에 저장된 기준 동작에 대한 이동 속도, 거리, 위치 및 각도를 비교하여 그 차이값을 검출하며, 산출된 차이값에 따라 사용자의 올바른 동작을 지시하는 보정값을 생성하거나, 사용자의 심사 합격여부를 판정하고 해당 등급을 결정하여 데이터 저장부(500)에 저장시키고, 미리 저장된 가상 캐릭터를 이용하여 사용자 동작영상을 생성하며, 상기 산출된 차이값과 보정값에 대한 보정영상을 생성하고 해당 설명문구를 출력한다.
또한, 상기 제어부(400)는 상기 입력부(100)의 선택 결과에 따라 상기 데이터 저장부(500)에 저장된 해당 대련 프로그램을 구동시키고, 상기 동작 인식부(200)에서 인식된 사용자 동작과 상기 위치 감지부(300)에서 감지된 사용자 발의 이동 위치를 참조하여 3D공간에서의 정확한 사용자 동작을 결정하고, 사용자 동작과 상대방 대련자의 동작을 비교하여 공격유효값을 판정하고, 해당 점수를 결정하여 승점 또는 감점을 누적시키고, 미리 저장된 가상 캐릭터를 이용하여 사용자 동작영상 및 대련자 동작영상을 생성하며, 상기 판정된 공격유효값에 따라 상대방의 가상 캐릭터를 이용하여 사용자 타격반응영상 및 대련자 타격반응영상을 생성하고, 이에 따른 타격구동신호를 생성할 수 있다.
이를 위하여 상기 제어부(400)는, 프로그램 구동모듈(410), 동작결정모듈(420), 비교모듈(430), 판정모듈(440), 영상생성모듈(450), 음향생성모듈(460) 및 타격구동모듈(470)을 포함한다.
프로그램 구동모듈(410)은 상기 수련 프로그램 선택모듈(120) 또는 상기 심사 프로그램 선택모듈(130)에서의 선택 결과에 따라 상기 데이터 저장부(500)에 저장된 해당 수련 프로그램 또는 심사 프로그램을 구동시킨다.
또한, 프로그램 구동모듈(410)은 상기 입력부(100)의 종목, 등급, 지역 및 성별 대련조건의 선택 결과에 따라 상기 데이터 저장부(500)에 저장된 해당 대련 프로그램을 구동시킨다.
동작결정모듈(420)은 상기 동작 인식부(200)를 통하여 사용자 동작을 인식하며, 상기 위치 감지부(300)로부터 감지된 사용자의 이동 위치에 따라 3D공간내에서 상기 사용자의 정확한 동작을 결정한다.
비교모듈(430)은 상기 동작결정모듈(420)로부터 결정된 사용자 동작과 상기 데이터 저장부(500)에 저장된 기준 동작에 대한 이동 속도, 거리, 위치 및 각도를 비교하여 그 동작차이값을 검출한다.
또한, 비교모듈(430)은 상기 사용자 동작과 상기 대련자 동작중 그 동작들이 일정공간에서 서로 중첩되는가를 비교할 수 있다.
판정모듈(440)은 수련 프로그램 구동시에는 상기 비교모듈(430)에서 산출된 차이값에 따라 사용자의 올바른 동작을 지시하는 보정값을 생성하고, 심사 프로그램 구동시에는 상기 비교모듈(430)에서 산출된 동작차이값을 심사 기준값과 비교 판단하여 심사 합격 여부를 판정하고 해당 등급을 결정한다.
또한, 상기 판정모듈(440)에서 생성되는 상기 보정값은 일정 범위를 갖으며, 사용자의 수련횟수를 카운트하여 그 수련횟수가 증가함에 따라 보정값의 범위를 점차 줄여 그 정확도를 상승시키도록 하는 것이 바람직하다. 이에 따라 사용자는 신체에 무리가 가지 않도록 자연스럽게 기술 습득 및 기술 향상을 얻을 수 있다.
또한, 상기 판정모듈(440)은 상기 비교모듈(430)의 비교 결과, 상기 사용자 동작과 상기 대련자 동작들이 일정공간에서 중첩될 경우 각 동작의 이동 속도, 거리, 위치 및 각도에 따라 공격유효값을 판정하고, 상기 공격유효값의 크기에 따라 해당 점수를 결정하여 승점 또는 감점을 누적시킨다.
더욱 구체적으로는 상기 공격유효값은 일정 범위를 갖으며, 사용자의 대련횟수를 카운트하여 그 대련횟수가 증가함에 따라 공격유효값의 범위를 점차 줄여 그 정확도를 상승시키도록 하는 것이 바람직하다. 이에 따라 사용자는 신체에 무리가 가지 않도록 자연스럽게 기술 습득 및 기술 향상을 얻을 수 있다.
영상생성모듈(450)은 미리 저장된 가상 캐릭터를 이용하여 사용자 동작영상을 생성하고, 상기 비교모듈(430)에서 산출된 차이값과 상기 판정모듈(440)에서 생성된 보정값을 해당 보정영상 및 설명문구로 생성한다.
일예로, 상기 보정영상은 보정값을 벡터형태로 표현한 도형일 수 있으며, 상기 설명문구는 그 보정값을 수식 또는 문장으로 기록한 것일 수 있다.
또한, 영상생성모듈(450)은 미리 저장된 가상 캐릭터를 이용하여 사용자 동작영상 및 대련자 동작영상을 생성하고, 상기 판정모듈(440)에서 판정된 공격유효값에 따라 상대방의 가상 캐릭터를 이용한 타격반응영상을 생성할 수 있다.
또한, 본 발명은 사용자의 영상을 촬영하는 사용자 영상 촬영부(900)를 더 포함할 수 있다. 이때, 상기 제어부(400)는 상기 사용자 영상 촬영부(900)에서 실제 촬영된 영상을 이용하여 사용자 동작영상을 생성하는 것이 바람직하다.
음향생성모듈(460)은 상기 사용자 동작영상 및 보정영상에 해당하는 설명음성을 생성한다. 또한, 이에 따른 효과음 및 배경음악 등을 함께 생성할 수 있다. 또한, 상기 영상생성모듈(450)에서 생성된 상기 사용자 및 대련자 동작영상과 타격반응영상에 따른 효과음 및 배경음악을 생성한다.
메인영상 표시부(600)는 상기 제어부(400)에서 생성된 사용자의 영상에 상기 차이값과 보정값에 따라 생성된 보정영상 및 설명문구를 합성하여 표시한다. 또한, 메인영상 표시부(600)는 상기 제어부의 사용자 동작영상 및 대련자 동작영상을 표시한다.
상기 메인영상 표시부(600)는 3D 입체 영상 디스플레이모듈(610), 홀로그램 영상 디스플레이모듈(620), HMD모듈(630)중 어느 하나가 적용될 수 있다.
또한, 본 발명은 효과영상 및 배경영상을 통상의 평판디스플레이모듈(710)에 표시하는 배경영상 표시부(700)를 더 포함할 수 있다. 상기 효과영상 및 배경영상은 상기 영상생성모듈(450)에서 생성되며 이때, 상기 메인영상 표시부(600)의 상기 사용자 및 대련자 동작영상과 타격반응영상에 따른 효과영상 및 배경영상을 생성하는 것이 바람직하다.
예로서, 발치기 동작일 경우에는 파란색 별무늬를 효과영상으로 표시한다거나 정권 지르기 동작일 경우에는 빨간색 원형무늬를 효과영상으로 표시할 수 있으며, 또는 불꽃놀이 영상을 배경영상으로 표시하면서 각각의 효과영상을 중첩표시할 수도 있다.
타격구동모듈(470)은 상기 공격유효값에 따른 타격구동신호를 생성하여 출력한다.
타격 구동부(1000)는 상기 제어부(400)의 타격구동신호에 따라 물리적 진동 또는 충격을 구현하여 사용자 신체에 전달한다.
이를 위하여 상기 타격 구동부(1000)는 타격구동신호에 따라 정해진 세기로 진동을 발생시키는 진동모터(1010) 또는 타격구동신호에 따라 정해진 세기로 저주파 신호를 출력하는 저주파 자극기(1020)를 포함할 수 있다.
상기 진동모터(1010) 및 저주파 자극기(1020)는 사용자가 착용할 수 있는 옷에 부착하여 사용자의 신체에 밀착하도록 배치하는 것이 바람직하며, 그 구성은 유선 또는 무선통신방식을 선택적으로 이용할 수 있고 전력공급원으로 충전식 배터리를 사용할 수 있다.
도 5에 도시된 바와 같이, 본 발명의 홀로그램 영상 디스플레이모듈(620)은 홀로그래피의 원리를 이용하여 간섭 줄무늬를 만들어 연속적인 입체 영상을 재현한다.
도 5는 홀로그램 디스플레이 모듈을 이용하여 영상을 구현한 예를 나타낸 개념도로서, 잘 알려진 바와 같이, 홀로그램은 영상이 3차원이고, 실물과 똑같이 입체적으로 보이는 사진으로서, 홀로그래피의 원리를 이용하여 만들어지며, 입체상을 재현하는 간섭 줄무늬를 기록한 매체이다. 홀로그래피의 원리는 레이저에서 나온 광선을 2개로 나눠 하나의 빛은 직접 스크린을 비추게 하고, 다른 하나의 빛은 우리가 보려고 하는 물체에 비추는 것이다. 이때 직접 스크린을 비추는 빛을 기준광(reference beamㆍ참조광)이라고 하고, 물체를 비추는 빛을 물체광(object beam)이라고 한다. 물체광은 물체의 각 표면에서 반사돼 나오는 빛이므로 물체 표면에 따라 위상차(물체 표면에서부터 스크린까지의 거리)가 각각 다르게 나타난다. 이때 변형되지 않은 기준광이 물체광과 간섭을 일으키며 이때의 간섭무늬가 스크린에 저장된다. 이러한 간섭무늬가 저장된 필름을 홀로그램이라고 한다. 저장된 영상을 다시 재현하려면 기록할 때 사용된 광선을 다시 스크린 건판에 쏘아야 한다. 재생 시 사용하는 광선은 기록 시와 같은 진동수를 가진 파동만이 3차원으로 재현되고, 파장과 위상이 다른 파들은 아무런 효과가 없이 저장된 홀로그램을 통과해 버리기 때문에 기록 시 사용된 기준광과 반드시 정확히 일치해야 한다.
도 6 및 도 7에 도시된 바와 같이, 3D 입체 영상 디스플레이모듈(610)은 사용자가 착용하는 3D안경(611)과 상기 3D안경(611)을 통하여 입체로 보여지는 3D 입체 영상을 화면에 디스플레이한다. 상기 메인영상 표시부(600)를 통상의 LCD, LED 또는 PDP 등의 평면 디스플레이 소자로 구성하고, 여기에 사용자가 착용하는 3D안경(611)을 더 부가하여 3D 입체 영상을 화면에 디스플레이할 수 있다.
도 6은 3D 입체 영상 디스플레이 모듈을 이용하여 영상을 구현한 예를 나타낸 개념도이고, 도 7은 도 5의 3D 입체 안경의 일실시예를 나타낸 도면으로서, 상기 3D안경(611)은 편광안경 또는 액정셔터안경이 적용될 수 있다. 상기 편광안경은 2대의 카메라로 각각 촬영된 영상을 수직방향 및 수평방향의 빛 정보로 분리하여 보게 함으로써 입체를 느끼게 한다.
상기 액정셔터안경은 안경의 한쪽을 닫아서 한쪽씩 교대로 보게 하여 입체를 느끼게 하는 것으로 전력이 필요하다. 본 발명에서는 별도의 배터리를 구비하여 충전식으로 구현할 수 있다.
본 발명의 상기 3D안경(611)은 안경다리가 형성되어 있으나, 상기 안경다리를 밴드형태로 형성하는 것도 바람직하다.
도 8 및 도 9는 상기 메인영상 표시부(600)를 상기 HMD모듈(630)로 구성한 예를 나타낸다.
도 8은 HMD모듈을 이용한 예를 나타낸 개념도이고, 도 9는 도 8의 HMD모듈의 일실시예를 나타낸 도면으로써, 상기 HMD(Head Mounted Display)모듈(630)는 사용자의 머리에 착용하는 디스플레이 장치로서, 구현된 영상을 HMD 화면에 디스플레이한다.
상기 HMD는 모노와 스테레오 방식과 모양에 따라 개방형과 밀폐형으로 구분된다. 이것은 우리가 영화를 보는 것처럼 우리의 시야를 HMD로 막아줌으로써 몰입을 하는데 더욱더 큰 효과를 준다. 여기서 화면에는 CRT와 LCD를 쓰는데 주로 후자를 많이 쓴다. 이는 전력소비가 적기 때문이다.
한편, 도 2에 도시된 바와 같이, 배경영상 표시부(700)는 영상생성모듈(450)에서 생성된 효과영상 및 배경영상을 표시한다.
이를 위하여 상기 배경영상 표시부(700)는 통상의 평판디스플레이모듈(710)이 적용될 수 있다. 상기 평판디스플레이모듈(710)은 LCD, LED 또는 PDP 등으로 구성된 통상의 평판 디스플레이(Flat Panel Display, FPD)를 의미한다.
음향 출력부(800)는 상기 음향생성모듈(460)에서 생성된 보정값에 해당하는 설명음성을 스피커(810)를 통하여 출력한다. 또한, 상기 설명음성과 함께 메인영상, 효과영상 및 배경영상에 대한 각각의 효과음 및 배경음악을 출력할 수도 있다.
본 발명의 도면에는 2개의 스피커를 도시하였으나, 바람직하기로는 5.1ch 등의 입체음향을 구현하기 위하여 다수개의 스피커를 배치할 수 있다.
도 10은 본 발명에 따른 사용자 동작 및 보정값을 영상으로 표시한 화면 구성도로서, 본 발명의 영상생성모듈(450)에서는 미리 저장된 가상 캐릭터 또는 사용자 영상을 이용하여 사용자 동작영상을 생성하고, 상기 비교모듈(430)에서 산출된 차이값과 상기 판정모듈(440)에서 생성된 보정값을 보정영상으로 생성하며 해당 설명문구를 출력할 수 있다. 즉, 도시된 바와 같이 메인영상의 각부에 각도, 속도, 파워 등의 데이터를 문자로 표시함으로써 사용자 스스로 동작의 정확도를 확인할 수 있다.
도 11 및 도 12는 본 발명에 따른 네트워크를 이용한 가상현실 무도 시스템의 제어방법을 나타낸 흐름도로서, 특히 무도 수련 및 심사 방법을 나타낸 흐름도이다.
상기와 같이 구성된 본 발명의 작용을 첨부된 도면을 참조하여 설명한다.
사용자는 사용자 단말기(50)를 이용하여 인터넷망(40)에 접속된 네트워크서버(20)에 로그인한다. 이때, 네트워크서버(20)의 사용자 정보 관리수단(21)에서 사용자 단말기(50)로부터 전송된 사용자 정보를 수신하고, 사용자 정보 DB(31)에 미리 저장된 정보와 비교하여 일치할 경우 로그인시킨다(S0101~S0103).
사용자는 사용자 단말기(50) 입력부(100)의 로그인키(110)를 통해 사용자 정보를 숫자, 문자 등으로 입력하여 장치에 로그인할 수 있다. 또한, 사용자 정보가 입력된 별도의 IC카드 또는 전자칩을 이용하여 로그인할 수도 있다.
로그인이 완료되면, 수련조건 선택키(120)를 이용하여 미리 저장된 다수의 등급별 수련조건중 실행할 어느 하나의 수련조건을 선택할 수 있다. 한편, 심사조건을 선택할 경우에는 심사조건 선택키(130)를 이용하여 미리 저장된 다수의 등급별 심사조건중 실행할 어느 하나의 심사조건을 선택할 수도 있다.
수련조건을 선택하였을 경우에는, 상기 사용자 단말기(50)에서 선택된 수련 종목 및 등급을 네트워크서버(20)에 전송하고, 수련정보 관리수단(22)에서 상기 수련 종목 및 등급에 따른 수련진행정보를 수련정보 DB(32)로부터 읽어내어 상기 사용자 단말기(50)에 전송하며, 사용자 단말기(50)는 이에 따른 수련 프로그램을 구동시킨다(S0104~S0107).
한편, 심사조건을 선택하였을 경우에는, 상기 사용자 단말기(50)에서 선택된 심사 종목 및 등급을 네트워크서버(20)에 전송하고, 심사정보 관리수단(23)에서 상기 심사 종목 및 등급에 따른 심사진행정보를 심사정보 DB(33)로부터 읽어내어 상기 사용자 단말기(50)에 전송하며, 이에 따른 심사 프로그램을 구동시킨다(S108~S110).
상기 수련 또는 심사 프로그램의 구동에 따라, 사용자 단말기(50)의 동작 인식부(200)에서 사용자의 이동 속도, 거리, 위치 및 각도를 검출하여 사용자 동작을 인식한다. 또한, 위치 감지부(300)에서 평면상에서 사용자 발의 이동 위치를 감지하며, 제어부(400)에서는 상기 동작 인식부(200)에서 인식된 사용자 동작과 상기 위치 감지부(300)에서 감지된 사용자 발의 이동 위치를 참조하여 3D공간의 정확한 사용자 동작을 결정한다(S0111~S0113).
또한, 사용자 단말기(50) 제어부(400)의 비교판단모듈(430)에서 상기 사용자 동작과 상기 데이터 저장부(500)에 미리 저장된 기준 동작을 비교하여 차이값 및 보정값을 생성한다.
영상생성모듈(450)은 미리 저장된 가상 캐릭터를 이용하여 사용자 동작영상을 생성함과 아울러, 상기 보정값에 대한 보정영상 및 설명문구를 생성한다. 또한, 메인영상 표시부(600)에 상기 영상생성모듈(450)에서 생성된 상기 사용자 동작영상에 상기 보정영상 및 설명문구를 합성하여 표시하고 음향생성모듈(460)에서 생성된 음향을 음향 출력부(800)에 출력한다(S0114~S0117).
사용자 동작을 인식하는 단계는; 다수의 모션 캡쳐 카메라(210)로 사용자의 신체에 다수의 마커를 부착하고, 상기 마커의 동작을 적외선 촬영으로 검출하여 사용자 동작을 인식하는 것이 바람직하다.
또한, 상기 사용자 동작을 인식하는 단계는; 사용자의 신체 또는 옷에 부착된 지자기 센서(220)를 이용하여 지자기의 방향을 감지하거나, 가속도 센서(230)를 이용하여 압전재료에 가속을 발생시켜 가속도를 감지하거나 또는 자이로 센서(240)를 이용하여 회전하는 각의 수직힘을 통하여 회전각가속도를 감지하여 사용자 동작을 인식할 수 있다.
상기 사용자 동작영상을 표시하는 단계는; 상기 제어부(400)의 영상생성모듈(450)에서 효과영상 및 배경영상을 더 생성하고, 배경영상 표시부(700)는 상기 효과영상 및 배경영상을 화면에 표시한다.
상기 사용자 동작영상을 표시하는 단계는; 3D 입체 영상 디스플레이모듈(610)을 이용하여 사용자가 착용한 3D안경을 통하여 보여지는 3D 입체 영상을 화면에 디스플레이하거나, 홀로그램 영상 디스플레이모듈(620)을 이용하여 홀로그래피의 원리로 간섭 줄무늬를 만들어 연속적인 입체 영상을 재현하거나 또는 HMD(Head Mounted Display)모듈(630)을 이용하여 사용자의 머리에 착용하고, 구현된 영상을 HMD 화면에 디스플레이한다.
상기 음향을 출력하는 단계는; 상기 제어부(400)의 음향생성모듈(460)에서 상기 보정값에 해당하는 설명음성을 생성하고, 이에 따른 효과음 및 배경음악을 생성하며, 음향 출력부(800)는 상기 설명음성, 효과음 및 배경음악을 다수의 스피커(810)를 통하여 출력한다.
상기와 같이 작용하는 사용자 단말기(50)의 세세한 구성 및 설명은 전술한 도 2 내지 도 10을 통하여 설명한 바와 대동소이하므로, 여기서는 그 세세한 설명은 생략한다.
이후, 수련 프로그램을 수행한 사용자 단말기(50)는, 보정값 및 사용자 동작영상을 네트워크서버(20)에 전송하고, 네트워크서버(20)의 영상정보 관리수단(25)에서 상기 사용자 동작영상을 수신하여 영상정보 DB(35)에 저장한다.
또한, 수련정보 관리수단(22)에서 상기 보정값에 따라 지역별, 연령별, 성별 수련 순위를 구하여 집계하고, 해당 수련진행정보를 수련정보 DB(32)에 업데이트함과 아울러 상기 사용자 단말기(50)에 전송하고, 사용자 단말기(50)에서 그 수련 결과를 수신하여 화면에 표시한다(S0118~S0123).
한편, 심사 프로그램을 수행한 사용자 단말기(50)는 사용자 동작의 차이값 및 사용자 동작영상을 네트워크서버(20)에 전송하고, 영상정보 관리수단(25)에서 상기 사용자 동작영상을 수신하여 영상정보 DB(35)에 저장한다.
또한, 심사정보 관리수단(23)에서 상기 차이값에 따라 지역별, 연령별, 성별 심사 순위를 구하여 집계하고, 심사판정 관리수단(24)에서 전송된 차이값에 따라 합격 여부를 판정한다. 이때, 심사판정 관리수단(24)은 상기 지역별, 연령별, 성별 순위에 따라 해당 분류내에서 상대 평가 방식으로 합격여부 및 등급을 결정한다.
상기 사용자 단말기(50)의 지역 분류는, ISP(Internet Service Provider)에서 할당된 사용자의 접속 IP를 통하여 확인하는 것이 바람직하다.
이후, 해당 심사진행정보를 심사정보 DB(33)에 업데이트함과 아울러 상기 사용자 단말기에 전송하고, 사용자 단말기에서 그 심사 결과를 수신하여 화면에 표시한다(S0124~S0130).
이와 같이 구성된 본 발명은, 검출의 정확도에 따라 사용자의 체형, 키, 무게 등에 따른 동작에 상체의 각도, 무릎의 각도, 몸의 회전률, 발의 사용부분 등 보다 많은 부분의 차이값을 검출할 수 있다. 또한, 각각의 사람의 체형과 키, 무게 등에 따른 구분을 통해 수련자와 가장 가까운 모델의 스탠다드 동작을 기준으로 선정하여 차이값을 검출할 수도 있다.
또한, 일예로, 영상 화면을 통하여 사이버 마스터의 동작을 미리 보여줄 수 있다. 만약, 앞차기라고 하면 구체적으로 몸이 뒤로 가면서 앞차기를 할 수도 있지만 앞의 상대를 공격할때는 무게가 앞으로 가야 정확한 힘을 전달할 수 있다.
사이버 마스터가 자세를 취하면서 자신을 차보라는 음성을 출력한다. 경우에 따라서 다양한 단어를 출력할 수 있지만, 예로서, "나를 차기 위해서는 몸이 앞으로 다가 와야합니다. 난 준비가 되었습니다. 나에게 다가오면서 차보세요. 얍!" 이라는 멘트로 음성 출력할 수 있다.
그리고 사이버 마스터는 발차기에 맞는 동작과 강도에 대한 평을 다음과 같이 설명할 수 있다. "아주 좋습니다. 이번에는 얼굴을 한번 공격해보세요 얍!", "공격시 무릎이 너무 낮습니다. 차기전에 조금만 더 올려 보세요 다시 얼굴차기 얍!", "아주 좋은 공격이었습니다."
정확한 공격이면, 영상 화면상의 사이버 마스터가 넘어지거나 하는 동작을 취하면 강도에 대한 반응을 표시하게 할 수 있다. 정확한 공격시 푸른 불이 안구경에 들어 온다거나 하는 색상으로 효과를 사용하는 것도 가능하다.
이와 같은 수련 또는 심사 과정이 모두 종료되면, 네트워크서버(20)에 접속되어 있는 사용자 단말기(50)를 로그아웃시키고 시스템을 종료한다(S0131~S0132).
따라서, 상술한 바와 같은 본 발명에 의하면, 다수의 단말기에서 각각의 사용자 동작을 감지하여 기준 동작과 비교 판단하고 그 결과를 영상으로 구현하여 네트워크를 통하여 서버와 송수신함으로써 가정 또는 도장이나 학원에서 시간적 공간적 제약을 받지 않고, 수련자와 서버간 실시간 정보 교환 및 상호 작용이 이루어지도록 함으로써 혼자서도 자세 교정을 통한 무도 수련 및 심사를 효과적으로 수행할 수 있다.
도 13 및 도 14는 본 발명에 따른 네트워크를 이용한 가상현실 무도 시스템의 제어방법을 나타낸 흐름도로서, 특히 무도 대련 방법을 나타낸 제어 흐름도이다.
상기와 같이 구성된 본 발명의 작용을 첨부된 도면을 참조하여 설명한다.
사용자는 사용자 단말기(50)를 이용하여 인터넷망(40)에 접속된 네트워크서버(20)에 로그인한다. 이때, 네트워크서버(20)의 사용자 정보 관리수단(21)에서 사용자 단말기(50)로부터 전송된 사용자 정보를 수신하고, 사용자 정보 DB(31)에 미리 저장된 정보와 비교하여 일치할 경우 로그인시킨다(S1101~S1103).
사용자는 사용자 단말기(50) 입력부(100)의 로그인키(110)를 통해 사용자 정보를 숫자, 문자 등으로 입력하여 장치에 로그인할 수 있으며, 사용자 정보가 입력된 별도의 IC카드 또는 전자칩을 이용하여 로그인할 수도 있다.
로그인이 완료되면, 네트워크 서버(20)로부터 대련자 정보를 수신하고, 대련조건 선택키(120)를 이용하여 종목, 등급, 지역 및 성별 대련조건을 선택하여 전송한다(S1104~S1105).
상기 대련자 정보는 네트워크 서버(20)에 로그인되어 대련대기상태로 있는 다른 사용자 단말기(51)에 대한 등급, 지역 및 성별 정보를 포함한다. 상기 대련자 정보는 대련자 정보 관리수단(22)에서 관리되어 대련자 정보 DB(32)에 저장된다.
또한, 대련진행정보 관리수단(23)에서는 상기 선택에 따른 대련진행정보를 대련진행정보 DB(33)로부터 읽어내어 상기 사용자 단말기(50)에 전송하고, 이에 따른 대련 프로그램을 구동시킨다(S1106~S1107).
상기 대련 프로그램의 구동에 따라, 사용자 단말기(50)의 동작 인식부(200)에서 사용자의 이동 속도, 거리, 위치 및 각도를 검출하여 사용자 동작을 인식한다.
또한, 위치 감지부(300)에서 평면상에서 사용자 발의 이동 위치를 감지하며, 제어부(400)에서는 상기 동작 인식부(200)에서 인식된 사용자 동작과 상기 위치 감지부(300)에서 감지된 사용자 발의 이동 위치를 참조하여 3D공간의 정확한 사용자 동작을 결정한다(S1108~S1110).
영상생성모듈(450)은 미리 저장된 가상 캐릭터를 이용하여 사용자 동작영상을 생성함과 아울러, 통신부(1100)를 통하여 상기 네트워크 서버(20)로 전송시킨다(S1111).
또한, 상기 네트워크 서버(20)로부터 대련자 동작영상을 수신하고, 메인영상 표시부(600)에 상기 영상생성모듈(450)에서 생성된 상기 사용자 동작영상과 상기 대련자 동작영상을 배경영상과 함께 표시한다(S1112~S1113).
이때, 상기 제어부(400)의 영상생성모듈(450)에서는 상기 사용자 동작영상 및 대련자 동작영상에 따른 효과영상 및 배경영상을 더 생성하고, 상기 효과영상 및 배경영상을 배경영상 표시부(700)에 별도로 표시하는 것이 바람직하다.
상기 배경영상 표시부(700)는 영상생성모듈(450)에서 생성된 효과영상 및 배경영상을 상기 메인영상 표시부(600)의 뒷쪽에 더 표시하여, 상기 메인영상 표시부(600)에 의하여 디스플레이되는 사용자의 영상을 더욱 입체적으로 부각시킬 수 있다. 이때, 상기 메인영상 표시부(600)는 영상이 투영될 수 있는 홀로그램 또는 투명스크린으로 구성하는 것이 바람직하다.
또한, 음향생성모듈(460)에서 생성된 효과음 및 배경음악을 음향 출력부(800)에 출력한다(S1114).
이후, 상기 제어부(400)에서 상기 사용자 동작과 대련자 동작을 비교하여 공격유효값을 판정한다(S1115~S1116).
즉, 상기 제어부의 비교모듈(430) 및 판정모듈(440)에서는 상기 사용자 동작과 상기 대련자 동작중 그 동작들이 일정공간에서 서로 중첩되는가를 비교하고, 상기 비교 결과, 중첩될 경우 각 동작의 이동 속도, 거리, 위치 및 각도에 따라 공격유효값을 판정할 수 있다.
이후, 상기 제어부(400)에서 미리 저장된 가상 캐릭터를 이용하여 사용자 동작영상 및 대련자 동작영상을 각각 생성하고, 상기 판정된 공격유효값에 따라 상대방의 가상 캐릭터를 이용하여 사용자 타격반응영상 및 대련자 타격반응영상을 생성한다. 상기 메인영상 표시부(600)에 상기 제어부(400)에서 생성된 각각의 상기 타격반응영상을 표시할 수 있다.
즉, 사용자의 공격인가를 판단하여 사용자 공격일 경우에는 사용자 공격유효값에 따른 대련자 타격반응영상을 생성하고, 가상 캐릭터를 이용하여 상기 대련자 타격반응영상을 표시함과 아울러 타격구동신호를 전송한다(S1117~S1120).
한편, 대련자의 공격일 경우에는 반대로 대련자 공격유효값에 따른 사용자 타격반응영상을 생성하고, 가상 캐릭터를 이용하여 상기 사용자 타격반응영상을 표시함과 아울러, 타격구동신호를 수신한다(S1121~S1123).
이때, 상기 각각의 타격반응영상이 표시될 동안 사용자의 동작은 영상으로 구현시키지 않고 대기상태로 있으며, 타격 구동부(1000)에서 상기 제어부(400)의 타격구동모듈(470)에서 출력된 타격구동신호에 따라 물리적 진동 또는 충격을 구현하여 사용자 신체에 전달한다(S1124).
이후, 상기 공격유효값에 대한 해당 점수를 결정하여 승점 또는 감점을 누적시킨다(S1125).
이와 같은 일련의 대련과정이 종료되면, 상기 공격유효값에 따른 해당 점수를 결정하여 승점 또는 감점을 누적시키고, 해당 대련자 정보 및 대련진행정보를 송신하여 대런자 정보 DB 및 대련진행정보 DB를 업데이트시키고, 판정결과를 화면에 표시하고, 데이터를 저장한 후 해당 프로그램을 종료한다(S1127~S1129).
실제로 대련시 가장 큰 문제는 부상 및 두려움으로 정확한 타이밍 및 얼굴 공격등을 못하고 팔굽등 강력한 기술들을 사용하지 못한다. 이러한 이유로 인하여 실제 무도 수련에는 많은 장애가 있는 실정이다. 본 발명을 통하여 이러한 장애 부분이 개선되면 많은 사람들이 즐겁고 안전하게 실질적인 효과를 상승하여 수련을 할 수 있을 것이다.

Claims (29)

  1. 인터넷망에 접속되어 네트워크 서버와 사용자 정보를 송수신하며, 수련 종목 및 등급을 선택하여 이에 따른 수련진행정보를 수신하거나, 심사 종목 및 등급을 선택하여 이에 따른 심사진행정보를 수신하여 각각의 수련프로그램 또는 심사프로그램을 구동하고, 사용자 동작영상과 함께 그 차이값 및 보정값을 전송하여 수련 및 심사기능을 수행하며,
    대련자 정보를 수신하여 종목, 등급, 지역 및 성별 대련조건을 검색 및 선택하고, 이에 따른 대련 진행 정보를 수신하여 해당 대련 프로그램을 구동하고, 사용자 동작영상과 함께 대련자 동작영상 및 타격구동신호를 송수신하여 대련기능을 수행하는 사용자 단말기;
    상기 사용자 단말기로부터 전송된 사용자 정보를 수신하고 미리 저장된 정보와 비교하여 로그인시키는 사용자 정보 관리수단;
    상기 사용자 단말기로부터 전송된 수련 종목 및 등급에 따라 해당 수련진행정보를 전송하고, 그 수련 결과를 수신하여 업데이트 및 관리하는 수련정보 관리수단;
    상기 사용자 단말기로부터 전송된 심사 종목 및 등급에 따라 해당 심사진행정보를 전송하고, 그 심사 결과를 수신하여 업데이트 및 관리하는 심사정보 관리수단;
    상기 사용자 단말기로부터 전송된 차이값에 따라 심사 합격 여부를 판정하되, 지역별, 연령별, 성별 순위에 따라 해당 분류내에서 상대 평가 방식으로 합격여부 및 등급을 결정하는 심사판정 관리수단;
    상기 사용자 단말기에 대련자 정보를 송수신하고, 대련자의 등급, 지역, 성별 정보와 대련 기록들을 업데이트 및 관리하는 대련자 정보 관리수단;
    상기 사용자 단말기에 대련진행정보를 송수신하고, 대련 순서, 승점 및 감점 정보, 승패 정보, 랭킹 정보들을 업데이트 및 관리하는 대련진행정보 관리수단;
    상기 사용자 단말기로부터 전송된 사용자 동작영상을 수신하여 업데이트 및 관리하는 영상정보 관리수단;
    상기 사용자 단말기와 정보를 송수신하는 통신수단을 포함하는 네트워크 서버;
    사용자 정보를 저장하는 사용자 정보 DB; 대련자 정보를 저장하는 대련자 정보 DB; 대련진행정보를 저장하는 대련진행정보 DB; 대련자 정보를 저장하는 대련자 정보 DB; 대련진행정보를 저장하는 대련진행정보 DB; 사용자 동작영상을 저장하는 영상정보 DB를 포함하며, 상기 네트워크 서버의 요청에 따라 각각의 정보를 입출력시키는 데이터 관리수단; 및
    상기 네트워크 서버에 접속하여 네트워크 관리자 정보를 송수신하며 시스템을 관리하는 네트워크 관리자 단말기를 포함하는 것을 특징으로 하는 네트워크를 이용한 가상현실 무도 대련시스템.
  2. 제 1항에 있어서,
    상기 수련정보 관리수단 및 심사정보 관리수단은, 상기 사용자 단말기에서 전송된 차이값 및 보정값의 크기에 따라 지역별, 연령별, 성별 순위를 집계하여, 각각의 수련 및 심사진행정보를 업데이트하고,
    상기 심사판정 관리수단은, 전송된 차이값에 따라 합격 여부를 판정하되, 상기 지역별, 연령별, 성별 순위에 따라 해당 분류내에서 상대 평가 방식으로 합격여부 및 등급을 결정하고,
    상기 대련진행정보 관리수단은, 지역별, 연령별, 성별에 따라 대련 랭킹을 기록 관리하되, 해당 분류내에서 상대 평가 방식으로 랭킹을 결정하는 것을 특징으로 하는 네트워크를 이용한 가상현실 무도 시스템.
  3. 제 2항에 있어서,
    상기 사용자 단말기의 지역 분류는, ISP(Internet Service Provider)에서 할당된 사용자의 접속 IP를 통하여 확인하는 것을 특징으로 하는 네트워크를 이용한 가상현실 무도 시스템.
  4. 제 1항에 있어서,
    상기 사용자 단말기는,
    사용자 정보를 입력받아 로그인시키고, 등급별 수련 조건 또는 심사 조건을 선택하고, 종목, 등급, 지역 및 성별 대련조건을 선택하는 입력부;
    사용자의 이동 속도, 거리, 위치 및 각도를 검출하여 사용자 동작을 인식하는 동작 인식부;
    평면상에서 사용자 발의 이동 위치를 감지하는 위치 감지부;
    상기 입력부의 선택에 대응되는 등급별 수련 프로그램과 심사 프로그램을 저장하고, 종목, 등급, 지역 및 성별 대련조건에 따른 대련 프로그램을 저장하고, 기준 동작에 대한 이동 속도, 거리, 위치 및 각도를 저장하고, 사용자 정보 및 판정 결과를 저장하는 데이터 저장부;
    상기 입력부의 선택 결과에 따라 상기 데이터 저장부에 저장된 해당 수련 프로그램 또는 심사 프로그램을 구동시키고, 상기 동작 인식부에서 인식된 사용자 동작과 상기 위치 감지부에서 감지된 사용자 발의 이동 위치를 참조하여 3D공간의 사용자 동작을 결정하고, 상기 사용자 동작과 상기 데이터 저장부에 미리 저장된 기준 동작을 비교하여 그 동작차이값을 산출하고, 상기 동작차이값에 따라 사용자의 올바른 동작을 지시하는 보정값을 생성하거나 합격기준값과 비교하여 심사합격여부를 판정하고, 미리 저장된 가상 캐릭터를 이용하여 사용자 동작영상을 생성하며, 상기 보정값에 대한 보정영상 및 설명문구를 생성하고,
    상기 입력부의 선택 결과에 따라 상기 데이터 저장부에 저장된 해당 대련 프로그램을 구동시키고, 상기 동작 인식부에서 인식된 사용자 동작과 상기 위치 감지부에서 감지된 사용자 발의 이동 위치를 참조하여 3D공간에서의 사용자 동작을 결정하고, 상기 사용자 동작과 대련자 동작을 비교하여 공격유효값을 판정하고, 해당 점수를 결정하여 승점 또는 감점을 누적시키고, 미리 저장된 가상 캐릭터를 이용하여 사용자 동작영상 및 대련자 동작영상을 생성하며, 상기 판정된 공격유효값에 따라 상대방의 가상 캐릭터를 이용하여 사용자 타격반응영상 및 대련자 타격반응영상을 생성하고, 이에 따른 타격구동신호를 생성하는 제어부;
    상기 제어부에서 생성된 상기 사용자 동작영상에 상기 보정영상 및 설명문구를 합성하여 표시하고, 상기 제어부의 사용자 동작영상 및 대련자 동작영상을 표시하는 메인영상 표시부;
    상기 제어부의 타격구동신호에 따라 물리적 진동 또는 충격을 구현하여 사용자 신체에 전달하는 타격 구동부; 및
    상기 네트워크 서버의 통신수단과 사용자 정보, 대련자 정보, 대련진행정보, 타격구동신호 및 동작영상을 송수신하여 상기 제어부에 전달하는 통신부를 포함하는 것을 특징으로 하는 네트워크를 이용한 가상현실 무도 시스템.
  5. 제 4항에 있어서,
    상기 입력부는,
    사용자 정보를 입력받아 로그인시키는 로그인키;
    미리 저장된 다수의 등급별 수련 조건중 실행할 어느 하나의 수련 조건을 선택하는 수련 조건 선택키;
    미리 저장된 다수의 등급별 심사 조건중 실행할 어느 하나의 심사 조건을 선택하는 심사 조건 선택키; 및
    미리 저장된 다수의 종목, 등급, 지역 및 성별 대련 조건중 어느 하나의 조건 또는 이들의 조합을 선택하는 대련 조건 선택키를 포함하는 것을 특징으로 하는 네트워크를 이용한 가상현실 무도 시스템.
  6. 제4항에 있어서,
    상기 동작 인식부는;
    사용자의 신체에 다수의 마커를 부착하고, 상기 마커의 동작을 적외선 촬영으로 검출하여 사용자 동작을 인식하는 다수의 모션 캡쳐 카메라로 구성되는 것을 특징으로 하는 네트워크를 이용한 가상현실 무도 시스템.
  7. 제 4항에 있어서,
    상기 동작 인식부는;
    지자기의 방향을 감지하는 지자기 센서;
    압전재료에 가속을 발생시켜 가속도를 감지하는 가속도 센서 및
    회전하는 각의 수직힘을 통하여 회전각가속도를 감지하는 자이로 센서중 어느 하나를 사용자의 신체 또는 옷에 부착하거나, 또는 상기 센서들의 조합하여 부착하는 것을 특징으로 하는 네트워크를 이용한 가상현실 무도 시스템.
  8. 제 4항에 있어서,
    상기 위치 감지부는;
    소정 면적을 갖으며, 압력부위에 저항이 발생하도록 겹쳐진 두장의 패널로 형성되어 사용자의 발이 누르는 좌표의 위치를 측정하는 저항식 터치패드를 포함하는 것을 특징으로 하는 네트워크를 이용한 가상현실 무도 시스템.
  9. 제4항에 있어서,
    상기 제어부는;
    상기 수련조건 선택키 또는 상기 심사조건 선택키에서의 선택에 따라 상기 데이터 저장부에 저장된 해당 수련 프로그램 또는 심사 프로그램을 구동시키고, 상기 종목, 등급, 지역 및 성별 대련조건의 선택에 따라 상기 데이터 저장부에 저장된 해당 대련 프로그램을 구동시키는 프로그램 구동모듈;
    상기 동작 인식부에서 인식된 사용자 동작과 상기 위치 감지부에서 감지된 사용자 발의 이동 위치를 참조하여 3D공간에서의 사용자 동작을 결정하는 동작결정모듈;
    상기 동작결정모듈로부터 결정된 사용자 동작 데이터와 상기 데이터 저장부에 미리 저장된 기준 동작 데이터를 비교 판단하여 그 동작차이값을 검출하거나, 또는 상기 사용자 동작과 대련자 동작중 그 동작들이 일정공간에서 서로 중첩되는가를 비교하는 비교모듈;
    상기 수련 프로그램 구동시에는 상기 비교모듈에서 산출된 동작차이값에 따라 사용자의 올바른 동작을 지시하는 보정값을 생성하고, 상기 심사 프로그램 구동시에는 상기 비교모듈에서 산출된 동작차이값을 심사 기준값과 비교하여 심사 합격 여부 및 승급 등급을 결정하고, 상기 대련 프로그램 구동시에는 상기 비교모듈의 비교 결과, 중첩될 경우 각 동작의 이동 속도, 거리, 위치 및 각도에 따라 공격유효값을 판정하고, 해당 점수를 결정하여 승점 또는 감점을 누적시키는 판정모듈;
    미리 저장된 가상 캐릭터를 이용하여 사용자 동작영상 및 대련자 동작영상을 생성하고, 상기 비교모듈에서 산출된 동작차이값과 상기 판정모듈에서 생성된 보정값을 상기 보정영상으로 생성함과 아울러 해당 설명문구를 생성하고, 상기 판정모듈에서 판정된 공격유효값에 따라 상대방의 가상 캐릭터를 이용한 타격반응영상을 생성하는 영상생성모듈; 및
    상기 판정모듈의 공격유효값의 크기에 따른 타격구동신호를 생성하여 출력하는 타격구동모듈을 포함하는 것을 특징으로 하는 네트워크를 이용한 가상현실 무도 시스템.
  10. 제 9항에 있어서,
    상기 영상생성모듈은 상기 메인영상 표시부의 사용자 동작영상에 따른 효과영상 및 배경영상과, 상기 사용자 및 대련자 동작영상과 타격반응영상에 따른 효과영상 및 배경영상을 더 생성하고,
    상기 효과영상 및 배경영상을 평판디스플레이모듈에 표시하는 배경영상 표시부를 더 포함하는 것을 특징으로 하는 네트워크를 이용한 가상현실 무도 시스템.
  11. 제 10항에 있어서,
    상기 제어부는;
    상기 영상생성모듈에서 생성된 상기 메인영상, 효과영상 및 배경영상에 따른 효과음 및 배경음악을 생성하는 음향생성모듈과,
    상기 음향생성모듈에서 생성된 효과음 및 배경음악을 스피커를 통하여 출력하는 음향 출력부를 더 포함하는 것을 특징으로 하는 네트워크를 이용한 가상현실 무도 시스템.
  12. 제 4항에 있어서,
    상기 메인영상 표시부는;
    사용자가 착용하는 3D안경과 상기 3D안경을 통하여 입체로 보여지는 3D 입체 영상을 화면에 디스플레이하는 3D 입체 영상 디스플레이모듈로 구성되는 것을 특징으로 하는 네트워크를 이용한 가상현실 무도 시스템.
  13. 제 4항에 있어서,
    상기 메인영상 표시부는;
    홀로그래피의 원리를 이용하여 간섭 줄무늬를 만들어 연속적인 입체 영상을 재현하는 홀로그램 영상 디스플레이모듈로 구성되는 것을 특징으로 하는 네트워크를 이용한 가상현실 무도 시스템.
  14. 제 4항에 있어서,
    상기 메인영상 표시부는;
    사용자의 머리에 착용하고, 구현된 영상을 HMD 화면에 디스플레이하는 HMD(Head Mounted Display)모듈로 구성되는 것을 특징으로 하는 네트워크를 이용한 가상현실 무도 시스템.
  15. 제 4항에 있어서,
    사용자의 영상을 촬영하는 사용자 영상 촬영부를 더 포함하고,
    상기 제어부는 상기 사용자 영상 촬영부에서 실제 촬영된 영상을 이용하여 사용자 동작영상을 생성하는 것을 특징으로 하는 네트워크를 이용한 가상현실 무도 시스템.
  16. 인터넷망에 접속된 네트워크서버의 사용자 정보 관리수단에서 사용자 단말기로부터 전송된 사용자 정보를 수신하고 사용자 정보 DB에 미리 저장된 정보와 비교하여 로그인시키는 단계;
    상기 사용자 단말기에서 수련 종목 및 등급을 선택하여 전송하고, 수련정보 관리수단에서 상기 수련 종목 및 등급에 따른 수련진행정보를 수련정보 DB로부터 읽어내어 상기 사용자 단말기에 전송하고, 이에 따른 수련 프로그램을 구동시키는 단계;
    상기 사용자 단말기에서 심사 종목 및 등급을 선택하여 전송하고, 심사정보 관리수단에서 상기 심사 종목 및 등급에 따른 심사진행정보를 심사정보 DB로부터 읽어내어 상기 사용자 단말기에 전송하고, 이에 따른 심사 프로그램을 구동시키는 단계;
    사용자 단말기의 동작 인식부에서 사용자의 이동 속도, 거리, 위치 및 각도를 검출하여 사용자 동작을 인식하고, 위치 감지부에서 평면상에서 사용자 발의 이동 위치를 감지하며, 제어부에서 상기 동작 인식부에서 인식된 사용자 동작과 상기 위치 감지부에서 감지된 사용자 발의 이동 위치를 참조하여 3D공간의 사용자 동작을 결정하는 단계;
    사용자 단말기의 제어부에서 상기 사용자 동작과 상기 데이터 저장부에 미리 저장된 기준 동작을 비교하여 차이값 및 보정값을 생성하고, 미리 저장된 가상 캐릭터를 이용하여 사용자 동작영상을 생성하며, 상기 보정값에 대한 보정영상 및 설명문구를 생성하며, 메인영상 표시부에 상기 제어부에서 생성된 상기 사용자 동작영상에 상기 보정영상 및 설명문구를 합성하여 표시하고 음향을 출력하는 단계;
    사용자 단말기에서 보정값 및 사용자 동작영상을 전송하고, 영상정보 관리수단에서 상기 사용자 동작영상을 수신하여 영상정보 DB에 저장하며, 수련정보 관리수단에서 상기 보정값에 따라 지역별, 연령별, 성별 수련 순위를 구하여 집계하고, 해당 수련진행정보를 수련정보 DB에 업데이트함과 아울러 상기 사용자 단말기에 전송하고, 사용자 단말기에서 그 수련 결과를 수신하여 화면에 표시하는 단계;
    사용자 단말기에서 차이값 및 사용자 동작영상을 전송하고, 영상정보 관리수단에서 상기 사용자 동작영상을 수신하여 영상정보 DB에 저장하며, 심사정보 관리수단에서 상기 차이값에 따라 지역별, 연령별, 성별 심사 순위를 구하여 집계하고, 심사판정 관리수단에서 전송된 차이값에 따라 합격 여부를 판정하되, 상기 지역별, 연령별, 성별 순위에 따라 해당 분류내에서 상대 평가 방식으로 합격여부 및 등급을 결정하며, 해당 심사진행정보를 심사정보 DB에 업데이트함과 아울러 상기 사용자 단말기에 전송하고, 사용자 단말기에서 그 심사 결과를 수신하여 화면에 표시하는 단계를 포함하는 것을 특징으로 하는 네트워크를 이용한 가상현실 무도 시스템의 제어방법.
  17. 제 16항에 있어서,
    상기 사용자 단말기의 지역 분류는, ISP(Internet Service Provider)에서 할당된 사용자의 접속 IP를 통하여 확인하는 것을 특징으로 하는 네트워크를 이용한 가상현실 무도 시스템의 제어방법.
  18. 제 16항에 있어서,
    상기 사용자 동작을 인식하는 단계는;
    다수의 모션 캡쳐 카메라로 사용자의 신체에 다수의 마커를 부착하고, 상기 마커의 동작을 적외선 촬영으로 검출하여 사용자 동작을 인식하는 것을 특징으로 하는 네트워크를 이용한 가상현실 무도 시스템의 제어방법.
  19. 제 16항에 있어서,
    상기 사용자 동작을 인식하는 단계는;
    사용자의 신체 또는 옷에 부착된 지자기 센서를 이용하여 지자기의 방향을 감지하거나, 가속도 센서를 이용하여 압전재료에 가속을 발생시켜 가속도를 감지하거나 또는 자이로 센서를 이용하여 회전하는 각의 수직힘을 통하여 회전각가속도를 감지하여 사용자 동작을 인식하는 것을 특징으로 하는 네트워크를 이용한 가상현실 무도 시스템의 제어방법.
  20. 제 16항에 있어서,
    상기 사용자 동작영상을 표시하는 단계는;
    상기 제어부에서 효과영상 및 배경영상을 더 생성하고, 배경영상 표시부는 상기 효과영상 및 배경영상을 화면에 표시하는 것을 특징으로 하는 네트워크를 이용한 가상현실 무도 시스템의 제어방법.
  21. 제 16항에 있어서,
    상기 음향을 출력하는 단계는;
    상기 제어부에서 상기 보정값에 해당하는 설명음성을 생성하고, 이에 따른 효과음 및 배경음악을 생성하며, 음향 출력부는 상기 설명음성, 효과음 및 배경음악을 스피커를 통하여 출력하는 것을 특징으로 하는 네트워크를 이용한 가상현실 무도 시스템의 제어방법.
  22. 제 16항에 있어서,
    상기 사용자 동작영상을 표시하는 단계는;
    3D 입체 영상 디스플레이모듈을 이용하여 사용자가 착용한 3D안경을 통하여 보여지는 3D 입체 영상을 화면에 디스플레이하거나, 홀로그램 영상 디스플레이모듈을 이용하여 홀로그래피의 원리로 간섭 줄무늬를 만들어 연속적인 입체 영상을 재현하거나 또는 HMD(Head Mounted Display)모듈을 이용하여 사용자의 머리에 착용하고, 구현된 영상을 HMD 화면에 디스플레이하는 것을 특징으로 하는 네트워크를 이용한 가상현실 무도 시스템의 제어방법.
  23. 인터넷망에 접속된 네트워크 서버의 사용자 정보 관리수단에서 사용자 단말기로부터 전송된 사용자 정보를 수신하고 사용자 정보 DB에 미리 저장된 정보와 비교하여 로그인시키는 단계;
    상기 사용자 단말기에서 대련자 정보를 수신하여 종목, 등급, 지역 및 성별 대련조건을 선택하여 전송하고, 대련진행정보 관리수단에서 상기 선택에 따른 대련진행정보를 대련진행정보 DB로부터 읽어내어 상기 사용자 단말기에 전송하고, 이에 따른 대련 프로그램을 구동시키는 단계;
    사용자 단말기의 동작 인식부에서 사용자의 이동 속도, 거리, 위치 및 각도를 검출하여 사용자 동작을 인식하고, 위치 감지부에서 평면상에서 사용자 발의 이동 위치를 감지하며, 제어부에서 상기 동작 인식부에서 인식된 사용자 동작과 상기 위치 감지부에서 감지된 사용자 발의 이동 위치를 참조하여 3D공간의 사용자 동작을 결정하는 단계;
    사용자 단말기의 제어부에서 상기 사용자 동작에 따라 미리 저장된 가상 캐릭터를 이용하여 사용자 동작영상을 생성 및 전송하고, 네트워크 서버로부터 대련자 동작영상을 수신하며, 메인영상 표시부에 상기 사용자 동작영상과 대련자 동작영상을 메인영상으로 하여 배경영상과 함께 표시하고, 이에 따른 음향을 생성 및 출력하는 단계;
    상기 사용자 동작과 상기 네트워크 서버에서 수신되는 대련자 동작중 그 동작들이 일정공간에서 서로 중첩되는가를 비교하여 중첩될 경우 각 동작의 이동 속도, 거리, 위치 및 각도에 따라 공격유효값을 판정하고, 상기 판정된 공격유효값에 따라 상대방의 가상 캐릭터를 이용한 타격반응영상을 생성하여 표시하며, 상기 공격유효값에 따른 타격구동신호를 송수신하여 타격구동모듈을 동작시키는 단계; 및
    상기 공격유효값에 따른 해당 점수를 결정하여 승점 또는 감점을 누적시키고, 해당 대련자 정보 및 대련진행정보를 송신하여 대런자 정보 DB 및 대련진행정보 DB를 업데이트시키고, 판정결과를 화면에 표시하는 단계를 포함하는 것을 특징으로 하는 네트워크를 이용한 가상현실 무도 시스템의 제어방법.
  24. 제 22항에 있어서,
    상기 사용자 단말기의 지역 분류는, ISP(Internet Service Provider)에서 할당된 사용자의 접속 IP를 통하여 확인하는 것을 특징으로 하는 네트워크를 이용한 가상현실 무도 시스템의 제어방법.
  25. 제 22항에 있어서,
    상기 사용자 동작을 인식하는 단계는;
    다수의 모션 캡쳐 카메라로 사용자의 신체에 다수의 마커를 부착하고, 상기 마커의 동작을 적외선 촬영으로 검출하여 사용자 동작을 인식하는 것을 특징으로 하는 네트워크를 이용한 가상현실 무도 시스템의 제어방법.
  26. 제 22항에 있어서,
    상기 사용자 동작을 인식하는 단계는;
    사용자의 신체 또는 옷에 부착된 지자기 센서를 이용하여 지자기의 방향을 감지하거나, 가속도 센서를 이용하여 압전재료에 가속을 발생시켜 가속도를 감지하거나 또는 자이로 센서를 이용하여 회전하는 각의 수직힘을 통하여 회전각가속도를 감지하여 사용자 동작을 인식하는 것을 특징으로 하는 네트워크를 이용한 가상현실 무도 시스템의 제어방법.
  27. 제 22항에 있어서,
    상기 사용자 동작영상을 표시하는 단계는;
    상기 제어부에서 효과영상 및 배경영상을 더 생성하고, 배경영상 표시부는 상기 효과영상 및 배경영상을 화면에 표시하는 것을 특징으로 하는 네트워크를 이용한 가상현실 무도 시스템의 제어방법.
  28. 제 22항에 있어서,
    상기 음향을 출력하는 단계는;
    상기 제어부에서 상기 사용자 동작영상 및 대련자 동작영상에 따른 효과음 및 배경음악을 생성하며, 음향 출력부는 상기 효과음 및 배경음악을 스피커를 통하여 출력하는 것을 특징으로 하는 네트워크를 이용한 가상현실 무도 시스템의 제어방법.
  29. 제 22항에 있어서,
    상기 사용자 동작영상을 표시하는 단계는;
    3D 입체 영상 디스플레이모듈을 이용하여 사용자가 착용한 3D안경을 통하여 보여지는 3D 입체 영상을 화면에 디스플레이하거나, 홀로그램 영상 디스플레이모듈을 이용하여 홀로그래피의 원리로 간섭 줄무늬를 만들어 연속적인 입체 영상을 재현하거나 또는 HMD(Head Mounted Display)모듈을 이용하여 사용자의 머리에 착용하고, 구현된 영상을 HMD 화면에 디스플레이하는 것을 특징으로 하는 네트워크를 이용한 가상현실 무도 시스템의 제어방법.
PCT/KR2011/005467 2010-08-24 2011-07-25 네트워크를 이용한 가상현실 무도 시스템 및 그 제어 방법 WO2012026681A2 (ko)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
KR10-2010-0082131 2010-08-24
KR1020100082129A KR101007944B1 (ko) 2010-08-24 2010-08-24 네트워크를 이용한 가상현실 무도 수련시스템 및 그 방법
KR1020100082131A KR101007947B1 (ko) 2010-08-24 2010-08-24 네트워크를 이용한 가상현실 무도 대련시스템 및 그 방법
KR10-2010-0082129 2010-08-24

Publications (3)

Publication Number Publication Date
WO2012026681A2 true WO2012026681A2 (ko) 2012-03-01
WO2012026681A3 WO2012026681A3 (ko) 2012-05-18
WO2012026681A9 WO2012026681A9 (ko) 2013-10-31

Family

ID=45723885

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2011/005467 WO2012026681A2 (ko) 2010-08-24 2011-07-25 네트워크를 이용한 가상현실 무도 시스템 및 그 제어 방법

Country Status (1)

Country Link
WO (1) WO2012026681A2 (ko)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108538112A (zh) * 2017-03-02 2018-09-14 未来恩教育引领 利用虚拟现实和增强现实的在线学习系统及方法
CN111124125A (zh) * 2019-12-25 2020-05-08 南昌市小核桃科技有限公司 基于虚拟现实的警务训练方法及系统
CN111672089A (zh) * 2020-06-22 2020-09-18 良匠实业(海南)有限公司 一种针对多人对抗类项目的电子计分系统及实现方法
CN113946210A (zh) * 2021-09-16 2022-01-18 武汉灏存科技有限公司 动作交互展示系统及方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20010095900A (ko) * 2000-04-12 2001-11-07 박명수 3차원 모션캡쳐 분석시스템 및 그 방법
KR20050118385A (ko) * 2004-06-14 2005-12-19 (주)펜타비전 네트워크를 통한 사용자 맞춤형 경연장 제공 시스템 및방법, 그 프로그램이 기록된 기록매체
KR20080047517A (ko) * 2008-04-21 2008-05-29 주식회사 골든오일 댄스교실 운용 시스템
KR20090066825A (ko) * 2007-12-20 2009-06-24 김재우 예체능 실기 모의고사 시행시스템

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20010095900A (ko) * 2000-04-12 2001-11-07 박명수 3차원 모션캡쳐 분석시스템 및 그 방법
KR20050118385A (ko) * 2004-06-14 2005-12-19 (주)펜타비전 네트워크를 통한 사용자 맞춤형 경연장 제공 시스템 및방법, 그 프로그램이 기록된 기록매체
KR20090066825A (ko) * 2007-12-20 2009-06-24 김재우 예체능 실기 모의고사 시행시스템
KR20080047517A (ko) * 2008-04-21 2008-05-29 주식회사 골든오일 댄스교실 운용 시스템

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108538112A (zh) * 2017-03-02 2018-09-14 未来恩教育引领 利用虚拟现实和增强现实的在线学习系统及方法
CN111124125A (zh) * 2019-12-25 2020-05-08 南昌市小核桃科技有限公司 基于虚拟现实的警务训练方法及系统
CN111124125B (zh) * 2019-12-25 2023-06-20 南昌市小核桃科技有限公司 基于虚拟现实的警务训练方法及系统
CN111672089A (zh) * 2020-06-22 2020-09-18 良匠实业(海南)有限公司 一种针对多人对抗类项目的电子计分系统及实现方法
CN113946210A (zh) * 2021-09-16 2022-01-18 武汉灏存科技有限公司 动作交互展示系统及方法
CN113946210B (zh) * 2021-09-16 2024-01-23 武汉灏存科技有限公司 动作交互展示系统及方法

Also Published As

Publication number Publication date
WO2012026681A9 (ko) 2013-10-31
WO2012026681A3 (ko) 2012-05-18

Similar Documents

Publication Publication Date Title
KR101007944B1 (ko) 네트워크를 이용한 가상현실 무도 수련시스템 및 그 방법
KR101007947B1 (ko) 네트워크를 이용한 가상현실 무도 대련시스템 및 그 방법
US11210963B2 (en) Method and apparatus for providing personalised audio-visual instruction
KR101036429B1 (ko) 가상현실 무도 수련장치 및 방법, 그 기록 매체
JP6467698B2 (ja) 野球の打撃練習支援システム
WO2019177361A1 (ko) 가상 테니스 시뮬레이션 시스템, 이에 이용되는 센싱장치 및 센싱방법
WO2012173373A2 (ko) 가상터치를 이용한 3차원 장치 및 3차원 게임 장치
WO2017217725A1 (ko) 사용자 인식 컨텐츠 제공 시스템 및 그 동작방법
WO2012026681A2 (ko) 네트워크를 이용한 가상현실 무도 시스템 및 그 제어 방법
JP6447515B2 (ja) 情報処理装置、記録媒体および情報処理方法
WO2014189315A1 (ko) 골프 스윙에 대한 정보제공을 위한 골프 연습 시스템, 서버 및 이를 이용한 골프 스윙에 대한 정보 처리방법
KR20120034394A (ko) 모션 오버랩을 이용한 스윙모션 연습방법 및 이를 이용한 네트워크 기반의 저명 골프선수 모션 대비 스윙모션 연습시스템
WO2017160060A2 (ko) 가상 골프 시뮬레이션 장치, 가상 골프를 위한 영상 구현 방법 및 이를 기록한 컴퓨팅 장치에 의해 판독 가능한 기록 매체
WO2012026680A2 (ko) 가상현실 무도 장치 및 그 제어 방법
TWI423114B (zh) 互動式裝置及其運作方法
JP2001084375A (ja) 動作検証システムおよび非接触マニピュレーションシステム
KR20210127860A (ko) 가상현실(vr) 무도 수련 시스템
KR101032813B1 (ko) 가상현실 무도 대련장치 및 방법, 그 기록 매체
KR101348419B1 (ko) 영상컨텐츠를 제공하는 가상 골프 시뮬레이션 장치 및 그 방법
WO2015030534A1 (en) Golf practice system for providing golf lesson information and information processing method for providing golf lesson information using the same
JP2002248194A (ja) ゴルフ練習用クライアント・サーバ情報処理システム
JP7248353B1 (ja) ヒッティング解析システム及びヒッティング解析方法
KR20180106572A (ko) 가상현실 제공장치 및 그 방법
WO2019078530A1 (ko) 야구 게임 및 시뮬레이션의 투수 역할을 위한 시스템
US11951376B2 (en) Mixed reality simulation and training system

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 11820109

Country of ref document: EP

Kind code of ref document: A2

NENP Non-entry into the national phase in:

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 11820109

Country of ref document: EP

Kind code of ref document: A2