WO2011129543A2 - 가상 세계 처리 장치 및 방법 - Google Patents

가상 세계 처리 장치 및 방법 Download PDF

Info

Publication number
WO2011129543A2
WO2011129543A2 PCT/KR2011/002408 KR2011002408W WO2011129543A2 WO 2011129543 A2 WO2011129543 A2 WO 2011129543A2 KR 2011002408 W KR2011002408 W KR 2011002408W WO 2011129543 A2 WO2011129543 A2 WO 2011129543A2
Authority
WO
WIPO (PCT)
Prior art keywords
angle value
sensor
virtual world
bending
sensing position
Prior art date
Application number
PCT/KR2011/002408
Other languages
English (en)
French (fr)
Other versions
WO2011129543A3 (ko
Inventor
한재준
한승주
방원철
김도균
Original Assignee
삼성전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자 주식회사 filed Critical 삼성전자 주식회사
Priority to US13/641,026 priority Critical patent/US9597592B2/en
Priority to JP2013504805A priority patent/JP5801872B2/ja
Priority to CN201180018649.0A priority patent/CN102858413B/zh
Priority to EP11769009.9A priority patent/EP2559463B1/en
Publication of WO2011129543A2 publication Critical patent/WO2011129543A2/ko
Publication of WO2011129543A3 publication Critical patent/WO2011129543A3/ko

Links

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/40Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
    • A63F13/42Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
    • A63F13/428Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle involving motion or position input signals, e.g. signals representing the rotation of an input controller or a player's arm motions sensed by accelerometers or gyroscopes
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/60Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor
    • A63F13/65Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor automatically by game devices or servers from real world data, e.g. measurement in live racing competition
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/212Input arrangements for video game devices characterised by their sensors, purposes or types using sensors worn by the player, e.g. for measuring heart beat or leg activity
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/55Controlling game characters or game objects based on the game progress
    • A63F13/56Computing the motion of game characters with respect to other game characters, game objects or elements of the game scene, e.g. for simulating the behaviour of a group of virtual soldiers or for path finding
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/70Game security or game management aspects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/23Input arrangements for video game devices for interfacing with the game device, e.g. specific interfaces between game controller and console
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/10Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals
    • A63F2300/1012Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals involving biosensors worn by the player, e.g. for measuring heart beat, limb activity
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/10Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals
    • A63F2300/1025Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals details of the interface with the game device, e.g. USB version detection
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/50Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by details of game servers
    • A63F2300/55Details of game data or player data management
    • A63F2300/5546Details of game data or player data management using player registration data, e.g. identification, account, preferences, game history
    • A63F2300/5553Details of game data or player data management using player registration data, e.g. identification, account, preferences, game history user representation in the game field, e.g. avatar
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/6045Methods for processing data by generating or executing the game program for mapping control signals received from the input arrangement into game commands
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/65Methods for processing data by generating or executing the game program for computing the condition of a game character

Definitions

  • Embodiments of the present invention relate to an apparatus and method for processing a virtual world, and more particularly, to an apparatus and method for applying sensing information measured by a bending sensor to a virtual world.
  • the interaction between the real world and the virtual world has two directions. The first is to reflect the data information obtained from the sensor of the real world to the virtual world, and the second is to reflect the data information obtained from the virtual world to the real world through an actuator.
  • the virtual world processing apparatus may include a receiver configured to receive an angle value of a sensing position and a sensor characteristic of the bending sensor from a bending sensor, based on the angle value and the sensor characteristic, based on the sensing position. And a processing unit for generating control information for controlling objects of the virtual world, and a transmission unit for transmitting the generated control information to the virtual world.
  • the virtual world processing method may include receiving an angle value of a sensing position and a sensor characteristic of a characteristic of the bending sensor from a bending sensor, based on the angle value and the sensor characteristic, based on the sensing position. Generating control information for controlling an object of the virtual world, and transmitting the generated control information to the virtual world.
  • Embodiments may implement the interaction between the real world and the virtual world by transmitting the angle value of measuring the angle of the body part of the user of the real world to the virtual world using the sensor characteristic which is information on the characteristic of the bending sensor.
  • embodiments are generated based on the sensor characteristics and the angle value of the sensed angle of the body part, to generate control information for controlling the part of the avatar of the virtual world to the body part to pass to the virtual world to the real world and the virtual world Can implement the interaction.
  • FIG. 1 is a diagram for exchanging information between a real world and a virtual world, according to an exemplary embodiment. It is a figure which shows the virtual world processing system to control.
  • FIG. 2 is a diagram illustrating a configuration of a virtual world processing apparatus according to an embodiment of the present invention.
  • FIG. 3 illustrates an operation of measuring a sensing position by a plurality of bending sensors according to an exemplary embodiment of the present invention.
  • FIG. 4 illustrates an operation of calculating an angle value by a virtual world processing apparatus according to an embodiment of the present invention.
  • FIG. 5 is a diagram illustrating a structure of an avatar control feature point type according to an embodiment of the present invention.
  • FIG. 6 is a flowchart illustrating a virtual world processing method according to an embodiment of the present invention.
  • FIG. 1 is a diagram illustrating a virtual world processing system that controls information exchange between a real world and a virtual world, according to an exemplary embodiment.
  • a virtual world processing system may include a real world 110, a virtual world processing apparatus, and a virtual world 140.
  • the real world 110 may represent a sensor that senses information about the real world 110 or a sensory device that implements information about the virtual world 140 in the real world 110.
  • the virtual world 140 may represent a sensory media playback device that plays content including sensory effect information that may be implemented in the virtual world 140 itself or the real world 110 implemented by a program.
  • a sensor may sense and transmit information on a user's motion, state, intention, shape, etc. of the real world 110 to the virtual world processing device.
  • the senor may transmit a sensor capability 101, a sensor adaptation preference 102, and a sensed information 103 to the virtual world processor.
  • the sensor characteristic 101 is information about the characteristic of the sensor.
  • Sensor adaptation preference 102 is information indicative of the degree to which a user of a sensor prefers to the characteristics of the sensor.
  • Sensing information 103 is information that the sensor senses the real world 110.
  • the virtual world processing apparatus includes a adaptation real world to virtual world (RV) 120, a virtual world information (VWI) 104, and a adaptation real world to virtual world / Virtual World to Real World) 130.
  • RV virtual world
  • VWI virtual world information
  • VWI adaptation real world to virtual world / Virtual World to Real World
  • the detoxification RV 120 is information that can apply the sensing information 103 detected by the sensor to the virtual world 140 to the virtual world 140 based on the sensor characteristic 101 and the sensor decoction preference 102. I can convert it.
  • the heroic RV 120 may be implemented as a real world to virtual world engine (RV engine).
  • the heroic RV 120 uses the converted sensing information 103.
  • VWI Virtual World Information
  • the VWI 104 is information about a virtual object of the virtual world 140.
  • the Raccoon RV VR 130 may encode the converted VWI 104 to generate a Virtual World Effect Metadata (VWEM) 107, which is metadata about an effect applied to the virtual world 140. have.
  • VWEM Virtual World Effect Metadata
  • the heroic RV / VR 130 may select the VWEM 107 based on the Virtual World Capabilities (VWC) 10 5 and the Virtual World Preferences (VWP) 106. Can be generated.
  • the VWC 105 is information about the characteristics of the virtual world 140.
  • the VWP 106 is information indicating the degree of preference of the user with respect to the characteristics of the virtual world 140.
  • the heroic RV / VR 130 may transmit the VWEM 107 to the virtual world 140.
  • the virtual world 140 is applied to the VWEM 107, so that the effect on the sensing information 103 may be implemented in the virtual world 140.
  • an effect event occurring in the virtual world 140 may be driven by a sensory device that is an actuator in the real world 110.
  • the virtual world 140 may generate sensory effect metadata (SEM) 111 by encoding sensory effect information, which is information about effect events generated in the virtual world 140.
  • SEM sensory effect metadata
  • the virtual world 140 may include a sensory media playback device that plays content including sensory effect information.
  • the detox RV / VR 130 may generate sensory information 112 based on the SEM (lll).
  • Sensory information 112 is information about effect events implemented in sensory devices in the real world 110.
  • the detox VR 150 may generate information about a sensory device command (SDCmd) 115 that controls the operation of the sensory device of the real world 110.
  • the adaptive VR 150 may be configured based on information on the Sensory Device Capabilities (SDCap) 113 and information on the User Sensory Preference (USP) 114. Information about the SDCmd 115 may be generated.
  • the SDCap 113 is information on characteristics of the sensory device.
  • the USP 114 is information indicating the degree of preference of the user for the effect implemented in the sensory device.
  • FIG. 2 is a diagram showing the configuration of a virtual world processing apparatus according to an embodiment of the present invention.
  • the virtual world processing apparatus 200 includes a receiver 210, a processor 220, and a transmitter 230.
  • the receiver 210 receives the sensor characteristic of the angle value of the sensing position measured by the bending sensor 260 and the characteristics of the bending sensor 260 from the bending sensor 260.
  • the bending sensor 260 is a sensor for measuring the sensed information on the degree of bending of the object in the real world.
  • the sensing information is a measure of the degree of bending (ie, the angle) of the sensing position measured by the bending sensor 260.
  • the bending sensor 260 may be attached / coupled to the sensing position to measure the degree of bending (ie, the angle value) of the sensing position. For example, when the user 250 attaches the bending sensor 260 to the elbow, the bending sensor 260 may detect the degree of bending of the elbow of the user 250 (ie, the angle of the elbow). In this case, the bending sensor 260 may transmit the angle value of the elbow and the sensor characteristic of the bending sensor 260 to the virtual world processing apparatus 200.
  • the bending sensor 260 may measure the degree of bending by being coupled to other joint parts such as an elbow, a finger joint, a neck, and a shoulder of the user 250. Sensor Capability is information on characteristics of the bending sensor 260.
  • the sensor characteristics of the bending sensor 260 may include a maximum value (maxValue), a minimum value (mmValue), a number of locations, a distance between location, and a number of axes (numOfAxes). And the number of sensors (numOfSensors).
  • the maximum value is the maximum angle value that the bending sensor 260 can measure.
  • the minimum value is the minimum angle value that the bending sensor 260 can measure.
  • the bending sensor 260 according to an embodiment may measure the angle of the sensing position within a range smaller than the maximum value and larger than the minimum value.
  • the number of positions represents the number of sensing positions detected by the bending sensor 260.
  • one bending sensor 260 can detect the degree of bending of the plurality of sensing positions at the same time, the number of positions at this time is a plurality of sensing positions measured by one bending sensor 260 It may be the number of.
  • the plurality of bending sensors 260 may measure a plurality of sensing positions, and the number of positions may be the number of sensing positions measured by the plurality of bending sensors 260. have.
  • the position distance represents the distance between the sensing positions detected by the bending sensor 260.
  • the plurality of bending sensors 260 may detect a plurality of detection positions.
  • the number of shafts represents the size of the angle value that the bending sensor can detect.
  • the number of sensors indicates segments that the plurality of bending sensors 260 can detect when the plurality of bending sensors 260 measures a plurality of sensing positions.
  • the sensor characteristic of the bending sensor 260 may further include an accuracy and an offset.
  • Accuracy is information about the measurement error of the bending sensor 260.
  • the offset is for zero adjustment of the angle value measured by the bending sensor 260.
  • Table 1 shows XML syntax (extensible markup language syntax) for a bending sensor capability type according to an embodiment of the present invention.
  • the bending sensor characteristic type represents information about basic sensor characteristics of the bending sensor 260.
  • Table 2 shows semantics of a bending sensor characteristic type according to an embodiment.
  • numOf Locations * 3 Describes the number of locations that a bending sensor can, sense bending angles.
  • numOfSensors Describes the number of segments that an array of bending, sensors can perceive. ⁇
  • the sensor characteristics may be data encoded in a binary format (binary format).
  • the bending sensor encodes the sensor in binary form to generate metadata, and generates the metadata.
  • the virtual world processor 200 may transmit the same.
  • the receiver 210 may receive a sensor characteristic which is metadata encoded in binary form.
  • Table 2-2 shows a binary representation syntax for a bending sensor characteristic type according to an embodiment of the present invention.
  • Table 2-3 shows semantics for binary coding of a bending sensor characteristic type according to an embodiment of the present invention.
  • attribute.A value of ⁇ implies that the attribute shall be used and a value of "0" implies that the attribute shall not be used.
  • n mOfAxesFlag ⁇ This field, which is only present in the binary representation, indicates the presence of the "OUTOQ ⁇ S" attribute. A value of ⁇ "im ⁇ ies that the attribute shall be used and a value (rf" 0 "implies that the attribute shall not be used. * 3
  • the type of data is 32 bit fitting valuer
  • 2-bit data field is reserved to support up to 3 axes>
  • 8-bit data field is reserved to support an array of bend sensors>
  • the binary data encoded in the binary format includes data fields for at least one attribute of Num of Locations, NumOf ⁇ xes, and NumOfSensors. Data Field). Therefore, the sensor characteristics, which are metadata encoded in binary form, may include data fields for at least one of the position number, the number of axes, and the number of sensors, thereby limiting the size of the data. Can be. Table 3 shows an example of sensor characteristics for the bending sensor 260.
  • the identifier ID of the bending sensor 260 may be 'BS001'.
  • the maximum value of the bending degree (that is, the angle) of the sensing position that the bending sensor 260 can measure may be '9 degrees' and the minimum value may be '-30.0 degrees'.
  • the number of levels may be '2500 level', and the accuracy of the bending sensor 260 may be ⁇ .1 degree.
  • the offset for the bending sensor 260 may be ⁇ .05 degrees.
  • Table 4 shows XML syntax for a bending sensor type according to an embodiment of the present invention.
  • the bending sensor type indicates information on the sensing information measured by the bending sensor 260.
  • the bending sensor type may include a time stamp, a unit, and a-value.
  • the time stamp is time information when the bending sensor 260 scales the angle value of the sensing position.
  • the time stamp may be information about a time interval at which the bending sensor 260 measures an angle value.
  • the unit is the unit for the angle measured by the bending sensor 260.
  • the value may include 'degree'.
  • the value is the value of the angle measured by the bending sensor 260.
  • the angle value for the sensing position is the sum of the plurality of angle values measured by the plurality of bending sensors 260. Can be.
  • an operation in which the plurality of bending sensors 260 measures an angle value will be described in detail with reference to FIG. 3.
  • FIG 3 illustrates an operation of measuring a sensing position by a plurality of bending sensors according to an embodiment of the present invention.
  • a plurality of bending sensors 310 may measure a degree of bending (ie, an angle value) of the sensing position 320.
  • the sum of individual angle values measured by the plurality of bending sensors 310 may be an angle value with respect to the sensing position 320.
  • the individual angle values measured by the 10 bending sensors 310 are 1 degree, 3 degrees, 5 degrees, 10 For degrees, 12 degrees, 12 degrees, 9 degrees, 5 degrees, 2 degrees, and 1 degree
  • the angle value for the sensing position 320 can be 60 degrees which is the sum of the individual angle values measured by the 10 bending sensors 310. have.
  • Table 4-2 shows semantics of the bending sensor type according to the first embodiment.
  • Table 4-4 shows semantics of binary coding of the bending sensor type according to the first embodiment of the present invention.
  • Table 5-2 shows semantics of the bending sensor type according to the second embodiment.
  • TimeStamp ⁇ 3 Describes the time that the information is acquired (sensed), unit * -1 Specifies the unit of Hie seised value, if a unit otiier than the default unit is used s as a reference to a classification scheme term provided by UnitTypeCS defined in ⁇ 2 ⁇ of ISO / IEC 23005-6. If the unit is ⁇ t defined here, the default unit is degrees
  • Ar rayBend ingV lue ⁇ Describes tiie seised value by bending according to 3 -axis with respect to the default unit or the unit defined in the unil attribute. ⁇
  • the Array Value defines by the number of locations and the number of axis. Ten by three matrix indicates that the arr3 ⁇ 4rValue has 10 sensing locations, each of which has 3 -axis bending angles. ⁇
  • valuer Describes the sensed value by bending in scalar. This element shall be used, if flie sensor is capable of sensing only a degree ofbending.
  • Table 6 shows the X] ⁇ L syntax for the bending sensor type according to the crab 3 embodiment.
  • Table 6-2 shows semantics of the bending sensor type according to the third embodiment.
  • TimeStan ⁇ Describes the time that the information is acquired (sens!).
  • ArrayBendingValu * -1 Describes flie set of sensed values by the bending with respect to flie default unit or the unit defined in the unit attribute on each joints
  • AnayValue defines by the number of axes and the number of locations. Three by ten martri indicates that the arrwValue has 10 sensing locations, each of which has 3 -axis bending angles.
  • the order of values in each row of the matrix may be started from the fingertip to the palm side
  • Table 7 shows a binary representation syntax for a bending sensor type according to an embodiment of the present invention.
  • Table 7-2 shows semantics of binary coding of a bending sensor type according to an embodiment of the present invention.
  • Table 8 shows an example of sensing information measured by the bending sensor 260.
  • the identifier of the sensing information may be ending01 ', and the identifier of the bending sensor 260 may be 3 ⁇ 4endingID01'. That is, the sensing information measured by the bending sensor 260 of 3 ⁇ 4endingIDOr may be 3 ⁇ 4ending01 '.
  • the time stamp of the bending sensor 260 may be '60000', which is a value of 100 clock ticks per second.
  • the processor 220 may generate control information for controlling the object 280 of the virtual world 270 based on the sensing position based on the angle value and the sensor characteristic received by the receiver 210 from the bending sensor 260. Can be.
  • the bending sensor 260 may measure the angle value and transmit it to the virtual world processing apparatus 200.
  • the processor 260 controls the object 280 (for example, the avatar) of the virtual world 270 to move the elbow based on the detected angle (ie, the elbow) based on the angle value and the sensor characteristic. Control information can be generated.
  • the processor 220 when the angle value measured by the bending sensor 260 is less than or equal to the maximum value that can be measured by the bending sensor 260, and greater than or equal to the minimum value, the processor 220 is configured to control Can be generated.
  • the processor 220 may determine the angle value.
  • the control information can be generated with the maximum value.
  • the processor 220 may generate the control information with the angle value as the minimum value.
  • the transmitter 230 may transmit the generated control information to the virtual world 270.
  • the transmitter 230 may encode the control information into metadata in the XML format and transmit the encoded control information to the virtual world 270.
  • the transmitter 230 may encode the control information into metadata in binary form and transmit the encoded control information to the virtual world 270.
  • the transmitter 230 may encode the control information into the first metadata in the XML format, encode the first metadata into the second metadata in the binary format, and transmit the control information to the virtual world 270.
  • the virtual world processing apparatus 200 may further include an operation unit 240.
  • the calculation unit 240 is configured to determine a third sensing position located between the first sensing position and the second sensing position, based on the first angle value for the first sensing position and the ' second angle value for the second sensing position. We can compute three angle values for.
  • the processor 220 may generate control information based on the first angle value, the second angle value, the third angle value, and the sensor characteristic.
  • FIG. 4 illustrates an operation of calculating an angle value by a virtual world processing apparatus according to an embodiment of the present invention.
  • the bending sensor 410 may measure a first angle value with respect to the first sensing position 401 (eg, the shoulder). Also, bending The sensor 420 may measure a second angle value with respect to the second sensing position 403 (eg, wrist).
  • the virtual world processing apparatus is based on the first angle value and the second angle value, nearly 13 angle values of the third sensing position 402 that the bending sensors 410, 420 cannot measure. Can be calculated.
  • the virtual world processing apparatus may set the average of the first angle value and the second angle value as the third angle value.
  • the virtual world processing apparatus further includes a database that collects and stores a third angle value according to the first angle value and the second angle value, and includes the information, the first angle value, and the second angle stored in the database.
  • the third angle value may be calculated based on the value.
  • FIG. 5 is a diagram illustrating a structure of an avatar control feature point type according to an embodiment of the present invention.
  • the avatar control feature type 510 includes attributes 520, control body features 530, and the like. Control Face Features 540 may be included.
  • the avatar control feature point information is information about an feature point of the avatar used to control the avatar of the virtual world.
  • the avatar control feature point type 510 is information about a type of avatar control feature point information.
  • the attribute 520 is information about an attribute of avatar control feature point information.
  • the attribute 520 may include name information on a feature point used to control the avatar.
  • the control body feature point 530 is a feature point used to control the avatar and represents a feature point included in the body portion of the avatar.
  • control body feature point 530 head skeleton (HeadBones) (531), the upper body armature (UpperBodyBones) (532), the lower body armature (DownBodyBones) (533) and jungche skeleton (MiddleBodyBones) (53 4) Can be classified.
  • HeadBones head skeleton
  • UpperBodyBones Upper body armature
  • DownBodyBones DownBodyBones
  • jungche skeleton MiddleBodyBones
  • the upper body skeleton 532 may include information about feature points on the hand structure of the avatar.
  • the hand structure may include substructures such as a solid neck and a finger joint.
  • Table 9 shows a substructure of the hand structure according to one embodiment.
  • the virtual world processing apparatus may generate control information for controlling the avatar control feature point based on the sensing position based on the sensing information measured by the bending sensor. That is, the sensing position measured by the bending sensor may be applied to at least one of the avatar control feature points.
  • the virtual world processing apparatus may measure the movement of the wrist of the avatar of the virtual world corresponding to the user's wrist based on the measured angle value. Control information to control can be generated.
  • FIG. 6 is a flowchart illustrating a virtual world processing method according to an embodiment of the present invention.
  • an angle value of a sensing position and sensor characteristics of a bending sensor may be received from a bending sensor (S610).
  • a bending sensor is a sensor that measures sensed information about the degree of bending of an object in the real world.
  • the sensing information is a measure of the degree of bending (ie, the angle) of the sensing position measured by the bending sensor.
  • the bending sensor may be attached / coupled to the sensing position to measure the degree of bending (ie, the angle value) of the sensing position.
  • the bending sensor may detect the degree of bending of the user's elbow (ie, the angle of the elbow).
  • the virtual world processing method may receive the elbow angle value and the sensor characteristics of the bending sensor from the bending sensor.
  • the bending sensor according to an embodiment may measure the degree of bending by being coupled to other joint parts such as an elbow, a finger joint, a neck, and a shoulder of the user.
  • Sensor Capability is information about the characteristics of the bending sensor.
  • Sensor characteristics for a bending sensor may include a maximum value (maxValue), a minimum value (minValue), a number of locations (Nwn of Locations), a distance between locations, a number of axes (numOfAxes), and a number of sensors (numOfSensors). ) May be included.
  • the maximum value is the maximum angle value that the bending sensor can measure.
  • the minimum value is the minimum angle that the bending sensor can measure.
  • the bending sensor according to an embodiment may measure the angle of the sensing position within a range smaller than the maximum value and larger than the minimum value.
  • the number of positions represents the number of sensing positions detected by the bending sensor.
  • a bending sensor is at the same time and to detect the "degree of bending of a plurality of detection positions, where the position count will be the number of a plurality of detection positions where the measured one of the bending sensor have.
  • the plurality of bending sensors may measure a plurality of sensing positions, and the number of positions at this time may be the number of sensing positions measured by the plurality of bending sensors.
  • the distance between positions represents the distance between the sensing positions detected by the bending sensors.
  • a plurality of bending sensors may detect a plurality of detection positions.
  • the number of shafts represents the size of the angle value that the bending sensor can detect.
  • the number of sensors indicates segments that the plurality of bending sensors can detect when the plurality of bending sensors measures the plurality of sensing positions.
  • the sensor characteristic of the bending sensor may further include an accuracy and an offset.
  • Accuracy is information about the measurement error of the bending sensor.
  • the sensor characteristics may be metadata encoded in a binary format (binary format).
  • Meta data encoded in binary form includes a data field for at least one attribute of Num of Locations, numOfAxes, and numOfSensors. can do.
  • the bending sensor type indicates information on the sensing information measured by the bending sensor. I
  • the bending sensor type according to an embodiment may include a time stamp, a unit, and a value.
  • the timestamp is time information when the bending sensor measures the angle value of the sensing position.
  • the time stamp may be information on a time interval at which the bending sensor measures an angle value.
  • the unit is the unit of the angle measured by the bending sensor.
  • the value may include 'degree'.
  • the value is the value of the angle measured by the bending sensor.
  • the angle value for the sensing position may be the sum of the plurality of angle values measured by the plurality of bending sensors.
  • the virtual world processing method depends on the angle value and sensor characteristics received from the bending sensor. On the basis of this, control information for controlling an object of the virtual world, which is based on the sensing position, may be generated (S620).
  • the bending sensor may measure the angle value.
  • the virtual world processing method generates control information for controlling the object of the virtual world (for example, the avatar) to move the elbow based on the angle value and the sensor characteristic. can do.
  • the virtual world processing method may generate control information.
  • the virtual world processing method may generate control information using the angle value as the maximum value.
  • the virtual world processing method may generate control information with the angle value as the minimum value.
  • the virtual world processing method may transmit the generated control information to the virtual world (S630).
  • the virtual world processing method may encode control information into metadata in an XML format and transmit the control information to the virtual world. Also, the virtual world processing method may encode control information into binary metadata and transmit it to the virtual world. In addition, the virtual world processing method may encode the control information into the first metadata of the XML form, and encode the first metadata into the second metadata of the binary form to transmit to the virtual world.
  • the virtual world method is based on a first detection position for the first Based on the angle value and the second angle value for the second sensing position, a third angle value for the third sensing position positioned between the first sensing position and the second sensing position may be calculated.
  • the virtual world processing method may generate control information based on the first angle value, the second angle value, the third angle value, and the sensor characteristic.
  • Embodiments according to the present invention can be implemented in a program command form that can be executed by various computer means may be recorded on a computer readable medium.
  • the computer readable medium may include a program command, a data file, a data structure, etc. alone or in combination.
  • Program instructions recorded on the media may be those specially designed and constructed for the present invention, or they may be of the kind well-known and available to those skilled in computer software.
  • Examples of computer-readable recording media include magnetic media such as hard disks, floppy disks, and magnetic tape, optical media such as CD-ROMs, DVDs, and floppy disks. Includes: magneto-optical media, and hardware devices specifically configured to store and execute program instructions, such as ROM, RAM, flash memory, and the like.
  • program instructions include machine language code, such as produced by a compiler, as well as high-level language code that can be executed by a computer using an interpreter.
  • the hardware device described above may be configured to operate as one or more software modules to perform the operations of the present invention, and vice versa.

Abstract

가상 세계 처리 장치 및 방법이 개시된다. 본 발명의 실시예들에 따르면 벤딩 센서의 특성에 관한 정보인 센서 특성을 이용하여 현실 세계의 사용자의 신체 부위의 각도를 측정한 각도값을 가상 세계로 전달하여 현실 세계와 가상 세계의 상호 작용을 구현할 수 있다. 또한, 센서 특성 및 신체 부위의 각도를 센싱한 각도값에 기초하여, 신체 부위에 대응하는 가상 세계의 아바타의 부위를 제어하는 제어 정보를 생성하여 가상 세계로 전달하여 현실 세계와 가상 세계의 상호 작용을 구현할수 있다.

Description

【발명의 명칭】
가상 세계 처리 장치 및 방법
【기술분야】
본 발명의 실시 예들은 가상 세계 처 리 장치 및 방법에 관한 것으로서 , 보다 구체적으로는 벤딩 센서가 측정 한 감지 정보를 가상 세계에 적용하는 장치 및 방법에 관한 것이다.
【배경기술】
최근 들어 체감형 게임에 대한 관심 이 증대 되고 있다. Microsoft社는 "E3 2009" Press Conference에서 그들의 게임 콘솔인 Xbox360에 Depth/Color 카메라와 마이크 어 레이로 구성 된 별도의 센서 디바이스를 결합하여 사용자의 전산 모션 캡처 링, 얼굴 인식, 음성 인식 기술을 제공하여 별도의 컨트를러 없이 가상세계와 상호 작용 할 수 있도록 해 주는 "Project Natal"을 발표 했다. 또한, Sony社는 자사 게임 콘솔인 Play Station3에 컬러 카메라와 마커 , 초음파 센서를 결합한 위치 /방향 센싱 기술을 적용하여 컨트를러의 모션 궤적을 입 력으로 가상세계와 상호 작용 할 수 있는 체감형 게임 모션 컨트를러 "Wand"를 발표했다.
현실 세계와 가상 세계의 상호 작용은 두 가지 방향을 가진다. 첫째는 현실 세계의 센서로부터 얻어진 데이터 정보를 가상 세계에 반영하는 방향이고, 둘째는 가상 세계로부터 얻어진 데이터 정보를 엑추에 이터 (actuator)를 통해 현실 세계에 반영하는 방향이다.
본 명세서에서는 벤딩 센서를 이용하여 현실 세계로부터 센싱 한 정보를 가상 세계에 적용하는 장치 및 방법에 대한 새로운 방안이 제시된다. 【발명의 상세한 설명】
【기술적 해결방법】
일실시 예에 따른 가상 세계 처 리 장치는 벤딩 센서로부터 감지 위치의 각도값 및 상기 벤딩 센서의 특성에 대한 센서 특성을 수신하는 수신부, 상기 각도값 및 상기 센서 특성에 기초하여, 상기 감지 위치에 대웅하는 가상 세계의 객체를 제어하는 제어 정보를 생성하는 처 리부 및 상기 생성된 제어 정보를 가상 세계로 전송하는 전송부를 포함한다.
일실시 예에 따른 가상 세계 처 리 방법은 벤딩 센서로부터 감지 위치의 각도값 및 상기 벤딩 센서의 특성에 대한 센서 특성을 수신하는 단계, 상기 각도값 및 상기 센서 특성에 기초하여, 상기 감지 위치에 대웅하는 가상 세계의 객체를 제어하는 제어 정보를 생성하는 단계 및 상기 생성된 제어 정보를 가상 세계로 전송하는 단계를 포함한다.
【유리한 효과】
실시 예들은 벤딩 센서의 특성에 관한 정보인 센서 특성을 이용하여 현실 세계의 사용자의 신체 부위의 각도를 측정한 각도값을 가상 세계로 전달하여 현실 세계와 가상 세계의 상호 작용을 구현할 수 있다.
또한, 실시 예들은 센서 특성 및 신체 부위의 각도를 센싱한 각도값에 기초하여 , 신체 부위에 대웅하는 가상 세계의 아바타의 부위를 제어하는 제어 정보를 생성하여 가상 세계로 전달하여 현실 세계와 가상 세계의 상호 작용을 구현할 수 있다.
【도면의 간단한 설명】
도 1은 일실시 예에 따른 현실 세계와 가상 세계 사이의 정보 교환을 제어하는 가상 세계 처리 시스템을 나타내는 도면이다.
도 2는 본 발명의 일실시예에 따른 가상 세계 처리 장치의 구성을 나타내는 도면이다.
도 3은 본 발명의 일실시예에 따른 복수 개의 벤딩 센서가 감지 위치를 측정하는 동작을 나타낸다.
도 4는 본 발명의 일실시예에 따른 가상 세계 처리 장치가 각도값을 연산하는 동작을 나타낸다.
도 5는 본 발명의 일실시예에 따른 아바타 제어 특징점 타입의 구조를 나타내는 도면이다.
도 6은 본 발명의 일실시예에 따른 가상 세계 처리 방법을 나타내는: 흐름도이다.
【발명을 실시를 위한 최선의 형태】
이하에서, 본 발명에 따른 실시예를 첨부된 도면을 참조하여 상세하게 설명한다. 그러나, 본 발명이 실시예들에 의해 제한되거나 한정되는 것은 아니다. 각 도면에 제시된 동일한 참조 부호는 동일한 부재를 나타낸다.
도 1은 일실시예에 따른 현실 세계와 가상 세계 사이의 정보 교환을 제어하는 가상 세계 처리 시스템을 나타내는 도면이다.
도 1을 참조하면, 본 발명의 일실시예에 따른 가상 세계 처리 시스템은 현실 세계 (110), 가상 세계 처리 장치 및 가상세계 (140)를 포함할 수 있다.
현실 세계 (110)는 현실 세계 (110)에 대한 정보를 감지하는 센서 (Sensor) 또는 가상 세계 (140)에 대한 정보를 현실 세계 (110)에서 구현하는 실감 장치를 나타낼 수 있다. 또한, 가상 세계 (140)는 프로그램에 의해서 구현되는 가상 세계 (140) 그 자체 또는 현실 세계 (110)에서 구현될 수 있는 실감 효과 정보를 포함하는 컨텐츠를 재생하는 실감 미디어 재생 장치를 나타낼 수 있다.
일실시 예에 따른 센서 (Sensor)는 현실 세계 (110)의 사용자의 동작, 상태, 의도, 형 태 등에 관한 정보를 감지 (Sensing)하여 가상 세계 처 리 장치로 전송할 수 있다.
실시 예에 따라서는, 센서는 센서 특성 (Sensor Capability)(101), 센서 적웅 선호 (Sensor Adaptation Preference)(102) 및 감지 정보 (Sensed Information)(103)를 가상 세계 처리 장치로 전송할 수 있다.
센서 특성 (101)은 센서의 특성에 대한 정보이다. 센서 적응 선호 (102)는 센서의 사용자가 센서의 특성에 대해서 선호하는 정도를 나타내는 정보이다. 감지 정보 (103)는 센서가 현실 세계 (110)를 감지 한 정보이다.
일실시 예에 따른 가상 세계 처리 장치는 적웅 RV(Adaptation Real World to Virtual World)(120), VWI(Virtual World Information, 가상 세계 정보) (104) 및 적웅 RV/VR(Adaptation Real World to Virtual World/Virtual World to Real World)(130)를 포함할 수 있다.
적웅 RV(120)는 센서 특성 (101) 및 센서 적웅 선호 (102)에 기초하여 센서가 현실 세계 (110)에 대해서 감지한 감지 정보 (103)를 가상 세계 (140)에 적용할 수 있는 정보로 변환할 수 있다. 실시 예에 따라, 적웅 RV(120)는 RV 엔진 (real world to virtual world engine, RV engine)으로 구현될 수 있다.
일실시 예에 따른 적웅 RV(120)는 변환된 감지 정보 (103)를 이용하여
VWI(Virtual World Information, 가상 세계 정보) (104)를 변환할 수 있다.
VWI(104)는 가상 세계 (140)의 가상 객체 (Virtual Object)에 대한 정보이다. 적웅 RV VR(130)은 변환된 VWI(104)를 인코딩하여 가상 세계 (140)에 적용되는 효과에 대한 메타데이터 인 VWEM(Virtual World Effect Metadata, 가상 세계 효과 메타데이터) (107)을 생성할 수 있다. 실시 예에 따라서는, 적웅 RV/VR(130)은 VWC(Virtual World Capabilities, 가상 세계 특성) (105) 및 VWP(Virtual World Preferences, 가상 세계 선호) (106)에 기초하여 VWEM(107)을 생성할 수 있다.
VWC(105)는 가상 세계 (140)의 특성에 대한 정보이다. 또한, VWP(106)는 가상 세계 (140)의 특성에 대한 사용자의 선호 정도를 나타내는 정보이다.
또한, 적웅 RV/VR(130)은 VWEM(107)을 가상 세계 (140)로 전송할 수 있다. 이 때, VWEM(107)은 가상 세계 (140)이 적용되어, 감지 정보 (103)에 대웅하는 효과가 가상 세계 (140)에서 구현될 수 있다.
본 발명의 일측에 따르면, 가상 세계 (140)에서 발생한 효과 이벤트가 현실 세계 (110)에서 액츄에 이터 (Actuator)인 실감 장치에 의해서 구동될 수 있다.
가상 세계 (140)는 가상 세계 (140)에서 발생한 효과 이 벤트에 대한 정보인 실감 효과 정보 (Sensory Effect Information)를 인코딩하여 SEM(Sensory Effect Metadata, 실감 효과 메타데이터) (111)을 생성할 수 있다. 실시 예에 따라서는, 가상 세계 (140)는 실감 효과 정보를 포함하는 컨텐츠를 재생하는 실감 미디어 재생 장치를 포함할 수 있다.
적웅 RV/VR(130)는 SEM(lll)에 기초하여 실감 정보 (Sensory Information)(112)를 생성할 수 있다. 실감 정보 (112)는 현실 세계 (110)의 실감 장치에서 구현되는 효과 이 벤트에 대한 정보이다.
적웅 VR(150)는 현실 세계 (110)의 실감 장치의 동작을 제어하는 SDCmd(Sensory Device Command, 실감 장치 명 령) (115)에 대한 정보를 생성할 수 있다ᅳ 실시 예에 따라서는, 적응 VR(150)은 SDCap(Sensory Device Capabilities, 실감 장치 특성) (113)에 대한 정보 및 USP(User Sensory Preference, 사용자 실감 선호) (114)에 대한 정보에 기초하여 SDCmd(115)에 대한 정보를 생성할 수 있다.
SDCap(113)은 실감 장치의 특성에 대한 정보이다. 또한, USP(114)는 실감 장치에서 구현되는 효과에 대한 사용자의 선호 정도를 나타내는 정보이다.
도 2는 본 발명의 일실시 예에 따른 가상 세계 처 리 장치의 구성을 나타내는 도면이다.
도 2를 참조하면, 본 발명의 일실시 예에 따른 가상 세계 처 리 장치 (200)는 수신부 (210), 처 리부 (220) 및 전송부 (230)를 포함한다.
수신부 (210)는 벤딩 센서 (260)로부터 벤딩 센서 (260)가 측정하는 감지 위치의 각도값 및 벤딩 센서 (260)의 특성에 대한 센서 특성을 수신한다.
벤딩 센서 (Bending Sensor)(260)는 현실 세계의 객체의 구부러진 정도에 대한 ^ 감지 정보 (Sensed Information)를 측정하는 센서 이다. 감지 정보는 벤딩 센서 (260)가 측정한 감지 위치의 구부러진 정도 (즉, 각도)에 대한 측정값이다.
실시 예에 따라서는, 벤딩 센서 (260)는 감지 위치에 부착 /결합되어 감지 위치의 구부러지는 정도 (즉, 각도값)를 측정할 수 있다. 예를 들어, 사용자 (250)가 벤딩 센서 (260)를 팔꿈치에 부착하는 경우, 벤딩 센서 (260)는 사용자 (250)의 팔꿈치의 구부러지는 정도 (즉, 팔꿈치의 각도)를 감지할 수 있다. 이 때, 벤딩 센서 (260)는 팔꿈치의 각도값 및 벤딩 센서 (260)의 센서 특성을 가상 세계 처리 장치 (200)에 게 전송할 수 있다.
일실시 예에 따른 벤딩 센서 (260)는 사용자 (250)의 팔꿈치 , 손가락 관절, 목, 어깨 등 기타 관절 부위에 결합되어 구부러지는 정도를 측정할 수 있다. 센서 특성 (Sensor Capability)은 벤딩 센서 (260)의 특성에 대한 정보이다.
일실시 예에 따른 벤딩 센서 (260)에 대한 센서 특성은 최 대값 (maxValue), 최소값 (mmValue), 위 치개수 (Num of Locations), 위치사이거 리 (Distance between Location), 축개수 (numOfAxes) 및 센서 개수 (numOfSensors)를 포함할 수 있다.
최 대값은 벤딩 센서 (260)가 측정할 수 있는 최 대 각도값이다. 최소값은 벤딩 센서 (260)가 측정할 수 있는 최소 각도값이다. 일실시 예에 따른 벤딩 센서 (260)는 최 대값보다 작고, 최소값보다 큰 범위 내에서 감지 위치의 각도를 측정할 수 있다.
위치개수는 벤딩 센서 (260)가 감지하는 감지 위치의 개수를 나타낸다. 본 발명의 일측에 따르면, 하나의 벤딩 센서 (260)는 동시에 복수 개의 감지 위치의 구부러지는 정도를 감지할 수 있으며, 이 때의 위치개수는 하나의 벤딩 센서 (260)가 측정하는 복수 개의 감지 위치의 개수일 수 있다. 또한, 실시 예에 따라서는, 복수 개의 벤딩 센서 (260)가 복수 개의 감지 위치를 측정할 수 있으며, 이 때의 위치개수는 복수 개의 벤딩 센서 (260)가 측정하는 복수 개의 감지 위치의 개수일 수 있다.
위치사이거 리는 벤딩 센서 (260)가 감지하는 감지 위치 사이의 거리를 나타낸다. 본 발명의 일측에 따르면, 복수 개의 벤딩 센서 (260)가 복수 개의 감지 위치를 감지할 수 있다.
축개수는 벤딩 센서가 감지할 수 있는 각도값의 크기 (Dimension)를 나타낸다. 센서 개수는, 복수 개의 벤딩 센서 (260)가 복수 개의 감지 위치를 측정하는 경우, 복수 개의 벤딩 센서 (260)가 감지할 수 있는 조각 (segments)을 나타낸다. 실시 예에 따라서는, 벤딩 센서 (260)의 센서 특성은 정확도 (Accuracy) 및 오프셋 (Offset)을 더 포함할 수 있다.
정확도는 벤딩 센서 (260)의 측정 오차에 대한 정보이다.
오프셋은 벤딩 센서 (260)가 측정하는 각도값의 영 점 조정을 위 한 값이다. 표 1은 본 발명의 일실시 예에 따른 벤딩 센서 특성 타입 (Bending Sensor Capability Type)에 대한 XML 신택스 (extensible Markup Language Syntax)를 나타낸다. 벤딩 센서 특성 타입은 벤딩 센서 (260)의 기본적 인 센서 특성에 대한 정보를 나타낸다.
표 1
<!— Bending Sensor capability type — >
<complexType name="BendSensorCapabilityType">
<complexContent>
<extension base="cid:SensorCapabilityBaseType">
<attribute name="numOfLocations" type="nonNegativeInteger" use="optional"/>
<attribute name="distanceBtwnLocations" type="float" use="optional"/>
<attribute name="numOfAxes" type="nonNegativeInteger" use="optional" default="l 'V>
<attribute name="numOfSensors" type=l!nonNegativeIntegerft use="optional" default="1 >
</extension>
</complexContent>
</complexT pe>
표 2는 일실시 예에 따른 벤딩 센서 특성 타입에 대한 시멘틱 (Semantics)을 나타낸다.
표 2
Name^ Definition^
BendinqSensorCapa il Tool fordescribing a bending sensor capability.^ maxValue^ Describes the maximum value that the bending sensor can perceive in terms of degrees
minValue* 3 Describes the minimum value that the bendhg sensor can perceive in terms of degree.^
numOf Locations* 3 Describes the number of locations that a bending sensor can , sense bending angles.
distanceBtwriLocation
Describes the distance between the adjacent sensing locations.^ numOfAxes*3 Describes the dimension that the bending sensor can perceive the , bending angles.^
numOfSensors Describes the number of segments that an array of bending , sensors can perceive.^
본 발명의 일측에 따르면, 센서 특성은 이진 형 태 (binary format)로 인코딩 된 데이터 일 수 있다. 자세히 설명하면, 일실시 예에 따른 벤딩 센서는 센서 을 이진 형 태로 인코딩하여 메타 데이터를 생성하고, 생성된 메타 데이터를 가상 세계 처리 장치 (200)로 전송할 수 있다. 이 때, 수신부 (210)는 이진 형태로 인코딩된 메타 데이터인 센서 특성을 수신할 수 있다.
표 2-2는 본 발명의 일실시예에 따른 벤딩 센서 특성 타입에 대한 이진 부호화 신택스 (Binary Representation Syntax)를 나타낸다.
표 2-2
Figure imgf000012_0001
표 2-3은 본 발명의 일실시예에 따른 벤딩 센서 특성 타입의 이진 부호화에 대한 시멘틱 (Semantics)을 나타낸다.
표 2-3
Name*1 Definitions numOfLocationFlag^ This field, which is only present in the binary representation, indicates the presence of the ¾un Qi ¾5 to" attribute. A value of Ί" implies that the attribute shall be used and a value of "0" implies that the attribute shall not be usec
distanceBtwnLocationFla This field, which is only present in the binary representation, indicates the presence of the
&3 ¾Ϊ5ί 8¾¾θί ϋθα" attribute. A value of Ί " implies that the attribute shall be used and a value of "0" implies that the attribute shall not be used.^
n mOfAxesFlag^ This field, which is only present in the binary representation, indicates the presence of the "OUTOQ ^S" attribute. A value of Ί" i m^ies that the attribute shall be used and a value (rf "0" implies that the attribute shall not be used.* 3
numOfSensorsFl^ This field, which is only present in the binary representation, indicates the presence of the DQ£^gQ M n attribute. A value of Ί" implies that the attribute shall be used and a value of "0" implies that the attribute shall not be used
KumOf Locations*1 Same as above.*'
For the binary representation the type of data is 16-bit unsigned integers
DistanceBtwnLocation Same as above.* 1
For the binaiy represaritation, the type of data is 32 bit fitting valuer
numOf Axesv Same as above..
For the binary representation, 2-bit data field is reserved to support up to 3 axes >
numOf Sensors*3 Same as above
For the binary representation, 8-bit data field is reserved to support an array of bend sensors >
표 2-3을 참조하면, 이진 형 태로 인코딩된 메타 데이터는 위치개수 (Num of Locations), 축개수 (numOf^xes) 및 센서개수 (numOfSensors) 중 적어도 하나의 속성 (Attribute)에 대한 데이터 필드 (Data Field)를 포함할 수 있다. 따라서, 이진 형 태로 인코딩된 메타 데이터 인 센서 특성은 위치 개수, 축개수 및 센서개수 중 적어도 하나의 속성에 대한 데이터 필드를 포함함으로써, 데이터의 크기를 한정할 수 있다. 표 3은 벤딩 센서 (260)에 대한 센서 특성 의 일예시를 나타낸다.
표 3
cidl: SensorDeviceCapability xsi:type="scdv:BendingSensorCapabilityType" id="BS001" maxValue="90.0" minValue="-30.0" numOfLevels="2500" offset="0.05" >
<cidl:Accuracy xsi:type="cidl:ValueAccuracy" value="0. l"/> </cidl: SensorDeviceCapability>
표 3을 참조하면, 일실시 예에 따른 벤딩 센서 (260)의 식별자 (ID)는 'BS001'일 수 있다. 또한, 벤딩 센서 (260)가 측정할 수 있는 감지 위치의 구부러지는 정도 (즉 각도)의 최 대값은 '9으0 도 (Degree)'이고, 최소값은 '-30.0 도'일 수 있다. 또한, Number of Levels는 '2500 레벨 (Level)'이고, 벤딩 센서 (260)의 정확도는 Ό.1 도'일 수 있다. 또한, 벤딩 센서 (260)에 대한 오프셋은 Ό.05 도'일 수 있다.
표 4는 본 발명의 게 1 실시 예에 따른 벤딩 센서 타입 (Bending Sensor Type)에 대한 XML 신택스를 나타낸다. 벤딩 센서 타입은 벤딩 센서 (260)가 측정하는 감지 정보에 대한 정보를 나타낸다.
표 4
<!—Definition of Bending Sensor type -->
<complexType name="BendingSensorType">
<complexContent> <extension base="iidl:SensedInfoBaseType">
<sequence>
<element name="Value" type="float" minOccurs="0' maxOccurs="unbounded"/>
</sequence>
<attribute name="unit" type="mpegvct:unitType' use="optional"/>
</extension>
</complexContent>
</complexType> 일실시 예에 따른 벤딩 센서 타입은 타임스램프 (TimeStamp), 단위 (Unit) 및 - 값 (Value)를 포함할 수 있다.
타임스탬프는 벤딩 센서 (260)가 감지 위치의 각도값을 축정한 때의 시간 정보이다. 실시 예에 따라서는, 타임스탬프는 벤딩 센서 (260)가 각도값을 측정하는 시간 간격에 대한 정보일 수 있다.
단위는 벤딩 센서 (260)가 측정하는 각도에 대한 단위 이다. 실시 예에 따라서는, 값은 '도 (Degree)'를 포함할 수 있다.
값은 벤딩 센서 (260)가 측정한 각도의 값이다. 실시 예에 따라서는, 하나의 감지 위치에 대하여 복수 개의 벤딩 센서 (260)가 각도값을 측정하는 경우, 감지 위치에 대한 각도값은 복수 개의 벤딩 센서 (260)가 측정한 복수 개의 각도값의 합일 수 있다. 이하 도 3을 참조하여 복수 개의 벤딩 센서 (260)가 각도값을 측정하는 동작에 대해서 상세히 설명한다.
도 3은 본 발명의 일실시예에 따른 복수 개의 벤딩 센서가 감지 위치를 측정하는 동작을 나타낸다.
도 3을 참조하면, 복수 개의 벤딩 센서 (310)가 감지 위치 (320)의 구부러진 정도 (즉, 각도값)를 측정할수 있다.
이 때, 복수 개의 벤딩 센서 (310)가 측정한 개별적인 각도값의 총합이 감지 위치 (320)에 대한 각도값일 수 있다. 예를 들어, 10개의 벤딩 센서 (310)가 감지 위치 (320)의 각도값을 측정하는 경우로서, 10개의 벤딩 센서 (310)가 측정한 개별적인 각도값이 1도, 3도, 5도, 10도, 12도, 12도, 9도, 5도, 2도 및 1도인 경우, 감지 위치 (320)에 대한 각도값은 10개의 벤딩 센서 (310)가 측정한 개별적인 각도값의 총합인 60도일 수 있다.
다시 도 2를 참조하면, 표 4-2는 제 1 실시예에 따른 벤딩 센서 타입에 대한 시멘틱 (Semantics)을 나타낸다.
표 4-2
Figure imgf000016_0001
degrees
valuer ©escribes the sensed value by Hie bending with respect to the;
4 lt th^ i^ d fii d w J^ attribute. I¾e values: caii Be mutJipk 표 4-3는 본 발명 의 게 1 실시 예에 따른 벤딩 센서 타입에 대한 이진 부호화 신택스 (Binary Representation Syntax)를 나타낸다.
표 4-3
Figure imgf000017_0001
표 4-4은 본 발명의 제 1 실시 예에 따른 벤딩 센서 타입의 이진 부호화에 대한 시멘틱 (Semantics)을 나타낸다.
표 4-4
Nam ^ Definition^
numOf Sensors-^ This field, which is only present in flie binary representation, signals the number ofbend sensors.*3
numOf Axis* 3 This field, which is only present in tixe binary representation, signals the dimension of the data at the sensing locations.^ numOf Locations^ This field, which is only present in ttxe binary representation, signals the number of sensing locations.*' 표 5는 게 2 실시 예에 따른 벤딩 센서 타입 (Bending Sensor Type)에 대한 XML 신택스를 나타낸다.
표 5
-> <!— Definition of Bending Sensor type ~>
<complexType name="BendingSensorType">
<complexContent>
<extension base="iidl:SensedInfoBaseType">
<choice>
Figure imgf000018_0001
<element name="Value" type="float"/>
</sequence>
<attribute name=f!unit" type="mpegvct:unitType" use="optional >
</extension>
</complexContent>
</complexType>
표 5-2는 제 2 실시 예에 따른 벤딩 센서 타입에 대한 시 멘틱 (Semantics)을 나타낸다.
표 5-2 Name Definition^
BendingSensorType*3 Tool for describing sensed information with respect to z
Bending sensors
TimeStamp^3 Describes the time that the information is acquired (sensed), unit*-1 Specifies the unit of Hie seised value, if a unit otiier than the default unit is useds as a reference to a classification scheme term provided by UnitTypeCS defined in Α2Λ of ISO/IEC 23005-6. If the unit is∞t defined here, the default unit is degrees
Ar rayBend ingV lue^ Describes tiie seised value by bending according to 3 -axis with respect to the default unit or the unit defined in the unil attribute. ^
Note: the Array Value defines by the number of locations and the number of axis. Ten by three matrix indicates that the arr¾rValue has 10 sensing locations, each of which has 3 -axis bending angles.^
valuer Describes the sensed value by bending in scalar. This element shall be used, if flie sensor is capable of sensing only a degree ofbending. ^ 표 6은 게 3 실시 예에 따른 벤딩 센서 타입 (Bending Sensor Type)에 대한 X] ^L 신택스를 나타낸다.
표 6
<!— Definition of Bending Sensor type ~>
<complexType name="BendingSensorType"> <complexContent>
<extension base=!liidl:SensedInfoBaseType"> <sequence>
<element name="ArrayBendingValue" type=ffmpeg7:FloatMatrixTypelf minOccurs="l " maxOccurs="unbounded!V>
</sequence> <attribute name=nunit' type=,!mpegvct:unitType'
Figure imgf000020_0001
</extension>
</ complexContent>
</ complexType> 표 6-2는 게 3 실시 예에 따른 벤딩 센서 타입에 대한 시멘틱 (Semantics)을 나타낸다.
표 6-2
Nam Definition
BendingSensorType^ Tool for describing sensed information with respect to a
Bending sensors
TimeStan ^ Describes the time that the information is acquired (sens !) .
Specifies the unit of flie sensed value, if a unit ottier than the default unit is used, as a reference to a classification scheme term provided by UnitTypeCS defined in Α2Λ of ISO/EEC 23005-6. If the unit is not defined here, the default unit is degree.
ArrayBendingValu *-1 Describes flie set of sensed values by the bending with respect to flie default unit or the unit defined in the unit attribute on each joints
Note: the AnayValue defines by the number of axes and the number of locations. Three by ten martri indicates that the arrwValue has 10 sensing locations, each of which has 3 -axis bending angles. The order of values in each row of the matrix may be started from the fingertip to the palm side 표 7은 본 발명의 일실시 예에 따른 벤딩 센서 타입에 대한 이진 부호화 신택스 (Binary Representation Syntax)를 나타낸다.
표 7 BendSensorTypei*3 Number Mnemonic^
of bits^
unitFlag^ bslbf^
SensedlnfoB aseT pe^ SensedlnfoB aseT pe^ numOfSensors^ uimsbf*- numOfAxes 2^ uimsbf*-"1
numOfL oc ations*3 16^ uimsbf^
for(i=0 ;k<numOf Sensors i ++ ){^Ί
for(j = 0; j< numOfAxes; j++ k
for(k=0^ k< numOfLocations; k+ + ){^
ArrayValue [ (i-1)* numOf Location* fsbf^
numOfAxis + (j-1)* NumOfLocations + k I* 3
If (unitFlag == 1)^,
unit^ unitType*3
..:]
}^ 표 7-2는 본 발명의 일실시 예에 따른 벤딩 센서 타입의 이진 부호화에 대한 시멘틱 (Semantics)을 나타낸다.
표 7-2
Name*3 Definition*2
mmOfSenso^s*3 This field, which is only present in the binary representation, signals the number of bend sensors.*3
This field, which is only present in the binary representation, signals the dimension of the data at the sensing locations.^ numOfLocations^ This field, which is only present in the binary representation, signals the number of sensing locations.*3
표 8은 벤딩 센서 (260)에 측정한 감지 정보의 일예시를 나타낸다.
표 8 <iidl:SensedInfo xsi:type="siv:BendingSensorType" id="bending01 " activate="true" sensorIdRef="bendingIDO 1 ">
<iidl:TimeStamp xsi:type="mpegvct:ClockTickTimeType" timeScale=" 100" pts="60000'7>
</iidl: SensedInfo>
표 8을 참조하면, 감지 정보의 식별자는 ending01'이고, 벤딩 센서 (260)의 식별자는 ¾endingID01'일 수 있다. 즉, ¾endingIDOr의 벤딩 센서 (260)가 측정한 감지 정보는 ¾ending01'일 수 있다. 또한, 벤딩 센서 (260)의 타임스탬프는 1초에 100 클락 체크 (100 Clock Ticks per Second)하는 값인 '60000'일 수 있다. 처리부 (220)는 수신부 (210)가 벤딩 센서 (260)로부터 수신한 각도값 및 센서 특성에 기초하여 , 감지 위치에 대웅하는 가상 세계 (270)의 객체 (280)를 제어하는 제어 정보를 생성할 수 있다.
예를 들어, 사용자 (250)의 팔꿈치의 각도가 180도에서 90도로 변화하면, 벤딩 센서 (260)는 각도값을 측정하여 가상 세계 처리 장치 (200)로 전송할 수 있다. 이 때, 처리부 (260)는 각도값 및 센서 특성에 기초하여, 감지 위치 (즉, 팔꿈치)에 대웅하는 가상 세계 (270)의 객체 (280) (예를 들어, 아바타)도 팔꿈치를 움직이도록 제어하는 제어 정보를 생성할 수 있다.
본 발명의 일측에 따르면, 벤딩 센서 (260)가 측정한 각도값이 벤딩 센서 (260)가 측정할 수 있는 최대값보다 작거나 같고, 최소값보다 크거나 같은 경우, 처리부 (220)는 제어 정보를 생성할 수 있다.
실시 예에 따라서는, 각도값이 최 대값을 초과하면, 처리부 (220)는 각도값을 최 대값으로 하여 제어 정보를 생성할 수 있다. 또한, 각도값이 최소값의 미만인 경우, 처 리부 (220)는 각도값을 최소값으로 하여 제어 정보를 생성할 수 있다.
전송부 (230)는 생성된 제어 정보를 가상 세계 (270)로 전송할 수 있다.
실시 예에 따라서는, 전송부 (230)는 제어 정보를 XML 형 태의 메타데이터로 인코딩하여 가상 세계 (270)로 전송할 수 있다. 또한, 전송부 (230)는 제어 정보를 이진 형 태의 메타데이터로 인코딩하여 가상 세계 (270)로 전송할 수 있다. 또한, 전송부 (230)는 제어 정보를 XML 형 태의 제 1 메타데이터로 인코딩하고, 제 1 메타데이터를 이진 형 태의 계 2 메타데이터로 인코딩하여 가상 세계 (270)로 전송할 수 있다.
본 발명의 일측에 따르면, 가상 세계 처리 장치 (200)는 연산부 (240)를 더 ' 포함할 수 있다.
연산부 (240)는 게 1 감지 위치에 대한 제 1 각도값 및 제 2 감지 위치에 대한' 제 2 각도값에 기반하여, 상기 게 1 감지 위치와 상기 제 2 감지 위치 사이에 위치하는 제 3 감지 위치에 대한 게 3 각도값을 연산할 수 있다.
이 때, 처 리부 (220)는 제 1 각도값, 제 2 각도값, 제 3 각도값 및 센서 특성에 기초하여 제어 정보를 생성할 수 있다.
이하 도 4를 참조하여 계 3 각도값을 연산하는 동작에 대해서 상세히 설명 한다.
도 4는 본 발명의 일실시 예에 따른 가상 세계 처 리 장치가 각도값을 연산하는 동작을 나타낸다.
도 4를 참조하면, 본 발명의 일실시 예에 따른 벤딩 센서 (410)는 제 1 감지 위치 (401) (예를 들어, 어깨)에 대한 제 1 각도값을 측정할 수 있다. 또한, 벤딩 센서 (420)는 제 2 감지 위치 (403) (예를 들어 , 손목)에 대한 제 2 각도값을 측정할 수 있다.
본 발명의 일측에 따르면, 가상 세계 처 리 장치는 제 1 각도값 및 제 2 각도값에 기반하여, 벤딩 센서 (410, 420)가 측정할 수 없는 제 3 감지 위치 (402)의 거 13 각도값을 연산할 수 있다.
실시 예에 따라서는, 가상 세계 처리 장치는 제 1 각도값 및 제 2 각도값의 평균을 제 3 각도값으로 할 수 있다.
실시 예에 따라서는, 가상 세계 처리 장치는 제 1 각도값 및 제 2 각도값에 따른 제 3 각도값을 수집하여 저장한 데이터베이스를 더 포함하고, 데이터베이스에 저장된 정보, 제 1 각도값 및 제 2 각도값에 기반하여 제 3 각도값을 연산할 수 있다.
도 5는 본 발명의 일실시 예에 따른 아바타 제어 특징 점 타입의 구조를 나타내는 도면이다.
도 5를 참조하면, 본 발명의 일실시 예에 따른 아바타 제어 특징 점 타입 (Avatar Control Features Type)(510)은 속성 (Attributes)(520), 제어 몸체 특징 점 (Control Body Features)(530) 및 제어 얼굴 특징 점 (Control Face Features)(540)을 포함할 수 있다.
아바타 제어 특징 점 정보는 가상 세계의 아바타를 제어하는데 이용되는 아바타의 특징 점에 대한 정보이다. 이 때, 아바타 제어 특징 점 타입 (510)은 아바타 제어 특징 점 정보의 유형 (Type)에 대한 정보이다.
속성 (520)은 아바타 제어 특징 점 정보의 속성에 대한 정보이다. 실시 예에 따라서는, 속성 (520)은 아바타를 제어하는데 이용되는 특징 점에 대한 이름 (Name) 정보를 포함할 수 있다. 제어 몸체 특징점 (530)은 아바타를 제어하는데 이용되는 특징점으로서 아바타의 몸체 부분에 포함되는 특징점을 나타낸다.
실시예에 따라서는, 제어 몸체 특징점 (530)은 머리뼈대 (HeadBones)(531), 상체뼈대 (UpperBodyBones)(532), 하체뼈대 (DownBodyBones)(533) 및 중체뼈대 (MiddleBodyBones)(534)로 분류될 수 있다.
예를 들어, 상체뼈대 (532)는 아바타의 손구조에 대웅하는 특징점에 대한 정보를 포함할수 있다.
또한, 손구조는 속목, 손가락 관절 등 하위 구조를 포함할수 있다.
표 9은 일실시예에 따른 손구조의 하위 구조를 나타낸다.
표 9
Figure imgf000025_0001
LPhalangesl4 새끼 손가락 끝 마디
본 발명의 일측에 따르면, 가상 세계 처 리 장치는 벤딩 센서 가 측정한 감지 정보에 기반하여 , 감지 위치에 대웅하는 아바타 제어 특징 점을 제어하는 제어 정보를 생성할 수 있다. 즉, 벤딩 센서가 측정하는 감지 위치는 아바타 제어 특징 점 중 적어도 어느 하나에 대웅할 수 있다.
예를 들어, 벤딩 센서가 현실 세계의 사용자의 손목의 구부러진 정도를 측정하는 경우, 가상 세계 처 리 장치는 측정된 각도값에 기초하여, 사용자의 손목에 대응하는 가상 세계의 아바타의 손목의 동작을 제어하는 제어 정보를 생성할 수 있다.
도 6은 본 발명의 일실시 예에 따른 가상 세계 처리 방법을 나타내는 흐름도이다.
도 6을 참조하면, 본 발명의 일실시 예에 따른 가상 세계 처리 방법은 벤딩 센서로부터 감지 위치의 각도값 및 벤딩 센서에 대한 센서 특성을 수신할 수 있다 (S610).
벤딩 센서 (Bending Sensor)는 현실 세계의 객체의 구부러진 정도에 대한 감지 정보 (Sensed Information)를 측정하는 센서이다. 감지 정보는 벤딩 센서가 측정한 감지 위치의 구부러진 정도 (즉, 각도)에 대한 측정값이다.
실시 예에 따라서는, 벤딩 센서는 감지 위치에 부착 /결합되어 감지 위치의 구부러지는 정도 (즉, 각도값)를 측정할 수 있다. 예를 들어, 사용자가 벤딩 센서를 팔꿈치에 부착하는 경우, 벤딩 센서는 사용자의 팔꿈치의 구부러지는 정도 (즉, 팔꿈치의 각도)를 감지할 수 있다. 이 때, 가상 세계 처 리 방법은 벤딩 센서로부터 팔꿈치의 각도값 및 벤딩 센서의 센서 특성을 수신할 수 있다. 일실시 예에 따른 벤딩 센서는 사용자의 팔꿈치, 손가락 관절, 목, 어깨 등 기타 관절 부위에 결합되어 구부러지는 정도를 측정할 수 있다.
센서 특성 (Sensor Capability)은 벤딩 센서의 특성에 대한 정보이다.
일실시 예에 따른 벤딩 센서에 대한 센서 특성은 최대값 (maxValue), 최소값 (minValue), 위치 개수 (Nwn of Locations), 위치사이거리 (Distance between Location), 축개수 (numOfAxes) 및 센서 개수 (numOfSensors)를 포함할 수 있다.
최 대값은 벤딩 센서가 측정할 수 있는 최 대 각도값이다. 최소값은 벤딩 센서가 측정할 수 있는 최소 각도값이다. 일실시 예에 따른 벤딩 센서는 최 대값보다 작고, 최소값보다 큰 범위 내에서 감지 위치의 각도를 측정할 수 있다.
위치개수는 벤딩 센서가 감지하는 감지 위치의 개수를 나타낸다. 본 , 발명의 일측에 따르면, 하나의 벤딩 센서는 동시에 복수 개의 감지 위치의 ' 구부러지는 정도를 감지할 수 있으며, 이 때의 위치개수는 하나의 벤딩 센서가 측정하는 복수 개의 감지 위치의 개수일 수 있다. 또한, 실시 예에 따라서는, 복수 개의 벤딩 센서가 복수 개의 감지 위치를 측정할 수 있으며, 이 때의 위치 개수는 복수 개의 벤딩 센서가 측정하는 복수 개의 감지 위치의 개수일 수 있다.
위치사이거리는 벤딩 센서가 감지하는 감지 위치 사이의 거리를 나타낸다. 본 발명의 일측에 따르면, 복수 개의 벤딩 센서가 복수 개의 감지 위치를 감지할 수 있다.
축개수는 벤딩 센서가 감지할 수 있는 각도값의 크기 (Dimension)를 나타낸다. 센서 개수는, 복수 개의 벤딩 센서가 복수 개의 감지 위치를 측정하는 경우, 복수 개의 벤딩 센서가 감지할 수 있는 조각 (segments)을 나타낸다. 실시 예에 따라서는, 벤딩 센서의 센서 특성은 정확도 (Accuracy) 및 오프셋 (Offset)을 더 포함할 수 있다.
정확도는 벤딩 센서의 측정 오차에 대한 정보이다.
오프셋은 벤딩 센서가 측정하는 각도값의 영 점 조정을 위한 값이다. 본 발명의 일측에 따르면, 센서 특성은 이진 형 태 (binary format)로 인코딩된 메타 데이터 일 수 있다. 일실시 예에 따른 이진 형 태로 인코딩된 메타 데이터는 위치 개수 (Num of Locations), 축개수 (numOfAxes) 및 센서개수 (numOfSensors) 중 적어도 하나의 속성 (Attribute)에 대한 데이터 필드 (Data Field)를 포함할 수 있다. 벤딩 센서 타입은 벤딩 센서가 측정하는 감지 정보에 대한 정보를 나타낸다 i 일실시 예에 따른 벤딩 센서 타입은 타임스램프 (TimeStamp), 단위 (Unit) 및 값 (Value)를 포함할 수 있다.
타임스템프는 벤딩 센서가 감지 위치의 각도값을 측정한 때의 시간 정보이다. 실시 예에 따라서는, 타임스탬프는 벤딩 센서가 각도값을 측정하는 시간 간격에 대한 정보일 수 있다.
단위는 벤딩 센서가 측정하는 각도에 대한 단위 이다. 실시 예에 따라서는, 값은 '도 (Degree)'를 포함할 수 있다.
값은 벤딩 센서가 측정한 각도의 값이다. 실시 예에 따라서는, 하나의 감지 위치에 대하여 복수 개의 벤딩 센서가 각도값을 측정하는 경우, 감지 위치에 대한 각도값은 복수 개의 벤딩 센서가 측정한 복수 개의 각도값의 합일 수 있다.
가상 세계 처리 방법은 벤딩 센서로부터 수신한 각도값 및 센서 특성에 기초하여 , 감지 위치에 대웅하는 가상 세계의 객체를 제어하는 제어 정보를 생성할 수 있다 (S620).
예를 들어, 사용자의 팔꿈치의 각도가 180도에서 90도로 변화하면, 벤딩 센서는 각도값을 측정할 수 있다. 이 때, 가상 세계 처 리 방법은 각도값 및 센서 특성에 기초하여, 감지 위치 (즉, 팔꿈치)에 대웅하는 가상 세계의 객체 (예를 들어, 아바타)도 팔꿈치를 움직 이도록 제어하는 제어 정보를 생성할 수 있다.
본 발명의 일측에 따르면, 벤딩 센서가 측정한 각도값이 벤딩 센서가 측정할 수 있는 최대값보다 작거나 같고, 최소값보다 크거나 같은 경우, 가상 세계 처리 방법은 제어 정보를 생성할 수 있다.
실시 예에 따라서는, 각도값이 최대값을 초과하면, 가상 세계 처리 방법은 각도값을 최대값으로 하여 제어 정보를 생성할 수 있다. 또한, 각도값이 최소값의 미만인 경우, 가상 세계 처 리 방법은 각도값을 최소값으로 하여 제어 정보를 생성할 수 있다.
가상 세계 처리 방법은 생성된 제어 정보를 가상 세계로 전송할 수 있다 (S630).
실시 예에 따라서는, 가상 세계 처리 방법은 제어 정보를 XML 형 태의 메타데이터로 인코딩하여 가상 세계로 전송할 수 있다. 또한, 가상 세계 처리 방법은 제어 정보를 이진 형 태의 메타데이터로 인코딩하여 가상 세계로 전송할 수 있다. 또한, 가상 세계 처리 방법은 제어 정보를 XML 형 태의 제 1 메타데이터로 인코딩하고, 제 1 메타데이터를 이진 형 태의 제 2 메타데이터로 인코딩하여 가상 세계로 전송할 수 있다.
본 발명 의 일측에 따르면, 가상 세계 방법은 제 1 감지 위치에 대한 제 1 각도값 및 제 2 감지 위치에 대한 제 2 각도값에 기반하여 , 상기 제 1 감지 위치와 상기 제 2 감지 위치 사이에 위치하는 제 3 감지 위치에 대한 제 3 각도값을 연산할 수 있다. 이 때, 가상 세계 처리 방법은 제 1 각도값, 제 2 각도값, 제 3 각도값 및 센서 특성에 기초하여 제어 정보를 생성할 수 있다.
본 발명에 따른 실시 예들은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명 령 형 태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명 령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명 령은 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에 게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체 (magnetic media), CD - ROM, DVD와 같은 광기록 매체 (optical media), 플롭티 컬 디스크 (Floptical disk)와 같은: 자기 -광 매체 (magneto-optical media), 및 롬 (ROM), 램 (RAM), 플래시 메모리 등과 같은 프로그램 명 령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명 령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기 계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 본 발명의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지 이다.
이상과 같이 본 발명은 비록 한정된 실시 예와 도면에 의해 설명되 었으나, 본 발명은 상기의 실시 예에 한정되는 것은 아니며, 본 발명 이 속하는 분야에서 통상의 지식을 가진 자라면 이 러한 기 재로부터 다양한 수정 및 변형 이 가능하다.
그러므로, 본 발명의 범위는 설명된 실시 예에 국한되어 정해져서는 아니 되며, 후술하는 특허청구범위뿐 아니라 이 특허청구범위와 균등한 것들에 정해져야 한다.

Claims

【청구의 범위】
1. 벤딩 센서로부터 감지 위치의 각도값 및 상기 벤딩 센서의 특성에 대한 센서 특성을 수신하는 수신부;
상기 각도값 및 상기 센서 특성에 기초하여, 상기 감지 위치에 대웅하는 가상 세계의 객체를 제어하는 제어 정보를 생성하는 처리부; 및
상기 생성된 제어 정보를 가상 세계로 전송하는 전송부
를 포함하는 가상 세계 처리 장치 .
2. 제 1항에 있어서, 상기 센서 특성은,
상기 벤딩 센서가 측정할 수 있는 상기 각도값의 최대값 및 최소값을 포함하 는 가상 세계 처 리 장치 .
3. 제 2항에 있어서, 상기 처리부는,
상기 각도값이 상기 최대값보다 작거나 같고 상기 최소값보다 크거나 같은 경우, 상기 제어 정보를 생성하는 가상 세계 처 리 장치 .
4. 게 1항에 있어서, 상기 센서 특성은,
상기 감지 위치의 개수를 포함하는 가상 세계 처리 장치 .
5. 제 1항에 있어서, 상기 센서 특성은,
상기 감지 위치 사이의 거리를 포함하는 가상 세계 처 리 장치 .
6. 제 1항에 있어서, 상기 각도값은,
상기 감지 위치에 대하여 복수 개의 상기 벤딩 센서가 상기 각도값을 측정하는 경우, 상기 복수 개의 벤딩 센서가 측정한 복수 개의 각도값의 합인 가상 세계 처리 장치.
7. 제 1항에 있어서,
제 1 감지 위치에 대한 제 1 각도값 및 제 2 감지 위치에 대한 제 2 각도값에 기반하여, 상기 제 1 감지 위치와 상기 제 2 감지 위치 사이에 위치하는 게 3 감지 위치에 대한 제 3 각도값을 연산하는 연산부
를 더 포함하고,
상기 처리부는 상기 제 1 각도값, 상기 제 2각도값, 상기 제 3 각도값 및 상 71 센서 특성에 기초하여 상기 제어 정보를 생성하는 가상 세계 처리 장치.
8. 제 1항에 있어서,
상기 센서 특성은
이진 형태로 인코딩된 메타 데이터인 가상 세계 처리 장치.
9. 제 8항에 있어서,
상기 이진 형태로 인코딩된 메타 데이터는
위치개수 (Num of Locations), 축개수 (numOf Axes) 및 센서개수 (numOfSensors) 중 적어도 하나의 속성에 대한 데이터 필드를 포함하는 가상 세계 처리 장치.
10. 벤딩 센서로부터 감지 위치의 각도값 및 상기 벤딩 센서의 특성에 대한 센서 특성을 수신하는 단계;
상기 각도값 및 상기 센서 특성에 기초하여, 상기 감지 위치에 대응하는 가상 세계의 객체를 제어하는 제어 정보를 생성하는 단계; 및
상기 생성된 제어 정보를 가상 세계로 전송하는 단계
를 포함하는 가상 세계 처리 방법 .
11. 제 10항에 있어서 , 상기 각도값은,
상기 감지 위치에 대하여 복수 개의 상기 벤딩 센서가 상기 각도값을 측정하는 경우, 상기 복수 개의 벤딩 센서가 측정한 복수 개의 각도값의 합인 가;상 세계 처리 방법 .
12. 제 10항에 있어서,
게 1 감지 위치에 대한 제 1 각도값 및 제 2 감지 위치에 대한 제 2 각도값에 기반하여, 상기 제 1 감지 위치와 상기 제 2 감지 위치 사이에 위치하는 제 3 감지 위치에 대한 제 3 각도값을 연산하는 단계
를 더 포함하고,
상기 제어 정보를 생성하는 단계는,
상기 계 1 각도값, 상기 제 2 각도값, 상기 제 3 각도값 및 상기 센서 특성에 기초하여 상기 제어 정보를 생성하는 가상 세계 처 리 방법 .
13. 제 10항 내지 제 12항 중 어느 한 항의 방법을 실행하는 프로그램을 기록한 컴퓨터 판독 가능 기록 매체.
PCT/KR2011/002408 2010-04-13 2011-04-06 가상 세계 처리 장치 및 방법 WO2011129543A2 (ko)

Priority Applications (4)

Application Number Priority Date Filing Date Title
US13/641,026 US9597592B2 (en) 2010-04-13 2011-04-06 Method and apparatus for processing virtual world
JP2013504805A JP5801872B2 (ja) 2010-04-13 2011-04-06 仮想世界処理装置及び方法
CN201180018649.0A CN102858413B (zh) 2010-04-13 2011-04-06 虚拟世界处理装置及方法
EP11769009.9A EP2559463B1 (en) 2010-04-13 2011-04-06 Device and method for processing a virtual world

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
KR20100033947 2010-04-13
KR10-2010-0033947 2010-04-13
KR10-2011-0024448 2011-03-18
KR1020110024448A KR101835413B1 (ko) 2010-04-13 2011-03-18 가상 세계 처리 장치 및 방법

Publications (2)

Publication Number Publication Date
WO2011129543A2 true WO2011129543A2 (ko) 2011-10-20
WO2011129543A3 WO2011129543A3 (ko) 2012-02-02

Family

ID=45029517

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2011/002408 WO2011129543A2 (ko) 2010-04-13 2011-04-06 가상 세계 처리 장치 및 방법

Country Status (6)

Country Link
US (1) US9597592B2 (ko)
EP (1) EP2559463B1 (ko)
JP (2) JP5801872B2 (ko)
KR (1) KR101835413B1 (ko)
CN (2) CN104281262B (ko)
WO (1) WO2011129543A2 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105056525A (zh) * 2015-08-17 2015-11-18 联想(北京)有限公司 一种信息处理方法及电子设备

Families Citing this family (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20100138700A (ko) * 2009-06-25 2010-12-31 삼성전자주식회사 가상 세계 처리 장치 및 방법
KR101685922B1 (ko) * 2010-04-05 2016-12-13 삼성전자주식회사 가상 세계 처리 장치 및 방법
US8610663B2 (en) 2012-02-06 2013-12-17 Lg Electronics Inc. Portable device and method for controlling the same
KR101367412B1 (ko) * 2013-06-18 2014-02-24 우석 계 가상공간에서의 물리적 효과 제어 장치 및 그 방법
US20170259167A1 (en) * 2016-03-14 2017-09-14 Nathan Sterling Cook Brainwave virtual reality apparatus and method
US10627909B2 (en) * 2017-01-10 2020-04-21 Disney Enterprises, Inc. Simulation experience with physical objects
CN107344019B (zh) * 2017-07-28 2023-11-21 歌尔科技有限公司 一种虚拟现实系统
CN109579689B (zh) * 2017-09-29 2020-12-08 西门子公司 曲率测量装置
GB2569603B (en) 2017-12-21 2020-04-01 Sony Interactive Entertainment Inc Position tracking apparatus and method
JP7070245B2 (ja) * 2018-08-27 2022-05-18 富士通株式会社 情報処理装置、動作制御プログラム、及び動作制御方法
JP7359422B2 (ja) * 2018-11-07 2023-10-11 学校法人法政大学 仮想体の動作制御システム、人体拘束治具、及び仮想体の動作制御方法
CN110822661B (zh) * 2019-11-25 2021-12-17 广东美的制冷设备有限公司 空调器的控制方法、空调器及存储介质
CN110822642B (zh) * 2019-11-25 2021-09-14 广东美的制冷设备有限公司 空调器及其控制方法和计算机存储介质
CN110822641A (zh) * 2019-11-25 2020-02-21 广东美的制冷设备有限公司 空调器及其控制方法、装置和可读存储介质
CN110822643B (zh) * 2019-11-25 2021-12-17 广东美的制冷设备有限公司 空调器及其控制方法和计算机存储介质
CN110822647B (zh) * 2019-11-25 2021-12-17 广东美的制冷设备有限公司 空调器的控制方法、空调器及存储介质
CN110822649B (zh) * 2019-11-25 2021-12-17 广东美的制冷设备有限公司 空调器的控制方法、空调器及存储介质
CN110822646B (zh) * 2019-11-25 2021-12-17 广东美的制冷设备有限公司 空调器的控制方法、空调器及存储介质
CN110822645B (zh) * 2019-11-25 2021-12-17 广东美的制冷设备有限公司 空调器及其控制方法、装置和可读存储介质
CN110822644B (zh) * 2019-11-25 2021-12-03 广东美的制冷设备有限公司 空调器及其控制方法和计算机存储介质
JP2021089691A (ja) * 2019-12-06 2021-06-10 未來市股▲ふん▼有限公司 動作追跡システム及び動作追跡方法
EP4119308A4 (en) * 2020-03-11 2023-08-30 Sony Group Corporation INFORMATION PROCESSING DEVICE, INFORMATION PROCESSING METHOD AND INFORMATION PROCESSING PROGRAM

Family Cites Families (31)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03228092A (ja) * 1990-02-02 1991-10-09 Hitachi Ltd 文字パターン生成方法
JPH09153151A (ja) * 1995-11-30 1997-06-10 Matsushita Electric Ind Co Ltd 3次元骨格構造の動き生成装置
JP3862348B2 (ja) * 1997-03-19 2006-12-27 東京電力株式会社 モーションキャプチャシステム
WO1998047426A1 (en) * 1997-04-21 1998-10-29 Virtual Technologies, Inc. Goniometer-based body-tracking device and method
US6049327A (en) * 1997-04-23 2000-04-11 Modern Cartoons, Ltd System for data management based onhand gestures
US5963891A (en) * 1997-04-24 1999-10-05 Modern Cartoons, Ltd. System for tracking body movements in a virtual reality system
JPH1157212A (ja) * 1997-08-24 1999-03-02 Sony Computer Entertainment:Kk ゲーム装置、ゲーム機用操作装置、ゲームシステム及びゲーム装置の双方向通信方法
US6154199A (en) * 1998-04-15 2000-11-28 Butler; Craig L. Hand positioned mouse
US6304840B1 (en) * 1998-06-30 2001-10-16 U.S. Philips Corporation Fingerless glove for interacting with data processing system
JP2000132305A (ja) 1998-10-23 2000-05-12 Olympus Optical Co Ltd 操作入力装置
CN2358435Y (zh) * 1999-03-10 2000-01-12 中国科学院自动化研究所 柔性角度传感器
JP2000329511A (ja) * 1999-05-19 2000-11-30 Sony Corp データグローブ及びこれを用いた形状認識方法
US6577952B2 (en) * 2001-01-08 2003-06-10 Motorola, Inc. Position and heading error-correction method and apparatus for vehicle navigation systems
JP3584229B2 (ja) 2001-09-28 2004-11-04 キヤノン株式会社 映像体験システムおよび情報処理方法
US20030062675A1 (en) 2001-09-28 2003-04-03 Canon Kabushiki Kaisha Image experiencing system and information processing method
US7033281B2 (en) * 2002-03-22 2006-04-25 Carnahan James V Augmented kinematic feedback device and method
CN1167996C (zh) * 2002-07-11 2004-09-22 庄胜雄 可形成虚拟追踪球的手套滑鼠
JP2004192325A (ja) * 2002-12-11 2004-07-08 Nippon Telegr & Teleph Corp <Ntt> ユーザ姿勢情報伝達方法,ユーザ姿勢情報送信装置,ユーザ姿勢情報受信装置,ユーザ姿勢情報送信プログラム,ユーザ姿勢情報受信プログラム,およびそれらのプログラムを記録した記録媒体
JP2004213350A (ja) 2002-12-27 2004-07-29 Seiko Epson Corp 力覚提示装置及び画像補正方法
CN2725994Y (zh) * 2004-05-13 2005-09-14 中国科学院自动化研究所 一种触觉反馈数据手套
JP2005337983A (ja) * 2004-05-28 2005-12-08 Spice:Kk モーションキャプチャー方法及びシステム
CN101316630A (zh) * 2005-07-15 2008-12-03 鲍尔格力德健身器材公司 等长锻炼系统和便于用户在视频游戏期间训练的方法
JP2007041660A (ja) * 2005-08-01 2007-02-15 Nec Corp センサネットワーク、センサノード及びそのプログラムと、センサ情報検索方法
US7602301B1 (en) * 2006-01-09 2009-10-13 Applied Technology Holdings, Inc. Apparatus, systems, and methods for gathering and processing biometric and biomechanical data
US20080125224A1 (en) * 2006-09-26 2008-05-29 Pollatsek David Method and apparatus for controlling simulated in flight realistic and non realistic object effects by sensing rotation of a hand-held controller
JP4647632B2 (ja) * 2007-03-06 2011-03-09 日本電信電話株式会社 センサデータ制御システム及びセンサデータ制御方法
US8675017B2 (en) 2007-06-26 2014-03-18 Qualcomm Incorporated Real world gaming framework
US20090221368A1 (en) 2007-11-28 2009-09-03 Ailive Inc., Method and system for creating a shared game space for a networked game
JP5108032B2 (ja) * 2008-02-01 2012-12-26 旭光電機株式会社 多関節構造体教示装置
KR101483713B1 (ko) * 2008-06-30 2015-01-16 삼성전자 주식회사 모션 캡쳐 장치 및 모션 캡쳐 방법
JP5529400B2 (ja) * 2008-07-11 2014-06-25 任天堂株式会社 拡張操作装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
"PROJECT NATAL", 2009, article "Press Conference. PROJECT NATAL"

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105056525A (zh) * 2015-08-17 2015-11-18 联想(北京)有限公司 一种信息处理方法及电子设备

Also Published As

Publication number Publication date
KR101835413B1 (ko) 2018-03-09
JP5801872B2 (ja) 2015-10-28
JP6316251B2 (ja) 2018-04-25
JP2016026342A (ja) 2016-02-12
CN102858413A (zh) 2013-01-02
KR20110114439A (ko) 2011-10-19
EP2559463A4 (en) 2014-02-26
CN104281262A (zh) 2015-01-14
WO2011129543A3 (ko) 2012-02-02
US20130093665A1 (en) 2013-04-18
CN104281262B (zh) 2017-08-01
EP2559463A2 (en) 2013-02-20
JP2013535039A (ja) 2013-09-09
CN102858413B (zh) 2014-10-29
US9597592B2 (en) 2017-03-21
EP2559463B1 (en) 2020-10-07

Similar Documents

Publication Publication Date Title
WO2011129543A2 (ko) 가상 세계 처리 장치 및 방법
JP6216512B2 (ja) 仮想世界処理装置および方法
US10086282B2 (en) Tracking device for use in obtaining information for controlling game program execution
US9009747B2 (en) Gesture cataloging and recognition
US8781151B2 (en) Object detection using video input combined with tilt angle information
US9393487B2 (en) Method for mapping movements of a hand-held controller to game commands
US8313380B2 (en) Scheme for translating movements of a hand-held controller into inputs for a system
EP1937380B1 (en) Wireless video game controller and method for operating a wireless video game controller
CN101438340B (zh) 用于三维输入控制的系统、方法和设备
US20070265075A1 (en) Attachable structure for use with hand-held controller having tracking ability
US20060287085A1 (en) Inertially trackable hand-held controller
JP2013540291A (ja) 仮想世界処理装置及び方法
KR101636734B1 (ko) 가상 세계 처리 장치 및 방법
EP3711828B1 (en) Scheme for detecting and tracking user manipulation of a game controller body and for translating movements thereof into inputs and game commands
USRE48417E1 (en) Object direction using video input combined with tilt angle information
KR101986608B1 (ko) 가상 세계 처리 장치 및 방법
CN102058976A (zh) 用于跟踪环境中的用户操纵的系统
KR20120106369A (ko) 가상 세계 처리 장치 및 방법

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 201180018649.0

Country of ref document: CN

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 11769009

Country of ref document: EP

Kind code of ref document: A2

ENP Entry into the national phase

Ref document number: 2013504805

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

WWE Wipo information: entry into national phase

Ref document number: 2011769009

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 13641026

Country of ref document: US