WO2010151054A2 - 가상 세계 처리 장치 및 방법 - Google Patents

가상 세계 처리 장치 및 방법 Download PDF

Info

Publication number
WO2010151054A2
WO2010151054A2 PCT/KR2010/004091 KR2010004091W WO2010151054A2 WO 2010151054 A2 WO2010151054 A2 WO 2010151054A2 KR 2010004091 W KR2010004091 W KR 2010004091W WO 2010151054 A2 WO2010151054 A2 WO 2010151054A2
Authority
WO
WIPO (PCT)
Prior art keywords
sensor
value
type
information
maxvalue
Prior art date
Application number
PCT/KR2010/004091
Other languages
English (en)
French (fr)
Other versions
WO2010151054A3 (ko
Inventor
한승주
한재준
김도균
방원철
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from KR1020090101434A external-priority patent/KR20100138702A/ko
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to EP10792336.9A priority Critical patent/EP2446942A4/en
Priority to JP2012517386A priority patent/JP2012531658A/ja
Priority to US13/380,318 priority patent/US9566506B2/en
Priority to CN201080037696.5A priority patent/CN102481486B/zh
Publication of WO2010151054A2 publication Critical patent/WO2010151054A2/ko
Publication of WO2010151054A3 publication Critical patent/WO2010151054A3/ko
Priority to JP2016016649A priority patent/JP2016137248A/ja
Priority to US15/429,811 priority patent/US9987553B2/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/211Input arrangements for video game devices characterised by their sensors, purposes or types using inertial sensors, e.g. accelerometers or gyroscopes
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/213Input arrangements for video game devices characterised by their sensors, purposes or types comprising photodetecting means, e.g. cameras, photodiodes or infrared cells
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/215Input arrangements for video game devices characterised by their sensors, purposes or types comprising means for detecting acoustic signals, e.g. using a microphone
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/216Input arrangements for video game devices characterised by their sensors, purposes or types using geographical information, e.g. location of the game device or player using GPS
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/217Input arrangements for video game devices characterised by their sensors, purposes or types using environment-related information, i.e. information generated otherwise than by the player, e.g. ambient temperature or humidity
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/218Input arrangements for video game devices characterised by their sensors, purposes or types using pressure sensors, e.g. generating a signal proportional to the pressure applied by the player
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/219Input arrangements for video game devices characterised by their sensors, purposes or types for aiming at specific areas on the display, e.g. light-guns
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/40Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
    • A63F13/44Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment involving timing of operations, e.g. performing an action within a time slot
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/60Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor
    • A63F13/65Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor automatically by game devices or servers from real world data, e.g. measurement in live racing competition
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/80Special adaptations for executing a specific game genre or game mode
    • A63F13/825Fostering virtual characters
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/40Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
    • A63F13/42Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/50Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by details of game servers
    • A63F2300/53Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by details of game servers details of basic data processing
    • A63F2300/534Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by details of game servers details of basic data processing for network load management, e.g. bandwidth optimization, latency reduction
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/69Involving elements of the real world in the game world, e.g. measurement in live races, real video

Definitions

  • Embodiments relate to a method and an Apparatus for Processing Virtual World, and more particularly to an apparatus and method for applying the information of the real world to the virtual world.
  • the interaction between the real world and the virtual world has two directions. The first is to reflect the data information obtained from the sensor of the real world to the virtual world, and the second is to reflect the data information obtained from the virtual world to the real world through an actuator.
  • Embodiments provide a virtual world processing apparatus and method for applying information obtained from sensors in the real world to the virtual world in order to realize the interaction of the real world and the virtual world.
  • the virtual world processing apparatus that enables the interoperability of the virtual world and the real world or the virtual world may include an input unit configured to receive sensed information collected by a sensor; And a controller configured to adjust the sensing information based on a sensor capability related to the characteristic of the sensor.
  • Embodiments may implement the interaction between the real world and the virtual world or the interaction between the virtual world by receiving the sensing information, which is information collected by the sensor, and adjusting the sensing information based on the sensor characteristic, which is information on the characteristic of the sensor. have.
  • FIG. 1 is a diagram illustrating an operation of manipulating an object of a virtual world using a sensor, according to an exemplary embodiment.
  • FIG. 2 is a diagram illustrating a system for manipulating an object of a virtual world using a sensor, according to an exemplary embodiment.
  • FIG. 3 is a diagram illustrating a system for manipulating an object of a virtual world using a sensor according to another embodiment of the present invention.
  • FIG. 4 is a diagram illustrating a configuration of a virtual world processing apparatus according to an embodiment.
  • FIG. 5 is a diagram illustrating a configuration of a virtual world processing apparatus according to an embodiment of the present invention.
  • FIG. 6 is a diagram illustrating a configuration of a virtual world processing apparatus according to another embodiment of the present invention.
  • FIG. 7 is a diagram illustrating a sensor characteristic basic type according to one embodiment.
  • FIG. 8 is a diagram illustrating syntax of a sensor capability base type according to an embodiment.
  • FIG. 9 is a diagram illustrating syntax of a sensor characteristic basic attribute, according to an exemplary embodiment.
  • FIG. 10 is a diagram illustrating a sensor adaptation preference basic type according to one embodiment.
  • 11 is a diagram illustrating syntax of a sensor adaptation preference basic type according to one embodiment.
  • FIG. 12 is a diagram illustrating syntax of a sensor adaptation preference basic attribute according to an embodiment.
  • FIG. 13 is a diagram illustrating a sensing information basic type according to one embodiment.
  • FIG. 14 is a flowchart of a virtual world processing method, according to an exemplary embodiment.
  • 15 is a flowchart of a virtual world processing method, according to another exemplary embodiment.
  • 16 is a diagram illustrating an operation of using a virtual world processing apparatus, according to an exemplary embodiment.
  • FIG. 1 is a diagram illustrating an operation of manipulating a virtual world object of a virtual world using a sensor, according to an exemplary embodiment.
  • a user 110 of a real world using a sensor 100 may use a virtual world object 120 of a virtual world.
  • the user 110 of the real world may input his or her own motion, state, intention, form, etc. through the sensor 100, and the sensor 100 controls the operation, state, intention, form, etc. of the user 110.
  • Information (control information, CI) may be included in the sensor signal and transmitted to the virtual world processing apparatus.
  • the virtual world may be classified into a virtual environment and a virtual world object.
  • the virtual world object may be classified into an avatar and a virtual object.
  • the user 110 in the real world may be a human, an animal, a plant, and an inanimate object (eg, an object), and may include a user's surrounding environment (temperature, air pressure, etc.).
  • FIG. 2 is a diagram illustrating a system for manipulating a virtual world using a sensor, according to an exemplary embodiment.
  • the sensor signal including control information (CI) 201 may be transmitted to the virtual world processing apparatus.
  • the control information 201 regarding the operation, state, intention, shape, etc. of the user of the real world 210 may include sensor capability, sensor adaptation preference, and sensed information. ) May be included. Sensor characteristics, sensor adaptation preferences, and sensing information will be described in detail later with reference to FIGS. 7 through 16.
  • the virtual world processing apparatus may include an adaptation real world to virtual world 220.
  • the adaptive RV 220 may be implemented as a real world to virtual world engine (RV engine).
  • the adaptive RV 220 uses the control information (CI) 201 regarding the operation, state, intention, shape, etc. of the user of the real world 210 included in the sensor signal to convert the information of the real world 210 into the virtual world. (virtual world) (240) is converted into information that can be applied.
  • adaptive RV 220 may use virtual world information (VWI) 202 using control information 201 about the operation, status, intent, shape, etc. of a user of real world 210. Can be converted.
  • VWI virtual world information
  • VWI 202 is information about the virtual world 240.
  • the VWI 202 may include information about an object of the virtual world 240 or elements constituting the object.
  • the virtual world processing apparatus may transmit the information 203 converted by the adaptive RV 220 to the virtual world 240 through the adaptation real world to virtual world / virtual world to real world (230) 230. Can be.
  • Table 1 describes the configurations shown in FIG. 2.
  • FIG. 3 is a view showing a system for manipulating a virtual world using a sensor according to another embodiment of the present invention.
  • the sensor 250 collects information about a user's motion, state, intention, shape, and the like in a real world.
  • the sensor 250 includes a metadata encoder 251 for encoding information collected through the sensor 250 into metadata.
  • the metadata encoder 251 encodes the information collected by the sensor 250 into first metadata, and the sensor 250 transmits the first metadata to the adaptive RV 255.
  • the metadata decoder 256 included in the adaptive RV 255 decodes the first metadata received from the sensor 250.
  • the metadata decoder 258 included in the adaptive RV 255 decodes the second metadata received from the adaptive VR 260.
  • the second metadata may be metadata in which the metadata encoder 257 included in the adaptive VR 260 encodes information about the virtual world 265.
  • the adaptive RV 255 is information to be applied to the virtual world 265 based on the information from which the metadata decoder 256 decodes the first metadata and the information of the metadata decoder 258 to decode the second metadata. Create In this case, the adaptive RV 255 may generate information to be applied to the virtual world 265 to correspond to the virtual world object characteristics and the sensing information included in the second metadata.
  • the metadata encoder 257 encodes the information to be applied to the virtual world 265 generated by the adaptive RV 255 into third metadata.
  • Adaptive RV 255 also sends third metadata to adaptive VR 260.
  • the metadata decoder 271 included in the adaptive VR 260 decodes the third metadata.
  • the adaptive VR 260 may transform the attributes of the objects of the virtual world 265 based on the decoded information.
  • the adaptive VR 260 may apply the converted attribute to the virtual world 265.
  • FIG. 4 is a diagram illustrating a configuration of a virtual world processing apparatus according to an embodiment.
  • the virtual world processing apparatus 300 includes a storage 310 and a processor 320.
  • the storage unit 310 stores sensor characteristics related to the characteristics of the sensor.
  • a sensor is a device that measures the motion, state, intention or form of a user in the real world.
  • the sensor may be represented as a sensory input device.
  • the sensor may be configured to (1) acoustic, sound, vibration, (2) automotive, transportation, (3) chemical, (4) current, potential, Electric current, electric potential, magnetic, radio (5) environment, weather (6) flow (7) ionizing radiation, subatomic particles (8)
  • Navigation instruments (9 position, angle, displacement, distance, speed, acceleration (10) optical, light, imaging ( 11 pressure, force, density, level (12) thermal, heat, temperature (13) proximity, presence (14) sensor technology
  • it can be classified by type.
  • Table 2 shows embodiments of the sensor according to the sensor type.
  • the sensor shown in the following table is only one embodiment, it should not be construed that the present invention can be implemented only by the sensor shown in the following table.
  • a microphone of sensor type (1) sound, voice, vibration, and the like may collect the voice of a real world user and the voice around the user.
  • Sensor type (2) Speed sensors in automobiles, vehicles and vehicles can measure the speed of the user in the real world and the speed of objects in the real world (eg vehicles). have.
  • Sensor type (3) Chemical Oxygen sensor can measure the ratio of oxygen in the air around the user in the real world and the ratio of oxygen in the liquid around the user in the real world.
  • Sensor type (4) Metal detectors of electric current, electric potential, magnetic and radio can measure the presence and presence of metal in the real world.
  • Sensor type (5) Rain sensor of environment, weather can measure whether it is raining in the real world.
  • Sensor type (6) Flow A flow sensor can measure the rate of fluid flow in the real world.
  • Sensor type (7) Scintillators of ionizing radiation, subatomic particles can measure radiation rates in the user and around the user in the real world.
  • Sensor type (8) The variometer of the navigation instruments can measure the lifting speeds around the user and the user in the real world.
  • Sensor type (9) Odometer of position, angle, displacement, distance, speed, acceleration is an object in the real world (e.g. vehicle) ) Can measure the mileage.
  • Sensor type (10) Phototransistors of optical, light and imaging can measure light in the real world.
  • Sensor type (11) Barometer of pressure, force, density, level can measure the air pressure in the real world.
  • Sensor type (12) A bolometer of thermal, heat, temperature can measure radiation in the real world.
  • a motion detector of proximity, presence, and sensor type 13 can measure the movement of a user in the real world.
  • Sensor type (14) A biosensor of sensor technology can measure the biological properties of a user in the real world.
  • FIG. 5 is a diagram illustrating a configuration of a virtual world processing apparatus according to an embodiment of the present invention.
  • an input device 360 receives a sensor adaptation preference 361 from a user in the real world.
  • the input device 360 may be implemented to be inserted into the sensor 370 or the virtual world processing apparatus 350 in the form of a module.
  • the sensor adaptation preference 361 is described in detail later with reference to FIGS. 10-12.
  • the sensor 370 may transmit the sensor characteristic 371 and the sensing information 372 to the virtual world processing apparatus 350.
  • the sensor characteristic 371 and the sensing information 372 will be described in detail later with reference to FIGS. 7 to 9 and 13.
  • the virtual world processing apparatus 350 includes a signal processor 351 and an adaptor 352.
  • the signal processor 351 receives the sensor characteristic 371 and the sensing information 372 from the sensor 370, and performs a signal processing operation on the received sensor characteristic 371 and the sensing information 372. In some embodiments, the signal processor 351 may perform filtering and validation on the sensor characteristic 371 and the sensing information 372.
  • the adaptor 352 receives the sensor adaptation preference 361 from the input device 360, and based on the received sensor adaptation preference 361, the adaptation unit 352 may be applied to the virtual world 380. An adaptation operation may be performed on the signal processed information. In addition, the virtual world processing apparatus 350 applies the information on which the adaptation is performed by the adaptation unit 352 to the virtual world 380.
  • Sensor capability is information about the characteristics of a sensor.
  • the sensor capability base type is a base type of sensor characteristic.
  • the sensor characteristic base type may be a part of metadata about the sensor characteristic, and may be a base type of metadata regarding the sensor characteristic commonly applied to all sensors. base abstract type for a subset of types defined as part of the sensory input device capability metadata types).
  • FIG. 7 is a diagram illustrating a sensor characteristic basic type according to one embodiment.
  • a sensor characteristic base type 400 may include a sensor capability base attributes 410 and an exception attributes 420.
  • the sensor capability base attributes 410 are a group of sensor characteristics that are included by default in the sensor characteristic base type 400.
  • the exception attribute 420 is a group of additional sensor characteristics that the sensor has.
  • the exception attribute 420 may be a unique additional sensor characteristic that can be applied to any sensor.
  • Exception attribute 420 may provide extensibility to include attributes other than the default attributes. (Any attribute allows for the inclusion of any attributes defined within a namespace other than the target namespace).
  • FIG. 8 is a diagram illustrating syntax of a sensor capability base type according to an embodiment.
  • the syntax 500 of the sensor characteristic basic type may include a diagram 510, attributes 520, and a source 530.
  • Diagram 510 may include a plot of sensor characteristic basic types.
  • the attribute 520 may include sensor characteristic basic attributes and exception attributes.
  • the source 530 may include a program indicating a sensor characteristic basic type using XML (eXtensible Markup Language).
  • XML eXtensible Markup Language
  • FIG. 8 the source 530 shown in FIG. 8 is only one embodiment, and the present invention is not limited thereto.
  • FIG. 9 is a diagram illustrating syntax of a sensor characteristic basic attribute, according to an exemplary embodiment.
  • the syntax 600 of the sensor characteristic basic attribute may include a diagram 610, an attribute 620, and a source 630.
  • Diagram 610 may include a plot of sensor characteristic basic attributes.
  • Attributes 620 include units 601, maxValue 602, minValue 603, offset 604, resolution numOflevels 605, sensitivity 606, signal to noise ratio (SNR) 607, and accuracy 608.
  • Unit 601 is a unit of a value measured by a sensor.
  • the unit 601 may be degrees Celsius (° C.) and Fahrenheit (° F.) when the sensor is a thermometer, and the unit 601 may be hourly (km) when the sensor is a speed sensor. / h) and initial velocity (m / s).
  • the maxvalue 602 and minValue 603 are the maximum and minimum values that the sensor can measure. According to an embodiment, when the sensor is a thermometer, the maximum value 602 may be 50 ° C and the minimum value 603 may be 0 ° C. Also, even when the sensor is the same thermometer, the maximum value 602 and the minimum value 603 may be different according to the use and performance of the sensor.
  • Offset 604 is a value added to the value measured by the sensor to obtain an absolute value. According to an embodiment, if the user or object in the real world is stationary and the speed is measured with a value other than zero when the sensor is a speed sensor, the sensor determines the offset 604 as a value for adjusting the speed to zero. Can be. For example, if the speed -1km / h is measured for a stationary real-world car, the offset 604 can be 1km / h.
  • Resolution (numOflevels) 605 is the number of values the sensor can measure. In other words, the resolution 605 represents the number of values the sensor can measure between the maximum and minimum values measured by the sensor. According to an embodiment, if the sensor is a thermometer and the maximum value is 50 ° C. and the minimum value is 0 ° C., if the resolution 605 is 5, then the sensor sets the temperature to 10 ° C., 20 ° C., 30 ° C., 40 ° C., 50 ° C. The dog's temperature can be measured. According to the exemplary embodiment, the temperature may be measured at 20 ° C. by performing a truncation operation as well as when the temperature in the real world is 20 ° C. as well as 27 ° C., or may be measured at 30 ° C. by performing a rounding operation.
  • Sensitivity 606 is the minimum input value required for the sensor to measure the output value. That is, the sensitivity 606 represents the minimum magnitude of the input signal for generating the output signal. According to an embodiment, when the sensor is a thermometer and the sensitivity 606 is 1 ° C., the sensor cannot measure temperature changes of 1 ° C. or less, and can only measure temperature changes of 1 ° C. or more. For example, in the real world, if the temperature rises from 15 ° C to 15.5 ° C, the sensor can still measure temperature to 15 ° C.
  • Signal to noise ratio (SNR) 607 is the relative magnitude of signal-to-noise of the value measured by the sensor.
  • the SNR 607 of the sensor may be a small value if there is a lot of ambient noise in measuring the voice of a user in the real world.
  • Accuracy 608 is the error of the sensor. That is, the accuracy 608 represents the degree of closeness of the measured quantity to the actual value. According to an embodiment, when the sensor is a microphone, the measurement error due to the difference in the propagation speed of the voice according to the temperature, humidity, etc. at the time of measurement may be the accuracy 608. Alternatively, the accuracy of the sensor may be determined based on a statistical error degree of values measured by the sensor in the past.
  • the attribute 620 may further include a position.
  • the position is the position of the sensor.
  • the position of the sensor may be between the armpits of the user in the real world.
  • the location may be longitude / latitude, height / direction from the ground, and the like.
  • the basic characteristics of the sensor characteristics include unit 601, maximum value 602, minimum value 603, offset 604, resolution 605, sensitivity 606, SNR 607, accuracy 608 And position can be summarized as shown in Table 3.
  • the source 630 may include a program indicating a sensor characteristic basic attribute using XML (eXtensible Markup Language).
  • XML eXtensible Markup Language
  • Reference numeral 631 denotes the definition of the maximum value 602 in XML. According to reference numeral 631, the maximum value 602 has data of type “float” and may be used optionally.
  • Reference numeral 632 represents the definition of the minimum value 603 in XML. According to reference numeral 632, the minimum value 603 has data of type “float” and may be used as optional.
  • Reference numeral 633 represents a definition of the resolution 605 in XML. According to reference numeral 633, the resolution 605 has data of type “nonNegativeInteger” and may be used as optional.
  • the source 630 shown in FIG. 9 is only one embodiment, and the present invention is not limited thereto.
  • the processor 320 determines a first value received from the sensor based on the sensor characteristic, and transmits a second value corresponding to the first value to the virtual world.
  • the processor 320 may determine that the virtual value corresponds to the second value corresponding to the first value when the first value received from the sensor is less than or equal to and greater than or equal to the minimum value that the sensor can measure. Can be delivered as.
  • the processor 320 when the first value received from the sensor is greater than the maximum value that the sensor can measure, the processor 320 recognizes the first value as the maximum value and selects a second value corresponding to the first value. You can pass it to the virtual world.
  • the processor 320 may recognize the first value as the minimum value and transfer the second value corresponding to the first value to the virtual world.
  • the virtual world processing apparatus 300 may further include a second storage unit (not shown) that stores sensor adaptive preferences for manipulating the first value received from the sensor.
  • the processor 320 may generate a third value from the first value based on the sensor characteristic, and generate a second value from the third value based on the sensor adaptation preference.
  • the information about the motion, state, intention, shape, etc. of the user of the real world measured by the sensor may be reflected in the virtual world as it is.
  • FIG. 6 is a diagram illustrating a configuration of a virtual world processing apparatus according to another embodiment of the present invention.
  • the virtual world processing apparatus 390 that enables the interoperability of the virtual world and the real world or the interaction between the virtual worlds according to an embodiment of the present invention includes an input unit 391 and an adjusting unit. 392.
  • the input unit 391 receives the sensed information collected by the sensor in the real world.
  • the input unit 391 may further receive a sensor adaptation preference for manipulating the sensing information.
  • the sensor adaptation preference is described in detail later with reference to FIGS. 10 to 12.
  • the adjusting unit 392 adjusts the sensing information received by the input unit 391 based on the sensor characteristic related to the characteristic of the sensor.
  • the input unit 391 may receive the sensing information of 30 m / s.
  • the controller 392 may adjust the sensing information of 30m / s to 20m / s.
  • the virtual world processing apparatus may apply the adjusted sensing information 20m / s to the virtual world.
  • the sensor characteristic may be previously input and stored in the virtual world processing apparatus.
  • the sensor characteristic may be input through the input unit 391.
  • the adjusting unit 392 may adjust the sensing information based on the sensor characteristics and the sensor adaptation preference.
  • the virtual world processing apparatus 390 may further include an output unit 393.
  • the output unit 393 may output the sensing information to control the virtual world. According to an embodiment, the output unit 393 may output the sensing information adjusted based on the sensor characteristic. In addition, the output unit 393 may output the sensing information adjusted based on the sensor characteristic and the sensor adaptation preference.
  • the output unit 393 may output sensing information to control virtual world object information, which is information about an object implemented in the virtual world. According to an embodiment, the output unit 393 may output the sensing information adjusted based on the sensor characteristic. In addition, the output unit 393 may output the sensing information adjusted based on the sensor characteristic and the sensor adaptation preference.
  • Sensors include position sensor, orientation sensor, acceleration sensor, light sensor, voice sensor, temperature sensor, humidity sensor, length sensor, motion sensor, intelligent camera sensor, environmental noise sensor, barometric pressure sensor, speed sensor, angular velocity sensor, angular acceleration sensor, force Sensors, torque sensors, and pressure sensors, but the invention is not so limited.
  • [Source 1] represents sensor characteristics of a position sensor using XML (eXtensible Markup Language).
  • program source of [Source 1] below is only one embodiment, and the present invention is not limited thereto.
  • the position sensor capability type is a tool for describing sensor characteristics for a position sensor.
  • the position sensor characteristic type may include sensor characteristic basic attributes for the position sensor.
  • Sensor properties basic properties for position sensors are range, range type, x max value (xmaxValue), x min value (xminValue), y max value (ymaxValue), y min value (yminValue), z max value. (zmaxValue) and zminValue (zminValue).
  • the range is the range that the position sensor can measure.
  • the range type and the global coordinate system can be used to indicate the range that the position sensor can measure.
  • the origin of the global coordinate may be located at the upper left corner of the screen.
  • a right handed coordinate system may be applied to global coordinates.
  • the x-axis of the global coordinates is the positive direction of the upper right corner of the screen
  • the y-axis is the positive direction of gravity (downward of the screen)
  • the z-axis is the opposite of the user's position (the direction of entering the screen). Can be in the direction of.
  • Range type is the global coordinate system's range along the x, y, and z axes.
  • the x maximum value is the maximum value on the x axis that the position sensor can measure in position coordinate units (eg, meters).
  • the x minimum value is the minimum value of the x axis that the position sensor can measure in position coordinate units (eg, meters).
  • the y maximum is the maximum value along the y axis that the position sensor can measure in position coordinate units (eg, meters).
  • the y minimum is the minimum value along the y axis that the position sensor can measure in position coordinate units (eg, meters).
  • the z maximum is the maximum value along the z axis that the position sensor can measure in position coordinate units (eg, meters).
  • the z minimum value is the minimum value on the z axis that the position sensor can measure in position coordinate units (eg, meters).
  • [Source 2] represents sensor characteristics of an orientation sensor using XML (eXtensible Markup Language).
  • the program source of [Source 2] below is only one embodiment, and the present invention is not limited thereto.
  • the orientation sensor capability type is a tool for describing sensor characteristics for the orientation sensor.
  • the orientation sensor characteristic type may include sensor characteristic basic attributes for the orientation sensor.
  • orientation range orientation range type
  • x max value xmaxValue
  • x min value xminValue
  • y max value ymaxValue
  • y min value yminValue
  • z maximum value zmaxValue
  • z minimum value zminValue
  • the range is the range the orientation sensor can measure.
  • a range in which a direction sensor can measure can be indicated by using a direction range type and a global coordinate system.
  • the bearing range type is the bearing range of the global coordinate system along the x, y, and z axes.
  • the x maximum value is the maximum value of the x axis that the orientation sensor can measure in units of azimuth coordinates (eg, radians).
  • the x minimum value is the minimum value of the x axis that the orientation sensor can measure in azimuth coordinate units (eg, radians).
  • the y maximum is the maximum value along the y axis that the orientation sensor can measure in azimuth coordinate units (eg, radians).
  • the y minimum value is the minimum value on the y axis that the orientation sensor can measure in azimuth coordinate units (eg, radians).
  • the z maximum is the maximum value on the z axis that the orientation sensor can measure in units of azimuth coordinates (eg, radians).
  • the z minimum value is the minimum value on the z axis that the orientation sensor can measure in azimuth coordinate units (eg, radians).
  • [Source 3] shows sensor characteristics of an acceleration sensor using XML (eXtensible Markup Language).
  • XML eXtensible Markup Language
  • the acceleration sensor capability type is a tool for describing sensor characteristics for an acceleration sensor.
  • the acceleration sensor characteristic type may include sensor characteristic basic attributes for the acceleration sensor.
  • Sensor property basic attributes for the acceleration sensor may include a maximum value (maxValue) and a minimum value (minValue).
  • the maximum value is the maximum value the acceleration sensor can measure in acceleration units (eg m / s 2 ).
  • the minimum value is the minimum value the acceleration sensor can measure in acceleration units (eg, m / s 2 ).
  • [Source 4] shows sensor characteristics of a light sensor using XML (eXtensible Markup Language).
  • XML eXtensible Markup Language
  • the light sensor capability type is a tool for describing sensor characteristics for an optical sensor.
  • the light sensor characteristic type may include sensor characteristic basic attributes for the light sensor.
  • Sensor property basic attributes for an optical sensor may include a maxValue, a minValue, a color, and a location.
  • the maximum value is the maximum value that the optical sensor can measure in light intensity units (eg, LUX).
  • the minimum value is the minimum value that the optical sensor can measure in units of light intensity (eg, LUX).
  • Color is the color that the light sensor can provide.
  • the color may be an RGB value.
  • the location is the location of the light sensor.
  • the position of the optical sensor may be indicated by using a global coordinate system along the x, y, and z axes.
  • [Source 5] represents sensor characteristics of a sound sensor using eXtensible Markup Language (XML).
  • XML eXtensible Markup Language
  • the program source of [Source 5] below is only one embodiment, and the present invention is not limited thereto.
  • the sound sensor capability type is a tool for describing sensor characteristics for a voice sensor.
  • the voice sensor characteristic type may include sensor characteristic basic attributes for the voice sensor.
  • Sensor property basic attributes for the voice sensor may include a maximum value (maxValue) and a minimum value (minValue).
  • the maximum value is the maximum value that the voice sensor can measure in loudness units (for example, decibels (dB)).
  • the minimum value is the minimum value that the voice sensor can measure in loudness units (for example, decibels (dB)).
  • [Source 6] shows sensor characteristics of a temperature sensor using XML (eXtensible Markup Language).
  • XML eXtensible Markup Language
  • the temperature sensor capability type is a tool for describing sensor characteristics for temperature sensors.
  • the temperature sensor characteristic type may include sensor characteristic basic attributes for the temperature sensor.
  • Sensor characteristic basic attributes for a temperature sensor may include a maximum value (maxValue), a minimum value (minValue), and a location.
  • the maximum value is the maximum value that the temperature sensor can measure in temperature units (eg, Celsius (° C.) and Fahrenheit (° F.)).
  • the minimum value is the minimum value that the temperature sensor can measure in temperature units (eg, Celsius (° C.) and Fahrenheit (° F.)).
  • the location is the location of the temperature sensor.
  • the position of the temperature sensor may be represented by using a global coordinate system along the x, y, and z axes.
  • [Source 7] represents sensor characteristics of a humidity sensor using XML (eXtensible Markup Language).
  • program source of [Source 7] below is only one embodiment, and the present invention is not limited thereto.
  • the humidity sensor capability type is a tool for describing sensor characteristics for a humidity sensor.
  • the humidity sensor characteristic type may include sensor characteristic basic attributes for the humidity sensor.
  • Sensor characteristic basic attributes for the humidity sensor may include a maximum value (maxValue), a minimum value (minValue), and a location.
  • the maximum value is the maximum value the humidity sensor can measure in humidity units (eg%).
  • the minimum value is the minimum value that the humidity sensor can measure in humidity units (eg,%).
  • the location is the location of the humidity sensor.
  • the position of the humidity sensor may be indicated by using a global coordinate system along the x, y, and z axes.
  • [Source 8] shows sensor characteristics of a length sensor using XML (eXtensible Markup Language).
  • XML eXtensible Markup Language
  • the length sensor capability type is a tool for describing sensor characteristics for the length sensor.
  • the length sensor characteristic type may include sensor characteristic basic attributes for the length sensor.
  • Sensor characteristic basic attributes for the length sensor may include a maximum value (maxValue), a minimum value (minValue), and a location.
  • the maximum value is the maximum value the length sensor can measure in length units (eg meters).
  • the minimum value is the minimum value the length sensor can measure in length units (eg meters).
  • the location is the location of the length sensor.
  • the position of the length sensor may be represented by using a global coordinate system along the x, y, and z axes.
  • [Source 9] shows sensor characteristics of a motion sensor using XML (eXtensible Markup Language).
  • XML eXtensible Markup Language
  • the motion sensor capability type is a tool for describing sensor characteristics for a motion sensor.
  • the motion sensor may be an integrated sensor consisting of a combination of a plurality of sensors.
  • the motion sensor may be composed of a combination of a position sensor, a speed sensor, an acceleration sensor, an orientation sensor, an angular velocity sensor, and an angular acceleration sensor.
  • the motion sensor characteristic type may include sensor characteristic basic attributes for the motion sensor.
  • Sensor property basic properties for motion sensors include position capability, velocity capability, acceleration capability, orientation capability, angular velocity capability, and angular acceleration capability).
  • Position characteristics are characteristics with respect to the position.
  • Velocity characteristic is a capability with respect to the velocity.
  • Acceleration characteristics are characteristics with respect to the acceleration.
  • the orientation characteristic is the capability with respect to the orientation.
  • the angular velocity characteristic is the capability with respect to the angular.
  • Angular acceleration characteristic is the capability with respect to the angular acceleration.
  • [Source 10] represents sensor characteristics of an intelligent camera sensor using XML (eXtensible Markup Language).
  • program source of [Source 10] below is only one embodiment, and the present invention is not limited thereto.
  • the intelligent camera capability type is a tool for describing sensor characteristics for intelligent camera sensors.
  • the intelligent camera sensor characteristic type may include sensor characteristic basic attributes for the intelligent camera sensor.
  • Sensor property basic attributes for intelligent camera sensors include feature tracking status, expression tracking status, body movement tracking status, max Body Feature Point, Max Face Feature Point, Tracked Feature, tracked facial feature points, tracked body feature points, feature type, facial feature mask It may include a facial feature mask and a body feature mask.
  • Feature tracking status is information on whether feature tracking of an intelligent camera is possible.
  • the facial expression tracking state is information on whether animation extraction regarding facial expressions of the intelligent camera can be extracted.
  • the body motion tracking state is information on whether animation can be extracted regarding the body of the intelligent camera.
  • the maximum body feature point is the maximum value at which the intelligent camera sensor can track the body feature point.
  • the maximum facial feature point is the maximum value at which the intelligent camera sensor can track the facial feature point.
  • Feature point tracking is information on whether the feature points of the body and face can be traced.
  • the facial feature tracking point is information about whether each of the facial feature points is active or not based on the facial feature mask.
  • Body feature tracking points are information about whether each of the body feature points is active or not based on a body feature mask.
  • the feature point type is a list of types of feature points.
  • the feature point type may include 1. face, 2. body, 3. face and body.
  • the facial feature mask is a list of facial feature points.
  • Body feature masks are lists of body feature points.
  • Source 11 indicates sensor characteristics for an ambient noise sensor using XML (eXtensible Markup Language).
  • XML eXtensible Markup Language
  • the program source of [Source 11] below is only one embodiment, and the present invention is not limited thereto.
  • the ambient noise sensor type is a tool for describing sensor characteristics for an environmental noise sensor.
  • the environmental noise sensor characteristic type may include sensor characteristic basic attributes for the environmental noise sensor.
  • Sensor characteristic basic attributes for an environmental noise sensor may include a maximum value (maxValue), a minimum value (minValue), and a location.
  • the maximum value is the maximum value the environmental noise sensor can measure.
  • the unit may be dB.
  • the minimum value is the minimum value the environmental noise sensor can measure.
  • the unit may be dB.
  • the location is the location of the environmental noise sensor.
  • the position of the environmental noise sensor may be represented by using a global coordinate system along the x, y, and z axes.
  • [Source 12] illustrates sensor characteristics of an Atmospheric Pressure Sensor using eXtensible Markup Language (XML).
  • XML eXtensible Markup Language
  • Atmospheric Pressure Sensor is a tool for describing sensor characteristics for barometric pressure sensors.
  • the barometric pressure sensor characteristic type may include sensor characteristic basic attributes for the barometric pressure sensor.
  • Sensor characteristic basic attributes for barometric pressure sensors may include a maximum value (maxValue), a minimum value (minValue), and a location.
  • the maximum value is the maximum value that the air pressure sensor can measure in air pressure units (eg hPa).
  • the minimum value is the minimum value that the barometric pressure sensor can measure in barometric pressure units (eg, hPa).
  • the location is the position of the barometric pressure sensor.
  • the position of the barometric pressure sensor may be represented by using a global coordinate system along the x, y, and z axes.
  • [Source 13] shows sensor characteristics of a velocity sensor type using eXtensible Markup Language (XML).
  • XML eXtensible Markup Language
  • Velocity Sensor is a tool for describing sensor characteristics for speed sensors.
  • the speed sensor characteristic type may include sensor characteristic basic attributes for the speed sensor.
  • Sensor property basic attributes for the speed sensor may include a maximum value (maxValue) and a minimum value (minValue).
  • the maximum value is the maximum value that the speed sensor can measure in speed units (eg m / s).
  • the minimum value is the minimum value that the speed sensor can measure in speed units (eg m / s).
  • [Source 14] shows sensor characteristics for angular velocity sensor type (Angular Velocity) using XML (eXtensible Markup Language).
  • Angular Velocity Angular Velocity
  • XML eXtensible Markup Language
  • Angular Velocity is a tool for describing sensor characteristics for angular velocity sensors.
  • the angular velocity sensor characteristic type may include sensor characteristic basic attributes for the angular velocity sensor.
  • Sensor characteristic basic attributes for the angular velocity sensor may include a maximum value (maxValue) and a minimum value (minValue).
  • the maximum value is the maximum value the angular velocity sensor can measure in angular velocity units (eg radian / s).
  • the minimum value is the minimum value the angular velocity sensor can measure in angular velocity units (eg radian / s).
  • Source 15 shows sensor characteristics for Angular Acceleration using XML (eXtensible Markup Language).
  • XML eXtensible Markup Language
  • the program source of [Source 15] below is only one embodiment, and the present invention is not limited thereto.
  • Angular acceleration sensor characteristic type (Angular Acceleration) is a tool for explaining the sensor characteristics for the angular acceleration sensor.
  • the angular acceleration sensor characteristic type may include sensor characteristic basic attributes for the angular acceleration sensor.
  • Sensor property basic attributes for the angular acceleration sensor may include a maximum value (maxValue) and a minimum value (minValue).
  • the maximum value is the maximum value the angular acceleration sensor can measure in angular acceleration units (eg radian / s 2 ).
  • the minimum value is the minimum value the angular acceleration sensor can measure in angular acceleration units (eg radian / s 2 ).
  • [Source 16] shows sensor characteristics for a force sensor type using eXtensible Markup Language (XML).
  • XML eXtensible Markup Language
  • the program source of [Source 16] below is only one embodiment, and the present invention is not limited thereto.
  • Force sensor characteristic type (Force Sensor) is a tool for describing the sensor characteristics for the force sensor.
  • the force sensor characteristic type may include sensor characteristic basic attributes for the force sensor.
  • Sensor characteristic basic attributes for a force sensor may include a maximum value (maxValue) and a minimum value (minValue).
  • the maximum value is the maximum value that the force sensor can measure in force units (eg Newton).
  • the minimum value is the minimum value that the force sensor can measure in force units (eg Newton).
  • [Source 17] shows sensor characteristics for a torque sensor type using eXtensible Markup Language (XML).
  • XML eXtensible Markup Language
  • the program source of [Source 17] below is only one embodiment, and the present invention is not limited thereto.
  • the torque sensor characteristic type (Torque Sensor) is a tool for describing the sensor characteristics for the torque sensor.
  • the torque sensor characteristic type may include sensor characteristic basic attributes for the torque sensor.
  • Sensor characteristic basic attributes for the torque sensor may include a maximum value (maxValue), a minimum value (minValue), and a location.
  • the maximum value is the maximum value that the torque sensor can measure in torque units (eg N-mm (Newton millimeter)).
  • the minimum value is the minimum value that the torque sensor can measure in torque units (eg N-mm (Newton millimeter)).
  • Source 18 illustrates sensor characteristics for a pressure sensor type using an extensible markup language (XML).
  • XML extensible markup language
  • the program source of [Source 18] below is only one embodiment, and the present invention is not limited thereto.
  • the pressure sensor characteristic type (Pressure Sensor) is a tool for describing sensor characteristics for the pressure sensor.
  • the pressure sensor characteristic type may include sensor characteristic basic attributes for the pressure sensor.
  • Sensor characteristic basic attributes for the pressure sensor may include a maximum value (maxValue), a minimum value (minValue), and a location.
  • the maximum value is the maximum value that the pressure sensor can measure in pressure units (eg m / s).
  • the minimum value is the minimum value that the pressure sensor can measure in pressure units (eg m / s).
  • Sensor adaptation preference is information for manipulating a value received from a sensor. That is, the sensor adaptation preference may indicate user preference information about a method of adjusting the sensory information collected from the sensor.
  • the sensor adaptation preference base type is a basic type of user's manipulation information.
  • the sensor adaptation preference type may be a basic type of metadata relating to sensor adaptation preference that is commonly applied to all sensors as part of metadata about sensor adaptation preference.
  • base type provides a base abstract type for a subset of types defined as part of the sensory device capability metadata types).
  • FIG. 10 is a diagram illustrating a sensor adaptation preference basic type according to one embodiment.
  • a sensor adaptation preference base type 700 may include a sensor adaptation preference base attributes 710 and an exception attributes 720. .
  • Sensor adaptation preference base attributes describes a group of attributes for the sensor adaptation preference.
  • the exception attribute 720 is a group of additional sensor adaptation preferences.
  • the exception attribute 720 may be a unique additional sensor adaptation preference that may be applied to any sensor.
  • the exception attribute 720 may provide extensibility to include attributes other than the default attribute. (Any attribute allows for the inclusion of any attributes defined within a namespace other than the target namespace).
  • 11 is a diagram illustrating syntax of a sensor adaptation preference basic type according to one embodiment.
  • the syntax 800 of the sensor adaptation preference type may include a diagram 810, an attribute 820, and a source 830.
  • Diagram 810 may include a diagram of a sensor adaptation preference base type.
  • Attributes 820 may include sensor adaptation preference base attributes and exception attributes.
  • the source 830 may include a program indicating a sensor adaptation preference basic type using eXtensible Markup Language (XML).
  • XML eXtensible Markup Language
  • FIG. 11 the source 830 shown in FIG. 11 is only one embodiment, and the present invention is not limited thereto.
  • FIG. 12 is a diagram illustrating syntax of a sensor adaptation preference basic attribute according to an embodiment.
  • the syntax 900 of the sensor adaptation preference basic attribute may be represented by a diagram 910, an attribute 920, and a source 930.
  • Diagram 910 may include a plot of sensor adaptation preference basic attributes.
  • the attribute 920 includes a sensor ID reference (SensorIdRef) 901, a sensor adaptation mode 902, an activated 903, a unit 904, and a maxValue ( 905, minValue 906, and resolution numOflevels 907.
  • SensorIdRef Sensor ID reference
  • sensor adaptation mode 902 an activated 903
  • unit 904 an activated 903
  • maxValue 905, minValue 906, and resolution numOflevels 907.
  • the sensor ID reference 901 is information that refers to an identification (ID) of an individual sensor that generates specific sensed information.
  • the sensor adaptation mode 902 is user preference information regarding a method of applying a sensor.
  • the sensor adaptation mode 902 may be a sensor adaptation method for an adaptation method for refining and reflecting information on a user's motion, state, intention, shape, etc. of the real world measured by the sensor to the virtual world Can be.
  • the 'strict' value indicates the user's preference to apply the sensed real world information directly to the virtual world
  • the 'scalable' value indicates the information of the sensed real world. It may change according to the user's preference and indicate the user's preference to apply to the virtual world.
  • the active state 903 is information about whether to activate the sensor in the virtual world.
  • the active state 903 may be a sensor adaptive preference that determines whether the sensor is operating.
  • Unit 904 is a unit of value used in the virtual world.
  • the unit 904 may be a pixel.
  • the unit 904 may be a unit of a value corresponding to the value received from the sensor.
  • the maxValue 905 and the minValue 906 are the maximum and minimum values of the values used in the virtual world. According to an embodiment, the maximum value 905 and the minimum value 906 may be in units of values corresponding to values received from the sensor.
  • Resolution (numOflevels) 907 is the number of values used in the virtual world.
  • the value may be a value for dividing the number of steps between the maximum value and the minimum value of the value used in the virtual world.
  • Sensor ID reference 901 Adaptive mode 902, Active state 903, Unit 904, Maximum value 905, Minimum value 906, and Resolution 907, which are sensor adaptive preference basic attributes, according to one embodiment. It can be summarized as shown in Table 4 below.
  • the source 930 may include a program indicating a sensor adaptation preference basic attribute using eXtensible Markup Language (XML).
  • XML eXtensible Markup Language
  • Reference numeral 931 denotes an XML representation of the definition of the active state 903. According to reference numeral 931, active state 903 has data of type “boolean” and may be used as optional.
  • Reference numeral 932 represents the definition of the maximum value 905 in XML. According to reference numeral 932, the maximum value 905 has data of type “float” and may be used as optional.
  • Reference numeral 933 denotes the definition of the minimum value 906 in XML. According to reference numeral 933, the minimum value 906 has data of type “float” and may be used as optional.
  • Reference numeral 934 denotes a definition of the resolution 907 in XML. According to reference numeral 934, the resolution 907 has data of type “nonNegativeInteger” and may be used as optional.
  • the source 930 shown in FIG. 12 is only one embodiment, and the present invention is not limited thereto.
  • [Source 19] indicates an sensor adaptation preference for a position sensor using XML (eXtensible Markup Language).
  • XML eXtensible Markup Language
  • the program source of [Source 19] below is only one embodiment, and the present invention is not limited thereto.
  • the position sensor type is a tool for describing sensor adaptation preferences for position sensors.
  • the location sensor characteristic type may include a sensor adaptation preference basic attribute for the location sensor.
  • Sensor adaptation preference basic attributes for position sensors may include range and resolution (numOflevels).
  • the range is the user's preferred range for the location information measured by the location sensor.
  • Resolution is the user's preferred resolution of the location information measured by the location sensor.
  • [Source 20] indicates an sensor adaptation preference for an orientation sensor using eXtensible Markup Language (XML).
  • XML eXtensible Markup Language
  • the program source of [Source 20] below is only one embodiment, and the present invention is not limited thereto.
  • Orientation sensor type is a tool for describing sensor adaptation preferences for orientation sensors.
  • the orientation sensor characteristic type may include a sensor adaptation preference basic attribute for the orientation sensor.
  • Sensor adaptation preference basic attributes for orientation sensors may include orientation range and resolution (numOflevels).
  • the azimuth range is the user's preferred range for the azimuth information measured by the azimuth sensor.
  • Resolution is the user's preferred resolution of the orientation information measured by the orientation sensor.
  • [Source 21] shows the sensor adaptation preference for the acceleration sensor using the XML (eXtensible Markup Language).
  • the program source of the following [source 213] is only one embodiment, the present invention is not limited thereto.
  • the acceleration sensor type is a tool for describing sensor adaptation preferences for acceleration sensors.
  • the acceleration sensor characteristic type may include sensor adaptation preference basic attributes for the acceleration sensor.
  • Sensor adaptation preference basic attributes for acceleration sensors may include a maximum value (maxValue), a minimum value (minValue), and a resolution (numOflevels).
  • the maximum value is the user's preferred maximum value for the acceleration information measured by the acceleration sensor.
  • the minimum value is the user's preferred minimum value for the acceleration information measured by the acceleration sensor.
  • Resolution is the user's preferred resolution of the acceleration information measured by the acceleration sensor.
  • [Source 22] shows the sensor adaptation preference for the light sensor using XML (eXtensible Markup Language).
  • XML eXtensible Markup Language
  • the program source of [Source 22] below is only one embodiment, and the present invention is not limited thereto.
  • the light sensor type is a tool for describing sensor adaptation preferences for light sensors.
  • the light sensor characteristic type may include sensor adaptation preference basic attributes for the light sensor.
  • Sensor adaptation preference basic attributes for the light sensor may include a maximum value (maxValue), a minimum value (minValue), numOflevels and an unfavorable color.
  • the maximum value is the user's preferred maximum value for the measurement of the light sensor.
  • the minimum value is the user's preferred minimum value for the measurement of the light sensor.
  • Resolution is the user's preferred resolution of the measurement of the optical sensor.
  • the autism is the user's autism to the measured value of the light sensor.
  • a non-colored color can be a list of RGB colors or a user's red color as a classification reference.
  • [Source 23] shows sensor adaptation preference for a sound sensor using XML (eXtensible Markup Language).
  • XML eXtensible Markup Language
  • the program source of [Source 23] below is only one embodiment, and the present invention is not limited thereto.
  • the sound sensor type is a tool for describing sensor adaptation preferences for voice sensors.
  • the voice sensor characteristic type may include sensor adaptation preference basic attributes for the voice sensor.
  • Sensor adaptation preference basic attributes for voice sensors may include a maximum value (maxValue) and a minimum value (minValue).
  • the maximum value is the maximum value allowed by the user as the measured value of the voice sensor.
  • the minimum value is the minimum value allowed by the user as the measured value of the voice sensor.
  • [Source 24] indicates the sensor adaptation preference for the temperature sensor using XML (eXtensible Markup Language).
  • program source of [Source 24] below is only one embodiment, and the present invention is not limited thereto.
  • the temperature sensor type is a tool for describing sensor adaptation preferences for temperature sensors.
  • the temperature sensor characteristic type may include sensor adaptation preference basic attributes for the temperature sensor.
  • Sensor adaptation preference basic attributes for temperature sensors may include a maximum value (maxValue), a minimum value (minValue), and a resolution (numOflevels).
  • the maximum value is the user's preferred maximum value for temperature information measured by the temperature sensor.
  • the minimum value is the user's preferred minimum value for temperature information measured by the temperature sensor.
  • Resolution is the user's preferred resolution of the temperature information measured by the temperature sensor.
  • [Source 25] shows the sensor adaptation preference for a humidity sensor using eXtensible Markup Language (XML).
  • XML eXtensible Markup Language
  • the program source of [Source 25] below is only one embodiment, and the present invention is not limited thereto.
  • the humidity sensor type is a tool for describing sensor adaptation preferences for humidity sensors.
  • the humidity sensor characteristic type may include sensor adaptation preference basic attributes for the humidity sensor.
  • Sensor adaptation preference basic attributes for the humidity sensor may include a maximum value (maxValue), a minimum value (minValue), and a resolution (numOflevels).
  • the maximum value is the user's preferred maximum value for humidity information measured by the humidity sensor.
  • the minimum value is the user's preferred minimum value for humidity information measured by the humidity sensor.
  • Resolution is the user's preferred resolution of humidity information measured by the humidity sensor.
  • [Source 26] shows an sensor adaptation preference for a length sensor using eXtensible Markup Language (XML).
  • XML eXtensible Markup Language
  • the length sensor type is a tool for describing sensor adaptation preferences for length sensors.
  • the length sensor characteristic type may include a sensor adaptation preference basic attribute for the length sensor.
  • Sensor adaptation preference basic attributes for length sensors may include a maximum value (maxValue), a minimum value (minValue), and a resolution (numOflevels).
  • the maximum value is the user's preferred maximum value for length information measured by the length sensor.
  • the minimum value is the user's preferred minimum value for the length information measured by the length sensor.
  • Resolution is the user's preferred resolution of the length information measured by the length sensor.
  • [Source 27] shows sensor adaptation preference for a motion sensor using XML (eXtensible Markup Language).
  • XML eXtensible Markup Language
  • the program source of [Source 27] below is only one embodiment, and the present invention is not limited thereto.
  • the motion sensor capability type is a tool for describing sensor adaptation preferences for motion sensors.
  • the motion sensor characteristic type may include sensor adaptation preference basic attributes for the motion sensor.
  • Sensor adaptation preference basic properties for motion sensors include position preference, velocity preference, preference acceleration preference, orientation orientation, preferred angular velocity preference and preferred angular acceleration acceleration preference).
  • the preference position is user preference with respect to the position.
  • the preference speed is user preference with respect to the velocity.
  • Preference acceleration is user preference with respect to the acceleration.
  • Preferred orientation is user preference with respect to the orientation.
  • the preference angular velocity is user preference with respect to the angular.
  • Preferred angular acceleration is user preference with respect to the angular acceleration.
  • Source 28 indicates sensor adaptation preference for intelligent camera sensor using XML (eXtensible Markup Language).
  • XML eXtensible Markup Language
  • the program source of [Source 28] below is only one embodiment, and the present invention is not limited thereto.
  • the intelligent camera sensor capability type is a tool for describing sensor adaptation preferences for intelligent camera sensors.
  • the intelligent camera sensor characteristic type may include a sensor adaptation preference basic attribute for the intelligent camera motion sensor.
  • Sensor adaptation preference default properties for intelligent camera motion sensors include FaceFeatureTrackingOn, BodyFeatureTrackingOn, FacialExpressionTrackingOn, GestureTrackingOn, GestureTrackingOn, FaceTrackingMap, It may include a BodyTrackingMap.
  • the facial feature point tracking on is information on whether the intelligent camera sensor activates a facial feature point tracking mode for tracking feature points of the user's face.
  • Body feature point tracking on is information on whether the intelligent camera sensor activates a body feature point tracking mode for tracking feature points of the user's body.
  • Facial expression tracking on is the user's preference information for the intelligent camera sensor to track the facial expression of the user.
  • Gesture tracking on is the user's preference for the intelligent camera sensor to track the user's gesture.
  • the face tracking map provides a Boolean map for the face tracking map type.
  • the bull map provides the part of the face that the user wants to track.
  • the bull map for the face tracking map type may provide eyes, mouths, noses, and ears as face portions.
  • the body trace map provides a bull map for the body trace map type.
  • the bull map provides the part of the body you want to track.
  • the bull map for the body tracking map type provides Head, Arms, Hands, Legs, Feet, and MiddleBody as body parts. can do.
  • [Source 29] shows the sensor adaptation preference for the ambient noise sensor using XML (eXtensible Markup Language).
  • XML eXtensible Markup Language
  • the program source of [Source 29] below is only one embodiment, and the present invention is not limited thereto.
  • the Ambient Noise Sensor type is a tool for describing sensor adaptation preferences for environmental noise sensors.
  • the environmental noise sensor characteristic type may include sensor adaptation preference basic attributes for environmental noise sensors.
  • Sensor adaptation preference basic attributes for environmental noise sensors may include a maximum value (maxValue), a minimum value (minValue), and a resolution (numOflevels).
  • the maximum value is the user's preferred maximum value for the environmental noise information measured by the environmental noise sensor.
  • the minimum value is the user's preferred minimum value for environmental noise information measured by the environmental noise sensor.
  • Resolution is the user's preferred resolution of environmental noise information measured by the environmental noise sensor.
  • Source 30 indicates sensor adaptation preference for Atmospheric Pressure using eXtensible Markup Language (XML).
  • XML eXtensible Markup Language
  • the program source of [Source 30] below is only one embodiment, and the present invention is not limited thereto.
  • Atmospheric Pressure is a tool for describing sensor adaptation preferences for barometric pressure sensors.
  • the barometric pressure sensor characteristic type may include a sensor adaptation preference basic attribute for the barometric pressure sensor.
  • Sensor adaptation preference basic attributes for barometric pressure sensors may include a maximum value (maxValue), a minimum value (minValue), and a resolution (numOflevels).
  • the maximum value is the user's preferred maximum value for the barometric pressure information measured by the barometric pressure sensor.
  • the minimum value is the user's preferred minimum value for the barometric pressure information measured by the barometric pressure sensor.
  • Resolution is the user's preferred resolution of the barometric pressure information measured by the barometric pressure sensor.
  • Source 31 indicates sensor adaptation preference for Velocity Sensor using XML (eXtensible Markup Language).
  • program source of [Source 31] below is only one embodiment, and the present invention is not limited thereto.
  • Velocity Sensor is a tool for describing sensor adaptation preferences for velocity sensors.
  • the speed sensor characteristic type may include sensor adaptation preference basic attributes for the speed sensor.
  • Sensor adaptation preference basic attributes for speed sensors may include a maximum value (maxValue), a minimum value (minValue), and a resolution (numOflevels).
  • the maximum value is the user's preferred maximum value for the speed information measured by the speed sensor.
  • the minimum value is the user's preferred minimum value for speed information measured by the speed sensor.
  • Resolution is the user's preferred resolution of the speed information measured by the speed sensor.
  • Source 32 indicates sensor adaptation preference for Angular Velocity Sensor using eXtensible Markup Language (XML).
  • XML eXtensible Markup Language
  • the program source of [Source 32] below is only one embodiment, and the present invention is not limited thereto.
  • Angular Velocity Sensor is a tool for describing sensor adaptation preferences for angular velocity sensors.
  • the angular velocity sensor characteristic type may include sensor adaptation preference basic attributes for the angular velocity sensor.
  • Sensor adaptation preference basic attributes for angular velocity sensors may include a maximum value (maxValue), a minimum value (minValue), and a resolution (numOflevels).
  • the maximum value is the user's preferred maximum value for the angular velocity information measured by the angular velocity sensor.
  • the minimum value is the user's preferred minimum value for the angular velocity information measured by the angular velocity sensor.
  • Resolution is the user's preferred resolution of the angular velocity information measured by the angular velocity sensor.
  • [Source 33] shows the sensor adaptation preference for Angular Acceleration Sensor using XML (eXtensible Markup Language).
  • XML eXtensible Markup Language
  • the program source of [Source 33] below is only one embodiment, and the present invention is not limited thereto.
  • Angular Acceleration Sensor type is a tool for explaining sensor adaptation preference for angular acceleration sensor.
  • the angular acceleration sensor characteristic type may include a sensor adaptation preference basic attribute for the angular acceleration sensor.
  • Sensor adaptation preference basic attributes for angular acceleration sensors may include a maximum value (maxValue), a minimum value (minValue), and a resolution (numOflevels).
  • the maximum value is the user's preferred maximum value for the angular acceleration information measured by the angular acceleration sensor.
  • the minimum value is the user's preferred minimum value for the angular acceleration information measured by the angular acceleration sensor.
  • Resolution is the user's preferred resolution of the angular acceleration information measured by the angular acceleration sensor.
  • [Source 34] shows the sensor adaptation preference for the Ambient Noise Sensor using XML (eXtensible Markup Language).
  • XML eXtensible Markup Language
  • the program source of [Source 34] below is only one embodiment, and the present invention is not limited thereto.
  • the Force Noise Sensor Type (Ambient Noise Sensor) is a tool for describing sensor adaptation preferences for force sensors.
  • the force sensor characteristic type may include a sensor adaptation preference basic attribute for the force sensor.
  • Sensor adaptation preference basic attributes for force sensors may include a maximum value (maxValue), a minimum value (minValue), and a resolution (numOflevels).
  • the maximum value is the user's preferred maximum value for the force information measured by the force sensor.
  • the minimum value is the user's preferred minimum value for the force information measured by the force sensor.
  • Resolution is the user's preferred resolution of the force information measured by the force sensor.
  • [Source 35] shows the sensor adaptation preference for the Torque Sensor using the XML (eXtensible Markup Language).
  • the program source of [Source 35] below is only one embodiment, and the present invention is not limited thereto.
  • the Torque Sensor type is a tool for describing sensor adaptation preferences for torque sensors.
  • the torque sensor characteristic type may include a sensor adaptation preference basic attribute for the torque sensor.
  • Sensor adaptation preference basic attributes for torque sensors may include a maximum value (maxValue), a minimum value (minValue), and a resolution (numOflevels).
  • the maximum value is the user's preferred maximum value for the torque information measured by the torque sensor.
  • the minimum value is the user's preferred minimum value for torque information measured by the torque sensor.
  • Resolution is the user's preferred resolution of the torque information measured by the torque sensor.
  • [Source 36] indicates the sensor adaptation preference for a pressure sensor using eXtensible Markup Language (XML).
  • XML eXtensible Markup Language
  • the program source of [Source 36] below is only one embodiment, and the present invention is not limited thereto.
  • the pressure sensor type is a tool for describing sensor adaptation preferences for pressure sensors.
  • the pressure sensor characteristic type may include sensor adaptation preference basic attributes for the pressure sensor.
  • Sensor adaptation preference basic attributes for pressure sensors may include a maximum value (maxValue), a minimum value (minValue), and a resolution (numOflevels).
  • the maximum value is the user's preferred maximum value for pressure information measured by the pressure sensor.
  • the minimum value is the user's preferred minimum value for pressure information measured by the pressure sensor.
  • Resolution is the user's preferred resolution of the pressure information measured by the pressure sensor.
  • the virtual world processing apparatus may include sensed information.
  • Sensed Information is information collected by the sensor from the real world.
  • the sensing information may be information about a command for controlling the sensor.
  • the sensing information may be a command for controlling the sensor in order to reflect the information about the motion, state, intention, shape, etc. of the user of the real world measured by the sensor in the virtual world.
  • the sensed information may be a root component of metadata about the sensed information (sensed information serves as the root element for sensed information metadata).
  • FIG. 13 is a diagram illustrating a sensing information basic type according to one embodiment.
  • the sensing information base type 1000 may include sensed information base attributes 1010 and any attributes 1020.
  • the sensing information base type 1000 is a topmost type of the base type capable of inheriting individual sensing information.
  • the sense information basic attribute 1010 is a group of attributes for commands.
  • the exception attribute 1020 is a group of additional sense information.
  • the exception attribute 1020 may be additional additional sensing information that may be applied to any sensor.
  • Exception attribute 1020 may provide extensibility to include attributes other than the default attribute. (Any attribute allows for the inclusion of any attributes defined within a namespace other than the target namespace).
  • [Source 37] may include a program indicating a basic type of sensing information using eXtensible Markup Language (XML).
  • XML eXtensible Markup Language
  • ⁇ attributeGroup ref "cid: SensedInfoBaseAttributes" />
  • the sensing information basic attribute 1010 includes an ID 1011, a sensor ID reference 1012, a group ID 1013, a priority 1014, and an active state 1015. ) And linked list 1016.
  • the ID 1011 is ID information for distinguishing individual IDs of sensory information collected by the sensor.
  • the sensor ID reference 1012 is information referring to a sensor. That is, the sensor ID reference 1012 is information referring to an identifier of a sensor that generates information included in specific sensing information.
  • the group ID 1013 is information for distinguishing individual identities of the multi-sensor group to which the sensor belongs. That is, the group ID 1013 is ID information for distinguishing individual identities of a multi-sensor structure to which a specific sensor belongs.
  • the priority 1014 is priority information of the sensing information with respect to other sensing information sharing the same point at the time when the sensing information is adjusted. According to an embodiment, 1 indicates the highest priority, and as the value increases, the priority may be lowered.
  • the active state 1015 is information for determining whether the sensor is in operation.
  • connection list 1016 is link information for grouping several sensors.
  • the connection list 1016 may be information about a multi-sensor group that groups the sensors in a method including reference information about an identifier of a neighboring sensor.
  • the sensing information basic attribute 1010 may further include a value, a time stamp, and a life span.
  • the value is a sensor measurement.
  • the value may be a value received from the sensor.
  • the time stamp is time information when the sensor senses.
  • Validity period is information about the validity period of the sensor command. In some embodiments, the validity period may be in seconds.
  • [Source 38] represents sensing information on a position sensor using XML (eXtensible Markup Language).
  • XML eXtensible Markup Language
  • the program source of [Source 38] below is only one embodiment, and the present invention is not limited thereto.
  • the position sensor type is a tool for describing sensing information about a position sensor.
  • the position sensor type may include attributes of a time stamp, an expiration date, a position, a position value type, Px, Py, and Pz.
  • the time stamp is information about the detection time of the position sensor.
  • the valid period is information about the valid period of the command of the position sensor.
  • the expiration date may be in seconds.
  • the position is information about a three-dimensional value of the position sensor in a distance unit (eg, a meter).
  • the position value type is a tool for representing a three-dimensional position vector.
  • Px is information about the x-axis value of the position sensor.
  • Py is information about the y-axis value of the position sensor.
  • Pz is information on the z-axis value of the position sensor.
  • [Source 39] represents sensing information about an orientation sensor using XML (eXtensible Markup Language).
  • XML eXtensible Markup Language
  • the program source of [Source 39] below is only one embodiment, and the present invention is not limited thereto.
  • the orientation sensor type is a tool for describing sensing information about the orientation sensor.
  • the orientation sensor type may include attributes of time stamp, expiration date, orientation, orientation value type, Ox, Oy, and Oz.
  • the time stamp is information on the detection time of the orientation sensor.
  • the validity period is information on the validity period of the command of the orientation sensor.
  • the expiration date may be in seconds.
  • Azimuth is information about the value of an azimuth sensor in an azimuth unit (eg radian).
  • the orientation value type is a tool for representing three-dimensional orientation vectors.
  • Ox is information about the x-axis rotation angle value of the orientation sensor.
  • Oy is information about the y-axis rotation angle value of the orientation sensor.
  • Oz is information on the z-axis rotation angle value of the orientation sensor.
  • [Source 40] represents sensing information about an acceleration sensor using XML (eXtensible Markup Language).
  • XML eXtensible Markup Language
  • the program source of [Source 40] below is only one embodiment, and the present invention is not limited thereto.
  • the acceleration sensor type is a tool for describing the sensing information of the acceleration sensor.
  • the acceleration sensor type may include attributes of time stamp, expiration date, acceleration, acceleration value type, Ax, Ay, and Az.
  • the time stamp is information on the detection time of the acceleration sensor.
  • the valid period is information on the valid period of the command of the acceleration sensor.
  • the expiration date may be in seconds.
  • Acceleration is information about the value of an acceleration sensor in acceleration units (eg, m / s 2 ).
  • the acceleration value type is a tool for representing three-dimensional acceleration vectors.
  • Ax is information about the x-axis value of the acceleration sensor.
  • Ay is information about the y-axis value of the acceleration sensor.
  • Az is information about the z-axis value of the acceleration sensor.
  • [Source 41] represents sensing information about a light sensor using XML (eXtensible Markup Language).
  • XML eXtensible Markup Language
  • the program source of [Source 41] below is only one embodiment, and the present invention is not limited thereto.
  • the light sensor type is a tool for describing sensing information about the light sensor.
  • the light sensor type may include attributes of time stamp, expiration date, value and color.
  • the time stamp is information on the detection time of the optical sensor.
  • the validity period is information on the validity period of the command of the optical sensor.
  • the expiration date may be in seconds.
  • the value is information about the light sensor value in light intensity units (eg, LUX).
  • Color is the color that the light sensor can provide.
  • the color may be an RGB value.
  • [Source 42] represents sensing information about a sound sensor using XML (eXtensible Markup Language).
  • XML eXtensible Markup Language
  • the program source of [Source 42] below is only one embodiment, and the present invention is not limited thereto.

Abstract

가상 세계 처리 장치 및 방법이 개시된다. 실시예들은 센서가 수집한 정보인 감지 정보를 입력 받고, 센서의 특성에 관한 정보인 센서 특성에 기반하여 감지 정보를 조절함으로써, 현실 세계와 가상 세계의 상호동작 또는 가상 세계 간의 상호동작을 구현할 수 있다.

Description

가상 세계 처리 장치 및 방법
실시예들은 가상 세계 처리 장치 및 방법(Method and Apparatus for Processing Virtual World)에 관한 것으로, 보다 구체적으로 현실 세계의 정보를 가상 세계에 적용하는 장치 및 방법에 관한 것이다.
최근 들어 체감형 게임에 대한 관심이 증대 되고 있다. Microsoft社는 "E3 2009" Press Conference에서 그들의 게임 콘솔인 Xbox360에 Depth/Color 카메라와 마이크 어레이로 구성된 별도의 센서 디바이스를 결합하여 사용자의 전신 모션 캡처링, 얼굴 인식, 음성 인식 기술을 제공하여 별도의 컨트롤러 없이 가상세계와 상호 작용 할 수 있도록 해 주는 "Project Natal"을 발표 했다. 또한, Sony社는 자사 게임 콘솔인 Play Station3에 컬러 카메라와 마커, 초음파 센서를 결합한 위치/방향 센싱 기술을 적용하여 컨트롤러의 모션 궤적을 입력으로 가상세계와 상호 작용 할 수 있는 체감형 게임 모션 컨트롤러 "Wand"를 발표했다.
현실 세계와 가상 세계의 상호 작용은 두 가지 방향을 가진다. 첫째는 현실 세계의 센서로부터 얻어진 데이터 정보를 가상 세계에 반영하는 방향이고, 둘째는 가상 세계로부터 얻어진 데이터 정보를 엑추에이터(actuator)를 통해 현실 세계에 반영하는 방향이다. 실시예들은 현실 세계와 가상 세계의 상호 작용을 구현하기 위해, 현실 세계의 센서로부터 얻어진 정보를 가상 세계에 적용하는 가상 세계 처리 장치 및 방법을 제공한다.
본 발명의 일실시예에 따른 가상 세계와 현실 세계의 상호동작(interoperability) 또는 가상 세계 간의 상호동작을 가능하게 하는 가상 세계 처리 장치는, 센서가 수집한 감지 정보(Sensed Information)를 입력 받는 입력부 및 상기 센서의 특성에 관한 센서 특성(Sensor Capability)에 기반하여 상기 감지 정보를 조절(adapt)하는 조절부를 포함한다.
실시예들은 센서가 수집한 정보인 감지 정보를 입력 받고, 센서의 특성에 관한 정보인 센서 특성에 기반하여 감지 정보를 조절함으로써, 현실 세계와 가상 세계의 상호동작 또는 가상 세계 간의 상호동작을 구현할 수 있다.
도 1은 일실시예에 따른 센서를 이용하여 가상 세계의 객체를 조작하는 동작을 나타내는 도면이다.
도 2는 일실시예에 따른 센서를 이용하여 가상 세계의 객체를 조작하는 시스템을 나타내는 도면이다.
도 3는 본 발명의 또 다른 일실시예에 따른 센서를 이용하여 가상 세계의 객체를 조작하는 시스템을 나타내는 도면이다.
도 4은 일실시예에 따른 가상 세계 처리 장치의 구성을 나타내는 도면이다.
도 5는 본 발명의 일실시예에 따른 가상 세계 처리 장치의 구성을 나타내는 도면이다.
도 6는 본 발명의 또 다른 일실시예에 따른 가상 세계 처리 장치의 구성을 나타내는 도면이다.
도 7는 일실시예에 따른 센서 특성 기본 타입을 나타내는 도면이다.
도 8는 일실시예에 따른 센서 특성 기본 타입(sensor capability base type)의 신택스(syntax)를 나타내는 도면이다.
도 9은 일실시예에 따른 센서 특성 기본 속성의 신택스를 나타내는 도면이다.
도 10은 일실시예에 따른 센서 적응 선호 기본 타입을 나타내는 도면이다.
도 11은 일실시예에 따른 센서 적응 선호 기본 타입의 신택스를 나타내는 도면이다.
도 12는 일실시예에 따른 센서 적응 선호 기본 속성의 신택스를 나타내는 도면이다.
도 13은 일실시예에 따른 감지 정보 기본 타입을 나타내는 도면이다.
도 14은 일실시예에 따른 가상 세계 처리 방법의 흐름도를 나타내는 도면이다.
도 15는 또 다른 일실시예에 따른 가상 세계 처리 방법의 흐름도를 나타내는 도면이다.
도 16은 일실시예에 따른 가상 세계 처리 장치를 이용하는 동작을 나타내는 도면이다.
이하에서, 본 발명에 따른 실시예들을 첨부된 도면을 참조하여 상세하게 설명한다. 그러나, 본 발명이 실시예들에 의해 제한되거나 한정되는 것은 아니다. 각 도면에 제시된 동일한 참조 부호는 동일한 부재를 나타낸다.
이하, 실시예들을 첨부된 도면을 참조하여 상세하게 설명한다.
도 1은 일실시예에 따른 센서를 이용하여 가상 세계의 가상 세계 객체를 조작하는 동작을 나타내는 도면이다.
도 1을 참조하면, 일실시예에 따른 센서(100)를 이용하여 현실 세계(real world)의 사용자(user)(110)는 가상 세계(virtual world)의 가상 세계 객체(Virtual World Object)(120)를 조작할 수 있다. 현실 세계의 사용자(110)는 자신의 동작, 상태, 의도, 형태 등을 센서(100)를 통해서 입력할 수 있고, 센서(100)는 사용자(110)의 동작, 상태, 의도, 형태 등에 관한 제어 정보(control information, CI)를 센서 신호에 포함하여 가상 세계 처리 장치로 전송할 수 있다.
이 때, 가상 세계는 가상 환경(Virtual Environment) 및 가상 세계 객체로 분류(Classify)될 수 있다. 또한, 가상 세계 객체는 아바타(Avatar) 및 가상 객체(Virtual Object)로 분류될 수 있다.
실시예에 따라서는, 현실 세계의 사용자(110)는 인간, 동물, 식물 및 무생물(예를 들어, 물건)일 수 있고, 또한 사용자의 주변 환경(온도, 기압 등)까지 포함할 수 있다.
도 2는 일실시예에 따른 센서를 이용하여 가상 세계를 조작하는 시스템을 나타내는 도면이다.
도 2를 참조하면, 일실시예에 따른 현실 세계(210)의 장치(real world device)인 센서를 통해서 입력된, 현실 세계(210)의 사용자의 동작, 상태, 의도, 형태 등에 관한 제어 정보(control information, CI)(201)를 포함한 센서 신호는 가상 세계 처리 장치로 전송될 수 있다. 실시예에 따라서는, 현실 세계(210)의 사용자의 동작, 상태, 의도, 형태 등에 관한 제어 정보(201)는 센서 특성(sensor capability), 센서 적응 선호(sensor adaptation preference) 및 감지 정보(sensed information)을 포함할 수 있다. 센서 특성, 센서 적응 선호 및 감지 정보에 대해서는 도 7 내지 도 16을 참고하여 뒤에서 상세히 설명한다.
일실시예에 따른 가상 세계 처리 장치는 적응 RV(adaptation real world to virtual world)(220)를 포함할 수 있다. 실시예에 따라, 적응 RV(220)는 RV 엔진(real world to virtual world engine, RV engine)으로 구현될 수 있다. 적응 RV(220)는 센서 신호에 포함되어 있는 현실 세계(210)의 사용자의 동작, 상태, 의도, 형태 등에 관한 제어 정보(CI)(201)를 이용하여 현실 세계(210)의 정보를 가상 세계(virtual world)(240)에 적용될 수 있는 정보로 변환한다.
실시예에 따라서는, 적응 RV(220)는 현실 세계(210)의 사용자의 동작, 상태, 의도, 형태 등에 관한 제어 정보(201)를 이용하여 VWI(virtual world information, 가상 세계 정보)(202)를 변환할 수 있다.
VWI(202)는 가상 세계(240)에 관한 정보이다. 예를 들어, VWI(202)는 가상 세계(240)의 객체 또는 상기 객체를 구성하는 요소에 관한 정보를 포함할 수 있다.
가상 세계 처리 장치는 적응RV(220)에 의해 변환된 정보(203)를, 적응 RV/VR(adaptation real world to virtual world/virtual world to real world)(230)을 통해서 가상 세계(240)로 전달할 수 있다.
표 1은 도 2에 표시되어 있는 구성들을 설명한다.
Figure PCTKR2010004091-appb-I000001
도 3는 본 발명의 또 다른 일실시예에 따른 센서를 이용하여 가상 세계를 조작하는 시스템을 나타내는 도면이다.
도 3를 참조하면, 일실시예에 따른 센서(250)는 현실 세계의 사용자의 동작, 상태, 의도, 형태 등에 관한 정보를 수집한다.
센서(250)는, 센서(250)를 통해서 수집된 정보를 메타데이터로 인코딩하는 메타데이터 인코더(metadata encoder)(251)를 포함한다.
메타데이터 인코더(251)는 센서(250)가 수집한 정보를 제1 메타데이터로 인코딩하고, 센서(250)는 제1 메타데이터를 적응 RV(255)에게 전송한다.
적응 RV(255)에 포함된 메타데이터 디코더(metadata decoder)(256)는 센서(250)로부터 수신한 제1 메타데이터를 디코딩(decoding)한다. 또한, 적응 RV(255)에 포함된 메타데이터 디코더(258)는 적응 VR(260)로부터 수신한 제2 메타데이터를 디코딩한다.
제2 메타데이터는, 적응 VR(260)에 포함된 메타데이터 인코더(257)가 가상 세계(265)에 대한 정보를 인코딩한 메타데이터일 수 있다.
적응 RV(255)는, 메타데이터 디코더(256)가 제1 메타데이터를 디코딩한 정보 및 메타데이터 디코더(258)가 제2 메타데이터를 디코딩한 정보에 기반하여, 가상 세계(265)에 적용될 정보를 생성한다. 이 때, 적응 RV(255)는, 제2 메타데이터에 포함되는 가상 세계 객체 속성(virtual world object characteristics) 및 감지 정보에 대응하도록, 가상 세계(265)에 적용될 정보를 생성할 수 있다.
메타데이터 인코더(257)는, 적응 RV(255)가 생성한 가상 세계(265)에 적용될 정보를 제3 메타데이터로 인코딩한다. 또한, 적응 RV(255)은 제3 메타데이터를 적응 VR(260)로 전송한다.
적응 VR(260)에 포함된 메타데이터 디코더(271)는 제3 메타데이터를 디코딩한다. 적응 VR(260)은, 디코딩된 정보에 기반하여, 가상 세계(265)의 객체의 속성을 변환할 수 있다. 또한, 적응 VR(260)은 변환된 속성을 가상 세계(265)에 적용할 수 있다.
도 4은 일실시예에 따른 가상 세계 처리 장치의 구성을 나타내는 도면이다.
도 4을 참조하면, 일실시예에 따른 가상 세계 처리 장치(300)는 저장부(310) 및 처리부(320)를 포함한다.
저장부(310)는 센서의 특성에 관한 센서 특성을 저장한다.
센서는 현실 세계의 사용자의 동작, 상태, 의도 또는 형태 등을 측정하는 장치이다. 센서는 센서 입력 장치(sensory input device)로 표현될 수 있다. 실시예에 따라서는, 센서를 (1) 음향, 음성, 진동(acoustic, sound, vibration) (2) 자동차, 운송 수단(automotive, transportation) (3) 화학물(chemical) (4) 전류, 전위, 자기, 라디오(electric current, electric potential, magnetic, radio) (5) 환경, 날씨(environment, weather) (6) 흐름(flow) (7) 전리 방사선, 아원자 입자(ionizing radiation, subatomic particles) (8) 네비게이션 장치(navigation instruments) (9) 위치, 각도, 변위, 거리, 속도, 가속도(position, angle, displacement, distance, speed, acceleration) (10) 시각, 빛, 영상(optical, light, imaging) (11) 압력, 힘, 밀도, 레벨(pressure, force, density, level) (12) 열, 뜨거움, 온도(thermal, heat, temperature) (13) 근접, 존재(proximity, presence) (14) 센서 기술(sensor technology)와 같이 타입(type)별로 분류할 수 있다.
표 2는 센서 타입에 따른 센서의 실시예들을 나타낸다. 하기 표에 나타난 센서는 일실시예에 불과하고, 본 발명이 하기 표에 나타난 센서에 의해서만 구현될 수 있는 것으로 제한 해석 되어서는 안 된다.
Figure PCTKR2010004091-appb-I000002
Figure PCTKR2010004091-appb-I000003
Figure PCTKR2010004091-appb-I000004
Figure PCTKR2010004091-appb-I000005
Figure PCTKR2010004091-appb-I000006
Figure PCTKR2010004091-appb-I000007
예를 들어, 센서 타입 (1) 음향, 음성, 진동(acoustic, sound, vibration)의 마이크(Microphone)는 현실 세계 사용자의 음성 및 사용자 주변의 음성을 수집할 수 있다. 센서 타입 (2) 자동차, 운송 수단(automotive, transportation)의 속도 센서(Speed sensor)는 현실 세계의 사용자의 속도 및 현실 세계의 물체(예를 들어, 운송 수단(vehicle))의 속도를 측정할 수 있다. 센서 타입 (3) 화학물(chemical)의 산소 센서(Oxygen sensor)는 현실 세계 사용자 주변의 공기 속의 산소 비율 및 현실 세계의 사용자 주변의 액체 속의 산소 비율을 측정할 수 있다. 센서 타입 (4) 전류, 전위, 자기, 라디오(electric current, electric potential, magnetic, radio)의 금속 탐지기(Metal detector)는 현실 세계 사용자 및 주변의 금속 유무를 측정할 수 있다. 센서 타입 (5) 환경, 날씨(environment, weather)의 비 센서(rain sensor)는 현실 세계에서 비가 오는지 여부를 측정할 수 있다. 센서 타입 (6) 흐름(flow)의 흐름 센서(flow sensor)는 현실 세계에서의 유체유동의 비율을 측정할 수 있다. 센서 타입 (7) 전리 방사선, 아원자 입자(ionizing radiation, subatomic particles)의 신틸레이터(scintillator)는 현실 세계의 사용자 및 사용자 주변의 방사선 비율를 측정할 수 있다. 센서 타입 (8) 네비게이션 장치(navigation instruments)의 승강계(variometer)는 현실 세계의 사용자 및 사용자 주변의 승강 속도를 측정할 수 있다. 센서 타입 (9) 위치, 각도, 변위, 거리, 속도, 가속도(position, angle, displacement, distance, speed, acceleration)의 주행기록계(odometer)는 현실 세계의 물체(예를 들어, 운송 수단(vehicle))의 주행 거리를 측정할 수 있다. 센서 타입 (10) 시각, 빛, 영상(optical, light, imaging)의 광트랜지스터(phototransistors)는 현실 세계의 빛을 측정할 수 있다. 센서 타입 (11) 압력, 힘, 밀도, 레벨(pressure, force, density, level)의 기압계(barometer)는 현실 세계의 기압을 측정할 수 있다. 센서 타입 (12) 열, 뜨거움, 온도(thermal, heat, temperature)의 볼로미터(bolometer)는 현실 세계의 복사선을 측정할 수 있다. 센서 타입 (13) 근접, 존재(proximity, presence)의 모션 탐지기(motion detector)는 현실 세계의 사용자의 움직임을 측정할 수 있다. 센서 타입 (14) 센서 기술(sensor technology)의 바이오 센서(biosensor)는 현실 세계의 사용자의 생물학적 성질을 측정할 수 있다.
도 5는 본 발명의 일실시예에 따른 가상 세계 처리 장치의 구성을 나타내는 도면이다.
도 5를 참조하면, 일실시예에 따른 입력장치(360)는 현실 세계의 사용자로부터 센서 적응 선호(361)를 입력 받는다. 실시예에 따라서는, 입력장치(360)는 센서(370) 또는 가상 세계 처리 장치(350)에 일모듈의 형태로 삽입되도록 구현될 수 있다. 센서 적응 선호(361)에 대해서는 도 10 내지 도 12를 참조하여, 뒤에서 상세히 설명한다.
센서(370)는 센서 특성(371) 및 감지 정보(372)를 가상 세계 처리 장치(350)에게 전송할 수 있다. 센서 특성(371) 및 감지 정보(372)에 대해서는 도 7 내지 도 9 및 도 13을 참조하여, 뒤에서 상세히 설명한다.
본 발명의 일실시예에 따른 가상 세계 처리 장치(350)는 신호처리부(351) 및 적응부(352)를 포함한다.
신호처리부(351)는 센서(370)로부터 센서 특성(371) 및 감지 정보(372)를 수신하고, 수신한 센서 특성(371) 및 감지 정보(372)에 대한 신호처리 작업을 수행한다. 실시예에 따라서는, 신호처리부(351)는 센서 특성(371) 및 감지 정보(372)에 대해서 필터링(filtering) 작업 및 검증(validation) 작업을 수행할 수 있다.
적응부(352)는 입력장치(360)로부터 센서 적응 선호(361)를 수신하고, 수신한 센서 적응 선호(361)에 기반하여, 가상 세계(380)에 적용할 수 있도록 신호처리부(351)에서 신호처리한 정보에 대해서 적응(adaptation) 작업을 수행할 수 있다. 또한, 가상 세계 처리 장치(350)는 적응부(352)에서 적응 작업을 수행한 정보를 가상 세계(380)에 적용한다.
센서 특성(sensor capability)은 센서의 특성에 관한 정보이다.
센서 특성 기본 타입(sensor capability base type)은 센서 특성의 기본 타입이다. 실시예에 따라서는, 센서 특성 기본 타입은 센서 특성에 대한 메타데이터(metadata)의 일부분으로서, 모든 센서에 공통적으로 적용되는 센서 특성에 관한 메타데이터의 기본 타입일 수 있다(sensor capability base type provides a base abstract type for a subset of types defined as part of the sensory input device capability metadata types).
이하 도 7 내지 도 9을 참조하여 센서 특성 및 센서 특성 기본 타입에 대해서 상세히 설명한다.
도 7는 일실시예에 따른 센서 특성 기본 타입을 나타내는 도면이다.
도 7를 참조하면, 일실시예에 따른 센서 특성 기본 타입(400)은 센서 특성 기본 속성(sensor capability base attributes)(410) 및 예외 속성(any attributes)(420)을 포함할 수 있다.
센서 특성 기본 속성(410)은 센서 특성 기본 타입(400)에 기본적으로 포함되는 센서 특성의 그룹이다(sensor capability base attributes describes a group of attributes for the input device capabilities).
예외 속성(420)은 센서가 갖는 추가적인 센서 특성의 그룹이다. 예외 속성(420)은 임의의 센서에 적용될 수 있는 고유한 추가적인 센서 특성일 수 있다. 예외 속성(420)은 기본 속성 외의 다른 속성을 포함하기 위한 확장성을 제공할 수 있다(any attribute allows for the inclusion of any attributes defined within a namespace other than the target namespace).
도 8는 일실시예에 따른 센서 특성 기본 타입(sensor capability base type)의 신택스(syntax)를 나타내는 도면이다.
도 8를 참조하면, 일실시예에 따른 센서 특성 기본 타입의 신택스(500)는 다이어그램(diagram)(510), 속성(attributes)(520) 및 소스(source)(530)를 포함할 수 있다.
다이어그램(510)은 센서 특성 기본 타입의 도표를 포함할 수 있다.
속성(520)은 센서 특성 기본 속성 및 예외 속성을 포함할 수 있다.
소스(530)는 XML(eXtensible Markup Language)을 이용하여 센서 특성 기본 타입을 나타내는 프로그램을 포함할 수 있다. 그러나 도 8에 도시된 소스(530)는 일실시예일 뿐이고, 본 발명이 이에 제한되는 것은 아니다.
도 9은 일실시예에 따른 센서 특성 기본 속성의 신택스를 나타내는 도면이다.
도 9을 참조하면, 일실시예에 따른 센서 특성 기본 속성의 신택스(600)는 다이어그램(610), 속성(620) 및 소스(630)를 포함할 수 있다.
다이어그램(610)은 센서 특성 기본 속성의 도표를 포함할 수 있다.
속성(620)은 단위(unit)(601), 최대값(maxValue)(602), 최소값(minValue)(603), 오프셋(offset)(604), 해상력(numOflevels)(605), 감도(sensitivity)(606), SNR(signal to noise ratio)(607) 및 정확도(accuracy)(608)를 포함할 수 있다.
단위(unit)(601)는 센서가 측정하는 값의 단위이다. 실시예에 따라서는, 센서가 온도계(thermometer)인 경우 단위(601)는 섭씨(℃) 및 화씨(℉)일 수 있고, 센서가 속도 센서(Speed sensor)인 경우 단위(601)는 시속(km/h) 및 초속(m/s)일 수 있다.
최대값(maxValue)(602)과 최소값(minValue)(603)은 센서가 측정할 수 있는 최대값과 최소값이다. 실시예에 따라서는, 센서가 온도계(thermometer)인 경우 최대값(602)은 50℃이고, 최소값(603)은 0℃일 수 있다. 또한 센서가 같은 온도계인 경우에도 센서의 용도 및 성능에 따라 최대값(602)과 최소값(603)이 다를 수 있다.
오프셋(offset)(604)은 절대값을 얻기 위하여 센서가 측정하는 값에 더해지는 값이다. 실시예에 따라서는, 센서가 속도 센서인 경우 현실 세계의 사용자 또는 사물이 정지해 있고, 속도가 0이 아닌 값이 측정된다면, 센서는 오프셋(604)을 속도를 0으로 조정하기 위한 값으로 결정할 수 있다. 예를 들어, 정지해 있는 현실 세계의 자동차에 대해 속도 -1km/h가 측정되는 경우, 오프셋(604)은 1km/h가 될 수 있다.
해상력(numOflevels)(605)은 센서가 측정할 수 있는 값의 개수이다. 즉, 해상력(605)은 센서가 측정하는 최대값 및 최소값 사이에서 센서가 측정할 수 있는 값의 개수를 나타낸다. 실시예에 따라서는, 센서가 온도계이고 최대값이 50℃이고 최소값이 0℃인 경우, 해상력(605)이 5라면 센서는 온도를 10℃, 20℃, 30℃, 40℃, 50℃ 이렇게 5개의 온도를 측정 할 수 있다. 실시예에 따라서는, 현실 세계의 온도가 20℃인 경우는 물론이고 27℃인 경우에도 버림 연산을 하여 온도를 20℃로 측정할 수 있고, 또는 올림 연산을 하여 30℃로 측정할 수도 있다.
감도(sensitivity)(606)는 센서가 출력 값을 측정하기 위하여 요구되는 최소 입력 값이다. 즉, 감도(606)는 출력 신호를 생성하기 위한 입력 신호의 최소 크기를 나타낸다. 실시예에 따라서는, 센서가 온도계이고 감도(606)가 1℃인 경우, 센서는 1℃ 이하의 온도 변화는 측정 할 수 없고, 1℃ 이상의 온도 변화만을 측정할 수 있다. 예를 들어, 현실 세계에서 15℃에서 15.5℃도 온도 상승한 경우 센서는 여전히 15℃로 온도를 측정할 수 있다.
SNR(signal to noise ratio)(607)은 센서가 측정하는 값의 신호 대 잡음의 상대적인 크기이다. 실시예에 따라서는, 센서가 마이크(Microphone)인 경우, 현실 세계의 사용자의 목음성을 측정함에 있어 주변의 소음이 많다면, 센서의 SNR(607)은 작은 값일 수 있다.
정확도(accuracy)(608)는 센서의 오차이다. 즉, 정확도(608)는 실제값(Actual Value)에 대한 측정값(Measured Quantity)의 가까운 정도(Degree of Closeness)를 나타낸다. 실시예에 따라서는, 센서가 마이크인 경우 측정 시의 온도, 습도 등에 따른 음성의 전파 속도의 차이에 의한 측정 오차가 정확도(608)가 될 수 있다. 또는, 과거 당해 센서를 통해서 측정한 값의 통계적 오차 정도를 통해서 상기 센서의 정확도를 결정할 수 있다.
실시예에 따라서는, 속성(620)은 위치(position)를 더 포함할 수 있다. 위치는 센서의 위치이다. 실시예에 따라서는, 센서가 온도계인 경우 현실 세계의 사용자의 겨드랑이 사이가 센서의 위치가 될 수 있다. 위치는 경도/위도, 지면으로부터의 높이/방향 등이 될 수 있다.
일실시예에 따른 센서 특성 기본 속성인 단위(601), 최대값(602), 최소값(603), 오프셋(604), 해상력(605), 감도(606), SNR(607), 정확도(608) 및 위치에 대해서 표 3과 같이 정리할 수 있다.
Figure PCTKR2010004091-appb-I000008
소스(630)는 XML(eXtensible Markup Language)을 이용하여 센서 특성 기본 속성을 나타내는 프로그램을 포함할 수 있다.
도면 부호(631)는 최대값(602)에 대한 정의를 XML로 표현한 것이다. 도면 부호(631)에 따르면, 최대값(602)은 "float" 유형의 데이터를 가지고, 선택적(optional)으로 사용될 수 있다.
도면 부호(632)는 최소값(603)에 대한 정의를 XML로 표현한 것이다. 도면 부호(632)에 따르면, 최소값(603)은 "float" 유형의 데이터를 가지고, 선택적(optional)으로 사용될 수 있다.
도면 부호(633)는 해상력(605)에 대한 정의를 XML로 표현한 것이다. 도면 부호(633)에 따르면, 해상력(605)은 "nonNegativeInteger" 유형의 데이터를 가지고, 선택적(optional)으로 사용될 수 있다.
그러나, 도 9에 도시된 소스(630)는 일실시예일 뿐이고, 본 발명이 이에 제한되는 것은 아니다.
다시 도 4을 참조하면, 처리부(320)는 센서 특성에 기초하여 센서로부터 수신된 제1 값에 대해 판단하고, 제1 값에 대응하는 제2 값을 가상 세계로 전달한다.
실시예에 따라서는, 처리부(320)는 센서로부터 수신한 제1 값이 센서가 측정할 수 있는 최대값보다 작거나 같고 최소값보다 크거나 같은 경우, 제1 값에 대응하는 제2 값을 가상 세계로 전달 할 수 있다.
실시예에 따라서는, 센서로부터 수신한 제1 값이 센서가 측정할 수 있는 최대값보다 큰 경우, 처리부(320)는 제1 값을 최대값으로 인식하고 제1 값에 대응하는 제2 값을 가상 세계로 전달할 수 있다. 또는 제1 값이 최소값보다 작은 경우, 처리부(320)는 제1 값을 최소값으로 인식하고 제1 값에 대응하는 제2 값을 가상 세계로 전달할 수 있다.
일실시예에 따른 가상 세계 처리 장치(300)는 센서로부터 수신된 제1 값을 조작하기 위한 센서 적응 선호를 저장하는 제2 저장부(미도시)를 더 포함할 수 있다. 처리부(320)는 센서 특성에 기초하여 제1 값으로부터 제3 값을 생성하고, 센서 적응 선호에 기초하여 제3 값으로부터 제2 값을 생성할 수 있다.
실시예에 따라서는, 센서를 통해 측정된 현실 세계의 사용자의 동작, 상태, 의도, 형태 등에 관한 정보를 그대로 가상 세계에 반영할 수 있다.
도 6는 본 발명의 또 다른 일실시예에 따른 가상 세계 처리 장치의 구성을 나타내는 도면이다.
도 6를 참조하면, 본 발명의 일실시예에 따른 가상 세계와 현실 세계의 상호동작(interoperability) 또는 가상 세계 간의 상호동작을 가능하게 하는 가상 세계 처리 장치(390)는 입력부(391) 및 조절부(392)를 포함할 수 있다.
입력부(391)는 센서가 현실 세계에서 수집한 감지 정보(Sensed Information)를 입력 받는다.
본 발명의 일측에 따르면, 입력부(391)는 감지 정보를 조작하기 위한 센서 적응 선호를 더 입력 받을 수 있다. 센서 적응 선호에 대해서는 도 10 내지 도 12를 참조하여 뒤에서 상세히 설명한다.
조절부(392)는 센서의 특성에 관한 센서 특성에 기반하여, 입력부(391)가 입력 받은 감지 정보를 조절(Adapt)한다.
예를 들어, 속도 센서가 현실 세계의 사용자의 속도를 센싱한 결과, 30 m/s의 감지 정보를 수집한 경우, 입력부(391)는 30m/s의 감지 정보를 입력 받을 수 있다. 이 때, 속도 센서에 대한 센서 특성 중 최대값(maxValue)이 20m/s라면, 조절부(392)는 30m/s의 감지 정보를 20m/s로 조절할 수 있다. 또한, 일실시예에 따른 가상 세계 처리 장치는 조절된 감지 정보(20m/s)를 가상 세계에 적용할 수 있다.
실시예에 따라서는, 센서 특성은 가상 세계 처리 장치에 미리 입력되어 저장될 수 있다. 또한, 센서 특성은 입력부(391)를 통해서 입력 받을 수 있다.
본 발명의 일측에 따르면, 조절부(392)는 센서 특성 및 센서 적응 선호(Sensor Adaptation Preference)에 기반하여, 감지 정보를 조절할 수 있다.
본 발명의 일실시예에 따른 가상 세계 처리 장치(390)는 출력부(393)를 더 포함할 수 있다.
출력부(393)는 가상 세계(Virtual World)를 제어하기 위해 감지 정보를 출력할 수 있다. 실시예에 따라서는, 출력부(393)는 센서 특성에 기반하여 조절된 감지 정보를 출력할 수 있다. 또한, 출력부(393)는 센서 특성 및 센서 적응 선호에 기반하여 조절된 감지 정보를 출력할 수 있다.
또 다른 일실시예에 따른 출력부(393)는 가상 세계에서 구현되는 객체에 대한 정보인 가상 세계 객체 정보(Virtula World Object Information)를 제어하기 위해 감지 정보를 출력할 수 있다. 실시예에 따라서는, 출력부(393)는 센서 특성에 기반하여 조절된 감지 정보를 출력할 수 있다. 또한, 출력부(393)는 센서 특성 및 센서 적응 선호에 기반하여 조절된 감지 정보를 출력할 수 있다.
이하, 센서의 구체적인 실시예에 대한 센서 특성을 설명한다. 센서는 위치 센서, 방위 센서, 가속도 센서, 광 센서, 음성 센서, 온도 센서, 습도 센서, 길이 센서, 모션 센서, 지능 카메라 센서, 환경 소음 센서, 기압 센서, 속도 센서, 각속도 센서, 각가속도 센서, 힘 센서, 토크 센서 및 압력 센서일 수 있으며, 본 발명은 이에 제한되지 않는다.
[소스 1]은 XML(eXtensible Markup Language)을 이용하여 위치 센서(position sensor)에 대한 센서 특성을 나타낸다. 그러나, 하기 [소스 1]의 프로그램 소스(source)는 일실시예일 뿐이고, 본 발명이 이에 제한되는 것은은 아니다.
[소스 1]
<!-- ################################################ -->
<!-- Position Sensor capability type -->
<!-- ################################################ -->
<complexType name="PositionSensorCapabilityType">
<complexContent>
<extension base="cid:SensorCapabilityBaseType">
<sequence>
<element name="range" type="cid:RangeType"/>
</sequence>
</extension>
</complexContent>
</complexType>
<complexType name="RangeType">
<sequence>
<element name="XminValue" type="float"/>
<element name="XmaxValue" type="float"/>
<element name="YminValue" type="float"/>
<element name="YmaxValue" type="float"/>
<element name="ZminValue" type="float"/>
<element name="ZmaxValue" type="float"/>
</sequence>
</complexType>
위치 센서 특성 타입(position sensor capability type)은 위치 센서에 대한 센서 특성을 설명하기 위한 도구(tool)이다.
위치 센서 특성 타입은 위치 센서에 대한 센서 특성 기본 속성을 포함할 수 있다.
위치 센서에 대한 센서 특성 기본 속성은 범위(range), 범위타입(range type), x최대값(xmaxValue), x최소값(xminValue), y최대값(ymaxValue), y최소값(yminValue), z최대값(zmaxValue) 및 z최소값(zminValue)을 포함할 수 있다.
범위는 위치 센서가 측정할 수 있는 범위이다. 예를 들어, 범위타입 및 글로벌 좌표(global coordinate) 시스템을 이용하여 위치 센서가 측정할 수 있는 범위를 나타낼 수 있다.
글로벌 좌표(global coordinate)의 원점은 스크린(Screen)의 왼쪽 상위 모서리에 위치할 수 있다. 일실시예에 따른 글로벌 좌표에는 오른손 좌표 시스템(right handed coordinate system)이 적용될 수 있다. 글로벌 좌표의 x축은 스크린의 오른쪽 상위 모서리 방향을 양의 방향으로 하고, y축은 중력 방향(스크린의 아래 방향)을 양의 방향으로 하고, z축은 사용자 위치의 반대 방향(스크린으로 들어가는 방향)을 양의 방향으로 할 수 있다.
범위타입은 x, y, z축에 따른 글로벌 좌표 시스템의 범위이다.
x최대값은 위치 센서가 위치 좌표 단위(예를 들어, 미터(meter))로 측정할 수 있는 x축의 최대값이다.
x최소값은 위치 센서가 위치 좌표 단위(예를 들어, 미터(meter))로 측정할 수 있는 x축의 최소값이다.
y최대값은 위치 센서가 위치 좌표 단위(예를 들어, 미터(meter))로 측정할 수 있는 y축의 최대값이다.
y최소값은 위치 센서가 위치 좌표 단위(예를 들어, 미터(meter))로 측정할 수 있는 y축의 최소값이다.
z최대값은 위치 센서가 위치 좌표 단위(예를 들어, 미터(meter))로 측정할 수 있는 z축의 최대값이다.
z최소값은 위치 센서가 위치 좌표 단위(예를 들어, 미터(meter))로 측정할 수 있는 z축의 최소값이다.
[소스 2]는 XML(eXtensible Markup Language)을 이용하여 방위 센서(orientation sensor)에 대한 센서 특성을 나타낸다. 그러나, 하기 [소스 2]의 프로그램 소스(source)는 일실시예일 뿐이고, 본 발명이 이에 제한되는 것은 아니다.
[소스 2]
<!-- ################################################ -->
<!-- Orientation Sensor capability type -->
<!-- ################################################ -->
<complexType name="OrientationSensorCapabilityType">
<complexContent>
<extension base="cid:SensorCapabilityBaseType">
<sequence>
<element name="orientationrange" type="cid:OrientationRangeType"/>
</sequence>
</extension>
</complexContent>
</complexType>
<complexType name="OrientationRangeType">
<sequence>
<element name="XMinRotation" type="float"/>
<element name="XMaxRotation" type="float"/>
<element name="YMinRotation" type="float"/>
<element name="YMaxRotation" type="float"/>
<element name="ZMinRotation" type="float"/>
<element name="ZMaxRotation" type="float"/>
</sequence>
</complexType>
방위 센서 특성 타입(orientation sensor capability type)은 방위 센서에 대한 센서 특성을 설명하기 위한 도구(tool)이다.
방위 센서 특성 타입은 방위 센서에 대한 센서 특성 기본 속성을 포함할 수 있다.
방위 센서에 대한 센서 특성 기본 속성은 방위범위(orientation range), 방위범위 타입(orientation range type), x최대값(xmaxValue), x최소값(xminValue), y최대값(ymaxValue), y최소값(yminValue), z최대값(zmaxValue) 및 z최소값(zminValue)을 포함할 수 있다.
범위는 방위 센서가 측정할 수 있는 범위이다. 예를 들어, 방위범위타입 및 글로벌 좌표(global coordinate) 시스템을 이용하여 방위 센서가 측정할 수 있는 범위를 나타낼 수 있다.
방위범위타입은 x, y, z축에 따른 글로벌 좌표 시스템의 방위범위이다.
x최대값은 방위 센서가 방위 좌표 단위(예를 들어, 라디언(radian))로 측정할 수 있는 x축의 최대값이다.
x최소값은 방위 센서가 방위 좌표 단위(예를 들어, 라디언(radian))로 측정할 수 있는 x축의 최소값이다.
y최대값은 방위 센서가 방위 좌표 단위(예를 들어, 라디언(radian))로 측정할 수 있는 y축의 최대값이다.
y최소값은 방위 센서가 방위 좌표 단위(예를 들어, 라디언(radian))로 측정할 수 있는 y축의 최소값이다.
z최대값은 방위 센서가 방위 좌표 단위(예를 들어, 라디언(radian))로 측정할 수 있는 z축의 최대값이다.
z최소값은 방위 센서가 방위 좌표 단위(예를 들어, 라디언(radian))로 측정할 수 있는 z축의 최소값이다.
[소스 3]은 XML(eXtensible Markup Language)을 이용하여 가속도 센서(Acceleration sensor)에 대한 센서 특성을 나타낸다. 그러나, 하기 [소스 3]의 프로그램 소스(source)는 일실시예일 뿐이고, 본 발명이 이에 제한되는 것은 아니다.
[소스 3]
<!-- ################################################ -->
<!-- Acceleration Sensor capability type -->
<!-- ################################################ -->
<complexType name="AccelerationSensorCapabilityType">
<complexContent>
<extension base="cid:SensorCapabilityBaseType">
</extension>
</complexContent>
</complexType>
가속도 센서 특성 타입(Acceleration sensor capability type)은 가속도 센서에 대한 센서 특성을 설명하기 위한 도구(tool)이다.
가속도 센서 특성 타입은 가속도 센서에 대한 센서 특성 기본 속성을 포함할 수 있다.
가속도 센서에 대한 센서 특성 기본 속성은 최대값(maxValue) 및 최소값(minValue)을 포함할 수 있다.
최대값은 가속도 센서가 가속도 단위(예를 들어, m/s2)로 측정할 수 있는 최대값이다.
최소값은 가속도 센서가 가속도 단위(예를 들어, m/s2)로 측정할 수 있는 최소값이다.
[소스 4]는 XML(eXtensible Markup Language)을 이용하여 광 센서(light sensor)에 대한 센서 특성을 나타낸다. 그러나, 하기 [소스 4]의 프로그램 소스(source)는 일실시예일 뿐이고, 본 발명이 이에 제한되는 것은 아니다.
[소스 4]
<!-- ################################################ -->
<!-- Light Sensor capability type -->
<!-- ################################################ -->
<complexType name="LightSensorCapabilityType">
<complexContent>
<extension base="cid:SensorCapabilityBaseType">
<sequence>
<element name="color" type="cid:colorType" minOccurs="0"
maxOccurs="unbounded"/>
</sequence>
<attribute name="location" type="mpeg7:termReferenceType" use="optional"/>
</extension>
</complexContent>
</complexType>
광 센서 특성 타입(light sensor capability type)은 광 센서에 대한 센서 특성을 설명하기 위한 도구(tool)이다.
광 센서 특성 타입은 광 센서에 대한 센서 특성 기본 속성을 포함할 수 있다.
광 센서에 대한 센서 특성 기본 속성은 최대값(maxValue), 최소값(minValue), 색(color) 및 로케이션(location)을 포함할 수 있다.
최대값은 광 센서가 빛의 세기 단위(예를 들어, LUX)로 측정할 수 있는 최대값이다.
최소값은 광 센서가 빛의 세기 단위(예를 들어, LUX)로 측정할 수 있는 최소값이다.
색은 광 센서가 제공할 수 있는 색이다. 예를 들어, 색은 RGB값일 수 있다.
로케이션은 광 센서의 위치이다. 예를 들어, x, y, z축에 따른 글로벌 좌표 시스템(global coordinate)을 이용하여 광 센서의 위치를 나타낼 수 있다.
[소스 5]는 XML(eXtensible Markup Language)을 이용하여 음성 센서(sound sensor)에 대한 센서 특성을 나타낸다. 그러나, 하기 [소스 5]의 프로그램 소스(source)는 일실시예일 뿐이고, 본 발명이 이에 제한되는 것은 아니다.
[소스 5]
<!--######################## -->
<!-- Sound Sensor capability type -->
<!--######################## -->
<complexType name="SoundSensorCapabilityType">
<complexContent>
<extension base="sidc:CapabilityBaseType"/>
</complexContent>
</complexType>
음성 센서 특성 타입(sound sensor capability type)은 음성 센서에 대한 센서 특성을 설명하기 위한 도구(tool)이다.
음성 센서 특성 타입은 음성 센서에 대한 센서 특성 기본 속성을 포함할 수 있다.
음성 센서에 대한 센서 특성 기본 속성은 최대값(maxValue) 및 최소값(minValue)을 포함할 수 있다.
최대값은 음성 센서가 소리 크기 단위(예를 들어, 데시벨(dB))로 측정할 수 있는 최대값이다.
최소값은 음성 센서가 소리 크기 단위(예를 들어, 데시벨(dB))로 측정할 수 있는 최소값이다.
[소스 6]은 XML(eXtensible Markup Language)을 이용하여 온도 센서(Temperature sensor)에 대한 센서 특성을 나타낸다. 그러나, 하기 [소스 6]의 프로그램 소스(source)는 일실시예일 뿐이고, 본 발명이 이에 제한되는 것은 아니다.
[소스 6]
<!-- ################################################ -->
<!-- Temperature Sensor capability type -->
<!-- ################################################ -->
<complexType name="TemperatureSensorCapabilityType">
<complexContent>
<extension base="cid:SensorCapabilityBaseType">
<attribute name="location" type="mpeg7:termReferenceType" use="optional"/>
</extension>
</complexContent>
</complexType>
온도 센서 특성 타입(Temperature sensor capability type)은 온도 센서에 대한 센서 특성을 설명하기 위한 도구(tool)이다.
온도 센서 특성 타입은 온도 센서에 대한 센서 특성 기본 속성을 포함할 수 있다.
온도 센서에 대한 센서 특성 기본 속성은 최대값(maxValue), 최소값(minValue) 및 로케이션을 포함할 수 있다.
최대값은 온도 센서가 온도 단위(예를 들어, 섭씨(℃) 및 화씨(℉))로 측정할 수 있는 최대값이다.
최소값은 온도 센서가 온도 단위(예를 들어, 섭씨(℃) 및 화씨(℉))로 측정할 수 있는 최소값이다.
로케이션은 온도 센서의 위치이다. 예를 들어, x, y, z축에 따른 글로벌 좌표 시스템(global coordinate)을 이용하여 온도 센서의 위치를 나타낼 수 있다.
[소스 7]은 XML(eXtensible Markup Language)을 이용하여 습도 센서(Humidity sensor)에 대한 센서 특성을 나타낸다. 그러나, 하기 [소스 7]의 프로그램 소스(source)는 일실시예일 뿐이고, 본 발명이 이에 제한되는 것은 아니다.
[소스 7]
<!-- ################################################ -->
<!-- Humidity Sensor capability type -->
<!-- ################################################ -->
<complexType name="HumiditySensorCapabilityType">
<complexContent>
<extension base="cid:SensorCapabilityBaseType">
<attribute name="location" type="mpeg7:termReferenceType" use="optional"/>
</extension>
</complexContent>
</complexType>
습도 센서 특성 타입(Humidity sensor capability type)은 습도 센서에 대한 센서 특성을 설명하기 위한 도구(tool)이다.
습도 센서 특성 타입은 습도 센서에 대한 센서 특성 기본 속성을 포함할 수 있다.
습도 센서에 대한 센서 특성 기본 속성은 최대값(maxValue), 최소값(minValue) 및 로케이션을 포함할 수 있다.
최대값은 습도 센서가 습도 단위(예를 들어, %)로 측정할 수 있는 최대값이다.
최소값은 습도 센서가 습도 단위(예를 들어, %)로 측정할 수 있는 최소값이다.
로케이션은 습도 센서의 위치이다. 예를 들어, x, y, z축에 따른 글로벌 좌표 시스템(global coordinate)을 이용하여 습도 센서의 위치를 나타낼 수 있다.
[소스 8]은 XML(eXtensible Markup Language)을 이용하여 길이 센서(Length sensor)에 대한 센서 특성을 나타낸다. 그러나, 하기 [소스 8]의 프로그램 소스(source)는 일실시예일 뿐이고, 본 발명이 이에 제한되는 것은 아니다.
[소스 8]
<!-- ################################################ -->
<!-- Length Sensor capability type -->
<!-- ################################################ -->
<complexType name="LengthSensorCapabilityType">
<complexContent>
<extension base="cid:SensorCapabilityBaseType">
<attribute name="location" type="mpeg7:termReferenceType" use="optional"/>
</extension>
</complexContent>
</complexType>
길이 센서 특성 타입(Length sensor capability type)은 길이 센서에 대한 센서 특성을 설명하기 위한 도구(tool)이다.
길이 센서 특성 타입은 길이 센서에 대한 센서 특성 기본 속성을 포함할 수 있다.
길이 센서에 대한 센서 특성 기본 속성은 최대값(maxValue), 최소값(minValue) 및 로케이션을 포함할 수 있다.
최대값은 길이 센서가 길이 단위(예를 들어, meter)로 측정할 수 있는 최대값이다.
최소값은 길이 센서가 길이 단위(예를 들어, meter)로 측정할 수 있는 최소값이다.
로케이션은 길이 센서의 위치이다. 예를 들어, x, y, z축에 따른 글로벌 좌표 시스템(global coordinate)을 이용하여 길이 센서의 위치를 나타낼 수 있다.
[소스 9]는 XML(eXtensible Markup Language)을 이용하여 모션 센서(Motion sensor)에 대한 센서 특성을 나타낸다. 그러나, 하기 [소스 9]의 프로그램 소스(source)는 일실시예일 뿐이고, 본 발명이 이에 제한되는 것은 아니다.
[소스 9]
<!-- ################################################ -->
<!-- Motion Sensor capability type -->
<!-- ################################################ -->
<complexType name="MotionSensorCapabilityType">
<sequence>
<element name="positioncapability" type="cid:PositionSensorCapabilityType" minOccurs="0"/>
<element name="orientationcapability" type="cid:OrientationSensorCapabilityType" minOccurs="0"/>
<element name="velocitycapability" type="cid:VelocitySensorCapabilityType" minOccurs="0"/>
<element name="angularvelocitycapability" type="cid:AngularVelocitySensorCapabilityType" minOccurs="0"/>
<element name="accelerationrange" type="cid:AccelerationSensorCapabilityType" minOccurs="0"/>
<element name="angularaccelerationcapability" type="cid:AngularAccelerationSensorCapabilityType" minOccurs="0"/>
</sequence>
</complexType>
모션 센서 특성 타입(Motion sensor capability type)은 모션 센서에 대한 센서 특성을 설명하기 위한 도구(tool)이다.
모션 센서는 복수개의 센서의 결합으로 이루어진 통합 센서일 수 있다. 예를 들어, 모션 센서는 위치 센서, 속도 센서, 가속도 센서, 방위 센서, 각속도 센서 및 각가속도 센서의 결합으로 구성될 수 있다.
모션 센서 특성 타입은 모션 센서에 대한 센서 특성 기본 속성을 포함할 수 있다.
모션 센서에 대한 센서 특성 기본 속성은 위치 특성(position capability), 속도 특성(velocity capability), 가속도 특성(acceleration capability), 방위 특성(orientation capability), 각속도 특성(angular velocity capability) 및 각가속도 특성(angular acceleration capability)을 포함할 수 있다.
위치 특성은 위치에 관한 특성이다(capability with respect to the position).
속도 특성은 속도에 관한 특성이다(capability with respect to the velocity).
가속도 특성은 가속도에 관한 특성이다(capability with respect to the acceleration).
방위 특성은 방위에 관한 특성이다(capability with respect to the orientation).
각속도 특성은 각속도에 관한 특성이다(capability with respect to the angular).
각가속도 특성은 각가속도에 관한 특성이다(capability with respect to the angular acceleration).
[소스 10]은 XML(eXtensible Markup Language)을 이용하여 지능 카메라 센서(Intelligent camera sensor)에 대한 센서 특성을 나타낸다. 그러나, 하기 [소스 10]의 프로그램 소스(source)는 일실시예일 뿐이고, 본 발명이 이에 제한되는 것은 아니다.
[소스 10]
<!-- ################################################ -->
<!-- Intelligent Camera CapabilityType -->
<!-- ################################################ -->
<complexType name="IntelligentCameraCapabilityType">
<complexContent>
<extension base="cid:SensorCapabilityBaseType">
<sequence>
<element name="FeatureTrackingStatus" type="boolean" minOccurs="0"/>
<element name="FacialExpressionTrackingStatus" type="boolean" minOccurs="0"/>
<element name="GestureTrackingStatus" type="boolean" minOccurs="0"/> <element name="maxBodyFeaturePoint" type="float" minOccurs="0"/>
<element name="maxFaceFeaturePoint" type="float" minOccurs="0"/>
<element name="TrackedFeature" type="cid:FeatureType"/>
<element name="TrackedFacialFeaturePoints" type="cid:FacialFeatureMask"/>
<element name="TrackedBodyFeaturePoints" type="cid:BodyFeatureMask"/>
</sequence>
</extension>
</complexContent>
</complexType>
<complexType name="FeatureType">
<sequence>
<element name="Face" type="boolean"/>
<element name="Body" type="boolean"/>
<element name="Both" type="boolean"/>
</sequence>
</complexType>
<complexType name="FacialFeatureMask">
<sequence>
<element name="FaceFeaturePoint" type="boolean" minOccurs="60" maxOccurs="200"/>
</sequence>
</complexType>
<complexType name="BodyFeatureMask">
<sequence>
<element name="BodyFeaturePoint" type="boolean" minOccurs="60" maxOccurs="200"/>
</sequence>
</complexType>
지능 카메라 특성 타입(intelligent camera capability type)은 지능 카메라 센서에 대한 센서 특성을 설명하기 위한 도구(tool)이다.
지능 카메라 센서 특성 타입은 지능 카메라 센서에 대한 센서 특성 기본 속성을 포함할 수 있다.
지능 카메라 센서에 대한 센서 특성 기본 속성은 특징점 추적 상태(feature tracking status), 표정 추적 상태(expression tracking status), 몸체 동작 추적 상태(body movement tracking status), 최대 몸체 특징 포인트(max Body Feature Point), 최대 얼굴 특징 포인트(max Face Feature Point), 특징점 추적(Tracked Feature), 얼굴 특징 추적점(tracked facial feature points), 몸체 특징 추적점(tracked body feature points), 특징점 타입(feature type), 얼굴 특징점 마스크(facial feature mask) 및 몸체 특징점 마스크(body feature mask)를 포함할 수 있다.
특징점 추적 상태는 지능 카메라의 특징점 추적 가능 여부에 대한 정보이다.
표정 추적 상태는 지능 카메라의 얼굴 표정에 관한 애니메이션 추출 가능 여부에 대한 정보이다.
몸체 동작 추적 상태는 지능 카메라의 몸체에 관한 애니메이션 추출 가능 여부에 대한 정보이다.
최대 몸체 특징 포인트는 지능 카메라 센서가 몸의 특징점을 추적할 수 있는 최대값이다.
최대 얼굴 특징 포인트는 지능 카메라 센서가 얼굴의 특징점을 추적할 수 있는 최대값이다.
특징점 추적은 몸과 얼굴의 특징점의 추적 가능 여부에 대한 정보이다.
얼굴 특징 추적점은 얼굴 특징점 각각이 활성 상태인지 또는 얼굴 특징 마스크에 기초하지 않았는지 여부에 대한 정보이다.
몸체 특징 추적점은 몸체 특징점 각각이 활성 상태인지 또는 몸체 특징 마스크에 기초하지 않았는지 여부에 대한 정보이다.
특징점 타입은 특징점의 타입에 대한 리스트이다. 예를 들어, 특징점 타입은 1. 얼굴, 2. 몸, 3. 얼굴과 몸 등을 포함할 수 있다.
얼굴 특징점 마스크는 얼굴 특징점에 대한 리스트이다.
몸체 특징점 마스크는 몸체 특징점에 대한 리스트이다.
[소스 11]은 XML(eXtensible Markup Language)을 이용하여 환경 소음 센서 타입(Ambient noise Sensor)에 대한 센서 특성을 나타낸다. 그러나, 하기 [소스 11]의 프로그램 소스(source)는 일실시예일 뿐이고, 본 발명이 이에 제한되는 것은 아니다.
[소스 11]
<!-- ################################################ -->
<!-- Ambient noise Sensor capability type -->
<!-- ################################################ -->
<complexType name="AmbientNoiseSensorCapabilityType">
<complexContent>
<extension base="cid:SensorCapabilityBaseType">
<attribute name="location" type="mpeg7:termReferenceType" use="optional"/>
</extension>
</complexContent>
</complexType>
환경 소음 센서 타입(Ambient noise Sensor)은 환경 소음 센서에 대한 센서 특성을 설명하기 위한 도구이다.
환경 소음 센서 특성 타입은 환경 소음 센서에 대한 센서 특성 기본 속성을 포함할 수 있다.
환경 소음 센서에 대한 센서 특성 기본 속성은 최대값(maxValue), 최소값(minValue) 및 로케이션을 포함할 수 있다.
최대값은 환경 소음 센서가 측정할 수 있는 최대값이다. 예를 들어, 단위는 dB일 수 있다.
최소값은 환경 소음 센서가 측정할 수 있는 최소값이다. 예를 들어, 단위는 dB일 수 있다.
로케이션은 환경 소음 센서의 위치이다. 예를 들어, x, y, z축에 따른 글로벌 좌표 시스템(global coordinate)을 이용하여 환경 소음 센서의 위치를 나타낼 수 있다.
[소스 12]는 XML(eXtensible Markup Language)을 이용하여 기압 센서 타입(Atmospheric Pressure Sensor)에 대한 센서 특성을 나타낸다. 그러나, 하기 [소스 12]의 프로그램 소스(source)는 일실시예일 뿐이고, 본 발명이 이에 제한되는 것은 아니다.
[소스 12]
<!-- ################################################ -->
<!-- Atmospheric Pressure Sensor capability type -->
<!-- ################################################ -->
<complexType name="AtmosphericPressureSensorCapabilityType">
<complexContent>
<extension base="cid:SensorCapabilityBaseType">
<attribute name="location" type="mpeg7:termReferenceType" use="optional"/>
</extension>
</complexContent>
</complexType>
기압 센서 특성 타입(Atmospheric Pressure Sensor)은 기압 센서에 대한 센서 특성을 설명하기 위한 도구(tool)이다.
기압 센서 특성 타입은 기압 센서에 대한 센서 특성 기본 속성을 포함할 수 있다.
기압 센서에 대한 센서 특성 기본 속성은 최대값(maxValue), 최소값(minValue) 및 로케이션을 포함할 수 있다.
최대값은 기압 센서가 기압 단위(예를 들어, hPa)로 측정할 수 있는 최대값이다.
최소값은 기압 센서가 기압 단위(예를 들어, hPa)로 측정할 수 있는 최소값이다.
로케이션은 기압 센서의 위치이다. 예를 들어, x, y, z축에 따른 글로벌 좌표 시스템(global coordinate)을 이용하여 기압 센서의 위치를 나타낼 수 있다.
[소스 13]은 XML(eXtensible Markup Language)을 이용하여 속도 센서 타입(Velocity Sensor)에 대한 센서 특성을 나타낸다. 그러나, 하기 [소스 13]의 프로그램 소스(source)는 일실시예일 뿐이고, 본 발명이 이에 제한되는 것은 아니다.
[소스 13]
<!-- ################################################ -->
<!-- Velocity Sensor capability type -->
<!-- ################################################ -->
<complexType name="VelocitySensorCapabilityType">
<complexContent>
<extension base="cid:SensorCapabilityBaseType">
</extension>
</complexContent>
</complexType>
속도 센서 특성 타입(Velocity Sensor)은 속도 센서에 대한 센서 특성을 설명하기 위한 도구(tool)이다.
속도 센서 특성 타입은 속도 센서에 대한 센서 특성 기본 속성을 포함할 수 있다.
속도 센서에 대한 센서 특성 기본 속성은 최대값(maxValue) 및 최소값(minValue)을 포함할 수 있다.
최대값은 속도 센서가 속도 단위(예를 들어, m/s)로 측정할 수 있는 최대값이다.
최소값은 속도 센서가 속도 단위(예를 들어, m/s)로 측정할 수 있는 최소값이다.
[소스 14]은 XML(eXtensible Markup Language)을 이용하여 각속도 센서 타입(Angular Velocity)에 대한 센서 특성을 나타낸다. 그러나, 하기 [소스 14]의 프로그램 소스(source)는 일실시예일 뿐이고, 본 발명이 이에 제한되는 것은 아니다.
[소스 14]
<!-- ################################################ -->
<!-- Angular Velocity Sensor capability type -->
<!-- ################################################ -->
<complexType name="AngularVelocitySensorCapabilityType">
<complexContent>
<extension base="cid:SensorCapabilityBaseType">
</extension>
</complexContent>
</complexType>
각속도 센서 특성 타입(Angular Velocity)은 각속도 센서에 대한 센서 특성을 설명하기 위한 도구(tool)이다.
각속도 센서 특성 타입은 각속도 센서에 대한 센서 특성 기본 속성을 포함할 수 있다.
각속도 센서에 대한 센서 특성 기본 속성은 최대값(maxValue) 및 최소값(minValue)을 포함할 수 있다.
최대값은 각속도 센서가 각속도 단위(예를 들어, radian/s)로 측정할 수 있는 최대값이다.
최소값은 각속도 센서가 각속도 단위(예를 들어, radian/s)로 측정할 수 있는 최소값이다.
[소스 15]은 XML(eXtensible Markup Language)을 이용하여 각가속도 센서 타입(Angular Acceleration)에 대한 센서 특성을 나타낸다. 그러나, 하기 [소스 15]의 프로그램 소스(source)는 일실시예일 뿐이고, 본 발명이 이에 제한되는 것은 아니다.
[소스 15]
<!-- ################################################ -->
<!-- Angular Acceleration Sensor capability type -->
<!-- ################################################ -->
<complexType name="AngularAccelerationSensorCapabilityType">
<complexContent>
<extension base="cid:SensorCapabilityBaseType">
</extension>
</complexContent>
</complexType>
각가속도 센서 특성 타입(Angular Acceleration)은 각가속도 센서에 대한 센서 특성을 설명하기 위한 도구(tool)이다.
각가속도 센서 특성 타입은 각가속도 센서에 대한 센서 특성 기본 속성을 포함할 수 있다.
각가속도 센서에 대한 센서 특성 기본 속성은 최대값(maxValue) 및 최소값(minValue)을 포함할 수 있다.
최대값은 각가속도 센서가 각가속도 단위(예를 들어, radian/s2)로 측정할 수 있는 최대값이다.
최소값은 각가속도 센서가 각가속도 단위(예를 들어, radian/s2)로 측정할 수 있는 최소값이다.
[소스 16]은 XML(eXtensible Markup Language)을 이용하여 힘 센서 타입(Force Sensor)에 대한 센서 특성을 나타낸다. 그러나, 하기 [소스 16]의 프로그램 소스(source)는 일실시예일 뿐이고, 본 발명이 이에 제한되는 것은 아니다.
[소스 16]
<!-- ################################################ -->
<!-- Force Sensor capability type -->
<!-- ################################################ -->
<complexType name="ForceSensorCapabilityType">
<complexContent>
<extension base="cid:SensorCapabilityBaseType">
</extension>
</complexContent>
</complexType>
힘 센서 특성 타입(Force Sensor)은 힘 센서에 대한 센서 특성을 설명하기 위한 도구(tool)이다.
힘 센서 특성 타입은 힘 센서에 대한 센서 특성 기본 속성을 포함할 수 있다.
힘 센서에 대한 센서 특성 기본 속성은 최대값(maxValue) 및 최소값(minValue)을 포함할 수 있다.
최대값은 힘 센서가 힘 단위(예를 들어, Newton)로 측정할 수 있는 최대값이다.
최소값은 힘 센서가 힘 단위(예를 들어, Newton)로 측정할 수 있는 최소값이다.
[소스 17]은 XML(eXtensible Markup Language)을 이용하여 토크 센서 타입(Torque Sensor)에 대한 센서 특성을 나타낸다. 그러나, 하기 [소스 17]의 프로그램 소스(source)는 일실시예일 뿐이고, 본 발명이 이에 제한되는 것은 아니다.
[소스 17]
<!-- ################################################ -->
<!-- Torque Sensor capability type -->
<!-- ################################################ -->
<complexType name="ForceSensorCapabilityType">
<complexContent>
<extension base="cid:SensorCapabilityBaseType">
</extension>
</complexContent>
</complexType>
토크 센서 특성 타입(Torque Sensor)은 토크 센서에 대한 센서 특성을 설명하기 위한 도구(tool)이다.
토크 센서 특성 타입은 토크 센서에 대한 센서 특성 기본 속성을 포함할 수 있다.
토크 센서에 대한 센서 특성 기본 속성은 최대값(maxValue), 최소값(minValue) 및 로케이션을 포함할 수 있다.
최대값은 토크 센서가 토크 단위(예를 들어, N-mm(Newton millimeter))로 측정할 수 있는 최대값이다.
최소값은 토크 센서가 토크 단위(예를 들어, N-mm(Newton millimeter))로 측정할 수 있는 최소값이다.
[소스 18]은 XML(eXtensible Markup Language)을 이용하여 압력 센서 타입(Pressure Sensor)에 대한 센서 특성을 나타낸다. 그러나, 하기 [소스 18]의 프로그램 소스(source)는 일실시예일 뿐이고, 본 발명이 이에 제한되는 것은 아니다.
[소스 18]
<!-- ################################################ -->
<!-- Pressure Sensor capability type -->
<!-- ################################################ -->
<complexType name="PressureSensorCapabilityType">
<complexContent>
<extension base="cid:SensorCapabilityBaseType">
</extension>
</complexContent>
</complexType>
압력 센서 특성 타입(Pressure Sensor)은 압력 센서에 대한 센서 특성을 설명하기 위한 도구(tool)이다.
압력 센서 특성 타입은 압력 센서에 대한 센서 특성 기본 속성을 포함할 수 있다.
압력 센서에 대한 센서 특성 기본 속성은 최대값(maxValue), 최소값(minValue) 및 로케이션을 포함할 수 있다.
최대값은 압력 센서가 압력 단위(예를 들어, m/s)로 측정할 수 있는 최대값이다.
최소값은 압력 센서가 압력 단위(예를 들어, m/s)로 측정할 수 있는 최소값이다.
이하, 센서 적응 선호에 대해서 상세히 설명한다.
센서 적응 선호(sensor adaptation preference)는 센서로부터 수신된 값을 조작하기 위한 정보이다. 즉, 센서 적응 선호는 센서로부터 수집된 감지 정보에 대한 조절하는 방법에 대한 사용자의 선호도 정보를 나타낼 수 있다.
센서 적응 선호 기본 타입(sensor adaptation preference base type)은 사용자의 조작 정보의 기본 타입이다. 실시예에 따라서는, 센서 적응 선호 기본 타입은 센서 적응 선호에 대한 메타데이터(metadata)의 일부분으로서, 모든 센서에 공통적으로 적용되는 센서 적응 선호에 관한 메타데이터의 기본 타입일 수 있다(sensor adaptation preference base type provides a base abstract type for a subset of types defined as part of the sensory device capability metadata types).
이하 도 10 내지 도 12를 참조하여 센서 적응 선호 및 센서 적응 선호 기본 타입에 대해서 상세히 설명한다.
도 10은 일실시예에 따른 센서 적응 선호 기본 타입을 나타내는 도면이다.
도 10을 참조하면, 일실시예에 따른 센서 적응 선호 기본 타입(700)은 센서 적응 선호 기본 속성(sensor adaptation preference base attributes)(710) 및 예외 속성(any attributes)(720)을 포함할 수 있다.
센서 적응 선호 기본 속성(710)은 센서 적응 선호 기본 타입(700)에 기본적으로 포함되는 센서 적응 선호의 그룹이다(Sensor adaptation preference base attributes describes a group of attributes for the sensor adaptation preference).
예외 속성(720)은 추가적인 센서 적응 선호의 그룹이다. 예외 속성(720)은 임의의 센서에 적용될 수 있는 고유한 추가적인 센서 적응 선호일 수 있다. 예외 속성(720)은 기본 속성 외의 다른 속성을 포함하기 위한 확장성을 제공할 수 있다(any attribute allows for the inclusion of any attributes defined within a namespace other than the target namespace).
도 11은 일실시예에 따른 센서 적응 선호 기본 타입의 신택스를 나타내는 도면이다.
도 11을 참조하면, 일실시예에 따른 센서 적응 선호 기본 타입의 신택스(800)는 다이어그램(810), 속성(820) 및 소스(830)를 포함할 수 있다.
다이어그램(diagram)(810)은 센서 적응 선호 기본 타입의 도표를 포함할 수 있다.
속성(attributes)(820)은 센서 적응 선호 기본 속성 및 예외 속성을 포함할 수 있다.
소스(source)(830)는 XML(eXtensible Markup Language)을 이용하여 센서 적응 선호 기본 타입을 나타내는 프로그램을 포함할 수 있다. 그러나 도 11에 도시된 소스(830)는 일실시예일 뿐이고, 본 발명이 이에 제한되는 것은 아니다.
도 12는 일실시예에 따른 센서 적응 선호 기본 속성의 신택스를 나타내는 도면이다.
도 12를 참조하면, 일실시예에 따른 센서 적응 선호 기본 속성의 신택스(900)는 다이어그램(910), 속성(920) 및 소스(930)로 나타낼 수 있다.
다이어그램(910)은 센서 적응 선호 기본 속성의 도표를 포함할 수 있다.
속성(920)은 센서 아이디 참조(SensorIdRef)(901), 센서 적응 모드(sensor adaptation mode)(902), 활성 상태(activate)(903), 단위(unit)(904), 최대값(maxValue)(905), 최소값(minValue)(906) 및 해상력(numOflevels)(907)을 포함할 수 있다.
센서 아이디 참조(901)는 특정한 감지 정보(specific sensed information)를 생성하는 개별적인 센서의 식별자(identification, ID)를 참조하는 정보이다.
센서 적응 모드(902)는 센서의 적용 방법에 관한 사용자의 선호 정보이다. 실시예에 따라서는, 센서 적응 모드(902)는 센서를 통해 측정된 현실 세계의 사용자의 동작, 상태, 의도, 형태 등에 관한 정보를 정제하여 가상 세계에 반영하기 위한 적응 방법에 대한 센서 적응 선호일 수 있다. 예를 들어, '스티릭트(strict)' 값은 센싱한 현실 세계의 정보를 가상 세계에 직접적으로 적용하는 사용자의 선호를 가리키고, '스케일어블(scalable)' 값은 센싱한 현실 세계의 정보를 사용자의 선호에 따라 변화하여 가상 세계에 적용하는 사용자의 선호를 가리킬 수 있다.
활성 상태(903)는 가상 세계에서 센서를 활성화할지 여부에 관한 정보이다. 실시예에 따라서는, 활성 상태(903)는 센서의 작동 여부를 판별하는 센서 적응 선호일 수 있다.
단위(Unit)(904)는 가상 세계에서 사용되는 값의 단위이다. 예를 들어, 단위(904)는 픽셀(pixel)일 수 있다. 실시예에 따라서는, 단위(904)는 센서로부터 수신된 값에 대응하는 값의 단위일 수 있다.
최대값(maxValue)(905)과 최소값(minValue)(906)은 가상 세계에서 사용되는 값의 최대값과 최소값이다. 실시예에 따라서는, 최대값(maxValue)(905)과 최소값(minValue)(906)은 센서로부터 수신된 값에 대응하는 값의 단위일 수 있다.
해상력(numOflevels)(907)은 가상 세계에서 사용되는 값의 개수이다. 실시예에 따라서는, 가상 세계에서 사용되는 값의 최대값과 최소값의 사이의 단계 수를 나누기 위한 값일 수 있다.
일실시예에 따른 센서 적응 선호 기본 속성인 센서 아이디 참조(901), 적응 모드(902), 활성 상태(903), 단위(904), 최대값(905), 최소값(906) 및 해상력(907)에 대해서 하기의 표 4와 같이 정리할 수 있다.
Figure PCTKR2010004091-appb-I000009
소스(930)는 XML(eXtensible Markup Language)을 이용하여 센서 적응 선호 기본 속성을 나타내는 프로그램을 포함할 수 있다.
도면 부호(931)는 활성 상태(903)에 대한 정의를 XML로 표현한 것이다. 도면 부호(931)에 따르면, 활성 상태(903)은 "boolean" 유형의 데이터를 가지고, 선택적(optional)으로 사용될 수 있다.
도면 부호(932)는 최대값(905)에 대한 정의를 XML로 표현한 것이다. 도면 부호(932)에 따르면, 최대값(905)은 "float" 유형의 데이터를 가지고, 선택적(optional)으로 사용될 수 있다.
도면 부호(933)는 최소값(906)에 대한 정의를 XML로 표현한 것이다. 도면 부호(933)에 따르면, 최소값(906)은 "float" 유형의 데이터를 가지고, 선택적(optional)으로 사용될 수 있다.
도면 부호(934)는 해상력(907)에 대한 정의를 XML로 표현한 것이다. 도면 부호(934)에 따르면, 해상력(907)은 "nonNegativeInteger" 유형의 데이터를 가지고, 선택적(optional)으로 사용될 수 있다.
그러나 도 12에 도시된 소스(930)는 일실시예일 뿐이고, 본 발명이 이에 제한되는 것은 아니다.
이하, 센서의 구체적인 실시예에 대한 센서 적응 선호를 설명한다.
[소스19]는 XML(eXtensible Markup Language)을 이용하여 위치 센서(Position sensor)에 대한 센서 적응 선호를 나타낸다. 그러나, 하기 [소스 19]의 프로그램 소스(source)는 일실시예일 뿐이고, 본 발명이 이에 제한되는 것은 아니다.
[소스 19]
<!-- ################################################ -->
<!-Position Sensor Preference type -->
<!-- ################################################ -->
<complexType name="PositionSensorPrefType">
<complexContent>
<extension base="cid:SensorCapabilityBaseType">
<sequence>
<element name="range" type="cid:RangeType"/>
</sequence>
</extension>
</complexContent>
</complexType>
위치 센서 타입(Position sensor type)은 위치 센서에 대한 센서 적응 선호를 설명하기 위한 도구(tool)이다.
위치 센서 특성 타입은 위치 센서에 대한 센서 적응 선호 기본 속성을 포함할 수 있다.
위치 센서에 대한 센서 적응 선호 기본 속성은 범위(range) 및 해상력(numOflevels)을 포함할 수 있다.
범위는 위치 센서가 측정한 위치 정보에 대한 사용자의 선호 범위이다.
해상력은 위치 센서가 측정한 위치 정보에 대한 사용자의 선호 해상력이다.
[소스 20]는 XML(eXtensible Markup Language)을 이용하여 방위 센서(orientation sensor)에 대한 센서 적응 선호를 나타낸다. 그러나, 하기 [소스 20]의 프로그램 소스(source)는 일실시예일 뿐이고, 본 발명이 이에 제한되는 것은 아니다.
[소스 20]
<!-- ################################################ -->
<!-- Orientation Sensor Preference type -->
<!-- ################################################ -->
<complexType name="OrientationSensorPrefType">
<complexContent>
<extension base=cid:SensorCapabilityBaseType/>
<sequence>
<element name="orientationrange" type="cid:OrientationRangeType"/>
</sequence>
</extension>
</complexContent>
</complexType>
방위 센서 타입(Orientation sensor type)은 방위 센서에 대한 센서 적응 선호를 설명하기 위한 도구(tool)이다.
방위 센서 특성 타입은 방위 센서에 대한 센서 적응 선호 기본 속성을 포함할 수 있다.
방위 센서에 대한 센서 적응 선호 기본 속성은 방위범위(orientation range) 및 해상력(numOflevels)을 포함할 수 있다.
방위범위는 방위 센서가 측정한 방위 정보에 대한 사용자의 선호 범위이다.
해상력은 방위 센서가 측정한 방위 정보에 대한 사용자의 선호 해상력이다.
[소스 21]은 XML(eXtensible Markup Language)을 이용하여 가속도 센서(Acceleration sensor)에 대한 센서 적응 선호를 나타낸다. 그러나, 하기 [소스 213]의 프로그램 소스(source)는 일실시예일 뿐이고, 본 발명이 이에 제한되는 것은 아니다.
[소스 21]
<!-- ################################################ -->
<!-- Acceleration Sensor Preference type -->
<!-- ################################################ -->
<complexType name="AccelerationSensorPrefType">
<complexContent>
<extension base=cid:SensorCapabilityBaseType/>
</complexContent>
</complexType>
가속도 센서 타입(Acceleration sensor type)은 가속도 센서에 대한 센서 적응 선호를 설명하기 위한 도구(tool)이다.
가속도 센서 특성 타입은 가속도 센서에 대한 센서 적응 선호 기본 속성을 포함할 수 있다.
가속도 센서에 대한 센서 적응 선호 기본 속성은 최대값(maxValue), 최소값(minValue) 및 해상력(numOflevels)을 포함할 수 있다.
최대값은 가속도 센서가 측정한 가속도 정보에 대한 사용자의 선호 최대값이다.
최소값은 가속도 센서가 측정한 가속도 정보에 대한 사용자의 선호 최소값이다.
해상력은 가속도 센서가 측정한 가속도 정보에 대한 사용자의 선호 해상력이다.
[소스 22]는 XML(eXtensible Markup Language)을 이용하여 광 센서(Light sensor)에 대한 센서 적응 선호를 나타낸다. 그러나, 하기 [소스 22]의 프로그램 소스(source)는 일실시예일 뿐이고, 본 발명이 이에 제한되는 것은 아니다.
[소스 22]
<!-- ################################################ -->
<!-- Light Sensor Preference type -->
<!-- ################################################ -->
<complexType name="LightSensorPrefType">
<complexContent>
<extension base="cid:UserSensorPreferenceBaseType">
<sequence>
<element name="color" type="cid:colorType" minOccurs="0"
maxOccurs="unbounded"/>
</sequence>
</extension>
</complexContent>
</complexType>
광 센서 타입(Light sensor type)은 광 센서에 대한 센서 적응 선호를 설명하기 위한 도구(tool)이다.
광 센서 특성 타입은 광 센서에 대한 센서 적응 선호 기본 속성을 포함할 수 있다.
광 센서에 대한 센서 적응 선호 기본 속성은 최대값(maxValue), 최소값(minValue), 해상력(numOflevels) 및 비호색(unfavorable color)을 포함할 수 있다.
최대값은 광 센서의 측정값에 대한 사용자의 선호 최대값이다.
최소값은 광 센서의 측정값에 대한 사용자의 선호 최소값이다.
해상력은 광 센서의 측정값에 대한 사용자의 선호 해상력이다.
비호색은 광 센서의 측정값에 대한 사용자의 비호색이다. 예를 들어, 비호색은 RGB 값이나 분류 참조로서 사용자의 비호색의 리스트일 수 있다.
[소스 23]은 XML(eXtensible Markup Language)을 이용하여 음성 센서(Sound sensor)에 대한 센서 적응 선호를 나타낸다. 그러나, 하기 [소스 23]의 프로그램 소스(source)는 일실시예일 뿐이고, 본 발명이 이에 제한되는 것은 아니다.
[소스 23]
<!--######################## -->
<!-- USIPV Sound Sensor type -->
<!--######################## -->
<complexType name="SoundSensorType">
<complexContent>
<extension base="usip:PreferenceBaseType"/>
</complexContent>
</complexType>
음성 센서 타입(Sound sensor type)은 음성 센서에 대한 센서 적응 선호를 설명하기 위한 도구(tool)이다.
음성 센서 특성 타입은 음성 센서에 대한 센서 적응 선호 기본 속성을 포함할 수 있다.
음성 센서에 대한 센서 적응 선호 기본 속성은 최대값(maxValue) 및 최소값(minValue)을 포함할 수 있다.
최대값은 음성 센서의 측정값으로 사용자가 허용하는 최대값이다.
최소값은 음성 센서의 측정값으로 사용자가 허용하는 최소값이다.
[소스 24]는 XML(eXtensible Markup Language)을 이용하여 온도 센서(Temperature sensor)에 대한 센서 적응 선호를 나타낸다. 그러나, 하기 [소스 24]의 프로그램 소스(source)는 일실시예일 뿐이고, 본 발명이 이에 제한되는 것은 아니다.
[소스 24]
<!-- ################################################ -->
<!-- Temperature Sensor Preference type -->
<!-- ################################################ -->
<complexType name="TemperatureSensorPrefType">
<complexContent>
<extension base="cid:UserSensorPreferenceBaseType"/>
</complexContent>
</complexType>
온도 센서 타입(Temperature sensor type)은 온도 센서에 대한 센서 적응 선호를 설명하기 위한 도구(tool)이다.
온도 센서 특성 타입은 온도 센서에 대한 센서 적응 선호 기본 속성을 포함할 수 있다.
온도 센서에 대한 센서 적응 선호 기본 속성은 최대값(maxValue), 최소값(minValue) 및 해상력(numOflevels)을 포함할 수 있다.
최대값은 온도 센서가 측정한 온도 정보에 대한 사용자의 선호 최대값이다.
최소값은 온도 센서가 측정한 온도 정보에 대한 사용자의 선호 최소값이다.
해상력은 온도 센서가 측정한 온도 정보에 대한 사용자의 선호 해상력이다.
[소스 25]는 XML(eXtensible Markup Language)을 이용하여 습도 센서(Humidity sensor)에 대한 센서 적응 선호를 나타낸다. 그러나, 하기 [소스 25]의 프로그램 소스(source)는 일실시예일 뿐이고, 본 발명이 이에 제한되는 것은 아니다.
[소스 25]
<!-- ################################################ -->
<!-- Humidity Sensor Preference type -->
<!-- ################################################ -->
<complexType name="HumiditySensorPrefType">
<complexContent>
<extension base="cid:UserSensorPreferenceBaseType"/>
</complexContent>
</complexType>
습도 센서 타입(Humidity sensor type)은 습도 센서에 대한 센서 적응 선호를 설명하기 위한 도구(tool)이다.
습도 센서 특성 타입은 습도 센서에 대한 센서 적응 선호 기본 속성을 포함할 수 있다.
습도 센서에 대한 센서 적응 선호 기본 속성은 최대값(maxValue), 최소값(minValue) 및 해상력(numOflevels)을 포함할 수 있다.
최대값은 습도 센서가 측정한 습도 정보에 대한 사용자의 선호 최대값이다.
최소값은 습도 센서가 측정한 습도 정보에 대한 사용자의 선호 최소값이다.
해상력은 습도 센서가 측정한 습도 정보에 대한 사용자의 선호 해상력이다.
[소스 26]은 XML(eXtensible Markup Language)을 이용하여 길이 센서(Length sensor)에 대한 센서 적응 선호를 나타낸다. 그러나, 하기 [소스 26]의 프로그램 소스(source)는 일실시예일 뿐이고, 본 발명이 이에 제한되는 것은 아니다.
[소스 26]
<!-- ################################################ -->
<!-- Length Sensor Preference type -->
<!-- ################################################ -->
<complexType name="LengthSensorPrefType">
<complexContent>
<extension base="cid:UserSensorPreferenceBaseType"/>
</complexContent>
</complexType>
길이 센서 타입(Length sensor type)은 길이 센서에 대한 센서 적응 선호를 설명하기 위한 도구(tool)이다.
길이 센서 특성 타입은 길이 센서에 대한 센서 적응 선호 기본 속성을 포함할 수 있다.
길이 센서에 대한 센서 적응 선호 기본 속성은 최대값(maxValue), 최소값(minValue) 및 해상력(numOflevels)을 포함할 수 있다.
최대값은 길이 센서가 측정한 길이 정보에 대한 사용자의 선호 최대값이다.
최소값은 길이 센서가 측정한 길이 정보에 대한 사용자의 선호 최소값이다.
해상력은 길이 센서가 측정한 길이 정보에 대한 사용자의 선호 해상력이다.
[소스 27]은 XML(eXtensible Markup Language)을 이용하여 모션 센서(Motion sensor)에 대한 센서 적응 선호를 나타낸다. 그러나, 하기 [소스 27]의 프로그램 소스(source)는 일실시예일 뿐이고, 본 발명이 이에 제한되는 것은 아니다.
[소스 27]
<!-- ################################################ -->
<!― Motion Sensor Preference type -->
<!-- ################################################ -->
<complexType name="MotionSensorPrefType">
<sequence>
<element name="positionpreference" type="cid:PositionSensorPrefType" minOccurs="0"/>
<element name="orientationpreference" type="cid:OrientationSensorPrefType" minOccurs="0"/>
<element name="velocitypreference" type="cid:VelocitySensorPrefType" minOccurs="0"/>
<element name="angularvelocitypreference" type="cid:AngularVelocitySensorPrefType" minOccurs="0"/>
<element name="accelerationpreference" type="cid:AccelerationSensorPrefType" minOccurs="0"/>
<element name="angularaccelerationpreference" type="cid:AngularAccelerationSensorPrefType" minOccurs="0"/>
</sequence>
</complexType>
모션 센서 특성 타입(Motion sensor capability type)은 모션 센서에 대한 센서 적응 선호를 설명하기 위한 도구(tool)이다.
모션 센서 특성 타입은 모션 센서에 대한 센서 적응 선호 기본 속성을 포함할 수 있다.
모션 센서에 대한 센서 적응 선호 기본 속성은 선호 위치(position preference), 선호 속도(velocity preference), 선호 가속도(acceleration preference), 선호 방위(orientation preference), 선호 각속도(angular velocity preference) 및 선호 각가속도(angular acceleration preference)를 포함할 수 있다.
선호 위치는 사용자 선호 위치이다(user preference with respect to the position).
선호 속도는 사용자 선호 속도이다(user preference with respect to the velocity).
선호 가속도는 사용자 선호 가속도이다(user preference with respect to the acceleration).
선호 방위는 사용자 선호 방위이다(user preference with respect to the orientation).
선호 각속도는 사용자 선호 각속도이다(user preference with respect to the angular).
선호 각가속도는 사용자 선호 각가속도이다(user preference with respect to the angular acceleration).
[소스 28]은 XML(eXtensible Markup Language)을 이용하여 지능 카메라 센서(Intelligent camera sensor)에 대한 센서 적응 선호를 나타낸다. 그러나, 하기 [소스 28]의 프로그램 소스(source)는 일실시예일 뿐이고, 본 발명이 이에 제한되는 것은 아니다.
[소스 28]
<!-- ################################################ -->
<!-- Intelligent Camera Preference Type -->
<!-- ################################################ -->
<complexType name="IntelligentCameraPreferenceType">
<complexContent>
<extension base="cid:SensorAdaptationPreferenceBaseType">
<sequence>
<element name="FaceFeatureTrackingOn" type="boolean" minOccurs="0"/>
<element name="BodyFeatureTrackingOn" type="boolean" minOccurs="0"/>
<element name="FacialExpressionTrackingOn" type="boolean" minOccurs="0"/>
<element name="GestureTrackingOn" type="boolean" minOccurs="0"/>
<element name="FacialFeatureMask" type="cid:FacialFeatureMaskType"/>
<element name="BodyFeatureMask" type="cid:BodyFeatureMaskType"/>
</sequence>
</extension>
</complexContent>
</complexType>
<complexType name="FacialFeatureMaskType">
<sequence>
<element name="Eyes" type="boolean"/>
<element name="Mouth" type="boolean"/>
<element name="Nose" type="boolean"/>
<element name="Ears" type="boolean"/>
</sequence>
</complexType>
<complexType name="BodyFeatureMaskType">
<sequence>
<element name="Head" type="boolean"/>
<element name="Arms" type="boolean"/>
<element name="Hands" type="boolean"/>
<element name="Legs" type="boolean"/>
<element name="Feet" type="boolean"/>
<element name="MiddleBody" type="boolean"/>
</sequence>
</complexType>
지능 카메라 센서 특성 타입(intelligent camera sensor capability type)은 지능 카메라 센서에 대한 대한 센서 적응 선호를 설명하기 위한 도구(tool)이다.
지능 카메라 센서 특성 타입은 지능 카메라 모션 센서에 대한 센서 적응 선호 기본 속성을 포함할 수 있다.
지능 카메라 모션 센서에 대한 센서 적응 선호 기본 속성은 얼굴 특징점 추적 온(FaceFeatureTrackingOn), 몸체 특징점 추적 온(BodyFeatureTrackingOn), 얼굴 표정 추적 온(FacialExpressionTrackingOn), 제스처 추적 온(GestureTrackingOn), 얼굴 추적 맵(FaceTrackingMap) 및 몸체 추적 맵(BodyTrackingMap)을 포함할 수 있다.
얼굴 특징점 추적 온은, 지능 카메라 센서가 사용자 얼굴의 특징점을 추적하는 얼굴 특징점 추적 모드를 활성화할 것인지 여부에 대한 정보이다.
몸체 특징점 추적 온은, 지능 카메라 센서가 사용자 몸체의 특징점을 추적하는 몸체 특징점 추적 모드를 활성화할 것인지 여부에 대한 정보이다.
얼굴 표정 추적 온은, 지능 카메라 센서가 사용자의 얼굴 표정을 추적하는 것에 대한 사용자의 선호 정보이다.
제스처 추적 온은, 지능 카메라 센서가 사용자의 제스처를 추적하는 것에 대한 사용자의 선호 정보이다.
얼굴 추적 맵은, 얼굴 추적 맵 타입에 대한 불 맵(Boolean Map)을 제공한다. 불 맵은 사용자가 추적하고자 하는 얼굴의 부분을 제공한다. 실시예에 따라서는, 얼굴 추적 맵 타입에 대한 불 맵은 눈(Eyes), 입(Mouth), 코(Nose) 및 귀(Ears)를 얼굴 부분으로 제공할 수 있다.
몸체 추적 맵은 몸체 추적 맵 타입에 대한 불 맵을 제공한다. 불 맵은 사용자가 추적하고자 하는 몸체의 부분을 제공한다. 실시예에 따라서는, 몸체 추적 맵 타입에 대한 불 맵은 머리(Head), 팔(Arms), 손(Hands), 다리(Legs), 발(Feet) 및 중간몸체(MiddleBody)를 몸체 부분으로 제공할 수 있다.
[소스 29]는 XML(eXtensible Markup Language)을 이용하여 환경 소음 센서(Ambient Noise Sensor)에 대한 센서 적응 선호를 나타낸다. 그러나, 하기 [소스 29]의 프로그램 소스(source)는 일실시예일 뿐이고, 본 발명이 이에 제한되는 것은 아니다.
[소스 29]
<!-- ################################################ -->
<!-- Ambient Noise Sensor Preference type -->
<!-- ################################################ -->
<complexType name="AmbientNoiseSensorPrefType">
<complexContent>
<extension base="cid:UserSensorPreferenceBaseType"/>
</complexContent>
</complexType>
환경 소음 센서 타입(Ambient Noise Sensor)은 환경 소음 센서에 대한 센서 적응 선호를 설명하기 위한 도구(tool)이다.
환경 소음 센서 특성 타입은 환경 소음 센서에 대한 센서 적응 선호 기본 속성을 포함할 수 있다.
환경 소음 센서에 대한 센서 적응 선호 기본 속성은 최대값(maxValue), 최소값(minValue) 및 해상력(numOflevels)을 포함할 수 있다.
최대값은 환경 소음 센서가 측정한 환경 소음 정보에 대한 사용자의 선호 최대값이다.
최소값은 환경 소음 센서가 측정한 환경 소음 정보에 대한 사용자의 선호 최소값이다.
해상력은 환경 소음 센서가 측정한 환경 소음 정보에 대한 사용자의 선호 해상력이다.
[소스 30]은 XML(eXtensible Markup Language)을 이용하여 기압 센서(Atmospheric Pressure)에 대한 센서 적응 선호를 나타낸다. 그러나, 하기 [소스 30]의 프로그램 소스(source)는 일실시예일 뿐이고, 본 발명이 이에 제한되는 것은 아니다.
[소스 30]
<!-- ################################################ -->
<!-- Atmospheric Pressure Sensor Preference type -->
<!-- ################################################ -->
<complexType name="AtmosphericPressureSensorPrefType">
<complexContent>
<extension base="cid:UserSensorPreferenceBaseType"/>
</complexContent>
</complexType>
기압 센서 타입(Atmospheric Pressure)은 기압 센서에 대한 센서 적응 선호를 설명하기 위한 도구(tool)이다.
기압 센서 특성 타입은 기압 센서에 대한 센서 적응 선호 기본 속성을 포함할 수 있다.
기압 센서에 대한 센서 적응 선호 기본 속성은 최대값(maxValue), 최소값(minValue) 및 해상력(numOflevels)을 포함할 수 있다.
최대값은 기압 센서가 측정한 기압 정보에 대한 사용자의 선호 최대값이다.
최소값은 기압 센서가 측정한 기압 정보에 대한 사용자의 선호 최소값이다.
해상력은 기압 센서가 측정한 기압 정보에 대한 사용자의 선호 해상력이다.
[소스 31]은 XML(eXtensible Markup Language)을 이용하여 속도 센서(Velocity Sensor)에 대한 센서 적응 선호를 나타낸다. 그러나, 하기 [소스 31]의 프로그램 소스(source)는 일실시예일 뿐이고, 본 발명이 이에 제한되는 것은 아니다.
[소스 31]
<!-- ################################################ -->
<!-- Velocity Sensor Preference type -->
<!-- ################################################ -->
<complexType name="VelocitySensorPrefType">
<complexContent>
<extension base=cid:SensorCapabilityBaseType/>
</complexContent>
</complexType>
속도 센서 타입(Velocity Sensor)은 속도 센서에 대한 센서 적응 선호를 설명하기 위한 도구(tool)이다.
속도 센서 특성 타입은 속도 센서에 대한 센서 적응 선호 기본 속성을 포함할 수 있다.
속도 센서에 대한 센서 적응 선호 기본 속성은 최대값(maxValue), 최소값(minValue) 및 해상력(numOflevels)을 포함할 수 있다.
최대값은 속도 센서가 측정한 속도 정보에 대한 사용자의 선호 최대값이다.
최소값은 속도 센서가 측정한 속도 정보에 대한 사용자의 선호 최소값이다.
해상력은 속도 센서가 측정한 속도 정보에 대한 사용자의 선호 해상력이다.
[소스 32]는 XML(eXtensible Markup Language)을 이용하여 각속도 센서(Angular Velocity Sensor)에 대한 센서 적응 선호를 나타낸다. 그러나, 하기 [소스 32]의 프로그램 소스(source)는 일실시예일 뿐이고, 본 발명이 이에 제한되는 것은 아니다.
[소스 32]
<!-- ################################################ -->
<!-Angular Velocity Sensor Preference type -->
<!-- ################################################ -->
<complexType name="AngularVelocitySensorPrefType">
<complexContent>
<extension base=cid:SensorCapabilityBaseType/>
</complexContent>
</complexType>
각속도 센서 타입(Angular Velocity Sensor)은 각속도 센서에 대한 센서 적응 선호를 설명하기 위한 도구(tool)이다.
각속도 센서 특성 타입은 각속도 센서에 대한 센서 적응 선호 기본 속성을 포함할 수 있다.
각속도 센서에 대한 센서 적응 선호 기본 속성은 최대값(maxValue), 최소값(minValue) 및 해상력(numOflevels)을 포함할 수 있다.
최대값은 각속도 센서가 측정한 각속도 정보에 대한 사용자의 선호 최대값이다.
최소값은 각속도 센서가 측정한 각속도 정보에 대한 사용자의 선호 최소값이다.
해상력은 각속도 센서가 측정한 각속도 정보에 대한 사용자의 선호 해상력이다.
[소스 33]은 XML(eXtensible Markup Language)을 이용하여 각가속도 센서(Angular Acceleration Sensor)에 대한 센서 적응 선호를 나타낸다. 그러나, 하기 [소스 33]의 프로그램 소스(source)는 일실시예일 뿐이고, 본 발명이 이에 제한되는 것은 아니다.
[소스 33]
<!-- ################################################ -->
<!-- Angular Acceleration Sensor Preference type -->
<!-- ################################################ -->
<complexType name="AngularAccelerationSensorPrefType">
<complexContent>
<extension base=cid:SensorCapabilityBaseType/>
</complexContent>
</complexType>
각가속도 센서 타입(Angular Acceleration Sensor)은 각가속도 센서에 대한 센서 적응 선호를 설명하기 위한 도구(tool)이다.
각가속도 센서 특성 타입은 각가속도 센서에 대한 센서 적응 선호 기본 속성을 포함할 수 있다.
각가속도 센서에 대한 센서 적응 선호 기본 속성은 최대값(maxValue), 최소값(minValue) 및 해상력(numOflevels)을 포함할 수 있다.
최대값은 각가속도 센서가 측정한 각가속도 정보에 대한 사용자의 선호 최대값이다.
최소값은 각가속도 센서가 측정한 각가속도 정보에 대한 사용자의 선호 최소값이다.
해상력은 각가속도 센서가 측정한 각가속도 정보에 대한 사용자의 선호 해상력이다.
[소스 34]는 XML(eXtensible Markup Language)을 이용하여 힘 센서(Ambient Noise Sensor)에 대한 센서 적응 선호를 나타낸다. 그러나, 하기 [소스 34]의 프로그램 소스(source)는 일실시예일 뿐이고, 본 발명이 이에 제한되는 것은 아니다.
[소스 34]
<!-- ################################################ -->
<!-- Force Sensor Preference type Preference type -->
<!-- ################################################ -->
<complexType name="ForceSensorPrefType">
<complexContent>
<extension base="cid:SensorCapabilityBaseType">
</extension>
</complexContent>
</complexType>
힘 센서 타입(Ambient Noise Sensor)은 힘 센서에 대한 센서 적응 선호를 설명하기 위한 도구(tool)이다.
힘 센서 특성 타입은 힘 센서에 대한 센서 적응 선호 기본 속성을 포함할 수 있다.
힘 센서에 대한 센서 적응 선호 기본 속성은 최대값(maxValue), 최소값(minValue) 및 해상력(numOflevels)을 포함할 수 있다.
최대값은 힘 센서가 측정한 힘 정보에 대한 사용자의 선호 최대값이다.
최소값은 힘 센서가 측정한 힘 정보에 대한 사용자의 선호 최소값이다.
해상력은 힘 센서가 측정한 힘 정보에 대한 사용자의 선호 해상력이다.
[소스 35]는 XML(eXtensible Markup Language)을 이용하여 토크 센서(Torque Sensor)에 대한 센서 적응 선호를 나타낸다. 그러나, 하기 [소스 35]의 프로그램 소스(source)는 일실시예일 뿐이고, 본 발명이 이에 제한되는 것은 아니다.
[소스 35]
<!-- ################################################ -->
<!-- Torque Sensor Preference type Preference type -->
<!-- ################################################ -->
<complexType name="ForceSensorPrefType">
<complexContent>
<extension base="cid:SensorCapabilityBaseType">
</extension>
</complexContent>
</complexType>
토크 센서 타입(Torque Sensor)은 토크 센서에 대한 센서 적응 선호를 설명하기 위한 도구(tool)이다.
토크 센서 특성 타입은 토크 센서에 대한 센서 적응 선호 기본 속성을 포함할 수 있다.
토크 센서에 대한 센서 적응 선호 기본 속성은 최대값(maxValue), 최소값(minValue) 및 해상력(numOflevels)을 포함할 수 있다.
최대값은 토크 센서가 측정한 토크 정보에 대한 사용자의 선호 최대값이다.
최소값은 토크 센서가 측정한 토크 정보에 대한 사용자의 선호 최소값이다.
해상력은 토크 센서가 측정한 토크 정보에 대한 사용자의 선호 해상력이다.
[소스 36]은 XML(eXtensible Markup Language)을 이용하여 압력 센서(Pressure Sensor)에 대한 센서 적응 선호를 나타낸다. 그러나, 하기 [소스 36]의 프로그램 소스(source)는 일실시예일 뿐이고, 본 발명이 이에 제한되는 것은 아니다.
[소스 36]
<!-- ################################################ -->
<!-- Pressure Sensor Preference type -->
<!-- ################################################ -->
<complexType name="PressureSensorPrefType">
<complexContent>
<extension base="cid:SensorCapabilityBaseType">
</extension>
</complexContent>
</complexType>
압력 센서 타입(Pressure Sensor)은 압력 센서에 대한 센서 적응 선호를 설명하기 위한 도구(tool)이다.
압력 센서 특성 타입은 압력 센서에 대한 센서 적응 선호 기본 속성을 포함할 수 있다.
압력 센서에 대한 센서 적응 선호 기본 속성은 최대값(maxValue), 최소값(minValue) 및 해상력(numOflevels)을 포함할 수 있다.
최대값은 압력 센서가 측정한 압력 정보에 대한 사용자의 선호 최대값이다.
최소값은 압력 센서가 측정한 압력 정보에 대한 사용자의 선호 최소값이다.
해상력은 압력 센서가 측정한 압력 정보에 대한 사용자의 선호 해상력이다.
본 발명의 일실시예에 따른 가상 세계 처리 장치는 감지 정보(sensed information)를 포함할 수 있다.
감지 정보(Sensed Information)는 센서가 현실 세계로부터 수집한 정보이다. 일실시예에 따른 감지 정보는 센서를 제어하는 명령에 대한 정보일 수 있다. 실시예에 따라서는, 감지 정보는 센서를 통해 측정된 현실 세계의 사용자의 동작, 상태, 의도, 형태 등에 관한 정보를 가상 세계에 반영하기 위해, 센서를 제어 하기 위한 명령어일 수 있다.
실시예에 따라서는, 감지 정보는 감지 정보에 대한 메타데이터(metadata)의 루트 구성요소일 수 있다(sensed information serves as the root element for sensed information metadata).
이하 도 13을 참조하여 감지 정보에 대해서 상세히 설명한다.
도 13은 일실시예에 따른 감지 정보 기본 타입을 나타내는 도면이다.
도 13을 참조하면, 일실시예에 따른 감지 정보 기본 타입(1000)은 감지 정보 기본 속성(sensed information base attributes)(1010) 및 예외 속성(any attributes)(1020)을 포함할 수 있다.
감지 정보 기본 타입(1000)은 개별적인 감지 정보를 상속(inherit)할 수 있는 최상의 기본 타입(topmost type of the base type)이다.
감지 정보 기본 속성(1010)은 명령(commands)을 위한 속성의 그룹이다.
예외 속성(1020)은 추가적인 감지 정보의 그룹이다. 예외 속성(1020)은 임의의 센서에 적용될 수 있는 고유한 추가적인 감지 정보일 수 있다. 예외 속성(1020)은 기본 속성 외의 다른 속성을 포함하기 위한 확장성을 제공할 수 있다(any attribute allows for the inclusion of any attributes defined within a namespace other than the target namespace).
[소스 37]은 XML(eXtensible Markup Language)을 이용하여 감지 정보 기본 타입을 나타내는 프로그램을 포함할 수 있다. 그러나 [소스 37]은 일실시예일 뿐이고, 본 발명이 이에 제한되는 것은 아니다.
[소스 37]
<!-- ################################################ -->
<!-- Sensed information base type -->
<!-- ################################################ -->
<complexType name="SensedInfoBaseType" abstract="true">
<attribute name="id" type="ID" use="optional"/>
<attributeGroup ref="cid:SensedInfoBaseAttributes"/>
<anyAttribute namespace="##other" processContents="lax"/>
</complexType>
감지 정보 기본 속성(1010)은 아이디(id)(1011), 센서 아이디 참조(sensorIdRef)(1012), 그룹 아이디(groupID)(1013), 우선권(priority)(1014), 활성 상태(activate)(1015) 및 연결 리스트(linkedlist)(1016)를 포함할 수 있다.
아이디(1011)는 센서가 수집한 감지 정보의 개별적인 정체성을 구분하기 위한 아이디 정보이다.
센서 아이디 참조(1012)는 센서를 참조하는 정보이다. 즉, 센서 아이디 참조(1012)는 특정한 감지 정보에 포함되는 정보를 생성하는 센서의 식별자를 참조하는 정보이다.
그룹 아이디(1013)는 센서가 속하는 멀티 센서 그룹의 개별적인 정체성을 구분하기 위한 정보이다. 즉, 그룹 아이디(1013)는 특정 센서가 속하는 멀티 센서 그룹(multi-sensor structure)의 개별적인 정체성을 구분하기 위한 아이디 정보이다.
우선권(1014)은 감지 정보가 조절(Adapt)된 시간에 같은 점(Point)을 공유하는 다른 감지 정보에 대한 감지 정보의 우선권 정보이다. 실시예에 따라서는, 1이 가장 높은 우선권을 가리키고, 값이 커질수록 우선권이 낮아질 수 있다.
활성 상태(1015)는 센서의 작동 여부를 판별하는 정보이다.
연결 리스트(1016)는 여러 센서를 그룹화하기 위한 연결 고리 정보이다. 실시예에 따라서는, 연결 리스트(1016)는 이웃한 센서의 식별자에 대한 참조 정보를 포함하는 방법으로 센서를 그룹화하는 멀티 센서 그룹에 대한 정보일 수 있다.
실시예에 따라서는, 감지 정보 기본 속성(1010)은 값(value), 타임 스템프(time stamp) 및 유효기간(Life Span)을 더 포함할 수 있다.
값은 센서 측정값이다. 값은 센서로부터 수신된 값일 수 있다.
타임 스템프는 센서가 센싱하는 때의 시간 정보이다.
유효기간은 센서 명령의 유효한 기간에 대한 정보이다. 실시예에 따라서는, 유효기간은 초(second) 단위일 수 있다.
일실시예에 따른 감지 정보 기본 속성에 대해서 하기의 표 5와 같이 정리할 수 있다.
Figure PCTKR2010004091-appb-I000010
이하, 센서의 구체적인 실시예에 대한 감지 정보를 설명한다.
[소스 38]은 XML(eXtensible Markup Language)을 이용하여 위치 센서(position sensor)에 대한 감지 정보를 나타낸다. 그러나, 하기 [소스 38]의 프로그램 소스(source)는 일실시예일 뿐이고, 본 발명이 이에 제한되는 것은 아니다.
[소스 38]
<!--#################################### -->
<!--Definition of Position Sensor type -->
<!--#################################### -->
<complexType name="PositionSensorType">
<complexContent>
<extension base="cid:SensedInfoBaseType">
<sequence>
<element name="position" type="cid:PositionValueType" minOccurs="0"/>
</sequence>
<attribute name="timestamp" type="float" use="optional"/>
<attribute name="lifespan" type="float" use="optional"/>
</extension>
</complexContent>
</complexType>
<complexType name="PositionValueType">
<sequence>
<element name="Px" type="float"/>
<element name="Py" type="float"/>
<element name="Pz" type="float"/>
</sequence>
</complexType>
위치 센서 타입(position sensor type)은 위치 센서에 대한 감지 정보를 설명하기 위한 도구(tool)이다.
위치 센서 타입은 타임 스템프, 유효기간, 위치, 위치값 타입(position value type), Px, Py 및 Pz의 속성을 포함할 수 있다.
타임 스템프는 위치 센서의 감지 시간에 대한 정보이다.
유효기간은 위치 센서의 명령의 유효 기간에 대한 정보이다. 예를 들어, 유효기간은 초단위일 수 있다.
위치는 거리 단위(예를 들어, meter)의 위치 센서의 3차원 값에 대한 정보이다.
위치값 타입은 3차원 위치 벡터를 나타내기 위한 도구(tool)이다.
Px는 위치 센서의 x축 값에 대한 정보이다.
Py는 위치 센서의 y축 값에 대한 정보이다.
Pz는 위치 센서의 z축 값에 대한 정보이다.
[소스 39]는 XML(eXtensible Markup Language)을 이용하여 방위 센서(orientation sensor)에 대한 감지 정보를 나타낸다. 그러나, 하기 [소스 39]의 프로그램 소스(source)는 일실시예일 뿐이고, 본 발명이 이에 제한되는 것은 아니다.
[소스 39]
<!--#################################### -->
<!--Definition of Orientation Sensor type -->
<!--#################################### -->
<complexType name="OrientationSensorType">
<complexContent>
<extension base="cid:SensedInfoBaseType">
<sequence>
<element name="orientation" type="cid:OrientationValueType" minOccurs="0"/>
</sequence>
<attribute name="timestamp" type="float" use="optional"/>
<attribute name="lifespan" type="float" use="optional"/>
</extension>
</complexContent>
</complexType>
<complexType name="OrientationValueType">
<sequence>
<element name="Ox" type="float"/>
<element name="Oy" type="float"/>
<element name="Oz" type="float"/>
</sequence>
</complexType>
방위 센서 타입(orientation sensor type)은 방위 센서에 대한 감지 정보를 설명하기 위한 도구(tool)이다.
방위 센서 타입은 타임 스템프, 유효기간, 방위, 방위값 타입, Ox, Oy 및 Oz의 속성을 포함할 수 있다.
타임 스템프는 방위 센서의 감지 시간에 대한 정보이다.
유효기간은 방위 센서의 명령의 유효 기간에 대한 정보이다. 예를 들어, 유효기간은 초단위일 수 있다.
방위는 방위 단위(예를 들어, radian)의 방위 센서의 값에 대한 정보이다.
방위값 타입은 3차원 방위 벡터를 나타내기 위한 도구(tool)이다.
Ox는 방위 센서의 x축 회전각 값에 대한 정보이다.
Oy는 방위 센서의 y축 회전각 값에 대한 정보이다.
Oz는 방위 센서의 z축 회전각 값에 대한 정보이다.
[소스 40]은 XML(eXtensible Markup Language)을 이용하여 가속도 센서(Acceleration sensor)에 대한 감지 정보를 나타낸다. 그러나, 하기 [소스 40]의 프로그램 소스(source)는 일실시예일 뿐이고, 본 발명이 이에 제한되는 것은 아니다.
[소스 40]
<!--#################################### -->
<!--Definition of Acceleration Sensor type -->
<!--#################################### -->
<complexType name="AccelerationSensorType">
<complexContent>
<extension base="cid:SensedInfoBaseType">
<sequence>
<element name="acceleration" type="cid:AccelerationValueType" minOccurs="0"/>
</sequence>
<attribute name="timestamp" type="float" use="optional"/>
<attribute name="lifespan" type="float" use="optional"/>
</extension>
</complexContent>
</complexType>
<complexType name="AccelerationValueType">
<sequence>
<element name="Ax" type="float"/>
<element name="Ay" type="float"/>
<element name="Az" type="float"/>
</sequence>
</complexType>
가속도 센서 타입(Acceleration sensor type)은 가속도 센서에 대한 감지 정보를 설명하기 위한 도구(tool)이다.
가속도 센서 타입은 타임 스템프, 유효기간, 가속도, 가속도값 타입, Ax, Ay 및 Az의 속성을 포함할 수 있다.
타임 스템프는 가속도 센서의 감지 시간에 대한 정보이다.
유효기간은 가속도 센서의 명령의 유효 기간에 대한 정보이다. 예를 들어, 유효기간은 초단위일 수 있다.
가속도는 가속도 단위(예를 들어, m/s2)의 가속도 센서의 값에 대한 정보이다.
가속도값 타입은 3차원 가속도 벡터를 나타내기 위한 도구(tool)이다.
Ax는 가속도 센서의 x축 값에 대한 정보이다.
Ay는 가속도 센서의 y축 값에 대한 정보이다.
Az는 가속도 센서의 z축 값에 대한 정보이다.
[소스 41]은 XML(eXtensible Markup Language)을 이용하여 광 센서(light sensor)에 대한 감지 정보를 나타낸다. 그러나, 하기 [소스 41]의 프로그램 소스(source)는 일실시예일 뿐이고, 본 발명이 이에 제한되는 것은 아니다.
[소스 41]
<!--#################################### -->
<!--Definition of Light Sensor type -->
<!--#################################### -->
<complexType name="LightSensorType">
<complexContent>
<extension base="cid:SensedInfoBaseType">
<attribute name="timestamp" type="float" use="optional"/>
<attribute name="lifespan" type="float" use="optional"/>
<attribute name="color" type="cid:colorType" use="optional"/>
</extension>
</complexContent>
</complexType>
광 센서 타입(light sensor type)은 광 센서에 대한 감지 정보를 설명하기 위한 도구(tool)이다.
광 센서 타입은 타임 스템프, 유효기간, 값 및 색의 속성을 포함할 수 있다.
타임 스템프는 광 센서의 감지 시간에 대한 정보이다.
유효기간은 광 센서의 명령의 유효 기간에 대한 정보이다. 예를 들어, 유효기간은 초단위일 수 있다.
값은 빛의 세기 단위(예를 들어, LUX)의 광 센서 값에 대한 정보이다.
색은 광 센서가 제공할 수 있는 색이다. 예를 들어, 색은 RGB값일 수 있다.
[소스 42]는 XML(eXtensible Markup Language)을 이용하여 음성 센서(sound sensor)에 대한 감지 정보를 나타낸다. 그러나, 하기 [소스 42]의 프로그램 소스(source)는 일실시예일 뿐이고, 본 발명이 이에 제한되는 것은 아니다.
[소스 42]
<!--######################## -->
<!-- SCmd Sound Sensor type -->
<!--######################## -->
<complexType name="SoundSensorType">
<complexContent>
<extension base="cid: SCmdBaseType"/>
</complexContent>
</complexType>
음성 센서 명령 타입(sound sensor command type)은 음성 센서에 대한 감지 정보를 설명하기 위한 도구(tool)이다.
[소스 43]은 XML(eXtensible Markup Language)을 이용하여 온도 센서(Temperature sensor)에 대한 감지 정보를 나타낸다. 그러나, 하기 [소스 43]의 프로그램 소스(source)는 일실시예일 뿐이고, 본 발명이 이에 제한되는 것은 아니다.
[소스 43]
<!--#################################### -->
<!--Definition of Temperature Sensor type -->
<!--#################################### -->
<complexType name="TemperatureSensorType">
<complexContent>
<extension base="cid:SensedInfoBaseType">
<attribute name="timestamp" type="float" use="optional"/>
<attribute name="lifespan" type="float" use="optional"/>
</extension>
</complexContent>
</complexType>
온도 센서 타입(Temperature sensor type)은 온도 센서에 대한 감지 정보를 설명하기 위한 도구(tool)이다.
온도 센서 타입은 타임 스템프, 유효기간 및 값의 속성을 포함할 수 있다.
타임 스템프는 온도 센서의 감지 시간에 대한 정보이다.
유효기간은 온도 센서의 명령의 유효 기간에 대한 정보이다. 예를 들어, 유효기간은 초단위일 수 있다.
값은 온도 단위(예를 들어, 섭씨(℃) 및 화씨(℉))의 온도 센서 값에 대한 정보이다.
[소스 44]은 XML(eXtensible Markup Language)을 이용하여 습도 센서(Humidity sensor)에 대한 감지 정보를 나타낸다. 그러나, 하기 [소스 44]의 프로그램 소스(source)는 일실시예일 뿐이고, 본 발명이 이에 제한되는 것은 아니다.
[소스 44]
<!--#################################### -->
<!--Definition of Humidity Sensor type -->
<!--#################################### -->
<complexType name="HumiditySensorType">
<complexContent>
<extension base="cid:SensedInfoBaseType">
<attribute name="timestamp" type="float" use="optional"/>
<attribute name="lifespan" type="float" use="optional"/>
</extension>
</complexContent>
</complexType>
습도 센서 타입(Humidity sensor type)은 습도 센서에 대한 감지 정보를 설명하기 위한 도구(tool)이다.
습도 센서 타입은 타임 스템프, 유효기간 및 값의 속성을 포함할 수 있다.
타임 스템프는 습도 센서의 감지 시간에 대한 정보이다.
유효기간은 습도 센서의 명령의 유효 기간에 대한 정보이다. 예를 들어, 유효기간은 초단위일 수 있다.
값은 습도 단위(예를 들어, %)의 습도 센서 값에 대한 정보이다.
[소스 45]는 XML(eXtensible Markup Language)을 이용하여 길이 센서(Length sensor)에 대한 센서 특성을 나타낸다. 그러나, 하기 [소스 45]의 프로그램 소스(source)는 일실시예일 뿐이고, 본 발명이 이에 제한되는 것은 아니다.
[소스 45]
<!--#################################### -->
<!--Definition of Length Sensor type -->
<!--#################################### -->
<complexType name="LengthSensorType">
<complexContent>
<extension base="cid:SensedInfoBaseType">
<attribute name="timestamp" type="float" use="optional"/>
<attribute name="lifespan" type="float" use="optional"/>
</extension>
</complexContent>
</complexType>
길이 센서 타입(Length sensor type)은 길이 센서에 대한 감지 정보를 설명하기 위한 도구(tool)이다.
길이 센서 타입은 타임 스템프, 유효기간 및 값의 속성을 포함할 수 있다.
타임 스템프는 길이 센서의 감지 시간에 대한 정보이다.
유효기간은 길이 센서의 명령의 유효 기간에 대한 정보이다. 예를 들어, 유효기간은 초단위일 수 있다.
값은 거리의 단위(예를 들어, meter)의 길이 센서 값에 대한 정보이다.
[소스 46]는 XML(eXtensible Markup Language)을 이용하여 모션 센서(Motion sensor)에 대한 감지 정보를 나타낸다. 그러나, 하기 [소스 46]의 프로그램 소스(source)는 일실시예일 뿐이고, 본 발명이 이에 제한되는 것은 아니다.
[소스 46]
<!-- ################################################ -->
<!-- Definition of Motion Sensor Type -->
<!-- ################################################ -->
<complexType name="MotionSensorType">
<sequence>
<element name="position" type="cid:PositionSensorType" minOccurs="0"/>
<element name="orientation" type="cid:OrienationSensorType" minOccurs="0"/>
<element name="velocity" type="cid:VelocitySensorType" minOccurs="0"/>
<element name="angularvelocity" type="cid:AngularVelocitySensorType" minOccurs="0"/>
<element name="acceleration" type="cid:AccelerationSensorType" minOccurs="0"/>
<element name="angularacceleration" type="cid:AngularAccelerationSensorType" minOccurs="0"/>
</sequence>
<attribute name="id" type="ID" use="optional"/>
<attribute name="idref" type="IDREF" use="optional"/>
</complexType>
모션 센서 타입(Motion sensor type)은 모션 센서에 대한 감지 정보를 설명하기 위한 도구(tool)이다.
모션 센서 타입은 id, idref, 위치, 속도, 가속도, 방위, 각속도 및 각가속도를 포함할 수 있다.
id는 모션 센서의 개별적인 정체성을 구분하기 위한 아이디 정보이다.
idref는 모션 센서의 개별적인 정체성을 구분하기 위한 id에 대한 부가적인 정보이다.
위치는 위치 단위(예를 들어, meter)의 위치 벡터 값에 대한 정보이다.
속도는 속도 단위(예를 들어, m/s)의 속도 벡터 값에 대한 정보이다.
가속도는 속도 단위(예를 들어, m/s2)의 가속도 벡터 값에 대한 정보이다.
방위는 방위 단위(예를 들어, radian)의 방위 벡터 값에 대한 정보이다.
각속도는 속도 단위(예를 들어, radian /s)의 각속도 벡터 값에 대한 정보이다.
각가속도는 속도 단위(예를 들어, radian /s2)의 속도 벡터 값에 대한 정보이다.
[소스 47]은 XML(eXtensible Markup Language)을 이용하여 지능 카메라 센서(Intelligent Camera sensor)에 대한 감지 정보를 나타낸다. 그러나, 하기 [소스 47]의 프로그램 소스(source)는 일실시예일 뿐이고, 본 발명이 이에 제한되는 것은 아니다.
[소스 47]
<!-- ################################################ -->
<!-- Definition of Intelligent Camera Type -->
<!-- ################################################ -->
<complexType name="IntelligentCameraType">
<complexContent>
<extension base="cid:SensorCommandBaseType">
<sequence>
<element name="FacialAnimationID" type="IDREF" minOccurs="0"/>
<element name="BodyAnimationID" type="IDREF" minOccurs="0"/>
<element name="FaceFeature" type="cid:PositionValue" minOccurs="0" maxOccurs="255"/>
<element name="BodyFeature" type="cid:PositionValue" minOccurs="0" maxOccurs="255"/>
</sequence>
</extension>
<attribute name="timestamp" type="float" use="optional"/>
<attribute name="lifespan" type="float" use="optional"/>
</complexContent>
</complexType>
지능 카메라 센서 타입(intelligent camera sensor type)은 지능 카메라 센서에 대한 감지 정보를 설명하기 위한 도구(tool)이다.
지능 카메라 센서 타입은 얼굴 애니메이션 id(Facial Animation ID), 몸체 애니메이션 id(Body Animation ID), 얼굴 특징점(Face Feature) 및 몸체 특징점(Body Feature)을 포함할 수 있다.
얼굴 애니메이션 id는 얼굴 표정에 대한 애니메이션 클립을 참조하는(referencing) 아이디이다.
몸체 애니메이션 id는 몸체에 대한 애니메이션 클립을 참조하면 아이디이다.
얼굴 특징점은 지능 카메라에 감지된 얼굴 특징점 각각의 3차원 위치에 대한 정보이다.
몸체 특징점은 지능 카메라에 감지된 몸체 특징점 각각의 3차원 위치에 대한 정보이다.
[소스 48]은 XML(eXtensible Markup Language)을 이용하여 환경 소음 센서(Ambient Noise Sensor)에 대한 감지 정보를 나타낸다. 그러나, 하기 [소스 48]의 프로그램 소스(source)는 일실시예일 뿐이고, 본 발명이 이에 제한되는 것은 아니다.
[소스 48]
<!--#################################### -->
<!--Definition of Ambient Noise Sensor type -->
<!--#################################### -->
<complexType name="AmbientNoiseSensorType">
<complexContent>
<extension base="cid:SensedInfoBaseType">
<attribute name="timestamp" type="float" use="optional"/>
<attribute name="lifespan" type="float" use="optional"/>
</extension>
</complexContent>
</complexType>
환경 소음 센서 타입은 환경 소음 센서에 대한 감지 정보를 설명하기 위한 도구(tool)이다.
환경 소음 센서 타입은 타임 스템프, 유효기간 및 값의 속성을 포함할 수 있다.
타임 스템프는 환경 소음 센서의 감지 시간에 대한 정보이다.
유효기간은 환경 소음 센서의 명령의 유효 기간에 대한 정보이다. 예를 들어, 유효기간은 초단위일 수 있다.
값은 소리의 세기 단위(예를 들어, dB)의 환경 소음 센서 값에 대한 정보이다.
[소스 49]은 XML(eXtensible Markup Language)을 이용하여 기압 센서(Atmospheric pressure Sensor)에 대한 감지 정보를 나타낸다. 그러나, 하기 [소스 49]의 프로그램 소스(source)는 일실시예일 뿐이고, 본 발명이 이에 제한되는 것은 아니다.
[소스 49]
<!--#################################### -->
<!--Definition of Atmospheric pressure Sensor type -->
<!--#################################### -->
<complexType name="AtmosphericPressureSensorType">
<complexContent>
<extension base="cid:SensedInfoBaseType">
<attribute name="timestamp" type="float" use="optional"/>
<attribute name="lifespan" type="float" use="optional"/>
</extension>
</complexContent>
</complexType>
기압 센서 타입은 기압 센서에 대한 감지 정보를 설명하기 위한 도구(tool)이다.
기압 센서 타입은 타임 스템프, 유효기간 및 값의 속성을 포함할 수 있다.
타임 스템프는 기압 센서의 감지 시간에 대한 정보이다.
유효기간은 기압 센서의 명령의 유효 기간에 대한 정보이다. 예를 들어, 유효기간은 초단위일 수 있다.
값은 기압 단위(예를 들어, hPa)의 기압 센서 값에 대한 정보이다.
[소스 50]은 XML(eXtensible Markup Language)을 이용하여 속도 센서(Velocity Sensor)에 대한 감지 정보를 나타낸다. 그러나, 하기 [소스 50]의 프로그램 소스(source)는 일실시예일 뿐이고, 본 발명이 이에 제한되는 것은 아니다.
[소스 50]
<!--#################################### -->
<!--Definition of Velocity Sensor type -->
<!--#################################### -->
<complexType name="VelocitySensorType">
<complexContent>
<extension base="cid:SensedInfoBaseType">
<sequence>
<element name="velocity" type="cid:VelocityValueType" minOccurs="0"/>
</sequence>
<attribute name="timestamp" type="float" use="optional"/>
<attribute name="lifespan" type="float" use="optional"/>
</extension>
</complexContent>
</complexType>
<complexType name="VelocityValueType">
<sequence>
<element name="Vx" type="float"/>
<element name="Vy" type="float"/>
<element name="Vz" type="float" minOccurs="0"/>
</sequence>
</complexType>
속도 센서 타입(Velocity Sensor type)은 속도 센서에 대한 감지 정보를 설명하기 위한 도구(tool)이다.
속도 센서 타입은 타임 스템프, 유효기간, 속도, 속도값 타입, Vx, Vy 및 Vz의 속성을 포함할 수 있다.
타임 스템프는 속도 센서의 감지 시간에 대한 정보이다.
유효기간은 속도 센서의 명령의 유효 기간에 대한 정보이다. 예를 들어, 유효기간은 초단위일 수 있다.
속도는 속도 단위(예를 들어, m/s)의 속도 센서의 값에 대한 정보이다.
속도값 타입은 3차원 속도 벡터를 나타내기 위한 도구(tool)이다.
Vx는 속도 센서의 x축 값에 대한 정보이다.
Vy는 속도 센서의 y축 값에 대한 정보이다.
Vz는 속도 센서의 z축 값에 대한 정보이다.
[소스 51]은 XML(eXtensible Markup Language)을 이용하여 각속도 센서(Angular Velocity Sensor)에 대한 감지 정보를 나타낸다. 그러나, 하기 [소스 51]의 프로그램 소스(source)는 일실시예일 뿐이고, 본 발명이 이에 제한되는 것은 아니다.
[소스 51]
<!--#################################### -->
<!--Definition of Angular Velocity Sensor type -->
<!--#################################### -->
<complexType name="AngularVelocitySensorType">
<complexContent>
<extension base="cid:SensedInfoBaseType">
<sequence>
<element name="angularvelocity" type="cid:AngularVelocityValueType" minOccurs="0"/>
</sequence>
<attribute name="timestamp" type="float" use="optional"/>
<attribute name="lifespan" type="float" use="optional"/>
</extension>
</complexContent>
</complexType>
<complexType name="AngularVelocityValueType">
<sequence>
<element name="AVx" type="float"/>
<element name="AVy" type="float"/>
<element name="AVz" type="float"/>
</sequence>
</complexType>
각속도 센서 타입(Angular Velocity Sensor type)은 각속도 센서에 대한 감지 정보를 설명하기 위한 도구(tool)이다.
각속도 센서 타입은 타임 스템프, 유효기간, 각속도, 각속도값 타입, AVx, AVy 및 AVz의 속성을 포함할 수 있다.
타임 스템프는 각속도 센서의 감지 시간에 대한 정보이다.
유효기간은 각속도 센서의 명령의 유효 기간에 대한 정보이다. 예를 들어, 유효기간은 초단위일 수 있다.
각속도는 각속도 단위(예를 들어, radian/s)의 각속도 센서의 값에 대한 정보이다.
각속도값 타입은 3차원 각속도를 나타내기 위한 도구(tool)이다.
AVx는 각속도 센서의 x축 회전 각속도 값에 대한 정보이다.
AVy는 각속도 센서의 y축 회전 각속도 값에 대한 정보이다.
AVz는 각속도 센서의 z축 회전 각속도 값에 대한 정보이다.
[소스 52]는 XML(eXtensible Markup Language)을 이용하여 각가속도 센서(Angular Acceleration Sensor)에 대한 감지 정보를 나타낸다. 그러나, 하기 [소스 52]의 프로그램 소스(source)는 일실시예일 뿐이고, 본 발명이 이에 제한되는 것은 아니다.
[소스 52]
<!--#################################### -->
<!--Definition of Angular Acceleration Sensor type -->
<!--#################################### -->
<complexType name="AngularAccelerationSensorType">
<complexContent>
<extension base="cid:SensedInfoBaseType">
<sequence>
<element name="angularacceleration" type="cid:AngularAccelerationValueType" minOccurs="0"/>
</sequence>
<attribute name="timestamp" type="float" use="optional"/>
<attribute name="lifespan" type="float" use="optional"/>
</extension>
</complexContent>
</complexType>
<complexType name="AngularAccelerationValueType">
<sequence>
<element name="AAx" type="float"/>
<element name="AAy" type="float"/>
<element name="AAz" type="float"/>
</sequence>
</complexType>
각가속도 센서 타입(Angular Acceleration Sensor type)은 각가속도 센서에 대한 감지 정보를 설명하기 위한 도구(tool)이다.
각가속도 센서 타입은 타임 스템프, 유효기간, 각가속도, 각가속도값 타입, AAx, AAy 및 AAz의 속성을 포함할 수 있다.
타임 스템프는 각가속도 센서의 감지 시간에 대한 정보이다.
유효기간은 각가속도 센서의 명령의 유효 기간에 대한 정보이다. 예를 들어, 유효기간은 초단위일 수 있다.
각가속도는 각가속도 단위(예를 들어, radian/s2)의 각가속도 센서의 값에 대한 정보이다.
각가속도값 타입은 3차원 각가속도 벡터를 나타내기 위한 도구(tool)이다.
AAx는 각가속도 센서의 x축 각가속도 값에 대한 정보이다.
AAy는 각가속도 센서의 y축 각가속도 값에 대한 정보이다.
AAz는 각가속도 센서의 z축 각가속도 값에 대한 정보이다.
[소스 53]은 XML(eXtensible Markup Language)을 이용하여 힘 센서(Force Sensor)에 대한 감지 정보를 나타낸다. 그러나, 하기 [소스 53]의 프로그램 소스(source)는 일실시예일 뿐이고, 본 발명이 이에 제한되는 것은 아니다.
[소스 53]
<!--#################################### -->
<!--Definition of Force Sensor type -->
<!--#################################### -->
<complexType name="ForceSensorType">
<complexContent>
<extension base="cid:SensedInfoBaseType">
<sequence>
<element name="force" type="cid:ForceValueType" minOccurs="0"/>
</sequence>
<attribute name="timestamp" type="float" use="optional"/>
<attribute name="lifespan" type="float" use="optional"/>
</extension>
</complexContent>
</complexType>
<complexType name=" ForceValueType">
<sequence>
<element name="FSx" type="float"/>
<element name="FSy" type="float"/>
<element name="FSz" type="float"/>
</sequence>
</complexType>
힘 센서 타입(Force Sensor type)은 힘 센서에 대한 감지 정보를 설명하기 위한 도구(tool)이다.
힘 센서 타입은 타임 스템프, 유효기간, 힘, 힘값 타입, FSx, FSy 및 FSz의 속성을 포함할 수 있다.
타임 스템프는 힘 센서의 감지 시간에 대한 정보이다.
유효기간은 힘 센서의 명령의 유효 기간에 대한 정보이다. 예를 들어, 유효기간은 초단위일 수 있다.
힘은 힘 단위(예를 들어, N)의 힘 센서의 값에 대한 정보이다.
힘값 타입은 3차원 힘 벡터를 나타내기 위한 도구(tool)이다.
FSx는 힘 센서의 x축 힘 값에 대한 정보이다.
FSy는 힘 센서의 y축 힘 값에 대한 정보이다.
FSz는 힘 센서의 z축 힘 값에 대한 정보이다.
[소스 54]는 XML(eXtensible Markup Language)을 이용하여 토크 센서(Torque Sensor)에 대한 감지 정보를 나타낸다. 그러나, 하기 [소스 54]의 프로그램 소스(source)는 일실시예일 뿐이고, 본 발명이 이에 제한되는 것은 아니다.
[소스 54]
<!--#################################### -->
<!--Definition of Torque Sensor type -->
<!--#################################### -->
<complexType name="TorqueSensorType">
<complexContent>
<extension base="cid:SensedInfoBaseType">
<sequence>
<element name="torque" type="cid:TorqueValueType" minOccurs="0"/>
</sequence>
<attribute name="timestamp" type="float" use="optional"/>
<attribute name="lifespan" type="float" use="optional"/>
</extension>
</complexContent>
</complexType>
<complexType name="TorqueValueType">
<sequence>
<element name="TSx" type="float"/>
<element name="TSy" type="float"/>
<element name="TSz" type="float"/>
</sequence>
</complexType>
토크 센서 타입(Torque Sensor type)은 토크 센서에 대한 감지 정보를 설명하기 위한 도구(tool)이다.
토크 센서 타입은 타임 스템프, 유효기간, 토크, 토크값 타입, TSx, TSy 및 TSz의 속성을 포함할 수 있다.
타임 스템프는 토크 센서의 감지 시간에 대한 정보이다.
유효기간은 토크 센서의 명령의 유효 기간에 대한 정보이다. 예를 들어, 유효기간은 초단위일 수 있다.
토크는 토크 단위(예를 들어, N-mm)의 토크 센서의 값에 대한 정보이다.
토크값 타입은 3차원 토크 벡터를 나타내기 위한 도구(tool)이다.
TSx는 토크 센서의 x축 토크 값에 대한 정보이다.
TSy는 토크 센서의 y축 토크 값에 대한 정보이다.
TSz는 토크 센서의 z축 토크 값에 대한 정보이다.
[소스 55]는 XML(eXtensible Markup Language)을 이용하여 압력 센서(Pressure Sensor)에 대한 감지 정보를 나타낸다. 그러나, 하기 [소스 55]의 프로그램 소스(source)는 일실시예일 뿐이고, 본 발명이 이에 제한되는 것은 아니다.
[소스 55]
<!--#################################### -->
<!--Definition of Pressure Sensor type -->
<!--#################################### -->
<complexType name="PressureSensorType">
<complexContent>
<extension base="cid:SensedInfoBaseType">
<attribute name="timestamp" type="float" use="optional"/>
<attribute name="lifespan" type="float" use="optional"/>
</extension>
</complexContent>
</complexType>
압력 센서 타입(Pressure Sensor type)은 압력 센서에 대한 감지 정보를 설명하기 위한 도구(tool)이다.
압력 센서 타입은 타임 스템프, 유효기간 및 값의 속성을 포함할 수 있다.
타임 스템프는 압력 센서의 감지 시간에 대한 정보이다.
유효기간은 압력 센서의 명령의 유효 기간에 대한 정보이다. 예를 들어, 유효기간은 초단위일 수 있다.
값은 압력 단위(예를 들어, N/mm2)의 압력 센서 값에 대한 정보이다.
도 14은 일실시예에 따른 가상 세계 처리 방법의 흐름도를 나타내는 도면이다.
도 14을 참조하면, 일실시예에 따른 가상 세계 처리 방법은 센서의 특성에 관한 센서 특성을 저장할 수 있다(S1110).
또한, 센서 특성에 기초하여 센서로부터 수신된 제1 값에 대해 판단하고, 제1 값에 대응하는 제2 값을 가상 세계로 전달할 수 있다(S1120).
실시예에 따라서는, 센서 특성은 센서가 측정할 수 있는 최대값 및 최소값을 포함할 수 있다. 가상 세계 처리 방법은 제1 값이 최대값보다 작거나 같고 최소값보다 크거나 같은 경우, 제1 값에 대응하는 제2 값을 가상 세계로 전달할 수 있다.
실시예에 따라서는, 센서 특성은 센서가 측정하는 제1 값의 단위를 포함할 수 있다. 또한, 센서 특성은 절대값을 얻기 위하여 센서가 측정하는 제1 값에 더해지는 오프셋 값을 포함할 수 있다. 또한, 센서 특성은 센서가 측정할 수 있는 값의 개수를 포함할 수 있다. 또한, 센서 특성은 센서가 출력 값을 측정하기 위하여 요구되는 최소 입력 값을 포함할 수 있다. 또한, 센서 특성은 센서의 SNR을 포함할 수 있다. 또한, 센서 특성은 센서의 오차를 포함할 수 있다. 또한, 센서 특성은 센서의 위치를 포함할 수 있다.
일실시예에 따른 가상 세계 처리 방법은, 센서로부터 수신된 제1 값을 조작하기 위한 센서 적응 선호를 저장하는 단계를 더 포함할 수 있고(미도시), 상기 전달하는 단계는 센서 특성에 기초하여 제1 값으로부터 제3 값을 생성하고, 센서 적응 선호에 기초하여 제3 값으로부터 제2 값을 생성할 수 있다.
실시예에 따라서는, 센서 적응 선호는 센서 적응 선호를 제1 값에 적용하는 방법에 관한 정보를 포함할 수 있다. 또한, 센서 적응 선호는 가상 세계에서 센서를 활성화할지 여부에 관한 정보를 포함 할 수 있다. 또한, 센서 적응 선호는 가상 세계에서 사용되는 제2 값의 단위를 포함 할 수 있다. 또한, 센서 적응 선호는 가상 세계에서 사용되는 제2 값의 최대값 및 최소값을 포함 할 수 있다. 또한, 센서 적응 선호는 가상 세계에서 사용되는 제2 값의 개수를 포함 할 수 있다.
도 15는 또 다른 일실시예에 따른 가상 세계 처리 방법의 흐름도를 나타내는 도면이다.
도 15를 참조하면 일실시예에 따른 가상 세계 처리 방법은 센서로부터 현실 세계의 정보를 입력 받기 위해 초기 세팅(initial setting)을 할 수 있다(S1210). 실시예에 따라서는, 초기 세팅을 하는 단계(S1210)는 센서를 활성화 시키는 동작일 수 있다.
또한, 센서의 특성에 관한 정보인 센서 특성 및 센서로부터 수신된 값을 조작하기 위한 정보인 센서 적응 선호를 저장할 수 있다(S1220).
또한, 센서를 통해 현실 세계의 사용자의 동작, 상태, 의도, 형태 등에 관한 정보를 측정할 수 있다(S1230). 센서가 현실 세계의 사용자의 동작, 상태, 의도, 형태 등에 관한 정보를 측정하지 못하는 경우, 정보를 측정할 때까지 단계(S1230)을 반복 수행할 수 있다.
또한, 센서를 통해 현실 세계의 사용자의 동작, 상태, 의도, 형태 등에 관한 정보를 측정한 경우, 상기 정보에 대한 전처리 과정(preprocessing)을 적용할 수 있다(S1240).
또한, 센서를 제어하는 명령인 감지 정보를 이용하여 센서를 제어할 수 있다(S1250).
또한, 적응 RV는 센서 특성에 기초하여 센서로부터 수신된 제1 값에 대해 판단하고, 제1 값에 대응하는 제2 값을 가상 세계로 전달할 수 있다(S1260). 실시예에 따라서는, 센서 특성에 기초하여 제1 값으로부터 제3 값을 생성하고, 센서 적응 선호에 기초하여 제3 값으로부터 제2 값을 생성하고, 상기 제2 값을 가상 세계로 전달할 수 있다.
이하 본 발명의 또 다른 일실시예에 따른 가상 세계 처리 방법을 설명한다.
본 발명의 일실시예에 따른 가상 세계 처리 방법은 지능 카메라 센서를 이용하여 현실 세계의 사용자의 형태와 연관된 정보를 수집할 수 있다.
일실시예에 따른 사용자의 형태와 연관된 정보는 현실 세계의 사용자의 얼굴, 표정, 몸체의 동작 및 몸체의 형태 중 적어도 어느 하나에 대한 정보를 포함할 수 있다.
본 발명의 일측에 따르면, 지능 카메라 센서는 현실 세계의 사용자의 형태와 연관된 정보를 센싱(Sensing)하고, 센싱된 정보를 가상 세계 처리 장치로 전송할 수 있다. 이 때, 가상 세계 처리 방법은 위치 센서가 센싱한 사용자의 형태와 연관된 정보를 수집할 수 있다.
가상 세계 처리 방법은 지능 카메라 센서의 특성에 관한 센서 특성에 기초하여, 수집된 정보의 가상 세계에 대한 적응 작업을 수행할 수 있다.
지능 카메라 센서에 대한 센서 특성은 특징점 추적 상태(feature tracking status), 표정 추적 상태(expression tracking status), 몸체 동작 추적 상태(body movement tracking status), 최대 몸체 특징 포인트(max Body Feature Point), 최대 얼굴 특징 포인트(max Face Feature Point), 특징점 추적(Tracked Feature), 얼굴 특징 추적점(tracked facial feature points), 몸체 특징 추적점(tracked body feature points), 특징점 타입(feature type), 얼굴 특징점 마스크(facial feature mask) 및 몸체 특징점 마스크(body feature mask) 중 적어도 하나를 포함할 수 있다.
본 발명의 일측에 따르면, 가상 세계 처리 방법은 수집된 정보를 조작하기 위한 센서 적응 선호를 저장하는 단계를 더 포함할 수 있다.
이 때, 가상 세계 처리 방법은 센서 특성 및 센서 적응 선호에 기초하여 수집된 정보의 가상 세계에 대한 적응 작업을 수행할 수 있다. 센서 적응 선호에 대해서는 도 10 내지 도 12를 참조하여 뒤에서 상세히 설명한다.
일실시예에 따른 센서 적응 선호는 상기 지능 카메라 센서에 대한 얼굴 특징점 추적 온(FaceFeatureTrackingOn), 몸체 특징점 추적 온(BodyFeatureTrackingOn), 얼굴 표정 추적 온(FacialExpressionTrackingOn), 제스처 추적 온(GestureTrackingOn), 얼굴 추적 맵(FaceTrackingMap) 및 몸체 추적 맵(BodyTrackingMap) 중 적어도 하나를 포함할 수 있다.
도 16은 일실시예에 따른 가상 세계 처리 장치를 이용하는 동작을 나타내는 도면이다.
도 16을 참조하면, 일실시예에 따른 센서(1301)를 이용하여 현실 세계의 사용자(1310)는 자신의 의도를 입력할 수 있다. 실시예에 따라서는, 센서(1301)는 현실 세계의 사용자(1310)의 동작을 측정하는 모션 센서(motion sensor) 및 사용자(1310)의 팔과 다리 끝에 착용되어 팔과 다리 끝이 가리키는 방향 및 위치를 측정하는 리모트 포인터(remote pointer)를 포함할 수 있다.
센서(1301)를 통해서 입력된 현실 세계의 사용자(1310)의 팔을 벌리는 동작, 제자리에 서 있는 상태, 손과 발의 위치 및 손이 벌이진 각도 등에 관한 제어 정보(control information, CI)(1302)를 포함한 센서 신호는 가상 세계 처리 장치로 전송될 수 있다.
실시예에 따라서는, 제어 정보(1302)는 센서 특성, 센서 적응 선호 및 감지 정보를 포함할 수 있다.
실시예에 따라서는, 제어 정보(1302)는 사용자(1310)의 팔과 다리에 대한 위치 정보를 x, y, z축의 값인 Xreal, Yreal, Zreal값과 x, y, z축과의 각도의 값인 ΘXreal, ΘYreal, ΘZreal값으로 나타내어 포함할 수 있다.
일실시예에 따른 가상 세계 처리 장치는 RV엔진(1320)을 포함할 수 있다. RV엔진(1320)은 센서 신호에 포함되어 있는 제어 정보(1302)를 이용하여 현실 세계의 정보를 가상 세계에 적용될 수 있는 정보로 변환할 수 있다.
실시예에 따라서는, RV엔진(1320)은 제어 정보(1302)를 이용하여 VWI(virtual world information, 가상 세계 정보)(1303)를 변환할 수 있다.
VWI(1303)는 가상 세계에 관한 정보이다. 예를 들어, VWI(1303)는 가상 세계의 객체 또는 상기 객체를 구성하는 요소에 관한 정보를 포함할 수 있다.
실시예에 따라서는, VWI(1303)는 가상 세계 객체 정보(virtual world object information)(1304) 및 아바타 정보(avatar information)(1305)를 포함할 수 있다.
가상 세계 객체 정보(1304)는 가상 세계의 객체에 대한 정보이다. 실시예에 따라서는, 가상 세계 객체 정보(1304)는 가상 세계의 객체의 정체성을 구분하기 위한 아이디 정보인 객체ID(object ID) 및 가상 세계의 객체의 상태, 크기 등을 제어하기 위한 정보인 객체 제어/스케일(object control/scale)을 포함할 수 있다.
실시예에 따라서는, 가상 세계 처리 장치는 가상 세계 객체 정보(1304) 및 아바타 정보(1305)를 제어 명령에 의해서 제어할 수 있다. 제어 명령은 생성, 소멸, 복사 등의 명령을 포함할 수 있다. 가상 세계 처리 장치는 제어 명령과 함께 가상 세계 객체 정보(1304) 또는 아바타 정보(1305) 중 어떤 정보를 조작할지 선택하고, 선택한 정보에 대한 ID를 지정하므로써 명령어를 생성할 수 있다.
[소스 56]은 XML(eXtensible Markup Language)을 이용하여 제어 명령의 구성 방법을 나타낸다. 그러나, 하기 [소스 56]의 프로그램 소스(source)는 일실시예일 뿐이고, 본 발명이 이에 제한되는 것은 아니다.
[소스 56]
<!-- ################################################ -->
<!-- Definition of Control command for Avatar and virtual object -->
<!-- ################################################ -->
<complexType name="ControlCommand">
<SimpleContent>
<attribute name="command" type="cid:commandType" use="required"/>
<attribute name="Object" type="cid:ObjectType" use="required"/>
<attribute name="ObjectID" type="ID" use="optional"/>
</SimpleContent>
</complexType>
<simpleType name="commandType">
<restriction base="string">
<enumeration value="Create"/>
<enumeration value="Remove"/>
<enumeration value="Copy"/>
</restriction>
</simpleType>
<simpleType name="ObjectType">
<restriction base="string">
<enumeration value="Avatar"/>
<enumeration value="VirtualObject"/>
</restriction>
</simpleType>
RV엔진(1320)은 제어 정보(1302)를 이용하여 VWI(1303)에 팔을 벌리는 동작, 제자리에 서 있는 상태, 손과 발의 위치 및 손이 벌이진 각도 등에 대한 정보를 적용하여 VWI(1303)를 변환할 수 있다.
RV엔진(1320)은 변환된 VWI에 대한 정보(1306)을 가상 세계로 전달할 수 있다. 실시예에 따라서는, 변환된 VWI에 대한 정보(1306)는 가상 세계의 아바타의 팔과 다리에 대한 위치 정보를 x, y, z축의 값인 Xvirtual, Yvirtual, Zvirtual값과 x, y, z축과의 각도의 값인 ΘXvirtual, ΘYvirtual, ΘZvirtual값으로 나타내어 포함할 수 있다. 또한, 가상 세계의 객체의 크기에 대한 정보를 객체의 가로(width), 세로(height), 깊이(depth)의 값인 scale(w,d,h) virtual값으로 나타내어 포함할 수 있다.
실시예에 따라서는, 변환된 VWI에 대한 정보(1306)를 전달 받기 전의 가상 세계(1330)에서 아바타는 객체를 들고 있는 상태이며, 변환된 VWI에 대한 정보(1306)를 전달 받은 후의 가상 세계(1340)에서는 현실 세계의 사용자(1310)의 팔을 벌리는 동작, 제자리에 서 있는 상태, 손과 발의 위치 및 손이 벌이진 각도 등이 반영되어 가상 세계의 아바타가 팔을 벌려 객체를 크게(scaling up) 할 수 있다.
즉, 현실 세계의 사용자(1310)가 객체를 잡고 확대시키는 모션을 취하면, 센서(1301)를 통해서 현실 세계의 사용자(1310)의 팔을 벌리는 동작, 제자리에 서 있는 상태, 손과 발의 위치 및 손이 벌이진 각도 등에 관한 제어 정보(1302)가 생성이 될 수 있다. 또한, RV엔진(1320)은 현실 세계에서 측정된 데이터인 현실 세계의 사용자(1310)에 관한 제어 정보(1302)를 가상 세계에 적용될 수 있는 정보로 변환할 수 있다. 변환된 정보는 가상 세계의 아바타 및 객체에 관한 정보의 구조에 적용되어, 아바타에는 객체를 잡고 벌리는 동작이 반영되고, 객체는 크기가 확대될 수 있다.
본 발명에 따른 실시예들은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(Floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 본 발명의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.
이상과 같이 본 발명은 비록 한정된 실시예와 도면에 의해 설명되었으나, 본 발명은 상기의 실시예에 한정되는 것은 아니며, 본 발명이 속하는 분야에서 통상의 지식을 가진 자라면 이러한 기재로부터 다양한 수정 및 변형이 가능하다.
그러므로, 본 발명의 범위는 설명된 실시예에 국한되어 정해져서는 아니 되며, 후술하는 특허청구범위뿐 아니라 이 특허청구범위와 균등한 것들에 의해 정해져야 한다.

Claims (60)

  1. 가상 세계와 현실 세계의 상호동작(interoperability) 또는 가상 세계 간의 상호동작을 가능하게 하는 가상 세계 처리 장치에 있어서,
    센서가 상기 현실 세계에서 수집한 감지 정보(Sensed Information)를 입력 받는 입력부; 및
    상기 센서의 특성에 관한 센서 특성(Sensor Capability)에 기반하여 상기 감지 정보를 조절(adapt)하는 조절부
    를 포함하는 가상 세계 처리 장치.
  2. 제1항에 있어서,
    가상 세계(Virtual World)를 제어하기 위해 상기 감지 정보를 출력하는 출력부
    를 더 포함하는 가상 세계 처리 장치.
  3. 제1항에 있어서,
    가상 세계 객체 정보(Virtual World Object Information)를 제어하기 위해 상기 감지 정보를 출력하는 출력부
    를 더 포함하는 가상 세계 처리 장치.
  4. 제1항에 있어서, 상기 센서 특성은,
    상기 센서가 측정하는 값의 단위;
    상기 센서가 측정하는 최대값 및 최소값;
    절대값을 얻기 위하여 기본값(Base Value)에 더해지는 값을 나타내는 오프셋;
    상기 센서가 측정하는 상기 최대값 및 상기 최소값 사이에서 상기 센서가 측정할 수 있는 값의 개수를 나타내는 해상력;
    출력 신호를 생성하기 위한 입력 신호의 최소 크기를 나타내는 감도;
    신호 대 잡음비(SNR, Signal to Noise Ratio); 및
    실제값(Actual Value)에 대한 측정값(Measured Quantity)의 가까운 정도(Degree of Closeness)를 나타내는 정확성(Accuracy)
    중 적어도 하나를 포함하는 가상 세계 처리 장치.
  5. 제1항에 있어서, 상기 감지 정보는,
    상기 감지 정보의 개별적인 정체성을 구분하기 위한 아이디(ID) 정보;
    상기 센서가 속하는 멀티 센서 그룹의 개별적인 정체성을 구분하기 위한 그룹 아이디(Group ID) 정보;
    상기 센서를 참조하는 센서 아이디 참조(sensorIdRef) 정보;
    상기 센서를 그룹화 하기 위한 연결 고리 데이터 구조 요소를 나타내는 연결리스트(LinkedList) 정보;
    상기 센서의 작동 여부를 판별하는 활성 상태(Activate) 정보; 및
    상기 감지 정보가 조절(Adapt)된 시간에 같은 점(Point)을 공유하는 다른 감지 정보에 대한 우선권(Priority) 정보
    중 적어도 하나를 포함하는 가상 세계 처리 장치.
  6. 제1항에 있어서,
    상기 입력부는 상기 감지 정보를 조작하기 위한 센서 적응 선호(Sensor Adaptation Preference)를 더 입력 받는 가상 세계 처리 장치.
  7. 제1항 또는 제4항에 있어서,
    상기 센서가 위치 센서인 경우,
    상기 센서 특성은 상기 위치 센서에 대한 범위(range), 범위타입(range type), x최대값(xmaxValue), x최소값(xminValue), y최대값(ymaxValue), y최소값(yminValue), z최대값(zmaxValue) 및 z최소값(zminValue) 중 적어도 하나를 포함하는 가상 세계 처리 장치.
  8. 제1항 또는 제4항에 있어서,
    상기 센서가 방위 센서인 경우,
    상기 센서 특성은 상기 방위 센서에 대한 방위범위(orientation range), 방위범위 타입(orientation range type), x최대값(xmaxValue), x최소값(xminValue), y최대값(ymaxValue), y최소값(yminValue), z최대값(zmaxValue) 및 z최소값(zminValue) 중 적어도 하나를 포함하는 가상 세계 처리 장치.
  9. 제1항 또는 제4항에 있어서,
    상기 센서가 속도 센서인 경우,
    상기 센서 특성은 상기 속도 센서에 대한 최대값(maxValue) 및 최소값(minValue) 중 적어도 하나를 포함하는 가상 세계 처리 장치.
  10. 제1항 또는 제4항에 있어서,
    상기 센서가 가속도 센서인 경우,
    상기 센서 특성은 상기 가속도 센서에 대한 최대값(maxValue) 및 최소값(minValue) 중 적어도 하나를 포함하는 가상 세계 처리 장치.
  11. 제1항 또는 제4항에 있어서,
    상기 센서가 각속도 센서인 경우,
    상기 센서 특성은 상기 각속도 센서에 대한 최대값(maxValue) 및 최소값(minValue) 중 적어도 하나를 포함하는 가상 세계 처리 장치.
  12. 제1항 또는 제4항에 있어서,
    상기 센서가 각가속도 센서인 경우,
    상기 센서 특성은 상기 각가속도 센서에 대한 최대값(maxValue) 및 최소값(minValue) 중 적어도 하나를 포함하는 가상 세계 처리 장치.
  13. 제1항 또는 제4항에 있어서,
    상기 센서가 모션 센서인 경우,
    상기 센서 특성은 상기 모션 센서에 대한 위치 특성(position capability), 속도 특성(velocity capability), 가속도 특성(acceleration capability), 방위 특성(orientation capability), 각속도 특성(angular velocity capability) 및 각가속도 특성(angular acceleration capability) 중 적어도 하나를 포함하는 가상 세계 처리 장치.
  14. 제1항 또는 제5항에 있어서,
    상기 센서가 위치 센서인 경우,
    상기 감지 정보는 타임스탬프(Timestamp), 위치(Position), 단위(Unit), 3D위치벡터(3D Position Vector), x축위치(Position of X-axis), y축위치(Position of Y-axis) 및 z축위치(Position of Z-axis) 중 적어도 하나를 포함하는 가상 세계 처리 장치.
  15. 제1항 또는 제5항에 있어서,
    상기 센서가 속도 센서인 경우,
    상기 감지 정보는 타임스탬프(Timestamp), 속도(Velocity), 단위(Unit), 3D속도벡터(3D Velocity Vector), x축속도(Velocity of X-axis), y축속도(Velocity of Y-axis) 및 z축속도(Velocity of Z-axis) 중 적어도 하나를 포함하는 가상 세계 처리 장치.
  16. 제1항 또는 제5항에 있어서,
    상기 센서가 가속도 센서인 경우,
    상기 감지 정보는 타임스탬프(Timestamp), 가속도(Acceleration), 단위(Unit), 3D가속도벡터(3D Acceleration Vector), x축가속도(Acceleration of X-axis), y축가속도(Acceleration of Y-axis) 및 z축가속도(Acceleration of Z-axis) 중 적어도 하나를 포함하는 가상 세계 처리 장치.
  17. 제1항 또는 제5항에 있어서,
    상기 센서가 방위 센서인 경우,
    상기 감지 정보는 타임스탬프(Timestamp), 방위(Orientation), 단위(Unit), 3D방위벡터(3D Orientation Vector), x축방위(Orientation of X-axis), y축방위(Orientation of Y-axis) 및 z축방위(Orientation of Z-axis) 중 적어도 하나를 포함하는 가상 세계 처리 장치.
  18. 제1항 또는 제5항에 있어서,
    상기 센서가 각속도 센서인 경우,
    상기 감지 정보는 타임스탬프(Timestamp), 각속도(AngularVelocity), 단위(Unit), 3D각속도벡터(3D AngularVelocity Vector), x축각속도(AngularVelocity of X-axis), y축각속도(AngularVelocity of Y-axis) 및 z축각속도(AngularVelocity of Z-axis) 중 적어도 하나를 포함하는 가상 세계 처리 장치.
  19. 제1항 또는 제5항에 있어서,
    상기 센서가 각가속도 센서인 경우,
    상기 감지 정보는 타임스탬프(Timestamp), 각가속도(AngularAcceleration), 단위(Unit), 3D각가속도벡터(3D AngularAcceleration Vector), x축각가속도(AngularAcceleration of X-axis), y축각가속도(AngularAcceleration of Y-axis) 및 z축각가속도(AngularAcceleration of Z-axis) 중 적어도 하나를 포함하는 가상 세계 처리 장치.
  20. 제1항 또는 제5항에 있어서,
    상기 센서가 모션 센서인 경우,
    상기 감지 정보는 위치(Position), 속도 특성(velocity), 가속도(acceleration), 방위(orientation), 각속도(angularvelocity) 및 각가속도(angularacceleration) 중 적어도 하나를 포함하는 가상 세계 처리 장치.
  21. 제6항에 있어서,
    상기 센서가 위치 센서인 경우,
    상기 센서 적응 선호는 상기 위치 센서에 대한 범위(range) 및 해상력(numOflevels) 중 적어도 하나를 포함하는 가상 세계 처리 장치.
  22. 제6항에 있어서,
    상기 센서가 방위 센서인 경우,
    상기 센서 적응 선호는 상기 방위 센서에 대한 방위범위(orientation range) 및 해상력(numOflevels) 중 적어도 하나를 포함하는 가상 세계 처리 장치.
  23. 제6항에 있어서,
    상기 센서가 속도 센서인 경우,
    상기 센서 적응 선호는 상기 속도 센서에 대한 최대값(maxValue), 최소값(minValue) 및 해상력(numOflevels) 중 적어도 하나를 포함하는 가상 세계 처리 장치.
  24. 제6항에 있어서,
    상기 센서가 가속도 센서인 경우,
    상기 센서 적응 선호는 상기 가속도 센서에 대한 최대값(maxValue), 최소값(minValue) 및 해상력(numOflevels) 중 적어도 하나를 포함하는 가상 세계 처리 장치.
  25. 제6항에 있어서,
    상기 센서가 각속도 센서인 경우,
    상기 센서 적응 선호는 상기 각속도 센서에 대한 최대값(maxValue), 최소값(minValue) 및 해상력(numOflevels) 중 적어도 하나를 포함하는 가상 세계 처리 장치.
  26. 제6항에 있어서,
    상기 센서가 각가속도 센서인 경우,
    상기 센서 적응 선호는 상기 각가속도 센서에 대한 최대값(maxValue), 최소값(minValue) 및 해상력(numOflevels) 중 적어도 하나를 포함하는 가상 세계 처리 장치.
  27. 제6항에 있어서,
    상기 센서가 모션 센서인 경우,
    상기 센서 적응 선호는 선호 위치(position preference), 선호 속도(velocity preference), 선호 가속도(acceleration preference), 선호 방위(orientation preference), 선호 각속도(angular velocity preference) 및 선호 각가속도(angular acceleration preference) 중 적어도 하나를 포함하는 가상 세계 처리 장치.
  28. 제1항 또는 제4항에 있어서,
    상기 센서가 지능 카메라 센서인 경우,
    상기 센서 특성은 상기 지능 카메라 센서에 대한 특징점 추적 상태(feature tracking status), 표정 추적 상태(expression tracking status), 몸체 동작 추적 상태(body movement tracking status), 최대 몸체 특징 포인트(max Body Feature Point), 최대 얼굴 특징 포인트(max Face Feature Point), 특징점 추적(Tracked Feature), 얼굴 특징 추적점(tracked facial feature points), 몸체 특징 추적점(tracked body feature points), 특징점 타입(feature type), 얼굴 특징점 마스크(facial feature mask) 및 몸체 특징점 마스크(body feature mask) 중 적어도 하나를 포함하는 가상 세계 처리 장치.
  29. 제1항 또는 제5항에 있어서,
    상기 센서가 지능 카메라 센서인 경우,
    상기 감지 정보는 얼굴애니메이션ID(FacialAnimationID), 몸체애니메이션ID(BodyAnimationID), 얼굴특징(FaceFeature), 몸체특징(BodyFeature) 및 타임스탬프(Timestamp) 중 적어도 하나를 포함하는 가상 세계 처리 장치.
  30. 제6항에 있어서, 상기 센서 적응 선호는,
    상기 지능 카메라 센서에 대한 얼굴 특징점 추적 온(FaceFeatureTrackingOn), 몸체 특징점 추적 온(BodyFeatureTrackingOn), 얼굴 표정 추적 온(FacialExpressionTrackingOn), 제스처 추적 온(GestureTrackingOn), 얼굴 추적 맵(FaceTrackingMap) 및 몸체 추적 맵(BodyTrackingMap) 중 적어도 하나를 포함하는 가상 세계 처리 장치.
  31. 제1항 또는 제4항에 있어서,
    상기 센서가 광 센서인 경우,
    상기 센서 특성은 상기 광 센서에 대한 최대값(maxValue), 최소값(minValue), 색(color) 및 로케이션(location) 중 적어도 하나를 포함하는 가상 세계 처리 장치.
  32. 제1항 또는 제4항에 있어서,
    상기 센서가 환경 소음 센서인 경우,
    상기 센서 특성은 상기 환경 소음 센서에 대한 최대값(maxValue), 최소값(minValue) 및 로케이션 중 적어도 하나를 포함하는 가상 세계 처리 장치.
  33. 제1항 또는 제4항에 있어서,
    상기 센서가 온도 센서인 경우,
    상기 센서 특성은 상기 온도 센서에 대한 최대값(maxValue), 최소값(minValue) 및 로케이션 중 적어도 하나를 포함하는 가상 세계 처리 장치.
  34. 제1항 또는 제4항에 있어서,
    상기 센서가 습도 센서인 경우,
    상기 센서 특성은 상기 습도 센서에 대한 최대값(maxValue), 최소값(minValue) 및 로케이션 중 적어도 하나를 포함하는 가상 세계 처리 장치.
  35. 제1항 또는 제4항에 있어서,
    상기 센서가 길이 센서인 경우,
    상기 센서 특성은 상기 길이 센서에 대한 최대값(maxValue), 최소값(minValue) 및 로케이션 중 적어도 하나를 포함하는 가상 세계 처리 장치.
  36. 제1항 또는 제4항에 있어서,
    상기 센서가 기압 센서인 경우,
    상기 센서 특성은 상기 기압 센서에 대한 최대값(maxValue), 최소값(minValue) 및 로케이션 중 적어도 하나를 포함하는 가상 세계 처리 장치.
  37. 제1항 또는 제4항에 있어서,
    상기 센서가 힘 센서인 경우,
    상기 센서 특성은 상기 힘 센서에 대한 최대값(maxValue) 및 최소값(minValue) 중 적어도 하나를 포함하는 가상 세계 처리 장치.
  38. 제1항 또는 제4항에 있어서,
    상기 센서가 토크 센서인 경우,
    상기 센서 특성은 상기 토크 센서에 대한 최대값(maxValue), 최소값(minValue) 및 로케이션 중 적어도 하나를 포함하는 가상 세계 처리 장치.
  39. 제1항 또는 제4항에 있어서,
    상기 센서가 압력 센서인 경우,
    상기 센서 특성은 상기 압력 센서에 대한 최대값(maxValue), 최소값(minValue) 및 로케이션 중 적어도 하나를 포함하는 가상 세계 처리 장치.
  40. 제1항 또는 제4항에 있어서,
    상기 센서가 음성 센서인 경우,
    상기 센서 특성은 상기 음성 센서에 대한 최대값(maxValue) 및 최소값(minValue) 중 적어도 하나를 포함하는 가상 세계 처리 장치.
  41. 제1항 또는 제5항에 있어서,
    상기 센서가 광 센서인 경우,
    상기 감지 정보는 상기 광 센서에 대한 타임스탬프, 값(Value), 단위 및 색채(Color) 중 적어도 하나를 포함하는 가상 세계 처리 장치.
  42. 제1항 또는 제5항에 있어서,
    상기 센서가 환경 소음 센서인 경우,
    상기 감지 정보는 상기 환경 소음 센서에 대한 타임스탬프, 수명(LifeSpan), 단위 및 값 중 적어도 하나를 포함하는 가상 세계 처리 장치.
  43. 제1항 또는 제5항에 있어서,
    상기 센서가 온도 센서인 경우,
    상기 감지 정보는 상기 온도 센서에 대한 타임스탬프, 단위 및 값 중 적어도 하나를 포함하는 가상 세계 처리 장치.
  44. 제1항 또는 제5항에 있어서,
    상기 센서가 습도 센서인 경우,
    상기 감지 정보는 상기 습도 센서에 대한 타임스탬프, 단위 및 값 중 적어도 하나를 포함하는 가상 세계 처리 장치.
  45. 제1항 또는 제5항에 있어서,
    상기 센서가 길이 센서인 경우,
    상기 감지 정보는 상기 길이 센서에 대한 타임스탬프, 단위 및 값 중 적어도 하나를 포함하는 가상 세계 처리 장치.
  46. 제1항 또는 제5항에 있어서,
    상기 센서가 기압 센서인 경우,
    상기 감지 정보는 상기 기압 센서에 대한 타임스탬프, 단위 및 값 중 적어도 하나를 포함하는 가상 세계 처리 장치.
  47. 제1항 또는 제5항에 있어서,
    상기 센서가 힘 센서인 경우,
    상기 감지 정보는 상기 힘 센서에 대한 타임스탬프, 힘(Force), 단위, 3D힘벡터, x축힘, y축힘 및 x축힘 중 적어도 하나를 포함하는 가상 세계 처리 장치.
  48. 제1항 또는 제5항에 있어서,
    상기 센서가 토크 센서인 경우,
    상기 감지 정보는 상기 토크 센서에 대한 타임스탬프, 토크(Torque), 단위, 3D토크벡터, x축토크, y축토크 및 x축토크 중 적어도 하나를 포함하는 가상 세계 처리 장치.
  49. 제1항 또는 제5항에 있어서,
    상기 센서가 압력 센서인 경우,
    상기 감지 정보는 상기 압력 센서에 대한 타임스탬프, 단위 및 값 중 적어도 하나를 포함하는 가상 세계 처리 장치.
  50. 제1항 또는 제5항에 있어서,
    상기 센서가 음성 센서인 경우,
    상기 감지 정보는 상기 음성 센서에 대한 최대값(maxValue) 및 최소값(minValue) 중 적어도 하나를 포함하는 가상 세계 처리 장치.
  51. 제6항에 있어서,
    상기 센서가 광 센서인 경우,
    상기 센서 적응 선호는 상기 광 센서에 대한 최대값(maxValue), 최소값(minValue), 해상력(numOflevels) 및 비호색(unfavorable color) 중 적어도 하나를 포함하는 가상 세계 처리 장치.
  52. 제6항에 있어서,
    상기 센서가 환경 소음 센서인 경우,
    상기 센서 적응 선호는 상기 환경 소음 센서에 대한 최대값(maxValue), 최소값(minValue) 및 해상력(numOflevels)) 중 적어도 하나를 포함하는 가상 세계 처리 장치.
  53. 제6항에 있어서,
    상기 센서가 온도 센서인 경우,
    상기 센서 적응 선호는 상기 온도 센서에 대한 최대값(maxValue), 최소값(minValue) 및 해상력(numOflevels) 중 적어도 하나를 포함하는 가상 세계 처리 장치.
  54. 제6항에 있어서,
    상기 센서가 습도 센서인 경우,
    상기 센서 적응 선호는 상기 습도 센서에 대한 최대값(maxValue), 최소값(minValue) 및 해상력(numOflevels) 중 적어도 하나를 포함하는 가상 세계 처리 장치.
  55. 제6항에 있어서,
    상기 센서가 길이 센서인 경우,
    상기 센서 적응 선호는 상기 길이 센서에 대한 최대값(maxValue), 최소값(minValue) 및 해상력(numOflevels) 중 적어도 하나를 포함하는 가상 세계 처리 장치.
  56. 제6항에 있어서,
    상기 센서가 기압 센서인 경우,
    상기 센서 적응 선호는 상기 기압 센서에 대한 최대값(maxValue), 최소값(minValue) 및 해상력(numOflevels) 중 적어도 하나를 포함하는 가상 세계 처리 장치.
  57. 제6항에 있어서,
    상기 센서가 힘 센서인 경우,
    상기 센서 적응 선호는 상기 힘 센서에 대한 최대값(maxValue), 최소값(minValue) 및 해상력(numOflevels) 중 적어도 하나를 포함하는 가상 세계 처리 장치.
  58. 제6항에 있어서,
    상기 센서가 토크 센서인 경우,
    상기 센서 적응 선호는 상기 토크 센서에 대한 최대값(maxValue), 최소값(minValue) 및 해상력(numOflevels) 중 적어도 하나를 포함하는 가상 세계 처리 장치.
  59. 제6항에 있어서,
    상기 센서가 압력 센서인 경우,
    상기 센서 적응 선호는 상기 압력 센서에 대한 최대값(maxValue), 최소값(minValue) 및 해상력(numOflevels) 중 적어도 하나를 포함하는 가상 세계 처리 장치.
  60. 제6항에 있어서,
    상기 센서가 음성 센서인 경우,
    상기 센서 적응 선호는 상기 음성 센서에 대한 최대값(maxValue) 및 최소값(minValue) 중 적어도 하나를 포함하는 가상 세계 처리 장치.
PCT/KR2010/004091 2009-06-25 2010-06-23 가상 세계 처리 장치 및 방법 WO2010151054A2 (ko)

Priority Applications (6)

Application Number Priority Date Filing Date Title
EP10792336.9A EP2446942A4 (en) 2009-06-25 2010-06-23 Virtual world processing device and method
JP2012517386A JP2012531658A (ja) 2009-06-25 2010-06-23 仮想世界処理装置および方法
US13/380,318 US9566506B2 (en) 2009-06-25 2010-06-23 Virtual world processing device and method
CN201080037696.5A CN102481486B (zh) 2009-06-25 2010-06-23 虚拟世界处理装置及方法
JP2016016649A JP2016137248A (ja) 2009-06-25 2016-01-29 仮想世界処理装置および方法
US15/429,811 US9987553B2 (en) 2009-06-25 2017-02-10 Virtual world processing device and method

Applications Claiming Priority (12)

Application Number Priority Date Filing Date Title
KR20090057313 2009-06-25
KR10-2009-0057313 2009-06-25
KR1020090101434A KR20100138702A (ko) 2009-06-25 2009-10-23 가상 세계 처리 장치 및 방법
KR10-2009-0101434 2009-10-23
US25563609P 2009-10-28 2009-10-28
US61/255,636 2009-10-28
KR1020090104474A KR20100138706A (ko) 2009-06-25 2009-10-30 가상 세계 처리 장치 및 방법
KR10-2009-0104474 2009-10-30
KR1020100003607A KR20100138722A (ko) 2009-06-25 2010-01-14 가상 세계 처리 장치 및 방법
KR10-2010-0003607 2010-01-14
KR1020100006119A KR20100138725A (ko) 2009-06-25 2010-01-22 가상 세계 처리 장치 및 방법
KR10-2010-0006119 2010-01-22

Related Child Applications (2)

Application Number Title Priority Date Filing Date
US13/380,318 A-371-Of-International US9566506B2 (en) 2009-06-25 2010-06-23 Virtual world processing device and method
US15/429,811 Continuation US9987553B2 (en) 2009-06-25 2017-02-10 Virtual world processing device and method

Publications (2)

Publication Number Publication Date
WO2010151054A2 true WO2010151054A2 (ko) 2010-12-29
WO2010151054A3 WO2010151054A3 (ko) 2011-04-21

Family

ID=43387048

Family Applications (2)

Application Number Title Priority Date Filing Date
PCT/KR2010/004087 WO2010151051A2 (ko) 2009-06-25 2010-06-23 가상 세계 처리 장치 및 방법
PCT/KR2010/004091 WO2010151054A2 (ko) 2009-06-25 2010-06-23 가상 세계 처리 장치 및 방법

Family Applications Before (1)

Application Number Title Priority Date Filing Date
PCT/KR2010/004087 WO2010151051A2 (ko) 2009-06-25 2010-06-23 가상 세계 처리 장치 및 방법

Country Status (6)

Country Link
US (4) US9566506B2 (ko)
EP (2) EP2446942A4 (ko)
JP (3) JP6216512B2 (ko)
KR (1) KR20100138725A (ko)
CN (2) CN102481486B (ko)
WO (2) WO2010151051A2 (ko)

Families Citing this family (47)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2023812B1 (en) 2006-05-19 2016-01-27 The Queen's Medical Center Motion tracking system for real time adaptive imaging and spectroscopy
KR20100138700A (ko) * 2009-06-25 2010-12-31 삼성전자주식회사 가상 세계 처리 장치 및 방법
KR20100138725A (ko) * 2009-06-25 2010-12-31 삼성전자주식회사 가상 세계 처리 장치 및 방법
KR101685922B1 (ko) * 2010-04-05 2016-12-13 삼성전자주식회사 가상 세계 처리 장치 및 방법
KR101746453B1 (ko) * 2010-04-12 2017-06-13 삼성전자주식회사 실감 효과 처리 시스템 및 방법
US9821224B2 (en) * 2010-12-21 2017-11-21 Microsoft Technology Licensing, Llc Driving simulator control with virtual skeleton
US20120192088A1 (en) * 2011-01-20 2012-07-26 Avaya Inc. Method and system for physical mapping in a virtual world
CN103608749B (zh) * 2011-04-26 2016-12-07 加利福尼亚大学董事会 用于记录和重现感觉的系统和装置
CN102707804B (zh) * 2011-05-23 2015-03-25 中国科学院软件研究所 一种基于加速度传感器的角色动作控制方法
US9606209B2 (en) 2011-08-26 2017-03-28 Kineticor, Inc. Methods, systems, and devices for intra-scan motion correction
US9305365B2 (en) 2013-01-24 2016-04-05 Kineticor, Inc. Systems, devices, and methods for tracking moving targets
US9717461B2 (en) 2013-01-24 2017-08-01 Kineticor, Inc. Systems, devices, and methods for tracking and compensating for patient motion during a medical imaging scan
US10327708B2 (en) 2013-01-24 2019-06-25 Kineticor, Inc. Systems, devices, and methods for tracking and compensating for patient motion during a medical imaging scan
CN105392423B (zh) 2013-02-01 2018-08-17 凯内蒂科尔股份有限公司 生物医学成像中的实时适应性运动补偿的运动追踪系统
CN106572810A (zh) 2014-03-24 2017-04-19 凯内蒂科尔股份有限公司 去除医学成像扫描的预期运动校正的系统、方法和装置
US10222953B2 (en) * 2014-04-30 2019-03-05 Disney Enterprises, Inc. Systems and methods for editing virtual content of a virtual space
EP3188660A4 (en) 2014-07-23 2018-05-16 Kineticor, Inc. Systems, devices, and methods for tracking and compensating for patient motion during a medical imaging scan
EP3189400A4 (en) * 2014-09-05 2018-07-04 Ballcraft, LLC Motion detection for portable devices
EP3099030A1 (en) * 2015-05-26 2016-11-30 Thomson Licensing Method and device for encoding/decoding a packet comprising data representative of a haptic effect
CN105118044B (zh) * 2015-06-16 2017-11-07 华南理工大学 一种轮形铸造产品缺陷自动检测方法
WO2016203282A1 (en) 2015-06-18 2016-12-22 The Nielsen Company (Us), Llc Methods and apparatus to capture photographs using mobile devices
US9943247B2 (en) 2015-07-28 2018-04-17 The University Of Hawai'i Systems, devices, and methods for detecting false movements for motion correction during a medical imaging scan
US10716515B2 (en) 2015-11-23 2020-07-21 Kineticor, Inc. Systems, devices, and methods for tracking and compensating for patient motion during a medical imaging scan
JP6311695B2 (ja) 2015-12-16 2018-04-18 カシオ計算機株式会社 自律移動装置、自律移動方法及びプログラム
JP6187623B1 (ja) * 2016-03-14 2017-08-30 カシオ計算機株式会社 自律移動装置、自律移動方法及びプログラム
US10092827B2 (en) * 2016-06-16 2018-10-09 Disney Enterprises, Inc. Active trigger poses
WO2018064967A1 (en) * 2016-10-07 2018-04-12 Mediatek Inc. Video encoding method and apparatus with syntax element signaling of employed projection layout and associated video decoding method and apparatus
US10643370B2 (en) 2016-10-07 2020-05-05 Mediatek Inc. Method and apparatus for generating projection-based frame with 360-degree image content represented by triangular projection faces assembled in octahedron projection layout
US10380715B2 (en) 2016-12-07 2019-08-13 Mediatek Inc. Method and apparatus for generating and encoding projection-based frame with 360-degree content represented by triangular projection faces packed in octahedron projection layout
US20180285644A1 (en) * 2017-03-29 2018-10-04 Electronics And Telecommunications Research Institute Sensor information processing method and system between virtual world and real world
US10154360B2 (en) * 2017-05-08 2018-12-11 Microsoft Technology Licensing, Llc Method and system of improving detection of environmental sounds in an immersive environment
US10948450B2 (en) 2018-07-23 2021-03-16 Genmark Diagnostics, Inc. Electrochemical measurements of components in coatings
CN112805750A (zh) 2018-08-13 2021-05-14 奇跃公司 跨现实系统
KR20200019486A (ko) 2018-08-14 2020-02-24 삼성전자주식회사 전자 장치, 그 제어 방법 및 전자 시스템
EP3861387A4 (en) 2018-10-05 2022-05-25 Magic Leap, Inc. RENDERING LOCATION-SPECIFIC VIRTUAL CONTENT IN ANY LOCATION
GB2586059B (en) * 2019-08-01 2023-06-07 Sony Interactive Entertainment Inc System and method for generating user inputs for a video game
JP2022551735A (ja) 2019-10-15 2022-12-13 マジック リープ, インコーポレイテッド 無線フィンガプリントを用いたクロスリアリティシステム
CN114600064A (zh) 2019-10-15 2022-06-07 奇跃公司 具有定位服务的交叉现实系统
CN110633013B (zh) * 2019-10-17 2022-12-20 于生明 一种全方位万向行动平台的控制方法
US11386627B2 (en) 2019-11-12 2022-07-12 Magic Leap, Inc. Cross reality system with localization service and shared location-based content
EP4073763A4 (en) 2019-12-09 2023-12-27 Magic Leap, Inc. CROSS-REALLY SYSTEM WITH SIMPLIFIED PROGRAMMING OF VIRTUAL CONTENT
US11410395B2 (en) * 2020-02-13 2022-08-09 Magic Leap, Inc. Cross reality system with accurate shared maps
CN115398484A (zh) 2020-02-13 2022-11-25 奇跃公司 具有用于定位的地理定位信息优先级的交叉现实系统
WO2021163300A1 (en) 2020-02-13 2021-08-19 Magic Leap, Inc. Cross reality system with map processing using multi-resolution frame descriptors
CN115461787A (zh) 2020-02-26 2022-12-09 奇跃公司 具有快速定位的交叉现实系统
US11900547B2 (en) 2020-04-29 2024-02-13 Magic Leap, Inc. Cross reality system for large scale environments
CN112842670B (zh) * 2021-01-28 2022-07-08 吉林大学第一医院 一种肾病患者水肿明显时的皮肤护理装置

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1997003740A1 (fr) * 1995-07-14 1997-02-06 Latypov Nurakhmed Nurislamovic Procede permettant de placer un utilisateur dans un milieu de realite virtuelle et procede de mise en oeuvre
KR100221335B1 (ko) * 1996-12-26 1999-09-15 전주범 가상 현실 시스템에서 글러브 센서값 전송 시스템 및 그 방법
KR100452917B1 (ko) * 2001-10-09 2004-10-14 주식회사 제노프릭스 색 마커를 이용한 3차원 신체 동작 인식방법 및 시스템
KR100725192B1 (ko) * 1999-12-28 2007-06-08 소니 가부시끼 가이샤 신호 처리 장치 및 방법, 및 기록 매체
KR20070061255A (ko) * 2005-12-08 2007-06-13 한국전자통신연구원 초소형 절대 위치 센서를 이용한 핸드 인터페이스 글로브및 이를 이용한 핸드 인터페이스 시스템

Family Cites Families (60)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US2026082A (en) * 1935-08-31 1935-12-31 Parker Brothers Inc Board game apparatus
JPH06506080A (ja) * 1991-04-03 1994-07-07 ヒューレット・パッカード・カンパニー 位置検知装置
US5597373A (en) * 1991-11-08 1997-01-28 Cedaron Medical, Inc. Physiological evaluation and exercise system
US5330980A (en) * 1992-08-25 1994-07-19 Shin Jae S Medicament for the topical treatment of skin
US5577981A (en) * 1994-01-19 1996-11-26 Jarvik; Robert Virtual reality exercise machine and computer controlled video system
US5583795A (en) * 1995-03-17 1996-12-10 The United States Of America As Represented By The Secretary Of The Army Apparatus for measuring eye gaze and fixation duration, and method therefor
CN1196508C (zh) 1996-06-05 2005-04-13 世嘉股份有限公司 游戏用图象处理装置
USRE39539E1 (en) * 1996-08-19 2007-04-03 Torch William C System and method for monitoring eye movement
US6542081B2 (en) * 1996-08-19 2003-04-01 William C. Torch System and method for monitoring eye movement
TW458974B (en) 1997-07-17 2001-10-11 Kuraray Co Process for producing chromans
US6137403A (en) * 1998-12-10 2000-10-24 Phoenix Controls Corporation Sash sensor and method of sensing a sash using an array of multiplexed elements
US20100045816A1 (en) * 1999-05-19 2010-02-25 Rhoads Geoffrey B User Feedback in Connection with Object Recognition
US6792165B1 (en) * 1999-05-25 2004-09-14 Silverbrook Research Pty Ltd Sensing device
US6120461A (en) * 1999-08-09 2000-09-19 The United States Of America As Represented By The Secretary Of The Army Apparatus for tracking the human eye with a retinal scanning display, and method thereof
JP2002159004A (ja) * 2000-04-21 2002-05-31 Sony Corp 符号化装置および方法、記録媒体、並びにプログラム
WO2002007000A2 (en) * 2000-07-13 2002-01-24 The Belo Company System and method for associating historical information with sensory data and distribution thereof
JP2002305758A (ja) 2001-04-04 2002-10-18 Nippon Telegr & Teleph Corp <Ntt> 臨場感通信装置及び臨場感通信システム
US7149691B2 (en) * 2001-07-27 2006-12-12 Siemens Corporate Research, Inc. System and method for remotely experiencing a virtual environment
US7225343B1 (en) * 2002-01-25 2007-05-29 The Trustees Of Columbia University In The City Of New York System and methods for adaptive model generation for detecting intrusions in computer systems
US20040001734A1 (en) * 2002-02-07 2004-01-01 Burrell James W. Virtual keyboard and control means
JP4447823B2 (ja) * 2002-06-14 2010-04-07 ソニー株式会社 携帯情報機器
WO2007130793A2 (en) * 2006-05-04 2007-11-15 Sony Computer Entertainment America Inc. Obtaining input for controlling execution of a game program
CN1206007C (zh) * 2002-10-31 2005-06-15 威盛电子股份有限公司 压力感应式虚拟实境跑步机
JP4144374B2 (ja) * 2003-02-25 2008-09-03 ソニー株式会社 画像処理装置および方法、記録媒体、並びにプログラム
US8566292B2 (en) * 2003-04-14 2013-10-22 Schneider Electric It Corporation Method and system for journaling and accessing sensor and configuration data
US7217224B2 (en) * 2003-08-14 2007-05-15 Tom Thomas Virtual exercise system and method
US7752544B2 (en) 2003-11-17 2010-07-06 International Business Machines Corporation Method, system, and apparatus for remote interactions
US20050168485A1 (en) * 2004-01-29 2005-08-04 Nattress Thomas G. System for combining a sequence of images with computer-generated 3D graphics
DE102004012072A1 (de) * 2004-03-12 2005-09-29 Robert Bosch Gmbh Ortungsgerät
KR20070032739A (ko) * 2004-06-30 2007-03-22 노키아 코포레이션 데이터 객체들의 전달
JP2006065518A (ja) 2004-08-25 2006-03-09 Asahi Kasei Electronics Co Ltd ポインティングデバイス、および、信号処理方法
US20060262120A1 (en) * 2005-05-19 2006-11-23 Outland Research, Llc Ambulatory based human-computer interface
WO2007046844A2 (en) * 2005-03-01 2007-04-26 Advanced Warning Systems, Inc. System and method for visual representation of a catastrophic event and coordination of response
US8239162B2 (en) * 2006-04-13 2012-08-07 Tanenhaus & Associates, Inc. Miniaturized inertial measurement unit and associated methods
US8156232B2 (en) 2005-09-12 2012-04-10 Rockwell Automation Technologies, Inc. Network communications in an industrial automation environment
JP4794957B2 (ja) * 2005-09-14 2011-10-19 任天堂株式会社 ゲームプログラム、ゲーム装置、ゲームシステム、およびゲーム処理方法
JP2007156779A (ja) * 2005-12-05 2007-06-21 Hitachi Ltd センサネットシステム、基地局及びセンシングデータの中継方法
US20070132722A1 (en) 2005-12-08 2007-06-14 Electronics And Telecommunications Research Institute Hand interface glove using miniaturized absolute position sensors and hand interface system using the same
JP2007206746A (ja) 2006-01-30 2007-08-16 Canon Inc 情報処理装置及びその制御方法、プログラム、記憶媒体
JP4719034B2 (ja) * 2006-03-07 2011-07-06 株式会社日立製作所 センサネットシステム、基地局及びセンシングデータの中継方法
JP5196515B2 (ja) 2006-04-25 2013-05-15 任天堂株式会社 ゲームプログラム、ゲーム装置、ゲームシステム、およびゲーム処理方法
EP2013865A4 (en) 2006-05-04 2010-11-03 Sony Comp Entertainment Us METHODS AND APPARATUS FOR APPLYING ADAPTATION EFFECTS TO INPUT BASED ON ONE OR MORE VISUAL, ACOUSTICAL, INERTIAL AND MIXED DATA
JP5089079B2 (ja) * 2006-05-08 2012-12-05 任天堂株式会社 プログラム、情報記憶媒体及び画像生成システム
US7794142B2 (en) * 2006-05-09 2010-09-14 Tsi Technologies Llc Magnetic element temperature sensors
KR100770890B1 (ko) * 2006-08-18 2007-10-26 삼성전자주식회사 디지털 비디오 방송 단말기의 파일타입 검출장치 및 방법
US7937349B2 (en) * 2006-11-09 2011-05-03 Pucher Max J Method for training a system to specifically react on a specific input
US9317110B2 (en) * 2007-05-29 2016-04-19 Cfph, Llc Game with hand motion control
US20080310707A1 (en) * 2007-06-15 2008-12-18 Microsoft Corporation Virtual reality enhancement using real world data
JP4916390B2 (ja) 2007-06-20 2012-04-11 任天堂株式会社 情報処理プログラム、情報処理装置、情報処理システム、および情報処理方法
KR20090002292A (ko) 2007-06-26 2009-01-09 삼성전자주식회사 가상 캐릭터를 동기화하고 공유하는 장치 및 방법
US8812261B2 (en) * 2007-08-23 2014-08-19 Applied Materials, Inc. Method and apparatus to automatically create virtual sensors with templates
US9387402B2 (en) * 2007-09-18 2016-07-12 Disney Enterprises, Inc. Method and system for converting a computer virtual environment into a real-life simulation environment
JP2009140107A (ja) 2007-12-04 2009-06-25 Sony Corp 入力装置及び制御システム
US8386918B2 (en) 2007-12-06 2013-02-26 International Business Machines Corporation Rendering of real world objects and interactions into a virtual universe
CA2714534C (en) * 2008-02-28 2018-03-20 Kenneth Perlin Method and apparatus for providing input to a processor, and a sensor pad
JP4571198B2 (ja) * 2008-03-07 2010-10-27 京セラ株式会社 携帯通信端末
RU2010150472A (ru) * 2008-05-09 2012-06-20 Конинклейке Филипс Электроникс Н.В. (Nl) Система и способ обработки логики приложений для виртуальной и реальной интеллектуальной внешней среды
EP2336788B1 (en) * 2008-09-08 2014-07-09 Hitachi, Ltd. Inertial sensor
JP5334595B2 (ja) * 2009-01-09 2013-11-06 任天堂株式会社 ゲーム装置およびゲームプログラム
KR20100138725A (ko) * 2009-06-25 2010-12-31 삼성전자주식회사 가상 세계 처리 장치 및 방법

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1997003740A1 (fr) * 1995-07-14 1997-02-06 Latypov Nurakhmed Nurislamovic Procede permettant de placer un utilisateur dans un milieu de realite virtuelle et procede de mise en oeuvre
KR100221335B1 (ko) * 1996-12-26 1999-09-15 전주범 가상 현실 시스템에서 글러브 센서값 전송 시스템 및 그 방법
KR100725192B1 (ko) * 1999-12-28 2007-06-08 소니 가부시끼 가이샤 신호 처리 장치 및 방법, 및 기록 매체
KR100452917B1 (ko) * 2001-10-09 2004-10-14 주식회사 제노프릭스 색 마커를 이용한 3차원 신체 동작 인식방법 및 시스템
KR20070061255A (ko) * 2005-12-08 2007-06-13 한국전자통신연구원 초소형 절대 위치 센서를 이용한 핸드 인터페이스 글로브및 이를 이용한 핸드 인터페이스 시스템

Also Published As

Publication number Publication date
US9987553B2 (en) 2018-06-05
US20170246532A1 (en) 2017-08-31
JP2016137248A (ja) 2016-08-04
WO2010151054A3 (ko) 2011-04-21
WO2010151051A3 (ko) 2011-04-21
US20120188237A1 (en) 2012-07-26
US9108106B2 (en) 2015-08-18
JP6216512B2 (ja) 2017-10-18
US9566506B2 (en) 2017-02-14
US20120191737A1 (en) 2012-07-26
US20160030851A1 (en) 2016-02-04
CN102481487A (zh) 2012-05-30
KR20100138725A (ko) 2010-12-31
EP2446941A4 (en) 2014-03-19
EP2446941A2 (en) 2012-05-02
WO2010151051A2 (ko) 2010-12-29
EP2446942A2 (en) 2012-05-02
JP2012531658A (ja) 2012-12-10
CN102481486A (zh) 2012-05-30
CN102481487B (zh) 2016-05-11
CN102481486B (zh) 2015-05-20
EP2446942A4 (en) 2017-06-21
JP2012531657A (ja) 2012-12-10

Similar Documents

Publication Publication Date Title
WO2010151054A2 (ko) 가상 세계 처리 장치 및 방법
WO2010151070A2 (ko) 가상 세계 처리 장치 및 방법
WO2010128830A2 (ko) 가상 세계에서의 객체를 제어하는 시스템, 방법 및 기록 매체
WO2016018029A1 (en) Mobile terminal and method of operating the same
WO2016018072A1 (en) Method and apparatus for sharing data
WO2016024740A1 (en) Cloud system and method of displaying, by cloud system, content
WO2016024741A1 (en) Cloud system and method of displaying, by cloud system, content
WO2017111234A1 (en) Method for electronic device to control object and electronic device
WO2016171440A1 (en) Server and method of controlling group action of server
WO2016017970A1 (en) Method and device for encrypting or decrypting content
WO2016129934A1 (ko) 핸드라이팅 인식 방법 및 장치
WO2016036045A1 (ko) 근거리 무선 통신을 지원하는 화상형성장치 및 그 화상형성장치의 동작 방법, 근거리 무선 통신을 지원하는 모바일 단말 및 그 단말의 동작 방법 및 근거리 무선 통신을 이용한 클라우드 프린트 시스템
WO2016195156A1 (ko) 이동 단말기 및 그 제어방법
WO2015005639A1 (ko) 완구 부착형 애드온 장치를 이용한 증강현실 컨텐츠 제공 시스템
WO2010021527A2 (ko) 영상에 포함된 객체를 색인하는 시스템 및 방법
WO2020130219A1 (ko) 로봇의 제어 방법
WO2016003108A1 (ko) 화상 형성 장치, 그 위치 안내 방법 및 화상 형성 시스템
WO2016104952A1 (en) Display apparatus and display method
WO2021071012A1 (ko) 무매체 신원 확인을 통한 상품 구매 서비스 제공 장치 및 방법
WO2016060409A2 (ko) 전자펜, 전자펜과 연동되는 전자기기 및 전자기기의 제어방법
WO2015093665A1 (ko) 전자기기 및 전자기기의 제어방법
WO2019172565A1 (ko) 외부 장치와의 연결을 위한 전자 장치 및 방법
WO2018212608A1 (ko) 구동형 마킹 시스템, 구동형 마킹 장치의 제어방법 및 컴퓨터 판독 가능한 기록매체
WO2017080403A1 (zh) 投影设备控制方法、投影设备及智能终端
WO2019066133A1 (ko) 혼합 현실에서의 가상 모바일 단말 구현 시스템 및 이의 제어 방법

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 201080037696.5

Country of ref document: CN

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 10792336

Country of ref document: EP

Kind code of ref document: A2

WWE Wipo information: entry into national phase

Ref document number: 2012517386

Country of ref document: JP

NENP Non-entry into the national phase

Ref country code: DE

WWE Wipo information: entry into national phase

Ref document number: 2010792336

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 13380318

Country of ref document: US