KR20110114439A - 가상 세계 처리 장치 및 방법 - Google Patents

가상 세계 처리 장치 및 방법 Download PDF

Info

Publication number
KR20110114439A
KR20110114439A KR1020110024448A KR20110024448A KR20110114439A KR 20110114439 A KR20110114439 A KR 20110114439A KR 1020110024448 A KR1020110024448 A KR 1020110024448A KR 20110024448 A KR20110024448 A KR 20110024448A KR 20110114439 A KR20110114439 A KR 20110114439A
Authority
KR
South Korea
Prior art keywords
angle value
sensor
virtual world
bending
sensing position
Prior art date
Application number
KR1020110024448A
Other languages
English (en)
Other versions
KR101835413B1 (ko
Inventor
한재준
한승주
방원철
김도균
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to US13/641,026 priority Critical patent/US9597592B2/en
Priority to JP2013504805A priority patent/JP5801872B2/ja
Priority to CN201410484088.9A priority patent/CN104281262B/zh
Priority to PCT/KR2011/002408 priority patent/WO2011129543A2/ko
Priority to CN201180018649.0A priority patent/CN102858413B/zh
Priority to EP11769009.9A priority patent/EP2559463B1/en
Publication of KR20110114439A publication Critical patent/KR20110114439A/ko
Priority to JP2015167901A priority patent/JP6316251B2/ja
Application granted granted Critical
Publication of KR101835413B1 publication Critical patent/KR101835413B1/ko

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/60Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor
    • A63F13/65Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor automatically by game devices or servers from real world data, e.g. measurement in live racing competition
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/40Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
    • A63F13/42Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
    • A63F13/428Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle involving motion or position input signals, e.g. signals representing the rotation of an input controller or a player's arm motions sensed by accelerometers or gyroscopes
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/212Input arrangements for video game devices characterised by their sensors, purposes or types using sensors worn by the player, e.g. for measuring heart beat or leg activity
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/55Controlling game characters or game objects based on the game progress
    • A63F13/56Computing the motion of game characters with respect to other game characters, game objects or elements of the game scene, e.g. for simulating the behaviour of a group of virtual soldiers or for path finding
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/70Game security or game management aspects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/23Input arrangements for video game devices for interfacing with the game device, e.g. specific interfaces between game controller and console
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/10Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals
    • A63F2300/1012Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals involving biosensors worn by the player, e.g. for measuring heart beat, limb activity
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/10Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals
    • A63F2300/1025Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals details of the interface with the game device, e.g. USB version detection
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/50Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by details of game servers
    • A63F2300/55Details of game data or player data management
    • A63F2300/5546Details of game data or player data management using player registration data, e.g. identification, account, preferences, game history
    • A63F2300/5553Details of game data or player data management using player registration data, e.g. identification, account, preferences, game history user representation in the game field, e.g. avatar
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/6045Methods for processing data by generating or executing the game program for mapping control signals received from the input arrangement into game commands
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/65Methods for processing data by generating or executing the game program for computing the condition of a game character

Abstract

가상 세계 처리 장치 및 방법이 개시된다. 본 발명의 실시예들에 따르면 벤딩 센서의 특성에 관한 정보인 센서 특성을 이용하여 현실 세계의 사용자의 신체 부위의 각도를 측정한 각도값을 가상 세계로 전달하여 현실 세계와 가상 세계의 상호 작용을 구현할 수 있다. 또한, 센서 특성 및 신체 부위의 각도를 센싱한 각도값에 기초하여, 신체 부위에 대응하는 가상 세계의 아바타의 부위를 제어하는 제어 정보를 생성하여 가상 세계로 전달하여 현실 세계와 가상 세계의 상호 작용을 구현할 수 있다.

Description

가상 세계 처리 장치 및 방법{Method and Apparatus for Processing Virtual World}
본 발명의 실시예들은 가상 세계 처리 장치 및 방법에 관한 것으로서, 보다 구체적으로는 벤딩 센서가 측정한 감지 정보를 가상 세계에 적용하는 장치 및 방법에 관한 것이다.
최근 들어 체감형 게임에 대한 관심이 증대 되고 있다. Microsoft社는 "E3 2009" Press Conference에서 그들의 게임 콘솔인 Xbox360에 Depth/Color 카메라와 마이크 어레이로 구성된 별도의 센서 디바이스를 결합하여 사용자의 전신 모션 캡처링, 얼굴 인식, 음성 인식 기술을 제공하여 별도의 컨트롤러 없이 가상세계와 상호 작용 할 수 있도록 해 주는 "Project Natal"을 발표 했다. 또한, Sony社는 자사 게임 콘솔인 Play Station3에 컬러 카메라와 마커, 초음파 센서를 결합한 위치/방향 센싱 기술을 적용하여 컨트롤러의 모션 궤적을 입력으로 가상세계와 상호 작용 할 수 있는 체감형 게임 모션 컨트롤러 "Wand"를 발표했다.
현실 세계와 가상 세계의 상호 작용은 두 가지 방향을 가진다. 첫째는 현실 세계의 센서로부터 얻어진 데이터 정보를 가상 세계에 반영하는 방향이고, 둘째는 가상 세계로부터 얻어진 데이터 정보를 엑추에이터(actuator)를 통해 현실 세계에 반영하는 방향이다.
본 명세서에서는 벤딩 센서를 이용하여 현실 세계로부터 센싱한 정보를 가상 세계에 적용하는 장치 및 방법에 대한 새로운 방안이 제시된다.
일실시예에 따른 가상 세계 처리 장치는 벤딩 센서로부터 감지 위치의 각도값 및 상기 벤딩 센서의 특성에 대한 센서 특성을 수신하는 수신부, 상기 각도값 및 상기 센서 특성에 기초하여, 상기 감지 위치에 대응하는 가상 세계의 객체를 제어하는 제어 정보를 생성하는 처리부 및 상기 생성된 제어 정보를 가상 세계로 전송하는 전송부를 포함한다.
일실시예에 따른 가상 세계 처리 방법은 벤딩 센서로부터 감지 위치의 각도값 및 상기 벤딩 센서의 특성에 대한 센서 특성을 수신하는 단계, 상기 각도값 및 상기 센서 특성에 기초하여, 상기 감지 위치에 대응하는 가상 세계의 객체를 제어하는 제어 정보를 생성하는 단계 및 상기 생성된 제어 정보를 가상 세계로 전송하는 단계를 포함한다.
실시예들은 벤딩 센서의 특성에 관한 정보인 센서 특성을 이용하여 현실 세계의 사용자의 신체 부위의 각도를 측정한 각도값을 가상 세계로 전달하여 현실 세계와 가상 세계의 상호 작용을 구현할 수 있다.
또한, 실시예들은 센서 특성 및 신체 부위의 각도를 센싱한 각도값에 기초하여, 신체 부위에 대응하는 가상 세계의 아바타의 부위를 제어하는 제어 정보를 생성하여 가상 세계로 전달하여 현실 세계와 가상 세계의 상호 작용을 구현할 수 있다.
도 1은 일실시예에 따른 현실 세계와 가상 세계 사이의 정보 교환을 제어하는 가상 세계 처리 시스템을 나타내는 도면이다.
도 2는 본 발명의 일실시예에 따른 가상 세계 처리 장치의 구성을 나타내는 도면이다.
도 3은 본 발명의 일실시예에 따른 복수 개의 벤딩 센서가 감지 위치를 측정하는 동작을 나타낸다.
도 4는 본 발명의 일실시예에 따른 가상 세계 처리 장치가 각도값을 연산하는 동작을 나타낸다.
도 5는 본 발명의 일실시예에 따른 아바타 제어 특징점 타입의 구조를 나타내는 도면이다.
도 6은 본 발명의 일실시예에 따른 가상 세계 처리 방법을 나타내는 흐름도이다.
이하에서, 본 발명에 따른 실시예를 첨부된 도면을 참조하여 상세하게 설명한다. 그러나, 본 발명이 실시예들에 의해 제한되거나 한정되는 것은 아니다. 각 도면에 제시된 동일한 참조 부호는 동일한 부재를 나타낸다.
도 1은 일실시예에 따른 현실 세계와 가상 세계 사이의 정보 교환을 제어하는 가상 세계 처리 시스템을 나타내는 도면이다.
도 1을 참조하면, 본 발명의 일실시예에 따른 가상 세계 처리 시스템은 현실 세계(110), 가상 세계 처리 장치 및 가상 세계(140)를 포함할 수 있다.
현실 세계(110)는 현실 세계(110)에 대한 정보를 감지하는 센서(Sensor) 또는 가상 세계(140)에 대한 정보를 현실 세계(110)에서 구현하는 실감 장치를 나타낼 수 있다.
또한, 가상 세계(140)는 프로그램에 의해서 구현되는 가상 세계(140) 그 자체 또는 현실 세계(110)에서 구현될 수 있는 실감 효과 정보를 포함하는 컨텐츠를 재생하는 실감 미디어 재생 장치를 나타낼 수 있다.
일실시예에 따른 센서(Sensor)는 현실 세계(110)의 사용자의 동작, 상태, 의도, 형태 등에 관한 정보를 감지(Sensing)하여 가상 세계 처리 장치로 전송할 수 있다.
실시예에 따라서는, 센서는 센서 특성(Sensor Capability)(101), 센서 적응 선호(Sensor Adaptation Preference)(102) 및 감지 정보(Sensed Information)(103)를 가상 세계 처리 장치로 전송할 수 있다.
센서 특성(101)은 센서의 특성에 대한 정보이다. 센서 적응 선호(102)는 센서의 사용자가 센서의 특성에 대해서 선호하는 정도를 나타내는 정보이다. 감지 정보(103)는 센서가 현실 세계(110)를 감지한 정보이다.
일실시예에 따른 가상 세계 처리 장치는 적응 RV(Adaptation Real World to Virtual World)(120), VWI(Virtual World Information, 가상 세계 정보)(104) 및 적응 RV/VR(Adaptation Real World to Virtual World/Virtual World to Real World)(130)를 포함할 수 있다.
적응 RV(120)는 센서 특성(101) 및 센서 적응 선호(102)에 기초하여 센서가 현실 세계(110)에 대해서 감지한 감지 정보(103)를 가상 세계(140)에 적용할 수 있는 정보로 변환할 수 있다. 실시예에 따라, 적응 RV(120)는 RV 엔진(real world to virtual world engine, RV engine)으로 구현될 수 있다.
일실시예에 따른 적응 RV(120)는 변환된 감지 정보(103)를 이용하여 VWI(Virtual World Information, 가상 세계 정보)(104)를 변환할 수 있다.
VWI(104)는 가상 세계(140)의 가상 객체(Virtual Object)에 대한 정보이다.
적응 RV/VR(130)은 변환된 VWI(104)를 인코딩하여 가상 세계(140)에 적용되는 효과에 대한 메타데이터인 VWEM(Virtual World Effect Metadata, 가상 세계 효과 메타데이터)(107)을 생성할 수 있다. 실시예에 따라서는, 적응 RV/VR(130)은 VWC(Virtual World Capabilities, 가상 세계 특성)(105) 및 VWP(Virtual World Preferences, 가상 세계 선호)(106)에 기초하여 VWEM(107)을 생성할 수 있다.
VWC(105)는 가상 세계(140)의 특성에 대한 정보이다. 또한, VWP(106)는 가상 세계(140)의 특성에 대한 사용자의 선호 정도를 나타내는 정보이다.
또한, 적응 RV/VR(130)은 VWEM(107)을 가상 세계(140)로 전송할 수 있다. 이 때, VWEM(107)은 가상 세계(140)이 적용되어, 감지 정보(103)에 대응하는 효과가 가상 세계(140)에서 구현될 수 있다.
본 발명의 일측에 따르면, 가상 세계(140)에서 발생한 효과 이벤트가 현실 세계(110)에서 엑츄에이터(Actuator)인 실감 장치에 의해서 구동될 수 있다.
가상 세계(140)는 가상 세계(140)에서 발생한 효과 이벤트에 대한 정보인 실감 효과 정보(Sensory Effect Information)를 인코딩하여 SEM(Sensory Effect Metadata, 실감 효과 메타데이터)(111)을 생성할 수 있다. 실시예에 따라서는, 가상 세계(140)는 실감 효과 정보를 포함하는 컨텐츠를 재생하는 실감 미디어 재생 장치를 포함할 수 있다.
적응 RV/VR(130)는 SEM(111)에 기초하여 실감 정보(Sensory Information)(112)를 생성할 수 있다. 실감 정보(112)는 현실 세계(110)의 실감 장치에서 구현되는 효과 이벤트에 대한 정보이다.
적응 VR(150)는 현실 세계(110)의 실감 장치의 동작을 제어하는 SDCmd(Sensory Device Command, 실감 장치 명령)(115)에 대한 정보를 생성할 수 있다. 실시예에 따라서는, 적응 VR(150)은 SDCap(Sensory Device Capabilities, 실감 장치 특성)(113)에 대한 정보 및 USP(User Sensory Preference, 사용자 실감 선호)(114)에 대한 정보에 기초하여 SDCmd(115)에 대한 정보를 생성할 수 있다.
SDCap(113)은 실감 장치의 특성에 대한 정보이다. 또한, USP(114)는 실감 장치에서 구현되는 효과에 대한 사용자의 선호 정도를 나타내는 정보이다.
도 2는 본 발명의 일실시예에 따른 가상 세계 처리 장치의 구성을 나타내는 도면이다.
도 2를 참조하면, 본 발명의 일실시예에 따른 가상 세계 처리 장치(200)는 수신부(210), 처리부(220) 및 전송부(230)를 포함한다.
수신부(210)는 벤딩 센서(260)로부터 벤딩 센서(260)가 측정하는 감지 위치의 각도값 및 벤딩 센서(260)의 특성에 대한 센서 특성을 수신한다.
벤딩 센서(Bending Sensor)(260)는 현실 세계의 객체의 구부러진 정도에 대한 감지 정보(Sensed Information)를 측정하는 센서이다. 감지 정보는 벤딩 센서(260)가 측정한 감지 위치의 구부러진 정도(즉, 각도)에 대한 측정값이다.
실시예에 따라서는, 벤딩 센서(260)는 감지 위치에 부착/결합되어 감지 위치의 구부러지는 정도(즉, 각도값)를 측정할 수 있다. 예를 들어, 사용자(250)가 벤딩 센서(260)를 팔꿈치에 부착하는 경우, 벤딩 센서(260)는 사용자(250)의 팔꿈치의 구부러지는 정도(즉, 팔꿈치의 각도)를 감지할 수 있다. 이 때, 벤딩 센서(260)는 팔꿈치의 각도값 및 벤딩 센서(260)의 센서 특성을 가상 세계 처리 장치(200)에게 전송할 수 있다.
일실시예에 따른 벤딩 센서(260)는 사용자(250)의 팔꿈치, 손가락 관절, 목, 어깨 등 기타 관절 부위에 결합되어 구부러지는 정도를 측정할 수 있다.
센서 특성(Sensor Capability)은 벤딩 센서(260)의 특성에 대한 정보이다.
일실시예에 따른 벤딩 센서(260)에 대한 센서 특성은 최대값(maxValue), 최소값(minValue), 위치개수(Num of Locations), 위치사이거리(Distance between Location), 축개수(numOfAxes) 및 센서개수(numOfSensors)를 포함할 수 있다.
최대값은 벤딩 센서(260)가 측정할 수 있는 최대 각도값이다. 최소값은 벤딩 센서(260)가 측정할 수 있는 최소 각도값이다. 일실시예에 따른 벤딩 센서(260)는 최대값보다 작고, 최소값보다 큰 범위 내에서 감지 위치의 각도를 측정할 수 있다.
위치개수는 벤딩 센서(260)가 감지하는 감지 위치의 개수를 나타낸다. 본 발명의 일측에 따르면, 하나의 벤딩 센서(260)는 동시에 복수 개의 감지 위치의 구부러지는 정도를 감지할 수 있으며, 이 때의 위치개수는 하나의 벤딩 센서(260)가 측정하는 복수 개의 감지 위치의 개수일 수 있다. 또한, 실시예에 따라서는, 복수 개의 벤딩 센서(260)가 복수 개의 감지 위치를 측정할 수 있으며, 이 때의 위치개수는 복수 개의 벤딩 센서(260)가 측정하는 복수 개의 감지 위치의 개수일 수 있다.
위치사이거리는 벤딩 센서(260)가 감지하는 감지 위치 사이의 거리를 나타낸다. 본 발명의 일측에 따르면, 복수 개의 벤딩 센서(260)가 복수 개의 감지 위치를 감지할 수 있다.
축개수는 벤딩 센서가 감지할 수 있는 각도값의 크기(Dimension)를 나타낸다.
센서개수는, 복수 개의 벤딩 센서(260)가 복수 개의 감지 위치를 측정하는 경우, 복수 개의 벤딩 센서(260)가 감지할 수 있는 조각(segments)을 나타낸다.
실시예에 따라서는, 벤딩 센서(260)의 센서 특성은 정확도(Accuracy) 및 오프셋(Offset)을 더 포함할 수 있다.
정확도는 벤딩 센서(260)의 측정 오차에 대한 정보이다.
오프셋은 벤딩 센서(260)가 측정하는 각도값의 영점 조정을 위한 값이다.
표 1은 본 발명의 일실시예에 따른 벤딩 센서 특성 타입(Bending Sensor Capability Type)에 대한 XML 신택스(eXtensible Markup Language Syntax)를 나타낸다. 벤딩 센서 특성 타입은 벤딩 센서(260)의 기본적인 센서 특성에 대한 정보를 나타낸다.
표 1
<!-- ################################################ -->
<!-- Bending Sensor capability type -->
<!-- ################################################ -->
<complexType name="BendSensorCapabilityType">
<complexContent>
<extension base="cid:SensorCapabilityBaseType">
<attribute name="numOfLocations" type="nonNegativeInteger" use="optional"/>
<attribute name="distanceBtwnLocations" type="float" use="optional"/>
<attribute name="numOfAxes" type="nonNegativeInteger" use="optional" default="1"/>
<attribute name="numOfSensors" type="nonNegativeInteger" use="optional" default="1"/>
</extension>
</complexContent>
</complexType>
표 2는 일실시예에 따른 벤딩 센서 특성 타입에 대한 시멘틱(Semantics)을 나타낸다.
표 2
Figure pat00001

본 발명의 일측에 따르면, 센서 특성은 이진 형태(binary format)로 인코딩된 메타 데이터일 수 있다. 자세히 설명하면, 일실시예에 따른 벤딩 센서는 센서 특성을 이진 형태로 인코딩하여 메타 데이터를 생성하고, 생성된 메타 데이터를 가상 세계 처리 장치(200)로 전송할 수 있다. 이 때, 수신부(210)는 이진 형태로 인코딩된 메타 데이터인 센서 특성을 수신할 수 있다.
표 2-2는 본 발명의 일실시예에 따른 벤딩 센서 특성 타입에 대한 이진 부호화 신택스(Binary Representation Syntax)를 나타낸다.
표 2-2
Figure pat00002
표 2-3은 본 발명의 일실시예에 따른 벤딩 센서 특성 타입의 이진 부호화에 대한 시멘틱(Semantics)을 나타낸다.
표 2-3
Figure pat00003
표 2-3을 참조하면, 이진 형태로 인코딩된 메타 데이터는 위치개수(Num of Locations), 축개수(numOfAxes) 및 센서개수(numOfSensors) 중 적어도 하나의 속성(Attribute)에 대한 데이터 필드(Data Field)를 포함할 수 있다. 따라서, 이진 형태로 인코딩된 메타 데이터인 센서 특성은 위치개수, 축개수 및 센서개수 중 적어도 하나의 속성에 대한 데이터 필드를 포함함으로써, 데이터의 크기를 한정할 수 있다.
표 3은 벤딩 센서(260)에 대한 센서 특성의 일예시를 나타낸다.
표 3
cidl:SensorDeviceCapability xsi:type="scdv:BendingSensorCapabilityType" id="BS001" maxValue="90.0" minValue="-30.0" numOfLevels="2500" offset="0.05" >
<cidl:Accuracy xsi:type="cidl:ValueAccuracy" value="0. 1"/>
</cidl:SensorDeviceCapability>
표 3을 참조하면, 일실시예에 따른 벤딩 센서(260)의 식별자(ID)는 'BS001'일 수 있다. 또한, 벤딩 센서(260)가 측정할 수 있는 감지 위치의 구부러지는 정도(즉 각도)의 최대값은 '90.0 도(Degree)'이고, 최소값은 '-30.0 도'일 수 있다. 또한, Number of Levels는 '2500 레벨(Level)'이고, 벤딩 센서(260)의 정확도는 '0.1 도'일 수 있다. 또한, 벤딩 센서(260)에 대한 오프셋은 '0.05 도'일 수 있다.
표 4는 본 발명의 제1 실시예에 따른 벤딩 센서 타입(Bending Sensor Type)에 대한 XML 신택스를 나타낸다. 벤딩 센서 타입은 벤딩 센서(260)가 측정하는 감지 정보에 대한 정보를 나타낸다.
표 4
<!--#################################### -->
<!--Definition of Bending Sensor type -->
<!--#################################### -->
<complexType name="BendingSensorType">
<complexContent>
<extension base="iidl:SensedInfoBaseType">
<sequence>
<element name="Value" type="float" minOccurs="0" maxOccurs="unbounded"/>
</sequence>
<attribute name="unit" type="mpegvct:unitType" use="optional"/>
</extension>
</complexContent>
</complexType>
일실시예에 따른 벤딩 센서 타입은 타임스탬프(TimeStamp), 단위(Unit) 및 값(Value)를 포함할 수 있다.
타임스탬프는 벤딩 센서(260)가 감지 위치의 각도값을 측정한 때의 시간 정보이다. 실시예에 따라서는, 타임스탬프는 벤딩 센서(260)가 각도값을 측정하는 시간 간격에 대한 정보일 수 있다.
단위는 벤딩 센서(260)가 측정하는 각도에 대한 단위이다. 실시예에 따라서는, 값은 '도(Degree)'를 포함할 수 있다.
값은 벤딩 센서(260)가 측정한 각도의 값이다. 실시예에 따라서는, 하나의 감지 위치에 대하여 복수 개의 벤딩 센서(260)가 각도값을 측정하는 경우, 감지 위치에 대한 각도값은 복수 개의 벤딩 센서(260)가 측정한 복수 개의 각도값의 합일 수 있다.
이하 도 3을 참조하여 복수 개의 벤딩 센서(260)가 각도값을 측정하는 동작에 대해서 상세히 설명한다.
도 3은 본 발명의 일실시예에 따른 복수 개의 벤딩 센서가 감지 위치를 측정하는 동작을 나타낸다.
도 3을 참조하면, 복수 개의 벤딩 센서(310)가 감지 위치(320)의 구부러진 정도(즉, 각도값)를 측정할 수 있다.
이 때, 복수 개의 벤딩 센서(310)가 측정한 개별적인 각도값의 총합이 감지 위치(320)에 대한 각도값일 수 있다. 예를 들어, 10개의 벤딩 센서(310)가 감지 위치(320)의 각도값을 측정하는 경우로서, 10개의 벤딩 센서(310)가 측정한 개별적인 각도값이 1도, 3도, 5도, 10도, 12도, 12도, 9도, 5도, 2도 및 1도인 경우, 감지 위치(320)에 대한 각도값은 10개의 벤딩 센서(310)가 측정한 개별적인 각도값의 총합인 60도일 수 있다.
다시 도 2를 참조하면, 표 4-2는 제1 실시예에 따른 벤딩 센서 타입에 대한 시멘틱(Semantics)을 나타낸다.
표 4-2
Figure pat00004
표 4-3는 본 발명의 제1 실시예에 따른 벤딩 센서 타입에 대한 이진 부호화 신택스(Binary Representation Syntax)를 나타낸다.
표 4-3
Figure pat00005
표 4-4은 본 발명의 제1 실시예에 따른 벤딩 센서 타입의 이진 부호화에 대한 시멘틱(Semantics)을 나타낸다.
표 4-4
Figure pat00006
표 5는 제2 실시예에 따른 벤딩 센서 타입(Bending Sensor Type)에 대한 XML 신택스를 나타낸다.
표 5
<!--#################################### -->
<!--Definition of Bending Sensor type -->
<!--#################################### -->
<complexType name="BendingSensorType">
<complexContent>
<extension base="iidl:SensedInfoBaseType">
<choice>
<element name="ArrayBendingValue" type="mpeg7:FloatMatrixType" minOccurs="0" maxOccurs="unbounded"/>
<element name="Value" type="float"/>
</sequence>
<attribute name="unit" type="mpegvct:unitType" use="optional"/>
</extension>
</complexContent>
</complexType>
표 5-2는 제2 실시예에 따른 벤딩 센서 타입에 대한 시멘틱(Semantics)을 나타낸다.
표 5-2
Figure pat00007
표 6은 제3 실시예에 따른 벤딩 센서 타입(Bending Sensor Type)에 대한 XML 신택스를 나타낸다.
표 6
<!--#################################### -->
<!--Definition of Bending Sensor type -->
<!--#################################### -->
<complexType name="BendingSensorType">
<complexContent>
<extension base="iidl:SensedInfoBaseType">
<sequence>
<element name="ArrayBendingValue" type="mpeg7:FloatMatrixType" minOccurs="1" maxOccurs="unbounded"/>
</sequence>
<attribute name="unit" type="mpegvct:unitType" use="optional"/>
</extension>
</complexContent>
</complexType>
표 6-2는 제3 실시예에 따른 벤딩 센서 타입에 대한 시멘틱(Semantics)을 나타낸다.
표 6-2
Figure pat00008
표 7은 본 발명의 일실시예에 따른 벤딩 센서 타입에 대한 이진 부호화 신택스(Binary Representation Syntax)를 나타낸다.
표 7
Figure pat00009
표 7-2는 본 발명의 일실시예에 따른 벤딩 센서 타입의 이진 부호화에 대한 시멘틱(Semantics)을 나타낸다.
표 7-2
Figure pat00010

표 8은 벤딩 센서(260)에 측정한 감지 정보의 일예시를 나타낸다.
표 8
<iidl:SensedInfo xsi:type="siv:BendingSensorType" id="bending01" activate="true" sensorIdRef="bendingID01">
<iidl:TimeStamp xsi:type="mpegvct:ClockTickTimeType" timeScale="100" pts="60000"/>
</iidl:SensedInfo>
표 8을 참조하면, 감지 정보의 식별자는 'bending01'이고, 벤딩 센서(260)의 식별자는 'bendingID01'일 수 있다. 즉, 'bendingID01'의 벤딩 센서(260)가 측정한 감지 정보는 'bending01'일 수 있다. 또한, 벤딩 센서(260)의 타임스탬프는 1초에 100 클락 체크(100 Clock Ticks per Second)하는 값인 '60000'일 수 있다.
처리부(220)는 수신부(210)가 벤딩 센서(260)로부터 수신한 각도값 및 센서 특성에 기초하여, 감지 위치에 대응하는 가상 세계(270)의 객체(280)를 제어하는 제어 정보를 생성할 수 있다.
예를 들어, 사용자(250)의 팔꿈치의 각도가 180도에서 90도로 변화하면, 벤딩 센서(260)는 각도값을 측정하여 가상 세계 처리 장치(200)로 전송할 수 있다. 이 때, 처리부(260)는 각도값 및 센서 특성에 기초하여, 감지 위치(즉, 팔꿈치)에 대응하는 가상 세계(270)의 객체(280)(예를 들어, 아바타)도 팔꿈치를 움직이도록 제어하는 제어 정보를 생성할 수 있다.
본 발명의 일측에 따르면, 벤딩 센서(260)가 측정한 각도값이 벤딩 센서(260)가 측정할 수 있는 최대값보다 작거나 같고, 최소값보다 크거나 같은 경우, 처리부(220)는 제어 정보를 생성할 수 있다.
실시예에 따라서는, 각도값이 최대값을 초과하면, 처리부(220)는 각도값을 최대값으로 하여 제어 정보를 생성할 수 있다. 또한, 각도값이 최소값의 미만인 경우, 처리부(220)는 각도값을 최소값으로 하여 제어 정보를 생성할 수 있다.
전송부(230)는 생성된 제어 정보를 가상 세계(270)로 전송할 수 있다.
실시예에 따라서는, 전송부(230)는 제어 정보를 XML 형태의 메타데이터로 인코딩하여 가상 세계(270)로 전송할 수 있다. 또한, 전송부(230)는 제어 정보를 이진 형태의 메타데이터로 인코딩하여 가상 세계(270)로 전송할 수 있다. 또한, 전송부(230)는 제어 정보를 XML 형태의 제1 메타데이터로 인코딩하고, 제1 메타데이터를 이진 형태의 제2 메타데이터로 인코딩하여 가상 세계(270)로 전송할 수 있다.
본 발명의 일측에 따르면, 가상 세계 처리 장치(200)는 연산부(240)를 더 포함할 수 있다.
연산부(240)는 제1 감지 위치에 대한 제1 각도값 및 제2 감지 위치에 대한 제2 각도값에 기반하여, 상기 제1 감지 위치와 상기 제2 감지 위치 사이에 위치하는 제3 감지 위치에 대한 제3 각도값을 연산할 수 있다.
이 때, 처리부(220)는 제1 각도값, 제2 각도값, 제3 각도값 및 센서 특성에 기초하여 제어 정보를 생성할 수 있다.
이하 도 4를 참조하여 제3 각도값을 연산하는 동작에 대해서 상세히 설명한다.
도 4는 본 발명의 일실시예에 따른 가상 세계 처리 장치가 각도값을 연산하는 동작을 나타낸다.
도 4를 참조하면, 본 발명의 일실시예에 따른 벤딩 센서(410)는 제1 감지 위치(401)(예를 들어, 어깨)에 대한 제1 각도값을 측정할 수 있다. 또한, 벤딩 센서(420)는 제2 감지 위치(403)(예를 들어, 손목)에 대한 제2 각도값을 측정할 수 있다.
본 발명의 일측에 따르면, 가상 세계 처리 장치는 제1 각도값 및 제2 각도값에 기반하여, 벤딩 센서(410, 420)가 측정할 수 없는 제3 감지 위치(402)의 제3 각도값을 연산할 수 있다.
실시예에 따라서는, 가상 세계 처리 장치는 제1 각도값 및 제2 각도값의 평균을 제3 각도값으로 할 수 있다.
실시예에 따라서는, 가상 세계 처리 장치는 제1 각도값 및 제2 각도값에 따른 제3 각도값을 수집하여 저장한 데이터베이스를 더 포함하고, 데이터베이스에 저장된 정보, 제1 각도값 및 제2 각도값에 기반하여 제3 각도값을 연산할 수 있다.
도 5는 본 발명의 일실시예에 따른 아바타 제어 특징점 타입의 구조를 나타내는 도면이다.
도 5를 참조하면, 본 발명의 일실시예에 따른 아바타 제어 특징점 타입(Avatar Control Features Type)(510)은 속성(Attributes)(520), 제어 몸체 특징점(Control Body Features)(530) 및 제어 얼굴 특징점(Control Face Features)(540)을 포함할 수 있다.
아바타 제어 특징점 정보는 가상 세계의 아바타를 제어하는데 이용되는 아바타의 특징점에 대한 정보이다. 이 때, 아바타 제어 특징점 타입(510)은 아바타 제어 특징점 정보의 유형(Type)에 대한 정보이다.
속성(520)은 아바타 제어 특징점 정보의 속성에 대한 정보이다. 실시예에 따라서는, 속성(520)은 아바타를 제어하는데 이용되는 특징점에 대한 이름(Name) 정보를 포함할 수 있다.
제어 몸체 특징점(530)은 아바타를 제어하는데 이용되는 특징점으로서 아바타의 몸체 부분에 포함되는 특징점을 나타낸다.
실시예에 따라서는, 제어 몸체 특징점(530)은 머리뼈대(HeadBones)(531), 상체뼈대(UpperBodyBones)(532), 하체뼈대(DownBodyBones)(533) 및 중체뼈대(MiddleBodyBones)(534)로 분류될 수 있다.
예를 들어, 상체뼈대(532)는 아바타의 손구조에 대응하는 특징점에 대한 정보를 포함할 수 있다.
또한, 손구조는 속목, 손가락 관절 등 하위 구조를 포함할 수 있다.
표 9은 일실시예에 따른 손구조의 하위 구조를 나타낸다.
표 9
Figure pat00011
본 발명의 일측에 따르면, 가상 세계 처리 장치는 벤딩 센서가 측정한 감지 정보에 기반하여, 감지 위치에 대응하는 아바타 제어 특징점을 제어하는 제어 정보를 생성할 수 있다. 즉, 벤딩 센서가 측정하는 감지 위치는 아바타 제어 특징점 중 적어도 어느 하나에 대응할 수 있다.
예를 들어, 벤딩 센서가 현실 세계의 사용자의 손목의 구부러진 정도를 측정하는 경우, 가상 세계 처리 장치는 측정된 각도값에 기초하여, 사용자의 손목에 대응하는 가상 세계의 아바타의 손목의 동작을 제어하는 제어 정보를 생성할 수 있다.
도 6은 본 발명의 일실시예에 따른 가상 세계 처리 방법을 나타내는 흐름도이다.
도 6을 참조하면, 본 발명의 일실시예에 따른 가상 세계 처리 방법은 벤딩 센서로부터 감지 위치의 각도값 및 벤딩 센서에 대한 센서 특성을 수신할 수 있다(S610).
벤딩 센서(Bending Sensor)는 현실 세계의 객체의 구부러진 정도에 대한 감지 정보(Sensed Information)를 측정하는 센서이다. 감지 정보는 벤딩 센서가 측정한 감지 위치의 구부러진 정도(즉, 각도)에 대한 측정값이다.
실시예에 따라서는, 벤딩 센서는 감지 위치에 부착/결합되어 감지 위치의 구부러지는 정도(즉, 각도값)를 측정할 수 있다. 예를 들어, 사용자가 벤딩 센서를 팔꿈치에 부착하는 경우, 벤딩 센서는 사용자의 팔꿈치의 구부러지는 정도(즉, 팔꿈치의 각도)를 감지할 수 있다. 이 때, 가상 세계 처리 방법은 벤딩 센서로부터 팔꿈치의 각도값 및 벤딩 센서의 센서 특성을 수신할 수 있다.
일실시예에 따른 벤딩 센서는 사용자의 팔꿈치, 손가락 관절, 목, 어깨 등 기타 관절 부위에 결합되어 구부러지는 정도를 측정할 수 있다.
센서 특성(Sensor Capability)은 벤딩 센서의 특성에 대한 정보이다.
일실시예에 따른 벤딩 센서에 대한 센서 특성은 최대값(maxValue), 최소값(minValue), 위치개수(Num of Locations), 위치사이거리(Distance between Location), 축개수(numOfAxes) 및 센서개수(numOfSensors)를 포함할 수 있다.
최대값은 벤딩 센서가 측정할 수 있는 최대 각도값이다. 최소값은 벤딩 센서가 측정할 수 있는 최소 각도값이다. 일실시예에 따른 벤딩 센서는 최대값보다 작고, 최소값보다 큰 범위 내에서 감지 위치의 각도를 측정할 수 있다.
위치개수는 벤딩 센서가 감지하는 감지 위치의 개수를 나타낸다. 본 발명의 일측에 따르면, 하나의 벤딩 센서는 동시에 복수 개의 감지 위치의 구부러지는 정도를 감지할 수 있으며, 이 때의 위치개수는 하나의 벤딩 센서가 측정하는 복수 개의 감지 위치의 개수일 수 있다. 또한, 실시예에 따라서는, 복수 개의 벤딩 센서가 복수 개의 감지 위치를 측정할 수 있으며, 이 때의 위치개수는 복수 개의 벤딩 센서가 측정하는 복수 개의 감지 위치의 개수일 수 있다.
위치사이거리는 벤딩 센서가 감지하는 감지 위치 사이의 거리를 나타낸다. 본 발명의 일측에 따르면, 복수 개의 벤딩 센서가 복수 개의 감지 위치를 감지할 수 있다.
축개수는 벤딩 센서가 감지할 수 있는 각도값의 크기(Dimension)를 나타낸다.
센서개수는, 복수 개의 벤딩 센서가 복수 개의 감지 위치를 측정하는 경우, 복수 개의 벤딩 센서가 감지할 수 있는 조각(segments)을 나타낸다.
실시예에 따라서는, 벤딩 센서의 센서 특성은 정확도(Accuracy) 및 오프셋(Offset)을 더 포함할 수 있다.
정확도는 벤딩 센서의 측정 오차에 대한 정보이다.
오프셋은 벤딩 센서가 측정하는 각도값의 영점 조정을 위한 값이다.
본 발명의 일측에 따르면, 센서 특성은 이진 형태(binary format)로 인코딩된 메타 데이터일 수 있다. 일실시예에 따른 이진 형태로 인코딩된 메타 데이터는 위치개수(Num of Locations), 축개수(numOfAxes) 및 센서개수(numOfSensors) 중 적어도 하나의 속성(Attribute)에 대한 데이터 필드(Data Field)를 포함할 수 있다.
벤딩 센서 타입은 벤딩 센서가 측정하는 감지 정보에 대한 정보를 나타낸다.
일실시예에 따른 벤딩 센서 타입은 타임스탬프(TimeStamp), 단위(Unit) 및 값(Value)를 포함할 수 있다.
타임스탬프는 벤딩 센서가 감지 위치의 각도값을 측정한 때의 시간 정보이다. 실시예에 따라서는, 타임스탬프는 벤딩 센서가 각도값을 측정하는 시간 간격에 대한 정보일 수 있다.
단위는 벤딩 센서가 측정하는 각도에 대한 단위이다. 실시예에 따라서는, 값은 '도(Degree)'를 포함할 수 있다.
값은 벤딩 센서가 측정한 각도의 값이다. 실시예에 따라서는, 하나의 감지 위치에 대하여 복수 개의 벤딩 센서가 각도값을 측정하는 경우, 감지 위치에 대한 각도값은 복수 개의 벤딩 센서가 측정한 복수 개의 각도값의 합일 수 있다.
가상 세계 처리 방법은 벤딩 센서로부터 수신한 각도값 및 센서 특성에 기초하여, 감지 위치에 대응하는 가상 세계의 객체를 제어하는 제어 정보를 생성할 수 있다(S620).
예를 들어, 사용자의 팔꿈치의 각도가 180도에서 90도로 변화하면, 벤딩 센서는 각도값을 측정할 수 있다. 이 때, 가상 세계 처리 방법은 각도값 및 센서 특성에 기초하여, 감지 위치(즉, 팔꿈치)에 대응하는 가상 세계의 객체(예를 들어, 아바타)도 팔꿈치를 움직이도록 제어하는 제어 정보를 생성할 수 있다.
본 발명의 일측에 따르면, 벤딩 센서가 측정한 각도값이 벤딩 센서가 측정할 수 있는 최대값보다 작거나 같고, 최소값보다 크거나 같은 경우, 가상 세계 처리 방법은 제어 정보를 생성할 수 있다.
실시예에 따라서는, 각도값이 최대값을 초과하면, 가상 세계 처리 방법은 각도값을 최대값으로 하여 제어 정보를 생성할 수 있다. 또한, 각도값이 최소값의 미만인 경우, 가상 세계 처리 방법은 각도값을 최소값으로 하여 제어 정보를 생성할 수 있다.
가상 세계 처리 방법은 생성된 제어 정보를 가상 세계로 전송할 수 있다(S630).
실시예에 따라서는, 가상 세계 처리 방법은 제어 정보를 XML 형태의 메타데이터로 인코딩하여 가상 세계로 전송할 수 있다. 또한, 가상 세계 처리 방법은 제어 정보를 이진 형태의 메타데이터로 인코딩하여 가상 세계로 전송할 수 있다. 또한, 가상 세계 처리 방법은 제어 정보를 XML 형태의 제1 메타데이터로 인코딩하고, 제1 메타데이터를 이진 형태의 제2 메타데이터로 인코딩하여 가상 세계로 전송할 수 있다.
본 발명의 일측에 따르면, 가상 세계 방법은 제1 감지 위치에 대한 제1 각도값 및 제2 감지 위치에 대한 제2 각도값에 기반하여, 상기 제1 감지 위치와 상기 제2 감지 위치 사이에 위치하는 제3 감지 위치에 대한 제3 각도값을 연산할 수 있다. 이 때, 가상 세계 처리 방법은 제1 각도값, 제2 각도값, 제3 각도값 및 센서 특성에 기초하여 제어 정보를 생성할 수 있다.
본 발명에 따른 실시예들은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(Floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 본 발명의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.
이상과 같이 본 발명은 비록 한정된 실시예와 도면에 의해 설명되었으나, 본 발명은 상기의 실시예에 한정되는 것은 아니며, 본 발명이 속하는 분야에서 통상의 지식을 가진 자라면 이러한 기재로부터 다양한 수정 및 변형이 가능하다.
그러므로, 본 발명의 범위는 설명된 실시예에 국한되어 정해져서는 아니 되며, 후술하는 특허청구범위뿐 아니라 이 특허청구범위와 균등한 것들에 의해 정해져야 한다.
110: 현실 세계
120: 적응 RV
130: 적응 RV/VR
140: 가상 세계

Claims (13)

  1. 벤딩 센서로부터 감지 위치의 각도값 및 상기 벤딩 센서의 특성에 대한 센서 특성을 수신하는 수신부;
    상기 각도값 및 상기 센서 특성에 기초하여, 상기 감지 위치에 대응하는 가상 세계의 객체를 제어하는 제어 정보를 생성하는 처리부; 및
    상기 생성된 제어 정보를 가상 세계로 전송하는 전송부
    를 포함하는 가상 세계 처리 장치.
  2. 제1항에 있어서, 상기 센서 특성은,
    상기 벤딩 센서가 측정할 수 있는 상기 각도값의 최대값 및 최소값을 포함하는 가상 세계 처리 장치.
  3. 제2항에 있어서, 상기 처리부는,
    상기 각도값이 상기 최대값보다 작거나 같고 상기 최소값보다 크거나 같은 경우, 상기 제어 정보를 생성하는 가상 세계 처리 장치.
  4. 제1항에 있어서, 상기 센서 특성은,
    상기 감지 위치의 개수를 포함하는 가상 세계 처리 장치.
  5. 제1항에 있어서, 상기 센서 특성은,
    상기 감지 위치 사이의 거리를 포함하는 가상 세계 처리 장치.
  6. 제1항에 있어서, 상기 각도값은,
    상기 감지 위치에 대하여 복수 개의 상기 벤딩 센서가 상기 각도값을 측정하는 경우, 상기 복수 개의 벤딩 센서가 측정한 복수 개의 각도값의 합인 가상 세계 처리 장치.
  7. 제1항에 있어서,
    제1 감지 위치에 대한 제1 각도값 및 제2 감지 위치에 대한 제2 각도값에 기반하여, 상기 제1 감지 위치와 상기 제2 감지 위치 사이에 위치하는 제3 감지 위치에 대한 제3 각도값을 연산하는 연산부
    를 더 포함하고,
    상기 처리부는 상기 제1 각도값, 상기 제2각도값, 상기 제3 각도값 및 상기 센서 특성에 기초하여 상기 제어 정보를 생성하는 가상 세계 처리 장치.
  8. 제1항에 있어서,
    상기 센서 특성은
    이진 형태로 인코딩된 메타 데이터인 가상 세계 처리 장치.
  9. 제8항에 있어서,
    상기 이진 형태로 인코딩된 메타 데이터는
    위치개수(Num of Locations), 축개수(numOfAxes) 및 센서개수(numOfSensors) 중 적어도 하나의 속성에 대한 데이터 필드를 포함하는 가상 세계 처리 장치.
  10. 벤딩 센서로부터 감지 위치의 각도값 및 상기 벤딩 센서의 특성에 대한 센서 특성을 수신하는 단계;
    상기 각도값 및 상기 센서 특성에 기초하여, 상기 감지 위치에 대응하는 가상 세계의 객체를 제어하는 제어 정보를 생성하는 단계; 및
    상기 생성된 제어 정보를 가상 세계로 전송하는 단계
    를 포함하는 가상 세계 처리 방법.
  11. 제10항에 있어서, 상기 각도값은,
    상기 감지 위치에 대하여 복수 개의 상기 벤딩 센서가 상기 각도값을 측정하는 경우, 상기 복수 개의 벤딩 센서가 측정한 복수 개의 각도값의 합인 가상 세계 처리 방법.
  12. 제10항에 있어서,
    제1 감지 위치에 대한 제1 각도값 및 제2 감지 위치에 대한 제2 각도값에 기반하여, 상기 제1 감지 위치와 상기 제2 감지 위치 사이에 위치하는 제3 감지 위치에 대한 제3 각도값을 연산하는 단계
    를 더 포함하고,
    상기 제어 정보를 생성하는 단계는,
    상기 제1 각도값, 상기 제2 각도값, 상기 제3 각도값 및 상기 센서 특성에 기초하여 상기 제어 정보를 생성하는 가상 세계 처리 방법.
  13. 제10항 내지 제12항 중 어느 한 항의 방법을 실행하는 프로그램을 기록한 컴퓨터 판독 가능 기록 매체.
KR1020110024448A 2010-04-13 2011-03-18 가상 세계 처리 장치 및 방법 KR101835413B1 (ko)

Priority Applications (7)

Application Number Priority Date Filing Date Title
US13/641,026 US9597592B2 (en) 2010-04-13 2011-04-06 Method and apparatus for processing virtual world
JP2013504805A JP5801872B2 (ja) 2010-04-13 2011-04-06 仮想世界処理装置及び方法
CN201410484088.9A CN104281262B (zh) 2010-04-13 2011-04-06 用于虚拟世界与现实世界之间的相互动作的方法
PCT/KR2011/002408 WO2011129543A2 (ko) 2010-04-13 2011-04-06 가상 세계 처리 장치 및 방법
CN201180018649.0A CN102858413B (zh) 2010-04-13 2011-04-06 虚拟世界处理装置及方法
EP11769009.9A EP2559463B1 (en) 2010-04-13 2011-04-06 Device and method for processing a virtual world
JP2015167901A JP6316251B2 (ja) 2010-04-13 2015-08-27 仮想世界処理装置及び方法

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR20100033947 2010-04-13
KR1020100033947 2010-04-13

Publications (2)

Publication Number Publication Date
KR20110114439A true KR20110114439A (ko) 2011-10-19
KR101835413B1 KR101835413B1 (ko) 2018-03-09

Family

ID=45029517

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020110024448A KR101835413B1 (ko) 2010-04-13 2011-03-18 가상 세계 처리 장치 및 방법

Country Status (6)

Country Link
US (1) US9597592B2 (ko)
EP (1) EP2559463B1 (ko)
JP (2) JP5801872B2 (ko)
KR (1) KR101835413B1 (ko)
CN (2) CN104281262B (ko)
WO (1) WO2011129543A2 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013118941A1 (en) * 2012-02-06 2013-08-15 Lg Electronics Inc. Portable device and method for controlling the same

Families Citing this family (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20100138700A (ko) * 2009-06-25 2010-12-31 삼성전자주식회사 가상 세계 처리 장치 및 방법
KR101685922B1 (ko) * 2010-04-05 2016-12-13 삼성전자주식회사 가상 세계 처리 장치 및 방법
KR101367412B1 (ko) * 2013-06-18 2014-02-24 우석 계 가상공간에서의 물리적 효과 제어 장치 및 그 방법
CN105056525A (zh) * 2015-08-17 2015-11-18 联想(北京)有限公司 一种信息处理方法及电子设备
US20170259167A1 (en) * 2016-03-14 2017-09-14 Nathan Sterling Cook Brainwave virtual reality apparatus and method
US10627909B2 (en) * 2017-01-10 2020-04-21 Disney Enterprises, Inc. Simulation experience with physical objects
CN107344019B (zh) * 2017-07-28 2023-11-21 歌尔科技有限公司 一种虚拟现实系统
CN109579689B (zh) * 2017-09-29 2020-12-08 西门子公司 曲率测量装置
GB2569603B (en) 2017-12-21 2020-04-01 Sony Interactive Entertainment Inc Position tracking apparatus and method
JP7070245B2 (ja) * 2018-08-27 2022-05-18 富士通株式会社 情報処理装置、動作制御プログラム、及び動作制御方法
JP7359422B2 (ja) * 2018-11-07 2023-10-11 学校法人法政大学 仮想体の動作制御システム、人体拘束治具、及び仮想体の動作制御方法
CN110822661B (zh) * 2019-11-25 2021-12-17 广东美的制冷设备有限公司 空调器的控制方法、空调器及存储介质
CN110822642B (zh) * 2019-11-25 2021-09-14 广东美的制冷设备有限公司 空调器及其控制方法和计算机存储介质
CN110822641A (zh) * 2019-11-25 2020-02-21 广东美的制冷设备有限公司 空调器及其控制方法、装置和可读存储介质
CN110822643B (zh) * 2019-11-25 2021-12-17 广东美的制冷设备有限公司 空调器及其控制方法和计算机存储介质
CN110822647B (zh) * 2019-11-25 2021-12-17 广东美的制冷设备有限公司 空调器的控制方法、空调器及存储介质
CN110822649B (zh) * 2019-11-25 2021-12-17 广东美的制冷设备有限公司 空调器的控制方法、空调器及存储介质
CN110822646B (zh) * 2019-11-25 2021-12-17 广东美的制冷设备有限公司 空调器的控制方法、空调器及存储介质
CN110822645B (zh) * 2019-11-25 2021-12-17 广东美的制冷设备有限公司 空调器及其控制方法、装置和可读存储介质
CN110822644B (zh) * 2019-11-25 2021-12-03 广东美的制冷设备有限公司 空调器及其控制方法和计算机存储介质
JP2021089691A (ja) * 2019-12-06 2021-06-10 未來市股▲ふん▼有限公司 動作追跡システム及び動作追跡方法
EP4119308A4 (en) * 2020-03-11 2023-08-30 Sony Group Corporation INFORMATION PROCESSING DEVICE, INFORMATION PROCESSING METHOD AND INFORMATION PROCESSING PROGRAM

Family Cites Families (31)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03228092A (ja) * 1990-02-02 1991-10-09 Hitachi Ltd 文字パターン生成方法
JPH09153151A (ja) * 1995-11-30 1997-06-10 Matsushita Electric Ind Co Ltd 3次元骨格構造の動き生成装置
JP3862348B2 (ja) * 1997-03-19 2006-12-27 東京電力株式会社 モーションキャプチャシステム
WO1998047426A1 (en) * 1997-04-21 1998-10-29 Virtual Technologies, Inc. Goniometer-based body-tracking device and method
US6049327A (en) * 1997-04-23 2000-04-11 Modern Cartoons, Ltd System for data management based onhand gestures
US5963891A (en) * 1997-04-24 1999-10-05 Modern Cartoons, Ltd. System for tracking body movements in a virtual reality system
JPH1157212A (ja) * 1997-08-24 1999-03-02 Sony Computer Entertainment:Kk ゲーム装置、ゲーム機用操作装置、ゲームシステム及びゲーム装置の双方向通信方法
US6154199A (en) * 1998-04-15 2000-11-28 Butler; Craig L. Hand positioned mouse
US6304840B1 (en) * 1998-06-30 2001-10-16 U.S. Philips Corporation Fingerless glove for interacting with data processing system
JP2000132305A (ja) 1998-10-23 2000-05-12 Olympus Optical Co Ltd 操作入力装置
CN2358435Y (zh) * 1999-03-10 2000-01-12 中国科学院自动化研究所 柔性角度传感器
JP2000329511A (ja) * 1999-05-19 2000-11-30 Sony Corp データグローブ及びこれを用いた形状認識方法
US6577952B2 (en) * 2001-01-08 2003-06-10 Motorola, Inc. Position and heading error-correction method and apparatus for vehicle navigation systems
JP3584229B2 (ja) 2001-09-28 2004-11-04 キヤノン株式会社 映像体験システムおよび情報処理方法
US20030062675A1 (en) 2001-09-28 2003-04-03 Canon Kabushiki Kaisha Image experiencing system and information processing method
US7033281B2 (en) * 2002-03-22 2006-04-25 Carnahan James V Augmented kinematic feedback device and method
CN1167996C (zh) * 2002-07-11 2004-09-22 庄胜雄 可形成虚拟追踪球的手套滑鼠
JP2004192325A (ja) * 2002-12-11 2004-07-08 Nippon Telegr & Teleph Corp <Ntt> ユーザ姿勢情報伝達方法,ユーザ姿勢情報送信装置,ユーザ姿勢情報受信装置,ユーザ姿勢情報送信プログラム,ユーザ姿勢情報受信プログラム,およびそれらのプログラムを記録した記録媒体
JP2004213350A (ja) 2002-12-27 2004-07-29 Seiko Epson Corp 力覚提示装置及び画像補正方法
CN2725994Y (zh) * 2004-05-13 2005-09-14 中国科学院自动化研究所 一种触觉反馈数据手套
JP2005337983A (ja) * 2004-05-28 2005-12-08 Spice:Kk モーションキャプチャー方法及びシステム
CN101316630A (zh) * 2005-07-15 2008-12-03 鲍尔格力德健身器材公司 等长锻炼系统和便于用户在视频游戏期间训练的方法
JP2007041660A (ja) * 2005-08-01 2007-02-15 Nec Corp センサネットワーク、センサノード及びそのプログラムと、センサ情報検索方法
US7602301B1 (en) * 2006-01-09 2009-10-13 Applied Technology Holdings, Inc. Apparatus, systems, and methods for gathering and processing biometric and biomechanical data
US20080125224A1 (en) * 2006-09-26 2008-05-29 Pollatsek David Method and apparatus for controlling simulated in flight realistic and non realistic object effects by sensing rotation of a hand-held controller
JP4647632B2 (ja) * 2007-03-06 2011-03-09 日本電信電話株式会社 センサデータ制御システム及びセンサデータ制御方法
US8675017B2 (en) 2007-06-26 2014-03-18 Qualcomm Incorporated Real world gaming framework
US20090221368A1 (en) 2007-11-28 2009-09-03 Ailive Inc., Method and system for creating a shared game space for a networked game
JP5108032B2 (ja) * 2008-02-01 2012-12-26 旭光電機株式会社 多関節構造体教示装置
KR101483713B1 (ko) * 2008-06-30 2015-01-16 삼성전자 주식회사 모션 캡쳐 장치 및 모션 캡쳐 방법
JP5529400B2 (ja) * 2008-07-11 2014-06-25 任天堂株式会社 拡張操作装置

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013118941A1 (en) * 2012-02-06 2013-08-15 Lg Electronics Inc. Portable device and method for controlling the same
US8610663B2 (en) 2012-02-06 2013-12-17 Lg Electronics Inc. Portable device and method for controlling the same
US8947354B2 (en) 2012-02-06 2015-02-03 Lg Electronics Inc. Portable device and method for controlling the same
US8952893B2 (en) 2012-02-06 2015-02-10 Lg Electronics Inc. Portable device and method for controlling the same
US9046918B2 (en) 2012-02-06 2015-06-02 Lg Electronics Inc. Portable device and method for controlling the same

Also Published As

Publication number Publication date
KR101835413B1 (ko) 2018-03-09
JP5801872B2 (ja) 2015-10-28
JP6316251B2 (ja) 2018-04-25
JP2016026342A (ja) 2016-02-12
CN102858413A (zh) 2013-01-02
EP2559463A4 (en) 2014-02-26
WO2011129543A2 (ko) 2011-10-20
CN104281262A (zh) 2015-01-14
WO2011129543A3 (ko) 2012-02-02
US20130093665A1 (en) 2013-04-18
CN104281262B (zh) 2017-08-01
EP2559463A2 (en) 2013-02-20
JP2013535039A (ja) 2013-09-09
CN102858413B (zh) 2014-10-29
US9597592B2 (en) 2017-03-21
EP2559463B1 (en) 2020-10-07

Similar Documents

Publication Publication Date Title
KR101835413B1 (ko) 가상 세계 처리 장치 및 방법
JP6216512B2 (ja) 仮想世界処理装置および方法
JP6880081B2 (ja) 方向インタフェースオブジェクト
CN101438340B (zh) 用于三维输入控制的系统、方法和设备
JP2013540291A (ja) 仮想世界処理装置及び方法
KR101636734B1 (ko) 가상 세계 처리 장치 및 방법
JP5610735B2 (ja) 情報処理プログラム、情報処理装置、情報処理方法、および、情報処理システム
US20110306468A1 (en) Caloric burn determination from body movement
CN115701082A (zh) 共享移动数据
CN115641421A (zh) 基于运动的导航
CN117396255A (zh) 用于在玩传统游戏期间仿真图形参数和音频参数的系统和方法
KR20110050606A (ko) 1인칭 시점 축구시뮬레이션 게임 제어 방법
TW201023951A (en) Game device, method for selecting object, information recording medium, and program
US9616342B2 (en) Video game system, apparatus and method
US20220379205A1 (en) Systems and methods for emulation of user input during a play of a legacy game
KR101986608B1 (ko) 가상 세계 처리 장치 및 방법
TW201011615A (en) Audio processing apparatus, audio processing method, information recording medium, and program
JP4886575B2 (ja) 姿勢検出装置、姿勢検出方法、プログラム及び情報記憶媒体
JP4563267B2 (ja) ネットワークゲームシステム、ネットワークゲーム制御方法、ゲーム装置、ゲーム制御方法及びプログラム
KR20120106369A (ko) 가상 세계 처리 장치 및 방법
CN102058976A (zh) 用于跟踪环境中的用户操纵的系统
KR102024863B1 (ko) 가상 세계 처리 장치 및 방법
CN116635120A (zh) 用于将传统代码转换为更新代码的系统和方法
KR20090004207A (ko) 3차원 댄스 온라인 게임 시스템

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal