KR101640043B1 - 가상 세계 처리 장치 및 방법 - Google Patents
가상 세계 처리 장치 및 방법 Download PDFInfo
- Publication number
- KR101640043B1 KR101640043B1 KR1020100034399A KR20100034399A KR101640043B1 KR 101640043 B1 KR101640043 B1 KR 101640043B1 KR 1020100034399 A KR1020100034399 A KR 1020100034399A KR 20100034399 A KR20100034399 A KR 20100034399A KR 101640043 B1 KR101640043 B1 KR 101640043B1
- Authority
- KR
- South Korea
- Prior art keywords
- tactile
- information
- virtual object
- characteristic information
- virtual
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/016—Input arrangements with force or tactile feedback as computer generated output to the user
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Software Systems (AREA)
- Computer Hardware Design (AREA)
- Computer Graphics (AREA)
- User Interface Of Digital Computer (AREA)
- Evolutionary Computation (AREA)
- Biomedical Technology (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Biophysics (AREA)
- Data Mining & Analysis (AREA)
- Mathematical Physics (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Health & Medical Sciences (AREA)
- Signal Processing (AREA)
- Multimedia (AREA)
- Processing Or Creating Images (AREA)
Abstract
가상 세계 처리 장치 및 방법이 개시된다. 본 발명의 실시예들에 따르면 센싱한 감지 정보에 대응하는 가상 세계의 가상 객체에 대한 촉각 정보를 추출하여 촉각 피드백 장치로 전송함으로써, 현실 세계와 가상 세계의 상호 작용을 구현할 수 있고, 또한, 가상 객체의 유형에 따라 데이터 구조를 달리함으로써, 가상 객체에 대한 촉각 정보의 처리 속도를 향상 시킬 수 있다.
Description
본 발명의 실시예들은 가상 세계 처리 장치 및 방법에 관한 것으로서, 보다 구체적으로는 가상 객체에 대한 촉각 정보를 처리하는 가상 세계 처리 장치 및 방법에 관한 것이다.
최근 들어 체감형 게임에 대한 관심이 증대 되고 있다. Microsoft社는 "E3 2009" Press Conference에서 그들의 게임 콘솔인 Xbox360에 Depth/Color 카메라와 마이크 어레이로 구성된 별도의 센서 디바이스를 결합하여 사용자의 전신 모션 캡처링, 얼굴 인식, 음성 인식 기술을 제공하여 별도의 컨트롤러 없이 가상세계와 상호 작용 할 수 있도록 해 주는 "Project Natal"을 발표 했다. 또한, Sony社는 자사 게임 콘솔인 Play Station3에 컬러 카메라와 마커, 초음파 센서를 결합한 위치/방향 센싱 기술을 적용하여 컨트롤러의 모션 궤적을 입력으로 가상세계와 상호 작용 할 수 있는 체감형 게임 모션 컨트롤러 "Wand"를 발표했다.
현실 세계와 가상 세계의 상호 작용은 두 가지 방향을 가진다. 첫째는 현실 세계의 센서로부터 얻어진 데이터 정보를 가상 세계에 반영하는 방향이고, 둘째는 가상 세계로부터 얻어진 데이터 정보를 엑추에이터(actuator)를 통해 현실 세계에 반영하는 방향이다.
본 명세서에서는 가상 객체에 대한 촉각 정보를 처리하는 장치 및 방법에 대한 새로운 방안이 제시된다.
본 발명의 일실시예에 따른 가상 세계 처리 장치는 센서로부터 감지 정보를 수신하는 수신부, 상기 감지 정보에 대응하는 가상 객체에 대한 가상 객체 정보로부터 촉각 특성 정보를 추출하는 추출부 및 상기 촉각 특성 정보를 촉각 피드백 장치로 전송하는 전송부를 포함한다.
본 발명의 일실시예에 따른 가상 세계 처리 방법은 센서로부터 감지 정보를 수신하는 단계, 상기 감지 정보에 대응하는 가상 객체에 대한 가상 객체 정보로부터 촉각 특성 정보를 추출하는 단계 및 상기 촉각 특성 정보를 촉각 피드백 장치로 전송하는 단계를 포함한다.
실시예들은 센싱한 감지 정보에 대응하는 가상 세계의 가상 객체에 대한 촉각 정보를 추출하여 촉각 피드백 장치로 전송함으로써, 현실 세계와 가상 세계의 상호 작용을 구현할 수 있다. 또한, 가상 객체의 유형에 따라 데이터 구조를 달리함으로써, 가상 객체에 대한 촉각 정보의 처리 속도를 향상 시킬 수 있다.
도 1은 일실시예에 따른 현실 세계와 가상 세계 사이의 정보 교환을 제어하는 가상 세계 처리 시스템을 나타내는 도면이다.
도 2는 본 발명의 일실시예에 따른 가상 세계 처리 장치의 구성을 나타내는 도면이다.
도 3 내지 도 5는 본 발명의 일실시예에 따른 아바타에 대한 데이터 구조를 나타내는 도면이다.
도 6 내지 도 7은 본 발명의 일실시예에 따른 아바타를 제외한 가상 객체에 대한 데이터 구조를 나타내는 도면이다.
도 8은 본 발명의 일실시예에 따른 가상 세계 처리 방법을 나타내는 흐름도이다.
도 2는 본 발명의 일실시예에 따른 가상 세계 처리 장치의 구성을 나타내는 도면이다.
도 3 내지 도 5는 본 발명의 일실시예에 따른 아바타에 대한 데이터 구조를 나타내는 도면이다.
도 6 내지 도 7은 본 발명의 일실시예에 따른 아바타를 제외한 가상 객체에 대한 데이터 구조를 나타내는 도면이다.
도 8은 본 발명의 일실시예에 따른 가상 세계 처리 방법을 나타내는 흐름도이다.
이하에서, 본 발명에 따른 실시예를 첨부된 도면을 참조하여 상세하게 설명한다. 그러나, 본 발명이 실시예들에 의해 제한되거나 한정되는 것은 아니다. 각 도면에 제시된 동일한 참조 부호는 동일한 부재를 나타낸다.
도 1은 일실시예에 따른 현실 세계와 가상 세계 사이의 정보 교환을 제어하는 가상 세계 처리 시스템을 나타내는 도면이다.
도 1을 참조하면, 본 발명의 일실시예에 따른 가상 세계 처리 시스템은 현실 세계(110), 가상 세계 처리 장치 및 가상 세계(140)를 포함할 수 있다.
현실 세계(110)는 현실 세계(110)에 대한 정보를 감지하는 센서(Sensor) 또는 가상 세계(140)에 대한 정보를 현실 세계(110)에서 구현하는 실감 장치를 나타낼 수 있다.
또한, 가상 세계(140)는 프로그램에 의해서 구현되는 가상 세계(140) 그 자체 또는 현실 세계(110)에서 구현될 수 있는 실감 효과 정보를 포함하는 컨텐츠를 재생하는 실감 미디어 재생 장치를 나타낼 수 있다.
일실시예에 따른 센서(Sensor)는 현실 세계(110)의 사용자의 동작, 상태, 의도, 형태 등에 관한 정보를 감지(Sensing)하여 가상 세계 처리 장치로 전송할 수 있다.
실시예에 따라서는, 센서는 센서 특성(Sensor Capability)(101), 센서 적응 선호(Sensor Adaptation Preference)(102) 및 감지 정보(Sensed Information)(103)를 가상 세계 처리 장치로 전송할 수 있다.
센서 특성(101)은 센서의 특성에 대한 정보이다. 센서 적응 선호(102)는 센서의 사용자가 센서의 특성에 대해서 선호하는 정도를 나타내는 정보이다. 감지 정보(103)는 센서가 현실 세계(110)를 감지한 정보이다.
일실시예에 따른 가상 세계 처리 장치는 적응 RV(Adaptation Real World to Virtual World)(120), VWI(Virtual World Information, 가상 세계 정보)(104) 및 적응 RV/VR(Adaptation Real World to Virtual World/Virtual World to Real World)(130)를 포함할 수 있다.
적응 RV(120)는 센서 특성(101) 및 센서 적응 선호(102)에 기초하여 센서가 현실 세계(110)에 대해서 감지한 감지 정보(103)를 가상 세계(140)에 적용할 수 있는 정보로 변환할 수 있다. 실시예에 따라, 적응 RV(120)는 RV 엔진(real world to virtual world engine, RV engine)으로 구현될 수 있다.
일실시예에 따른 적응 RV(120)는 변환된 감지 정보(103)를 이용하여 VWI(Virtual World Information, 가상 세계 정보)(104)를 변환할 수 있다.
VWI(104)는 가상 세계(140)의 가상 객체(Virtual Object)에 대한 정보이다.
적응 RV/VR(130)은 변환된 VWI(104)를 인코딩(Encoding)하여 가상 세계(140)에 적용되는 효과에 대한 메타데이터인 VWEM(Virtual World Effect Metadata, 가상 세계 효과 메타데이터)(107)을 생성할 수 있다. 실시예에 따라서는, 적응 RV/VR(130)은 VWC(Virtual World Capabilities, 가상 세계 특성)(105) 및 VWP(Virtual World Preferences, 가상 세계 선호)(106)에 기초하여 VWEM(107)을 생성할 수 있다.
VWC(105)는 가상 세계(140)의 특성에 대한 정보이다. 또한, VWP(106)는 가상 세계(140)의 특성에 대한 사용자의 선호 정도를 나타내는 정보이다.
또한, 적응 RV/VR(130)은 VWEM(107)을 가상 세계(140)로 전송할 수 있다. 이 때, VWEM(107)은 가상 세계(140)이 적용되어, 감지 정보(103)에 대응하는 효과가 가상 세계(140)에서 구현될 수 있다.
본 발명의 일측에 따르면, 가상 세계(140)에서 발생한 효과 이벤트가 현실 세계(110)에서 엑츄에이터(Actuator)인 실감 장치에 의해서 구동될 수 있다.
가상 세계(140)는 가상 세계(140)에서 발생한 효과 이벤트에 대한 정보인 실감 효과 정보(Sensory Effect Information)를 인코딩하여 SEM(Sensory Effect Metadata, 실감 효과 메타데이터)(111)을 생성할 수 있다. 실시예에 따라서는, 가상 세계(140)는 실감 효과 정보를 포함하는 컨텐츠를 재생하는 실감 미디어 재생 장치를 포함할 수 있다.
적응 RV/VR(130)는 SEM(111)에 기초하여 실감 정보(Sensory Information)(112)를 생성할 수 있다. 실감 정보(112)는 현실 세계(110)의 실감 장치에서 구현되는 효과 이벤트에 대한 정보이다.
적응 VR(150)는 현실 세계(110)의 실감 장치의 동작을 제어하는 SDCmd(Sensory Device Command, 실감 장치 명령)(115)에 대한 정보를 생성할 수 있다. 실시예에 따라서는, 적응 VR(150)은 SDCap(Sensory Device Capabilities, 실감 장치 특성)(113)에 대한 정보 및 USP(User Sensory Preference, 사용자 실감 선호)(114)에 대한 정보에 기초하여 SDCmd(115)에 대한 정보를 생성할 수 있다.
SDCap(113)은 실감 장치의 특성에 대한 정보이다. 또한, USP(114)는 실감 장치에서 구현되는 효과에 대한 사용자의 선호 정도를 나타내는 정보이다.
도 2는 본 발명의 일실시예에 따른 가상 세계 처리 장치의 구성을 나타내는 도면이다.
도 2를 참조하면, 본 발명의 일실시예에 따른 가상 세계 처리 장치(200)는 수신부(210), 추출부(220) 및 전송부(230)를 포함한다.
수신부(210)는 센서로부터 감지 정보를 수신한다.
센서는 현실 세계의 객체에 대한 정보를 감지(Sensing)하는 장치이다. 실시예에 따라서는, 센서는 촉각 디스플레이(Tactile Display)를 포함할 수 있다. 촉각 디스플레이는 디스플레이 장치의 일유형으로서, 화면에 대한 터치 입력을 감지할 수 있는 장치이다.
실시예에 따라서는, 센서는 XML 형태의 메타데이터로 감지 정보를 인코딩하여 가상 세계 처리 장치(200)로 전송할 수 있다. 또한, 센서는 이진 형태의 메타데이터로 감지 정보를 인코딩하여 가상 세계 처리 장치(200)로 전송할 수 있다. 또한, 센서는 XML 형태의 제1 메타데이터로 감지 정보를 인코딩하고, 이진 형태의 제2 메타데이터로 제1 메타데이터를 인코딩하여 가상 세계 처리 장치(200)로 전송할 수 있다.
실시예에 따라서는, 사용자가 촉각 디스플레이에 표시되는 아바타의 머리를 터치(Touch)하는 경우, 감지 정보는 터치 입력이 입력된 화면 상의 위치에 대한 정보 및 터치한 가상 세계의 아바타의 부위(머리)에 대한 정보를 포함할 수 있다.
추출부(220)는 감지 정보에 대응하는 가상 객체(Virtual Object)에 대한 가상 객체 정보(Virtual Object Information)로부터 촉각 특성 정보(Haptic Property Information)를 추출한다.
가상 객체는 사람을 포함한 동물의 형상을 갖는 아바타(Avatar) 및 그 외의 가상 객체로 분류될 수 있다.
가상 객체 정보는 가상 객체에 대한 정보로서, 촉각 특성 정보를 포함할 수 있다.
촉각 특성 정보는 가상 객체에 부여된 촉각 특성에 대한 정보이다. 예를 들어, 촉각 특성 정보는 가상 객체의 질감, 재질 등에 대한 정보를 포함할 수 있다. 또한, 촉각 특성 정보는 실감 효과 정보를 포함할 수 있다. 실감 효과 정보는 엑츄에이터(Actuator)를 통해서 구현되는 효과 이벤트에 대한 정보일 수 있다. 예를 들어, 촉각 특성 정보가 질감에 대한 정보인 경우, 실감 효과 정보는 질감 정도에 대응하는 진동의 세기 정보일 수 있다.
본 발명의 일측에 따르면, 아바타 및 그 외의 가상 객체는 별개의 데이터 구조(Data Structure)를 가질 수 있다.
일실시예에 따른 아바타를 제외한 가상 객체에 대한 가상 객체 정보는 촉각 특성 정보를 포함할 수 있다. 즉, 하나의 가상 객체는 하나의 촉각 특성 정보를 포함할 수 있다. 따라서, 추출부(220)는 가상 객체가 아바타를 제외한 그 외의 가상 객체인 경우, 감지 정보에 대응하는 가상 객체(예를 들어, 사용자가 촉각 디스플레이를 통하여 터치한 가상 객체)에 대한 가상 객체 정보로부터 촉각 특성 정보를 추출할 수 있다.
실시예에 따라서는, 하나의 가상 객체가 복수 개의 구성(Component)을 포함하는 경우, 복수 개의 구성 각각은 하나의 촉각 특성을 포함할 수 있다. 이 때, 추출부(220)는 가상 객체 정보로부터 개별적인 구성에 대한 촉각 특성 정보를 추출할 수 있다.
예를 들어, 가상 세계의 전화기가 수화기 및 몸통의 구성을 포함하고, 사용자가 촉각 디스플레이를 터치하여 수화기를 터치하였다면, 추출부(220)는 전화기에 대한 가상 객체 정보로부터 수화기가 포함하는 촉각 특성을 추출할 수 있다.
일실시예에 따른 아바타에 대한 가상 객체 정보는 외모 엘리먼트(Appearance) 및 촉각 속성 리스트(Haptic Property List)를 포함할 수 있다.
외모 엘리먼트는 아바타의 외모에 대한 정보를 포함할 수 있다. 또한, 외모 엘리먼트는 촉각 참조 ID(Haptic Reference ID)를 포함할 수 있다.
촉각 속성 리스트는 아바타에 적용되는 촉각 속성 정보를 포함하는 리스트이다. 실시예에 따라서는, 촉각 속성 정보 각각에 대해서 촉각 참조 ID가 할당될 수 있다.
일실시예에 따른 추출부(220)는 가상 객체가 아바타인 경우, 감지 정보에 대응하는 아바타의 외모 엘리먼트로부터 촉각 참조 ID를 추출하고, 촉각 속성 리스트로부터 촉각 참조 ID에 대응하는 촉각 특성 정보를 추출할 수 있다.
즉, 일실시예에 따른 아바타는 외모 엘리먼트 별로 촉각 속성 정보를 할당하지 않고, 외모 엘리먼트 별로 촉각 참조 ID를 할당 할 수 있다. 따라서, 일실시예에 따른 추출부(220)는 아바타의 외모 엘리먼트에 대한 촉각 정보를 추출하기 위해서, 촉각 참조 ID를 이용하여 촉각 속성 리스트를 참조할 수 있다. 즉, 추출부(220)는 촉각 속성 리스트로부터 촉각 참조 ID에 대응하는 촉각 특성 정보를 추출할 수 있다.
전송부(230)는 추출부(220)가 추출한 촉각 특성 정보를 촉각 피드백 장치(Haptic Feedback Device)로 전송한다.
촉각 피드백 장치는 촉각 특성 정보에 대응하는 효과를 현실 세계에서 구동하는 장치이다. 실시예에 따라서는, 촉각 피드백 장치는 점자(點字) 디스플레이 장치, 4D 극장의 진동 의자, 안마 의자 등을 포함할 수 있다.
일실시예에 따른 전송부(230)는 XML 형태의 메타데이터로 촉각 특성 정보를 인코딩하여 촉각 피드백 장치로 전송할 수 있다. 또한, 전송부(230)는 이진 형태의 메타데이터로 촉각 특성 정보를 인코딩하여 촉각 피드백 장치로 전송할 수 있다. 또한, 전송부(230)는 XML 형태의 제1 메타데이터로 촉각 특성 정보를 인코딩하고, 이진 형태의 제2 메타데이터로 제1 메타데이터를 인코딩하여 촉각 피드백 장치로 전송할 수 있다.
이하 도 3 내지 도 7을 참조하여, 가상 객체에 대한 데이터 구조를 상세히 설명한다.
도 3 내지 도 5는 본 발명의 일실시예에 따른 아바타에 대한 데이터 구조를 나타내는 도면이다.
도 3을 참조하면, 본 발명의 일실시예에 따른 아바타 타입(Avatar Type)(310)은 가상 세계의 아바타에 대한 데이터 구조를 나타낸다.
일실시예에 따른 아바타 타입(310)은 가상 세계 객체 기본 특성(Virtual World Object Base Type)(320) 및 복수 개의 엘리먼트(Element)를 포함할 수 있다.
가상 세계 객체 기본 특성(320)은 가상 세계의 아바타에 대한 기본적인 특성 정보이다. 실시예에 따라서는, 가상 세계 객체 기본 특성(320)은 식별자(Identification)(321), VWOC(Virtual World Object Capability, 가상 세계 객체 특성)(322) 및 행동모델리스트(Behavior Model List)(323)를 포함할 수 있다.
일실시예에 따른 아바타 타입(310)은 복수 개의 엘리먼트로서, 외모 엘리먼트(Appearane Element)(331), 애니메이션 엘리먼트(Animation Element)(332), 대화기술 엘리먼트(Communication Skills Element)(333), 개성 엘리먼트(Personality Element)(334), 제어특징점 엘리먼트(Control Features Element)(335) 및 촉각특성리스트 엘리먼트(Haptic Property List Element)(336)를 포함할 수 있다.
외모 엘리먼트(331)는 가상 세계의 아바타의 외모에 대한 정보를 포함할 수 있다. 본 발명의 일측에 따르면, 외모 엘리먼트(331)에는 촉각 속성 정보를 포함하지 않고, 촉각 참조 ID를 포함할 수 있다. 일실시예에 따른 가상 세계 처리 장치는 촉각 참조 ID를 이용하여 촉각 속성 리스트로부터 촉각 특성 정보를 추출할 수 있다.
촉각특성리스트 엘리먼트(336)는 아바타에 적용되는 촉각 속성 정보를 포함하는 리스트이다.
도 4를 참조하면, 본 발명의 일실시예에 따른 아바타 외모 타입(Avatar Appearance Type)(410)은 몸체(Body)(411), 머리(Head)(412), 눈(Eyes)(413), 귀(Ears)(414), 코(Nose)(415), 입술(MouthLip)(416), 피부(Skin)(417), 얼굴(Facial)(418), 손톱(Nail)(419), 몸형상(BodyLook)(420), 머리(Hair)(421), 눈썹(Eyebrows)(422), 얼굴털(FacialHair)(423), 외모리소스(Appearance Resources)(424), 얼굴눈금포인트(Facial Calibration Points)(425), 물리적조건(Physical Condition)(426), 옷(Clothes)(427), 신발(Shoes)(428) 및 액세서리(Accessories)(429)를 포함한다.
일실시예에 따른 아바타 외모 타입(410)은 아바타가 포함하는 외모 엘리먼트에 대한 데이터 구조를 나타낸다.
실시예에 따라서는, 몸체(411), 머리(412), 눈(413), 귀(414), 코(415), 입술(416), 얼굴(418), 손톱(419), 머리(421), 눈썹(422) 및 얼굴털(423)에 대한 외모 엘리먼트는 촉각 참조 ID를 포함할 수 있다.
표 1은 본 발명의 일실시예에 따른 아바타 외모 타입(Avatar Appearance Type)에 대한 XML 신택스(eXtensible Markup Language Syntax)를 나타낸다.
표 1
표 2는 본 발명의 일실시예에 따른 아바타의 몸체(411)에 대한 아바타 외모 타입에 대한 XML 신택스를 나타낸다.
표 2
표 3은 본 발명의 일실시예에 따른 머리(412)에 대한 아바타 외모 타입에 대한 XML 신택스를 나타낸다.
표 3
표 2 및 표 3를 참조하면, 몸체(411) 또는 머리(412)에 대한 아바타 외모 타입에 대한 XML 신택스는 '<attribute name="hapticIDRef" type="IDREF" use="optional"/>'를 포함하고 있다. 즉, 일실시예에 따른 외모 엘리먼트에는 촉각 특성 정보가 포함되어 있지 않고, 촉각 참조 ID가 포함되어 있음을 알 수 있다. 따라서, 일실시예에 따른 가상 세계 처리 장치는 아바타의 외모 엘리먼트에 대해서 촉각 참조 ID를 통해서 촉각 특성 정보를 추출할 수 있다.
도 5를 참조하면, 일실시예에 따른 아바타의 외모 엘리먼트 중 귀 타입(Ears Type)(510)은 속성(Attributes)(520) 및 복수 개의 엘리먼트를 포함할 수 있다.
속성(520)은 귀 타입(510)에 대한 외모 엘리먼트의 속성 정보를 나타낸다.
일실시예에 따른 속성(520)은 촉각 참조 ID(Haptic ID Reference)(521)를 포함할 수 있다. 촉각 참조 ID(521)는 촉각 속성 리스트에 포함되어 있는 촉각 특성 정보에 대한 식별자 정보일 수 있다.
예를 들어, 사용자가 촉각 디스플레이 상에 표시되는 아바타의 귀를 터치한 경우, 촉각 디스플레이 센서는 가상 세계 처리 장치로 감지 정보를 전송할 수 있다.
이 때, 감지 정보는 사용자가 촉각 디스플레이의 화면 상에서 터치한 위치 정보 및 상기 위치 정보에 대응하는 가상 객체가 아바타의 귀 부분이라는 정보를 포함할 수 있다.
가상 세계 처리 장치는 아바타에 대한 가상 객체 정보로부터 귀에 대한 외모 엘리먼트가 포함하는 촉각 참조 ID(521)를 추출할 수 있다.
또한, 가상 세계 처리 장치는 아바타에 대한 가상 객체 정보가 포함하는 촉각 속성 리스트로부터 촉각 참조 ID(521)에 대응하는 촉각 특성 정보를 추출할 수 있다.
또한, 가상 세계 처리 장치는 추출한 촉각 특성 정보를 촉각 피드백 장치로 전송할 수 있다.
일실시예에 따른 귀 타입(510)은 귀크기(Ear Size)(531), 귀위치(Ear Position)(532), 귀각도(Ear Angle)(533), 부착귓볼(Attached Ear Lobes)(534) 및 귀끝(Ear Tips)(535)를 포함할 수 있다.
표 4는 본 발명의 일실시예에 따른 귀에 대한 아바타 외모 타입에 대한 XML 신택스를 나타낸다.
표 4
도 6 내지 도 7은 본 발명의 일실시예에 따른 아바타를 제외한 가상 객체에 대한 데이터 구조를 나타내는 도면이다.
도 6을 참조하면, 본 발명의 일실시예에 따른 가상 객체 타입(Virtual Object Type)(610)은 아바타를 제외한 가상 객체에 대한 데이터 구조를 나타낸다.
일실시예에 따른 가상 객체 타입(610)은 가상 세계 객체 기본 특성(Virtual World Object Base Type)(620) 및 복수 개의 엘리먼트(Element)를 포함할 수 있다.
가상 세계 객체 기본 특성(620)은 가상 세계의 객체에 대한 기본적인 특성 정보이다. 실시예에 따라서는, 가상 세계 객체 기본 특성(620)은 식별자(Identification)(621), VWOC(Virtual World Object Capability, 가상 세계 객체 특성)(622) 및 행동모델리스트(Behavior Model List)(623)를 포함할 수 있다.
일실시예에 따른 가상 객체 타입(610)은 복수 개의 엘리먼트로서, 외모(Appearane)(631), 애니메이션(Animation)(632) 및 촉각특성(Haptic Property)(633)를 포함할 수 있다.
가상 객체 타입(610)은, 도 3의 아바타 타입(310)과 달리, 촉각특성리스트 없이, 가상 객체의 촉각 특성(633)에 대한 정보를 포함한다. 따라서, 일실시예에 따른 가상 세계 처리 장치는 가상 객체 정보로부터 촉각 특성 정보를 바로 추출할 수 있다.
예를 들어, 사용자가 촉각 디스플레이 상에 표시되는 가상 자동차를 터치하는 경우, 촉각 디스플레이 센서는 가상 세계 처리 장치로 감지 정보를 전송할 수 있다.
이 때, 감지 정보는 사용자가 촉각 디스플레이의 화면 상에서 터치한 위치 정보 및 상기 위치 정보에 대응하는 가상 객체가 가상 자동차라는 정보를 포함할 수 있다.
가상 세계 처리 장치는 가상 자동차에 대한 가상 객체 정보로부터 촉각 특성(633)에 대한 정보를 추출할 수 있다.
또한, 가상 세계 처리 장치는 추출한 촉각 특성(633)에 대한 정보를 촉각 피드백 장치로 전송할 수 있다.
표 5는 본 발명의 일실시예에 따른 가상 객체 타입(Virtual Object Type)에 대한 XML 신택스(eXtensible Markup Language Syntax)를 나타낸다.
표 5
본 발명의 일측에 따르면, 가상 객체는 복수 개의 구성을 포함할 수 있다.
도 7을 참조하면, 본 발명의 일실시예에 따른 가상 객체 타입(710)은 아바타를 제외한 가상 객체가 복수 개의 구성을 포함하는 경우의 가상 객체에 대한 데이터 구조를 나타낸다.
가상 객체 타입(710)은 가상 객체 구성(Virtual Object Components)(720)를 포함할 수 있다. 가상 객체 구성(720)은 가상 객체가 복수 개의 구성을 포함하는 경우, 가상 객체의 개별적인 구성에 대한 객체 정보이다.
가상 객체 구성(720)은 가상 객체 리스트 타입(Virtual Object List Type)(730)을 포함할 수 있다.
일실시예에 따른 가상 객체 리스트 타입(730)은 도 6의 가상 객체 타입(610)과 동일한 자료 구조를 가질 수 있다. 따라서, 가상 객체 리스트 타입(730)은 한 개의 촉각 특성만을 포함할 수 있다. 즉, 가상 객체의 복수 개의 구성 각각은 한 개의 촉각 특성만을 포함할 수 있다.
예를 들어, 가상 자동차가 바퀴 및 본체의 구성을 포함하고, 사용자가 촉각 디스플레이 상에 표시되는 가상 자동차의 바퀴를 터치하는 경우, 촉각 디스플레이 센서는 가상 세계 처리 장치로 감지 정보를 전송할 수 있다.
이 때, 감지 정보는 사용자가 촉각 디스플레이의 화면 상에서 터치한 위치 정보 및 상기 위치 정보에 대응하는 가상 객체가 가상 자동차의 바퀴라는 정보를 포함할 수 있다.
가상 세계 처리 장치는 가상 자동차에 대한 가상 객체 정보로부터 가상 자동차의 바퀴에 대한 촉각 특성 정보를 추출할 수 있다.
또한, 가상 세계 처리 장치는 추출한 촉각 특성 정보를 촉각 피드백 장치로 전송할 수 있다.
도 8은 본 발명의 일실시예에 따른 가상 세계 처리 방법을 나타내는 흐름도이다.
도 8을 참조하면, 본 발명의 일실시예에 따른 가상 세계 처리 방법은 센서로부터 감지 정보를 수신한다(S810).
센서는 현실 세계의 객체에 대한 정보를 감지(Sensing)하는 장치이다. 실시예에 따라서는, 센서는 촉각 디스플레이(Tactile Display)를 포함할 수 있다. 촉각 디스플레이는 디스플레이 장치의 일유형으로서, 화면에 대한 터치 입력을 감지할 수 있는 장치이다.
실시예에 따라서는, 센서는 XML 형태의 메타데이터로 감지 정보를 인코딩하여 전송할 수 있다. 또한, 센서는 이진 형태의 메타데이터로 감지 정보를 인코딩하여 전송할 수 있다. 또한, 센서는 XML 형태의 제1 메타데이터로 감지 정보를 인코딩하고, 이진 형태의 제2 메타데이터로 제1 메타데이터를 인코딩하여 전송할 수 있다.
실시예에 따라서는, 사용자가 촉각 디스플레이에 표시되는 아바타의 머리를 터치(Touch)하는 경우, 감지 정보는 터치 입력이 입력된 화면 상의 위치에 대한 정보 및 터치한 가상 세계의 아바타의 부위(머리)에 대한 정보를 포함할 수 있다.
가상 세계 처리 방법은 감지 정보에 대응하는 가상 객체(Virtual Object)에 대한 가상 객체 정보(Virtual Object Information)로부터 촉각 특성 정보(Haptic Property Information)를 추출한다(S820).
가상 객체는 사람을 포함한 동물의 형상을 갖는 아바타(Avatar) 및 그 외의 가상 객체로 분류될 수 있다.
가상 객체 정보는 가상 객체에 대한 정보로서, 촉각 특성 정보를 포함할 수 있다.
촉각 특성 정보는 가상 객체에 부여된 촉각 특성에 대한 정보이다. 예를 들어, 촉각 특성 정보는 가상 객체의 질감, 재질 등에 대한 정보를 포함할 수 있다. 또한, 촉각 특성 정보는 실감 효과 정보를 포함할 수 있다. 실감 효과 정보는 엑츄에이터(Actuator)를 통해서 구현되는 효과 이벤트에 대한 정보일 수 있다. 예를 들어, 촉각 특성 정보가 질감에 대한 정보인 경우, 실감 효과 정보는 질감 정도에 대응하는 진동의 세기 정보일 수 있다.
본 발명의 일측에 따르면, 아바타 및 그 외의 가상 객체는 별개의 데이터 구조(Data Structure)를 가질 수 있다.
일실시예에 따른 아바타를 제외한 가상 객체에 대한 가상 객체 정보는 촉각 특성 정보를 포함할 수 있다. 즉, 하나의 가상 객체는 하나의 촉각 특성 정보를 포함할 수 있다. 따라서, 가상 세계 처리 방법은 가상 객체가 아바타를 제외한 그 외의 가상 객체인 경우, 감지 정보에 대응하는 가상 객체(예를 들어, 사용자가 촉각 디스플레이를 통하여 터치한 가상 객체)에 대한 가상 객체 정보로부터 촉각 특성 정보를 추출할 수 있다.
실시예에 따라서는, 하나의 가상 객체가 복수 개의 구성(Component)을 포함하는 경우, 복수 개의 구성 각각은 하나의 촉각 특성을 포함할 수 있다. 이 때, 가상 세계 처리 방법은 가상 객체 정보로부터 개별적인 구성에 대한 촉각 특성 정보를 추출할 수 있다.
예를 들어, 가상 세계의 전화기가 수화기 및 몸통의 구성을 포함하고, 사용자가 촉각 디스플레이를 터치하여 수화기를 터치하였다면, 가상 세계 처리 방법은 전화기에 대한 가상 객체 정보로부터 수화기가 포함하는 촉각 특성을 추출할 수 있다.
일실시예에 따른 아바타에 대한 가상 객체 정보는 외모 엘리먼트(Appearance) 및 촉각 속성 리스트(Haptic Property List)를 포함할 수 있다.
외모 엘리먼트는 아바타의 외모에 대한 정보를 포함할 수 있다. 또한, 외모 엘리먼트는 촉각 참조 ID(Haptic Reference ID)를 포함할 수 있다.
촉각 속성 리스트는 아바타에 적용되는 촉각 속성 정보를 포함하는 리스트이다. 실시예에 따라서는, 촉각 속성 정보 각각에 대해서 촉각 참조 ID가 할당될 수 있다.
일실시예에 따른 가상 세계 처리 방법은 가상 객체가 아바타인 경우, 감지 정보에 대응하는 아바타의 외모 엘리먼트로부터 촉각 참조 ID를 추출하고, 촉각 속성 리스트로부터 촉각 참조 ID에 대응하는 촉각 특성 정보를 추출할 수 있다.
즉, 일실시예에 따른 아바타는 외모 엘리먼트 별로 촉각 속성 정보를 할당하지 않고, 외모 엘리먼트 별로 촉각 참조 ID를 할당 할 수 있다. 따라서, 일실시예에 따른 가상 세계 처리 방법은 아바타의 외모 엘리먼트에 대한 촉각 정보를 추출하기 위해서, 촉각 참조 ID를 이용하여 촉각 속성 리스트를 참조할 수 있다. 즉, 가상 세계 처리 방법은 촉각 속성 리스트로부터 촉각 참조 ID에 대응하는 촉각 특성 정보를 추출할 수 있다.
가상 세계 처리 방법은 추출한 촉각 특성 정보를 촉각 피드백 장치(Haptic Feedback Device)로 전송한다(S830).
촉각 피드백 장치는 촉각 특성 정보에 대응하는 효과를 현실 세계에서 구동하는 장치이다. 실시예에 따라서는, 촉각 피드백 장치는 점자(點字) 디스플레이 장치, 4D 극장의 진동 의자, 안마 의자 등을 포함할 수 있다.
일실시예에 따른 가상 세계 처리 방법은 XML 형태의 메타데이터로 촉각 특성 정보를 인코딩하여 촉각 피드백 장치로 전송할 수 있다. 또한, 가상 세계 처리 방법은 이진 형태의 메타데이터로 촉각 특성 정보를 인코딩하여 촉각 피드백 장치로 전송할 수 있다. 또한, 가상 세계 처리 방법은 XML 형태의 제1 메타데이터로 촉각 특성 정보를 인코딩하고, 이진 형태의 제2 메타데이터로 제1 메타데이터를 인코딩하여 촉각 피드백 장치로 전송할 수 있다.
본 발명에 따른 실시예들은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(Floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 본 발명의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.
이상과 같이 본 발명은 비록 한정된 실시예와 도면에 의해 설명되었으나, 본 발명은 상기의 실시예에 한정되는 것은 아니며, 본 발명이 속하는 분야에서 통상의 지식을 가진 자라면 이러한 기재로부터 다양한 수정 및 변형이 가능하다.
그러므로, 본 발명의 범위는 설명된 실시예에 국한되어 정해져서는 아니 되며, 후술하는 특허청구범위뿐 아니라 이 특허청구범위와 균등한 것들에 의해 정해져야 한다.
110: 현실 세계
120: 적응 RV
130: 적응 RV/VR
140: 가상 세계
120: 적응 RV
130: 적응 RV/VR
140: 가상 세계
Claims (11)
- 가상 세계 처리 장치에 있어서,
센서로부터 감지 정보를 수신하는 수신부;
상기 감지 정보에 대응하는 가상 객체에 대한 가상 객체 정보로부터 촉각 특성 정보를 추출하는 추출부; 및
상기 촉각 특성 정보를 촉각 피드백 장치로 전송하는 전송부
를 포함하고,
상기 가상 객체 정보는 적어도 하나의 서브-엘리먼트를 포함하는 외모 엘리먼트; 및 복수의 촉각 특성 정보들을 포함하는 촉각 속성 리스트를 포함하고, 상기 적어도 하나의 서브-엘리먼트는 상기 촉각 속성 리스트 내의 상기 복수의 촉각 특성 정보들 중 어느 하나를 참조하는 적어도 하나의 촉각 참조 ID를 포함하며,
상기 추출부는 상기 적어도 하나의 서브-엘리먼트 중 어느 하나의 서브-엘리먼트로부터 촉각 참조 ID를 추출하고, 상기 촉각 속성 리스트의 상기 복수의 촉각 특성 정보들 중에서, 상기 추출된 촉각 참조 ID에 대응하는 상기 촉각 특성 정보를 추출하며,
상기 가상 세계 처리 장치는 상기 촉각 특성 정보를 추출하기 위해 상기 어느 하나의 서브-엘리먼트를 확인하는,
가상 세계 처리 장치. - 제1항에 있어서, 상기 추출부는,
상기 가상 객체가 아바타인 경우, 상기 감지 정보에 대응하는 상기 아바타의 상기 외모 엘리먼트로부터 상기 촉각 참조 ID를 추출하고, 상기 촉각 속성 리스트로부터 상기 촉각 참조 ID에 대응하는 상기 촉각 특성 정보를 추출하는 가상 세계 처리 장치. - 제2항에 있어서, 상기 아바타에 대한 상기 가상 객체 정보는,
상기 외모 엘리먼트 및 상기 촉각 속성 리스트를 포함하는 가상 세계 처리 장치. - 제1항에 있어서, 상기 추출부는,
상기 가상 객체가 복수 개의 가상 객체 구성을 포함하는 경우, 상기 복수 개의 가상 객체 구성 중 상기 감지 정보에 대응하는 제1 가상 객체 구성에 대한 상기 가상 객체 정보로부터 상기 촉각 특성 정보를 추출하는 가상 세계 처리 장치. - 가상 세계 처리 방법에 있어서,
센서로부터 감지 정보를 수신하는 단계;
상기 감지 정보에 대응하는 가상 객체에 대한 가상 객체 정보로부터 촉각 특성 정보를 추출하는 단계; 및
상기 촉각 특성 정보를 촉각 피드백 장치로 전송하는 단계
를 포함하고,
상기 가상 객체 정보는 적어도 하나의 서브-엘리먼트를 포함하는 외모 엘리먼트; 및 복수의 촉각 특성 정보들을 포함하는 촉각 속성 리스트를 포함하고, 상기 적어도 하나의 서브-엘리먼트는 상기 촉각 속성 리스트 내의 상기 복수의 촉각 특성 정보들 중 어느 하나를 참조하는 적어도 하나의 촉각 참조 ID를 포함하며,
상기 촉각 특성 정보를 추출하는 단계는
상기 적어도 하나의 서브-엘리먼트 중 어느 하나의 서브-엘리먼트로부터 촉각 참조 ID를 추출하는 단계; 및
상기 촉각 속성 리스트의 상기 복수의 촉각 특성 정보들 중에서, 상기 추출된 촉각 참조 ID에 대응하는 상기 촉각 특성 정보를 추출하는 단계
를 포함하고,
상기 가상 세계 처리 방법은 상기 촉각 특성 정보를 추출하기 위해 상기 어느 하나의 서브-엘리먼트를 확인하는 단계를 더 포함하는,
가상 세계 처리 방법. - 제5항에 있어서,
상기 가상 객체가 아바타인 경우, 상기 감지 정보에 대응하는 상기 아바타의 상기 외모 엘리먼트로부터 상기 촉각 참조 ID를 추출하는 단계
를 더 포함하고,
상기 촉각 특성 정보를 추출하는 단계는,
상기 촉각 속성 리스트로부터 상기 촉각 참조 ID에 대응하는 상기 촉각 특성 정보를 추출하는 가상 세계 처리 방법. - 제6항에 있어서, 상기 아바타에 대한 상기 가상 객체 정보는,
상기 외모 엘리먼트 및 상기 촉각 속성 리스트를 포함하는 가상 세계 처리 방법. - 제5항에 있어서, 상기 촉각 특성 정보를 추출하는 단계는,
상기 가상 객체가 복수 개의 가상 객체 구성을 포함하는 경우, 상기 복수 개의 가상 객체 구성 중 상기 감지 정보에 대응하는 제1 가상 객체 구성에 대한 상기 가상 객체 정보로부터 상기 촉각 특성 정보를 추출하는 가상 세계 처리 방법. - 제5항 내지 제8항 중 어느 한 항의 방법을 실행하는 프로그램을 기록한 컴퓨터 판독 가능 기록 매체.
- 가상 세계 처리 장치에 있어서,
가상 세계를 처리하기 위한 가상 객체 정보를 추출하는 추출부
를 포함하고,
상기 가상 객체 정보는 적어도 하나의 서브-엘리먼트를 포함하는 외모 엘리먼트; 및 복수의 촉각 특성 정보들을 포함하는 촉각 속성 리스트를 포함하고, 상기 적어도 하나의 서브-엘리먼트는 상기 촉각 속성 리스트 내의 상기 복수의 촉각 특성 정보들 중 어느 하나를 참조하는 적어도 하나의 촉각 참조 ID를 포함하며,
상기 추출부는 상기 적어도 하나의 서브-엘리먼트 중 어느 하나의 서브-엘리먼트로부터 촉각 참조 ID를 추출하고, 상기 촉각 속성 리스트의 상기 복수의 촉각 특성 정보들 중에서, 상기 추출된 촉각 참조 ID에 대응하는 촉각 특성 정보를 추출하며,
상기 가상 세계 처리 장치는 상기 촉각 특성 정보를 추출하기 위해 상기 어느 하나의 서브-엘리먼트를 확인하고, 상기 추출된 촉각 특성 정보는 촉각 피드백을 제공하는데 이용되는,
가상 세계 처리 장치.
- 가상 세계 처리 방법에 있어서,
가상 세계를 처리하기 위한 가상 객체 정보를 추출하는 단계
를 포함하고,
상기 가상 객체 정보는 적어도 하나의 서브-엘리먼트를 포함하는 외모 엘리먼트; 및 복수의 촉각 특성 정보들을 포함하는 촉각 속성 리스트를 포함하고, 상기 적어도 하나의 서브-엘리먼트는 상기 촉각 속성 리스트 내의 상기 복수의 촉각 특성 정보들 중 어느 하나를 참조하는 적어도 하나의 촉각 참조 ID를 포함하며,
상기 가상 객체 정보를 추출하는 단계는
상기 적어도 하나의 서브-엘리먼트 중 어느 하나의 서브-엘리먼트로부터 촉각 참조 ID를 추출하는 단계; 및
상기 촉각 속성 리스트의 상기 복수의 촉각 특성 정보들 중에서, 상기 추출된 촉각 참조 ID에 대응하는 촉각 특성 정보를 추출하는 단계
를 포함하고,
상기 가상 세계 처리 방법은 상기 촉각 특성 정보를 추출하기 위해 상기 어느 하나의 서브-엘리먼트를 확인하는 단계를 더 포함하고, 상기 추출된 촉각 특성 정보는 촉각 피드백을 제공하는데 이용되는,
가상 세계 처리 방법.
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020100034399A KR101640043B1 (ko) | 2010-04-14 | 2010-04-14 | 가상 세계 처리 장치 및 방법 |
US13/082,698 US8988202B2 (en) | 2010-04-14 | 2011-04-08 | Method and apparatus for processing virtual world |
US14/628,896 US9952668B2 (en) | 2010-04-14 | 2015-02-23 | Method and apparatus for processing virtual world |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020100034399A KR101640043B1 (ko) | 2010-04-14 | 2010-04-14 | 가상 세계 처리 장치 및 방법 |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20110114979A KR20110114979A (ko) | 2011-10-20 |
KR101640043B1 true KR101640043B1 (ko) | 2016-07-15 |
Family
ID=44787816
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020100034399A KR101640043B1 (ko) | 2010-04-14 | 2010-04-14 | 가상 세계 처리 장치 및 방법 |
Country Status (2)
Country | Link |
---|---|
US (2) | US8988202B2 (ko) |
KR (1) | KR101640043B1 (ko) |
Families Citing this family (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20100138700A (ko) * | 2009-06-25 | 2010-12-31 | 삼성전자주식회사 | 가상 세계 처리 장치 및 방법 |
KR101685922B1 (ko) * | 2010-04-05 | 2016-12-13 | 삼성전자주식회사 | 가상 세계 처리 장치 및 방법 |
KR101746453B1 (ko) * | 2010-04-12 | 2017-06-13 | 삼성전자주식회사 | 실감 효과 처리 시스템 및 방법 |
JP5862271B2 (ja) * | 2010-12-29 | 2016-02-16 | 株式会社リコー | ユーザインターフェイス装置、画像形成装置、ユーザインターフェイス制御方法およびプログラム |
US10191546B2 (en) * | 2011-06-20 | 2019-01-29 | Immersion Corporation | Haptic theme framework |
US10222953B2 (en) * | 2014-04-30 | 2019-03-05 | Disney Enterprises, Inc. | Systems and methods for editing virtual content of a virtual space |
KR102300997B1 (ko) * | 2015-03-11 | 2021-09-13 | 한국전자통신연구원 | 전정 재활 운동을 위한 실감 효과 장치 및 방법 |
KR102332318B1 (ko) * | 2020-07-22 | 2021-12-01 | 이화여자대학교 산학협력단 | 시공간 인코딩을 사용하여 가상 객체의 거칠기 촉각을 제공하기 위한 방법 및 시스템 |
Family Cites Families (64)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7207053B1 (en) * | 1992-12-09 | 2007-04-17 | Sedna Patent Services, Llc | Method and apparatus for locally targeting virtual objects within a terminal |
US5734373A (en) * | 1993-07-16 | 1998-03-31 | Immersion Human Interface Corporation | Method and apparatus for controlling force feedback interface systems utilizing a host computer |
US6750877B2 (en) * | 1995-12-13 | 2004-06-15 | Immersion Corporation | Controlling haptic feedback for enhancing navigation in a graphical environment |
US6374255B1 (en) * | 1996-05-21 | 2002-04-16 | Immersion Corporation | Haptic authoring |
US6084587A (en) * | 1996-08-02 | 2000-07-04 | Sensable Technologies, Inc. | Method and apparatus for generating and interfacing with a haptic virtual reality environment |
US6411276B1 (en) * | 1996-11-13 | 2002-06-25 | Immersion Corporation | Hybrid control of haptic feedback for host computer and interface device |
WO1998048344A2 (en) * | 1997-04-24 | 1998-10-29 | Modern Cartoons, Ltd. | Data augmentation system and method |
US6088019A (en) * | 1998-06-23 | 2000-07-11 | Immersion Corporation | Low cost force feedback device with actuator for non-primary axis |
US6191796B1 (en) * | 1998-01-21 | 2001-02-20 | Sensable Technologies, Inc. | Method and apparatus for generating and interfacing with rigid and deformable surfaces in a haptic virtual reality environment |
US6421048B1 (en) * | 1998-07-17 | 2002-07-16 | Sensable Technologies, Inc. | Systems and methods for interacting with virtual objects in a haptic virtual reality environment |
US6650338B1 (en) * | 1998-11-24 | 2003-11-18 | Interval Research Corporation | Haptic interaction with video and image data |
US7050955B1 (en) * | 1999-10-01 | 2006-05-23 | Immersion Corporation | System, method and data structure for simulated interaction with graphical objects |
US6545682B1 (en) * | 2000-05-24 | 2003-04-08 | There, Inc. | Method and apparatus for creating and customizing avatars using genetic paradigm |
JP2002207685A (ja) * | 2000-10-12 | 2002-07-26 | Sony Computer Entertainment Inc | 仮想世界システム、サーバコンピュータおよび情報処理装置 |
US7155673B2 (en) * | 2001-02-01 | 2006-12-26 | Ford Global Technologies, Llc | System and method of interactive evaluation of a geometric model |
US7636755B2 (en) * | 2002-11-21 | 2009-12-22 | Aol Llc | Multiple avatar personalities |
AU2003293449A1 (en) * | 2002-12-08 | 2004-06-30 | Immersion Corporation | Methods and systems for providing a virtual touch haptic effect to handheld communication devices |
US8830161B2 (en) * | 2002-12-08 | 2014-09-09 | Immersion Corporation | Methods and systems for providing a virtual touch haptic effect to handheld communication devices |
KR20050054731A (ko) * | 2003-12-05 | 2005-06-10 | 한국전자통신연구원 | 햅틱 시뮬레이션 시스템 및 그 시스템에서의 실시간 촉감지원 방법 |
US7982711B2 (en) * | 2003-12-19 | 2011-07-19 | Immersion Corporation | Haptic profiling system and method |
US7148789B2 (en) * | 2004-09-09 | 2006-12-12 | Motorola, Inc. | Handheld device having multiple localized force feedback |
US20070174183A1 (en) * | 2006-01-26 | 2007-07-26 | Jung Edward K | Context determinants in virtual world environment |
US8136038B2 (en) * | 2005-03-04 | 2012-03-13 | Nokia Corporation | Offering menu items to a user |
US20060277466A1 (en) * | 2005-05-13 | 2006-12-07 | Anderson Thomas G | Bimodal user interaction with a simulated object |
KR100725776B1 (ko) * | 2005-10-08 | 2007-06-08 | 삼성전자주식회사 | 이동통신 단말기에서 그래픽객체 인식을 이용한 메뉴구성및 실행방법 |
CN104063056B (zh) * | 2006-04-06 | 2018-04-20 | 意美森公司 | 用于增强的触觉效果的系统和方法 |
US8376844B2 (en) * | 2006-06-19 | 2013-02-19 | Ambx Uk Limited | Game enhancer |
KR100860412B1 (ko) * | 2007-02-02 | 2008-09-26 | 한국전자통신연구원 | 촉각체험 서비스 방법 및 그 시스템 |
US9028258B2 (en) * | 2007-08-15 | 2015-05-12 | Bright Cloud International Corp. | Combined cognitive and physical therapy |
KR100938260B1 (ko) * | 2007-09-20 | 2010-01-22 | 한국전자통신연구원 | 터치 스크린을 이용한 체감 전달 장치 및 시스템 |
US20090088659A1 (en) * | 2007-09-27 | 2009-04-02 | Immersion Corporation | Biological Sensing With Haptic Feedback |
US8253686B2 (en) * | 2007-11-26 | 2012-08-28 | Electronics And Telecommunications Research Institute | Pointing apparatus capable of providing haptic feedback, and haptic interaction system and method using the same |
US8386918B2 (en) * | 2007-12-06 | 2013-02-26 | International Business Machines Corporation | Rendering of real world objects and interactions into a virtual universe |
KR100927009B1 (ko) * | 2008-02-04 | 2009-11-16 | 광주과학기술원 | 증강 현실에서의 햅틱 상호 작용 방법 및 그 시스템 |
US8645846B2 (en) * | 2008-02-20 | 2014-02-04 | International Business Machines Corporation | Accessibility in virtual worlds using tags |
EP2131272A3 (en) * | 2008-06-02 | 2014-05-07 | LG Electronics Inc. | Mobile communication terminal having proximity sensor and display controlling method therein |
US8224891B2 (en) * | 2008-06-12 | 2012-07-17 | The Board Of Regents Of The University Of Oklahoma | Electronic game-based learning system |
US8154524B2 (en) * | 2008-06-24 | 2012-04-10 | Microsoft Corporation | Physics simulation-based interaction for surface computing |
KR101498622B1 (ko) * | 2008-06-25 | 2015-03-04 | 엘지전자 주식회사 | 촉각 효과를 제공하는 휴대 단말기 및 그 제어방법 |
EP2741177B1 (en) * | 2008-07-15 | 2019-06-26 | Immersion Corporation | Systems and Methods for Transmitting Haptic Messages |
US9191238B2 (en) * | 2008-07-23 | 2015-11-17 | Yahoo! Inc. | Virtual notes in a reality overlay |
KR101474448B1 (ko) * | 2008-07-31 | 2014-12-19 | 엘지전자 주식회사 | 컨텐츠 내비게이션 장치 및 그 방법과 그를 이용한텔레매틱스 단말기 |
US20100053151A1 (en) * | 2008-09-02 | 2010-03-04 | Samsung Electronics Co., Ltd | In-line mediation for manipulating three-dimensional content on a display device |
US8749495B2 (en) * | 2008-09-24 | 2014-06-10 | Immersion Corporation | Multiple actuation handheld device |
US9399167B2 (en) * | 2008-10-14 | 2016-07-26 | Microsoft Technology Licensing, Llc | Virtual space mapping of a variable activity region |
US8730245B2 (en) * | 2008-12-01 | 2014-05-20 | Naturalmotion Ltd. | Defining an animation of a virtual object within a virtual world |
US8335590B2 (en) * | 2008-12-23 | 2012-12-18 | Intuitive Surgical Operations, Inc. | System and method for adjusting an image capturing device attribute using an unused degree-of-freedom of a master control device |
US8686952B2 (en) * | 2008-12-23 | 2014-04-01 | Apple Inc. | Multi touch with multi haptics |
US8376858B2 (en) * | 2009-02-20 | 2013-02-19 | Sony Computer Entertainment America Llc | System and method for communicating game information between a portable gaming device and a game controller |
KR20190020180A (ko) * | 2009-03-12 | 2019-02-27 | 임머숀 코퍼레이션 | 마찰 디스플레이 및 부가의 햅틱 효과에 대한 시스템 및 방법 |
US9874935B2 (en) * | 2009-03-12 | 2018-01-23 | Immersion Corporation | Systems and methods for a texture engine |
US8812358B2 (en) * | 2009-03-19 | 2014-08-19 | Motorola Mobility Llc | Method of providing a shared virtual lounge experience |
US8294557B1 (en) * | 2009-06-09 | 2012-10-23 | University Of Ottawa | Synchronous interpersonal haptic communication system |
US11520455B2 (en) * | 2009-06-29 | 2022-12-06 | International Business Machines Corporation | Dioramic user interface having a user customized experience |
KR101604696B1 (ko) * | 2009-08-12 | 2016-03-18 | 엘지전자 주식회사 | 이동 단말기 및 이것의 전원 제어 방법 |
US20110148607A1 (en) * | 2009-12-17 | 2011-06-23 | Charles Timberlake Zeleny | System,device and method for providing haptic technology |
US20110148884A1 (en) * | 2009-12-17 | 2011-06-23 | Charles Timberlake Zeleny | System and method for determining motion of a subject |
TW201203052A (en) * | 2010-05-03 | 2012-01-16 | Flatfrog Lab Ab | Touch determination by tomographic reconstruction |
CN102971689B (zh) * | 2010-06-28 | 2015-10-07 | 诺基亚公司 | 触觉表面压缩 |
US20120010506A1 (en) * | 2010-07-08 | 2012-01-12 | Immersion Corporation | Multimodal laparoscopic ultrasound device with feedback system |
KR101505060B1 (ko) * | 2010-08-24 | 2015-03-26 | 한국전자통신연구원 | 가상 현실 연동 서비스 제공 시스템 및 그 방법 |
US8620850B2 (en) * | 2010-09-07 | 2013-12-31 | Blackberry Limited | Dynamically manipulating an emoticon or avatar |
US8723820B1 (en) * | 2011-02-16 | 2014-05-13 | Google Inc. | Methods and apparatus related to a haptic feedback drawing device |
US20120233198A1 (en) * | 2011-03-10 | 2012-09-13 | Microsoft Corporation | Creating virtual worlds from existing data structures |
-
2010
- 2010-04-14 KR KR1020100034399A patent/KR101640043B1/ko active IP Right Grant
-
2011
- 2011-04-08 US US13/082,698 patent/US8988202B2/en active Active
-
2015
- 2015-02-23 US US14/628,896 patent/US9952668B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
US9952668B2 (en) | 2018-04-24 |
US20110254670A1 (en) | 2011-10-20 |
KR20110114979A (ko) | 2011-10-20 |
US8988202B2 (en) | 2015-03-24 |
US20150169065A1 (en) | 2015-06-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR101640043B1 (ko) | 가상 세계 처리 장치 및 방법 | |
JP6982215B2 (ja) | 検出された手入力に基づく仮想手ポーズのレンダリング | |
US10636217B2 (en) | Integration of tracked facial features for VR users in virtual reality environments | |
US10254833B2 (en) | Magnetic tracking of glove interface object | |
US10203838B2 (en) | Avatar personalization in a virtual environment | |
EP3259655B1 (en) | Magnetic tracking of glove fingertips with peripheral devices | |
KR101700468B1 (ko) | 사용자로부터 학습된 입력을 통해 비주얼 표현을 활성화하는 방법 | |
TWI531396B (zh) | 用於推動互動故事的自然使用者輸入 | |
JP6775557B2 (ja) | 動画配信システム、動画配信方法、及び動画配信プログラム | |
US20160274662A1 (en) | Dynamic gloves to convey sense of touch and movement for virtual objects in hmd rendered environments | |
GB2556347A (en) | Virtual reality | |
US20110154266A1 (en) | Camera navigation for presentations | |
US11833430B2 (en) | Menu placement dictated by user ability and modes of feedback | |
KR20130080442A (ko) | 표정의 실시간 애니메이션화 | |
US10166477B2 (en) | Image processing device, image processing method, and image processing program | |
JP2010253277A (ja) | ビデオゲームにおいてオブジェクトの動きを制御する方法およびシステム | |
JP2018142313A (ja) | 仮想感情タッチのためのシステム及び方法 | |
JP2023126237A (ja) | キャラクタを使ったライブ通信システム | |
JP2020202575A (ja) | 動画配信システム、動画配信方法、及び動画配信プログラム | |
KR20100138707A (ko) | 영상 장치 및 컴퓨터 판독 기록매체 | |
US20240091650A1 (en) | Systems and methods for modifying user sentiment for playing a game | |
KR20180071761A (ko) | Vr 디바이스를 이용한 모바일 게임 제공 시스템 및 방법 | |
Wu et al. | Interface design for somatosensory interaction | |
KR20100138701A (ko) | 영상 장치 및 컴퓨터 판독 기록매체 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant | ||
FPAY | Annual fee payment |
Payment date: 20190619 Year of fee payment: 4 |