KR101640043B1 - 가상 세계 처리 장치 및 방법 - Google Patents

가상 세계 처리 장치 및 방법 Download PDF

Info

Publication number
KR101640043B1
KR101640043B1 KR1020100034399A KR20100034399A KR101640043B1 KR 101640043 B1 KR101640043 B1 KR 101640043B1 KR 1020100034399 A KR1020100034399 A KR 1020100034399A KR 20100034399 A KR20100034399 A KR 20100034399A KR 101640043 B1 KR101640043 B1 KR 101640043B1
Authority
KR
South Korea
Prior art keywords
tactile
information
virtual object
characteristic information
virtual
Prior art date
Application number
KR1020100034399A
Other languages
English (en)
Other versions
KR20110114979A (ko
Inventor
한재준
한승주
방원철
김도균
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020100034399A priority Critical patent/KR101640043B1/ko
Priority to US13/082,698 priority patent/US8988202B2/en
Publication of KR20110114979A publication Critical patent/KR20110114979A/ko
Priority to US14/628,896 priority patent/US9952668B2/en
Application granted granted Critical
Publication of KR101640043B1 publication Critical patent/KR101640043B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/016Input arrangements with force or tactile feedback as computer generated output to the user
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Software Systems (AREA)
  • Computer Hardware Design (AREA)
  • Computer Graphics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Evolutionary Computation (AREA)
  • Biomedical Technology (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Biophysics (AREA)
  • Data Mining & Analysis (AREA)
  • Mathematical Physics (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Processing Or Creating Images (AREA)

Abstract

가상 세계 처리 장치 및 방법이 개시된다. 본 발명의 실시예들에 따르면 센싱한 감지 정보에 대응하는 가상 세계의 가상 객체에 대한 촉각 정보를 추출하여 촉각 피드백 장치로 전송함으로써, 현실 세계와 가상 세계의 상호 작용을 구현할 수 있고, 또한, 가상 객체의 유형에 따라 데이터 구조를 달리함으로써, 가상 객체에 대한 촉각 정보의 처리 속도를 향상 시킬 수 있다.

Description

가상 세계 처리 장치 및 방법{Method and Apparatus for Processing Virtual World}
본 발명의 실시예들은 가상 세계 처리 장치 및 방법에 관한 것으로서, 보다 구체적으로는 가상 객체에 대한 촉각 정보를 처리하는 가상 세계 처리 장치 및 방법에 관한 것이다.
최근 들어 체감형 게임에 대한 관심이 증대 되고 있다. Microsoft社는 "E3 2009" Press Conference에서 그들의 게임 콘솔인 Xbox360에 Depth/Color 카메라와 마이크 어레이로 구성된 별도의 센서 디바이스를 결합하여 사용자의 전신 모션 캡처링, 얼굴 인식, 음성 인식 기술을 제공하여 별도의 컨트롤러 없이 가상세계와 상호 작용 할 수 있도록 해 주는 "Project Natal"을 발표 했다. 또한, Sony社는 자사 게임 콘솔인 Play Station3에 컬러 카메라와 마커, 초음파 센서를 결합한 위치/방향 센싱 기술을 적용하여 컨트롤러의 모션 궤적을 입력으로 가상세계와 상호 작용 할 수 있는 체감형 게임 모션 컨트롤러 "Wand"를 발표했다.
현실 세계와 가상 세계의 상호 작용은 두 가지 방향을 가진다. 첫째는 현실 세계의 센서로부터 얻어진 데이터 정보를 가상 세계에 반영하는 방향이고, 둘째는 가상 세계로부터 얻어진 데이터 정보를 엑추에이터(actuator)를 통해 현실 세계에 반영하는 방향이다.
본 명세서에서는 가상 객체에 대한 촉각 정보를 처리하는 장치 및 방법에 대한 새로운 방안이 제시된다.
본 발명의 일실시예에 따른 가상 세계 처리 장치는 센서로부터 감지 정보를 수신하는 수신부, 상기 감지 정보에 대응하는 가상 객체에 대한 가상 객체 정보로부터 촉각 특성 정보를 추출하는 추출부 및 상기 촉각 특성 정보를 촉각 피드백 장치로 전송하는 전송부를 포함한다.
본 발명의 일실시예에 따른 가상 세계 처리 방법은 센서로부터 감지 정보를 수신하는 단계, 상기 감지 정보에 대응하는 가상 객체에 대한 가상 객체 정보로부터 촉각 특성 정보를 추출하는 단계 및 상기 촉각 특성 정보를 촉각 피드백 장치로 전송하는 단계를 포함한다.
실시예들은 센싱한 감지 정보에 대응하는 가상 세계의 가상 객체에 대한 촉각 정보를 추출하여 촉각 피드백 장치로 전송함으로써, 현실 세계와 가상 세계의 상호 작용을 구현할 수 있다. 또한, 가상 객체의 유형에 따라 데이터 구조를 달리함으로써, 가상 객체에 대한 촉각 정보의 처리 속도를 향상 시킬 수 있다.
도 1은 일실시예에 따른 현실 세계와 가상 세계 사이의 정보 교환을 제어하는 가상 세계 처리 시스템을 나타내는 도면이다.
도 2는 본 발명의 일실시예에 따른 가상 세계 처리 장치의 구성을 나타내는 도면이다.
도 3 내지 도 5는 본 발명의 일실시예에 따른 아바타에 대한 데이터 구조를 나타내는 도면이다.
도 6 내지 도 7은 본 발명의 일실시예에 따른 아바타를 제외한 가상 객체에 대한 데이터 구조를 나타내는 도면이다.
도 8은 본 발명의 일실시예에 따른 가상 세계 처리 방법을 나타내는 흐름도이다.
이하에서, 본 발명에 따른 실시예를 첨부된 도면을 참조하여 상세하게 설명한다. 그러나, 본 발명이 실시예들에 의해 제한되거나 한정되는 것은 아니다. 각 도면에 제시된 동일한 참조 부호는 동일한 부재를 나타낸다.
도 1은 일실시예에 따른 현실 세계와 가상 세계 사이의 정보 교환을 제어하는 가상 세계 처리 시스템을 나타내는 도면이다.
도 1을 참조하면, 본 발명의 일실시예에 따른 가상 세계 처리 시스템은 현실 세계(110), 가상 세계 처리 장치 및 가상 세계(140)를 포함할 수 있다.
현실 세계(110)는 현실 세계(110)에 대한 정보를 감지하는 센서(Sensor) 또는 가상 세계(140)에 대한 정보를 현실 세계(110)에서 구현하는 실감 장치를 나타낼 수 있다.
또한, 가상 세계(140)는 프로그램에 의해서 구현되는 가상 세계(140) 그 자체 또는 현실 세계(110)에서 구현될 수 있는 실감 효과 정보를 포함하는 컨텐츠를 재생하는 실감 미디어 재생 장치를 나타낼 수 있다.
일실시예에 따른 센서(Sensor)는 현실 세계(110)의 사용자의 동작, 상태, 의도, 형태 등에 관한 정보를 감지(Sensing)하여 가상 세계 처리 장치로 전송할 수 있다.
실시예에 따라서는, 센서는 센서 특성(Sensor Capability)(101), 센서 적응 선호(Sensor Adaptation Preference)(102) 및 감지 정보(Sensed Information)(103)를 가상 세계 처리 장치로 전송할 수 있다.
센서 특성(101)은 센서의 특성에 대한 정보이다. 센서 적응 선호(102)는 센서의 사용자가 센서의 특성에 대해서 선호하는 정도를 나타내는 정보이다. 감지 정보(103)는 센서가 현실 세계(110)를 감지한 정보이다.
일실시예에 따른 가상 세계 처리 장치는 적응 RV(Adaptation Real World to Virtual World)(120), VWI(Virtual World Information, 가상 세계 정보)(104) 및 적응 RV/VR(Adaptation Real World to Virtual World/Virtual World to Real World)(130)를 포함할 수 있다.
적응 RV(120)는 센서 특성(101) 및 센서 적응 선호(102)에 기초하여 센서가 현실 세계(110)에 대해서 감지한 감지 정보(103)를 가상 세계(140)에 적용할 수 있는 정보로 변환할 수 있다. 실시예에 따라, 적응 RV(120)는 RV 엔진(real world to virtual world engine, RV engine)으로 구현될 수 있다.
일실시예에 따른 적응 RV(120)는 변환된 감지 정보(103)를 이용하여 VWI(Virtual World Information, 가상 세계 정보)(104)를 변환할 수 있다.
VWI(104)는 가상 세계(140)의 가상 객체(Virtual Object)에 대한 정보이다.
적응 RV/VR(130)은 변환된 VWI(104)를 인코딩(Encoding)하여 가상 세계(140)에 적용되는 효과에 대한 메타데이터인 VWEM(Virtual World Effect Metadata, 가상 세계 효과 메타데이터)(107)을 생성할 수 있다. 실시예에 따라서는, 적응 RV/VR(130)은 VWC(Virtual World Capabilities, 가상 세계 특성)(105) 및 VWP(Virtual World Preferences, 가상 세계 선호)(106)에 기초하여 VWEM(107)을 생성할 수 있다.
VWC(105)는 가상 세계(140)의 특성에 대한 정보이다. 또한, VWP(106)는 가상 세계(140)의 특성에 대한 사용자의 선호 정도를 나타내는 정보이다.
또한, 적응 RV/VR(130)은 VWEM(107)을 가상 세계(140)로 전송할 수 있다. 이 때, VWEM(107)은 가상 세계(140)이 적용되어, 감지 정보(103)에 대응하는 효과가 가상 세계(140)에서 구현될 수 있다.
본 발명의 일측에 따르면, 가상 세계(140)에서 발생한 효과 이벤트가 현실 세계(110)에서 엑츄에이터(Actuator)인 실감 장치에 의해서 구동될 수 있다.
가상 세계(140)는 가상 세계(140)에서 발생한 효과 이벤트에 대한 정보인 실감 효과 정보(Sensory Effect Information)를 인코딩하여 SEM(Sensory Effect Metadata, 실감 효과 메타데이터)(111)을 생성할 수 있다. 실시예에 따라서는, 가상 세계(140)는 실감 효과 정보를 포함하는 컨텐츠를 재생하는 실감 미디어 재생 장치를 포함할 수 있다.
적응 RV/VR(130)는 SEM(111)에 기초하여 실감 정보(Sensory Information)(112)를 생성할 수 있다. 실감 정보(112)는 현실 세계(110)의 실감 장치에서 구현되는 효과 이벤트에 대한 정보이다.
적응 VR(150)는 현실 세계(110)의 실감 장치의 동작을 제어하는 SDCmd(Sensory Device Command, 실감 장치 명령)(115)에 대한 정보를 생성할 수 있다. 실시예에 따라서는, 적응 VR(150)은 SDCap(Sensory Device Capabilities, 실감 장치 특성)(113)에 대한 정보 및 USP(User Sensory Preference, 사용자 실감 선호)(114)에 대한 정보에 기초하여 SDCmd(115)에 대한 정보를 생성할 수 있다.
SDCap(113)은 실감 장치의 특성에 대한 정보이다. 또한, USP(114)는 실감 장치에서 구현되는 효과에 대한 사용자의 선호 정도를 나타내는 정보이다.
도 2는 본 발명의 일실시예에 따른 가상 세계 처리 장치의 구성을 나타내는 도면이다.
도 2를 참조하면, 본 발명의 일실시예에 따른 가상 세계 처리 장치(200)는 수신부(210), 추출부(220) 및 전송부(230)를 포함한다.
수신부(210)는 센서로부터 감지 정보를 수신한다.
센서는 현실 세계의 객체에 대한 정보를 감지(Sensing)하는 장치이다. 실시예에 따라서는, 센서는 촉각 디스플레이(Tactile Display)를 포함할 수 있다. 촉각 디스플레이는 디스플레이 장치의 일유형으로서, 화면에 대한 터치 입력을 감지할 수 있는 장치이다.
실시예에 따라서는, 센서는 XML 형태의 메타데이터로 감지 정보를 인코딩하여 가상 세계 처리 장치(200)로 전송할 수 있다. 또한, 센서는 이진 형태의 메타데이터로 감지 정보를 인코딩하여 가상 세계 처리 장치(200)로 전송할 수 있다. 또한, 센서는 XML 형태의 제1 메타데이터로 감지 정보를 인코딩하고, 이진 형태의 제2 메타데이터로 제1 메타데이터를 인코딩하여 가상 세계 처리 장치(200)로 전송할 수 있다.
실시예에 따라서는, 사용자가 촉각 디스플레이에 표시되는 아바타의 머리를 터치(Touch)하는 경우, 감지 정보는 터치 입력이 입력된 화면 상의 위치에 대한 정보 및 터치한 가상 세계의 아바타의 부위(머리)에 대한 정보를 포함할 수 있다.
추출부(220)는 감지 정보에 대응하는 가상 객체(Virtual Object)에 대한 가상 객체 정보(Virtual Object Information)로부터 촉각 특성 정보(Haptic Property Information)를 추출한다.
가상 객체는 사람을 포함한 동물의 형상을 갖는 아바타(Avatar) 및 그 외의 가상 객체로 분류될 수 있다.
가상 객체 정보는 가상 객체에 대한 정보로서, 촉각 특성 정보를 포함할 수 있다.
촉각 특성 정보는 가상 객체에 부여된 촉각 특성에 대한 정보이다. 예를 들어, 촉각 특성 정보는 가상 객체의 질감, 재질 등에 대한 정보를 포함할 수 있다. 또한, 촉각 특성 정보는 실감 효과 정보를 포함할 수 있다. 실감 효과 정보는 엑츄에이터(Actuator)를 통해서 구현되는 효과 이벤트에 대한 정보일 수 있다. 예를 들어, 촉각 특성 정보가 질감에 대한 정보인 경우, 실감 효과 정보는 질감 정도에 대응하는 진동의 세기 정보일 수 있다.
본 발명의 일측에 따르면, 아바타 및 그 외의 가상 객체는 별개의 데이터 구조(Data Structure)를 가질 수 있다.
일실시예에 따른 아바타를 제외한 가상 객체에 대한 가상 객체 정보는 촉각 특성 정보를 포함할 수 있다. 즉, 하나의 가상 객체는 하나의 촉각 특성 정보를 포함할 수 있다. 따라서, 추출부(220)는 가상 객체가 아바타를 제외한 그 외의 가상 객체인 경우, 감지 정보에 대응하는 가상 객체(예를 들어, 사용자가 촉각 디스플레이를 통하여 터치한 가상 객체)에 대한 가상 객체 정보로부터 촉각 특성 정보를 추출할 수 있다.
실시예에 따라서는, 하나의 가상 객체가 복수 개의 구성(Component)을 포함하는 경우, 복수 개의 구성 각각은 하나의 촉각 특성을 포함할 수 있다. 이 때, 추출부(220)는 가상 객체 정보로부터 개별적인 구성에 대한 촉각 특성 정보를 추출할 수 있다.
예를 들어, 가상 세계의 전화기가 수화기 및 몸통의 구성을 포함하고, 사용자가 촉각 디스플레이를 터치하여 수화기를 터치하였다면, 추출부(220)는 전화기에 대한 가상 객체 정보로부터 수화기가 포함하는 촉각 특성을 추출할 수 있다.
일실시예에 따른 아바타에 대한 가상 객체 정보는 외모 엘리먼트(Appearance) 및 촉각 속성 리스트(Haptic Property List)를 포함할 수 있다.
외모 엘리먼트는 아바타의 외모에 대한 정보를 포함할 수 있다. 또한, 외모 엘리먼트는 촉각 참조 ID(Haptic Reference ID)를 포함할 수 있다.
촉각 속성 리스트는 아바타에 적용되는 촉각 속성 정보를 포함하는 리스트이다. 실시예에 따라서는, 촉각 속성 정보 각각에 대해서 촉각 참조 ID가 할당될 수 있다.
일실시예에 따른 추출부(220)는 가상 객체가 아바타인 경우, 감지 정보에 대응하는 아바타의 외모 엘리먼트로부터 촉각 참조 ID를 추출하고, 촉각 속성 리스트로부터 촉각 참조 ID에 대응하는 촉각 특성 정보를 추출할 수 있다.
즉, 일실시예에 따른 아바타는 외모 엘리먼트 별로 촉각 속성 정보를 할당하지 않고, 외모 엘리먼트 별로 촉각 참조 ID를 할당 할 수 있다. 따라서, 일실시예에 따른 추출부(220)는 아바타의 외모 엘리먼트에 대한 촉각 정보를 추출하기 위해서, 촉각 참조 ID를 이용하여 촉각 속성 리스트를 참조할 수 있다. 즉, 추출부(220)는 촉각 속성 리스트로부터 촉각 참조 ID에 대응하는 촉각 특성 정보를 추출할 수 있다.
전송부(230)는 추출부(220)가 추출한 촉각 특성 정보를 촉각 피드백 장치(Haptic Feedback Device)로 전송한다.
촉각 피드백 장치는 촉각 특성 정보에 대응하는 효과를 현실 세계에서 구동하는 장치이다. 실시예에 따라서는, 촉각 피드백 장치는 점자(點字) 디스플레이 장치, 4D 극장의 진동 의자, 안마 의자 등을 포함할 수 있다.
일실시예에 따른 전송부(230)는 XML 형태의 메타데이터로 촉각 특성 정보를 인코딩하여 촉각 피드백 장치로 전송할 수 있다. 또한, 전송부(230)는 이진 형태의 메타데이터로 촉각 특성 정보를 인코딩하여 촉각 피드백 장치로 전송할 수 있다. 또한, 전송부(230)는 XML 형태의 제1 메타데이터로 촉각 특성 정보를 인코딩하고, 이진 형태의 제2 메타데이터로 제1 메타데이터를 인코딩하여 촉각 피드백 장치로 전송할 수 있다.
이하 도 3 내지 도 7을 참조하여, 가상 객체에 대한 데이터 구조를 상세히 설명한다.
도 3 내지 도 5는 본 발명의 일실시예에 따른 아바타에 대한 데이터 구조를 나타내는 도면이다.
도 3을 참조하면, 본 발명의 일실시예에 따른 아바타 타입(Avatar Type)(310)은 가상 세계의 아바타에 대한 데이터 구조를 나타낸다.
일실시예에 따른 아바타 타입(310)은 가상 세계 객체 기본 특성(Virtual World Object Base Type)(320) 및 복수 개의 엘리먼트(Element)를 포함할 수 있다.
가상 세계 객체 기본 특성(320)은 가상 세계의 아바타에 대한 기본적인 특성 정보이다. 실시예에 따라서는, 가상 세계 객체 기본 특성(320)은 식별자(Identification)(321), VWOC(Virtual World Object Capability, 가상 세계 객체 특성)(322) 및 행동모델리스트(Behavior Model List)(323)를 포함할 수 있다.
일실시예에 따른 아바타 타입(310)은 복수 개의 엘리먼트로서, 외모 엘리먼트(Appearane Element)(331), 애니메이션 엘리먼트(Animation Element)(332), 대화기술 엘리먼트(Communication Skills Element)(333), 개성 엘리먼트(Personality Element)(334), 제어특징점 엘리먼트(Control Features Element)(335) 및 촉각특성리스트 엘리먼트(Haptic Property List Element)(336)를 포함할 수 있다.
외모 엘리먼트(331)는 가상 세계의 아바타의 외모에 대한 정보를 포함할 수 있다. 본 발명의 일측에 따르면, 외모 엘리먼트(331)에는 촉각 속성 정보를 포함하지 않고, 촉각 참조 ID를 포함할 수 있다. 일실시예에 따른 가상 세계 처리 장치는 촉각 참조 ID를 이용하여 촉각 속성 리스트로부터 촉각 특성 정보를 추출할 수 있다.
촉각특성리스트 엘리먼트(336)는 아바타에 적용되는 촉각 속성 정보를 포함하는 리스트이다.
도 4를 참조하면, 본 발명의 일실시예에 따른 아바타 외모 타입(Avatar Appearance Type)(410)은 몸체(Body)(411), 머리(Head)(412), 눈(Eyes)(413), 귀(Ears)(414), 코(Nose)(415), 입술(MouthLip)(416), 피부(Skin)(417), 얼굴(Facial)(418), 손톱(Nail)(419), 몸형상(BodyLook)(420), 머리(Hair)(421), 눈썹(Eyebrows)(422), 얼굴털(FacialHair)(423), 외모리소스(Appearance Resources)(424), 얼굴눈금포인트(Facial Calibration Points)(425), 물리적조건(Physical Condition)(426), 옷(Clothes)(427), 신발(Shoes)(428) 및 액세서리(Accessories)(429)를 포함한다.
일실시예에 따른 아바타 외모 타입(410)은 아바타가 포함하는 외모 엘리먼트에 대한 데이터 구조를 나타낸다.
실시예에 따라서는, 몸체(411), 머리(412), 눈(413), 귀(414), 코(415), 입술(416), 얼굴(418), 손톱(419), 머리(421), 눈썹(422) 및 얼굴털(423)에 대한 외모 엘리먼트는 촉각 참조 ID를 포함할 수 있다.
표 1은 본 발명의 일실시예에 따른 아바타 외모 타입(Avatar Appearance Type)에 대한 XML 신택스(eXtensible Markup Language Syntax)를 나타낸다.
표 1
Figure 112010023813899-pat00001
Figure 112010023813899-pat00002
표 2는 본 발명의 일실시예에 따른 아바타의 몸체(411)에 대한 아바타 외모 타입에 대한 XML 신택스를 나타낸다.
표 2
Figure 112010023813899-pat00003
Figure 112010023813899-pat00004
표 3은 본 발명의 일실시예에 따른 머리(412)에 대한 아바타 외모 타입에 대한 XML 신택스를 나타낸다.
표 3
Figure 112010023813899-pat00005
Figure 112010023813899-pat00006
Figure 112010023813899-pat00007
표 2 및 표 3를 참조하면, 몸체(411) 또는 머리(412)에 대한 아바타 외모 타입에 대한 XML 신택스는 '<attribute name="hapticIDRef" type="IDREF" use="optional"/>'를 포함하고 있다. 즉, 일실시예에 따른 외모 엘리먼트에는 촉각 특성 정보가 포함되어 있지 않고, 촉각 참조 ID가 포함되어 있음을 알 수 있다. 따라서, 일실시예에 따른 가상 세계 처리 장치는 아바타의 외모 엘리먼트에 대해서 촉각 참조 ID를 통해서 촉각 특성 정보를 추출할 수 있다.
도 5를 참조하면, 일실시예에 따른 아바타의 외모 엘리먼트 중 귀 타입(Ears Type)(510)은 속성(Attributes)(520) 및 복수 개의 엘리먼트를 포함할 수 있다.
속성(520)은 귀 타입(510)에 대한 외모 엘리먼트의 속성 정보를 나타낸다.
일실시예에 따른 속성(520)은 촉각 참조 ID(Haptic ID Reference)(521)를 포함할 수 있다. 촉각 참조 ID(521)는 촉각 속성 리스트에 포함되어 있는 촉각 특성 정보에 대한 식별자 정보일 수 있다.
예를 들어, 사용자가 촉각 디스플레이 상에 표시되는 아바타의 귀를 터치한 경우, 촉각 디스플레이 센서는 가상 세계 처리 장치로 감지 정보를 전송할 수 있다.
이 때, 감지 정보는 사용자가 촉각 디스플레이의 화면 상에서 터치한 위치 정보 및 상기 위치 정보에 대응하는 가상 객체가 아바타의 귀 부분이라는 정보를 포함할 수 있다.
가상 세계 처리 장치는 아바타에 대한 가상 객체 정보로부터 귀에 대한 외모 엘리먼트가 포함하는 촉각 참조 ID(521)를 추출할 수 있다.
또한, 가상 세계 처리 장치는 아바타에 대한 가상 객체 정보가 포함하는 촉각 속성 리스트로부터 촉각 참조 ID(521)에 대응하는 촉각 특성 정보를 추출할 수 있다.
또한, 가상 세계 처리 장치는 추출한 촉각 특성 정보를 촉각 피드백 장치로 전송할 수 있다.
일실시예에 따른 귀 타입(510)은 귀크기(Ear Size)(531), 귀위치(Ear Position)(532), 귀각도(Ear Angle)(533), 부착귓볼(Attached Ear Lobes)(534) 및 귀끝(Ear Tips)(535)를 포함할 수 있다.
표 4는 본 발명의 일실시예에 따른 귀에 대한 아바타 외모 타입에 대한 XML 신택스를 나타낸다.
표 4
Figure 112010023813899-pat00008
도 6 내지 도 7은 본 발명의 일실시예에 따른 아바타를 제외한 가상 객체에 대한 데이터 구조를 나타내는 도면이다.
도 6을 참조하면, 본 발명의 일실시예에 따른 가상 객체 타입(Virtual Object Type)(610)은 아바타를 제외한 가상 객체에 대한 데이터 구조를 나타낸다.
일실시예에 따른 가상 객체 타입(610)은 가상 세계 객체 기본 특성(Virtual World Object Base Type)(620) 및 복수 개의 엘리먼트(Element)를 포함할 수 있다.
가상 세계 객체 기본 특성(620)은 가상 세계의 객체에 대한 기본적인 특성 정보이다. 실시예에 따라서는, 가상 세계 객체 기본 특성(620)은 식별자(Identification)(621), VWOC(Virtual World Object Capability, 가상 세계 객체 특성)(622) 및 행동모델리스트(Behavior Model List)(623)를 포함할 수 있다.
일실시예에 따른 가상 객체 타입(610)은 복수 개의 엘리먼트로서, 외모(Appearane)(631), 애니메이션(Animation)(632) 및 촉각특성(Haptic Property)(633)를 포함할 수 있다.
가상 객체 타입(610)은, 도 3의 아바타 타입(310)과 달리, 촉각특성리스트 없이, 가상 객체의 촉각 특성(633)에 대한 정보를 포함한다. 따라서, 일실시예에 따른 가상 세계 처리 장치는 가상 객체 정보로부터 촉각 특성 정보를 바로 추출할 수 있다.
예를 들어, 사용자가 촉각 디스플레이 상에 표시되는 가상 자동차를 터치하는 경우, 촉각 디스플레이 센서는 가상 세계 처리 장치로 감지 정보를 전송할 수 있다.
이 때, 감지 정보는 사용자가 촉각 디스플레이의 화면 상에서 터치한 위치 정보 및 상기 위치 정보에 대응하는 가상 객체가 가상 자동차라는 정보를 포함할 수 있다.
가상 세계 처리 장치는 가상 자동차에 대한 가상 객체 정보로부터 촉각 특성(633)에 대한 정보를 추출할 수 있다.
또한, 가상 세계 처리 장치는 추출한 촉각 특성(633)에 대한 정보를 촉각 피드백 장치로 전송할 수 있다.
표 5는 본 발명의 일실시예에 따른 가상 객체 타입(Virtual Object Type)에 대한 XML 신택스(eXtensible Markup Language Syntax)를 나타낸다.
표 5
Figure 112010023813899-pat00009
본 발명의 일측에 따르면, 가상 객체는 복수 개의 구성을 포함할 수 있다.
도 7을 참조하면, 본 발명의 일실시예에 따른 가상 객체 타입(710)은 아바타를 제외한 가상 객체가 복수 개의 구성을 포함하는 경우의 가상 객체에 대한 데이터 구조를 나타낸다.
가상 객체 타입(710)은 가상 객체 구성(Virtual Object Components)(720)를 포함할 수 있다. 가상 객체 구성(720)은 가상 객체가 복수 개의 구성을 포함하는 경우, 가상 객체의 개별적인 구성에 대한 객체 정보이다.
가상 객체 구성(720)은 가상 객체 리스트 타입(Virtual Object List Type)(730)을 포함할 수 있다.
일실시예에 따른 가상 객체 리스트 타입(730)은 도 6의 가상 객체 타입(610)과 동일한 자료 구조를 가질 수 있다. 따라서, 가상 객체 리스트 타입(730)은 한 개의 촉각 특성만을 포함할 수 있다. 즉, 가상 객체의 복수 개의 구성 각각은 한 개의 촉각 특성만을 포함할 수 있다.
예를 들어, 가상 자동차가 바퀴 및 본체의 구성을 포함하고, 사용자가 촉각 디스플레이 상에 표시되는 가상 자동차의 바퀴를 터치하는 경우, 촉각 디스플레이 센서는 가상 세계 처리 장치로 감지 정보를 전송할 수 있다.
이 때, 감지 정보는 사용자가 촉각 디스플레이의 화면 상에서 터치한 위치 정보 및 상기 위치 정보에 대응하는 가상 객체가 가상 자동차의 바퀴라는 정보를 포함할 수 있다.
가상 세계 처리 장치는 가상 자동차에 대한 가상 객체 정보로부터 가상 자동차의 바퀴에 대한 촉각 특성 정보를 추출할 수 있다.
또한, 가상 세계 처리 장치는 추출한 촉각 특성 정보를 촉각 피드백 장치로 전송할 수 있다.
도 8은 본 발명의 일실시예에 따른 가상 세계 처리 방법을 나타내는 흐름도이다.
도 8을 참조하면, 본 발명의 일실시예에 따른 가상 세계 처리 방법은 센서로부터 감지 정보를 수신한다(S810).
센서는 현실 세계의 객체에 대한 정보를 감지(Sensing)하는 장치이다. 실시예에 따라서는, 센서는 촉각 디스플레이(Tactile Display)를 포함할 수 있다. 촉각 디스플레이는 디스플레이 장치의 일유형으로서, 화면에 대한 터치 입력을 감지할 수 있는 장치이다.
실시예에 따라서는, 센서는 XML 형태의 메타데이터로 감지 정보를 인코딩하여 전송할 수 있다. 또한, 센서는 이진 형태의 메타데이터로 감지 정보를 인코딩하여 전송할 수 있다. 또한, 센서는 XML 형태의 제1 메타데이터로 감지 정보를 인코딩하고, 이진 형태의 제2 메타데이터로 제1 메타데이터를 인코딩하여 전송할 수 있다.
실시예에 따라서는, 사용자가 촉각 디스플레이에 표시되는 아바타의 머리를 터치(Touch)하는 경우, 감지 정보는 터치 입력이 입력된 화면 상의 위치에 대한 정보 및 터치한 가상 세계의 아바타의 부위(머리)에 대한 정보를 포함할 수 있다.
가상 세계 처리 방법은 감지 정보에 대응하는 가상 객체(Virtual Object)에 대한 가상 객체 정보(Virtual Object Information)로부터 촉각 특성 정보(Haptic Property Information)를 추출한다(S820).
가상 객체는 사람을 포함한 동물의 형상을 갖는 아바타(Avatar) 및 그 외의 가상 객체로 분류될 수 있다.
가상 객체 정보는 가상 객체에 대한 정보로서, 촉각 특성 정보를 포함할 수 있다.
촉각 특성 정보는 가상 객체에 부여된 촉각 특성에 대한 정보이다. 예를 들어, 촉각 특성 정보는 가상 객체의 질감, 재질 등에 대한 정보를 포함할 수 있다. 또한, 촉각 특성 정보는 실감 효과 정보를 포함할 수 있다. 실감 효과 정보는 엑츄에이터(Actuator)를 통해서 구현되는 효과 이벤트에 대한 정보일 수 있다. 예를 들어, 촉각 특성 정보가 질감에 대한 정보인 경우, 실감 효과 정보는 질감 정도에 대응하는 진동의 세기 정보일 수 있다.
본 발명의 일측에 따르면, 아바타 및 그 외의 가상 객체는 별개의 데이터 구조(Data Structure)를 가질 수 있다.
일실시예에 따른 아바타를 제외한 가상 객체에 대한 가상 객체 정보는 촉각 특성 정보를 포함할 수 있다. 즉, 하나의 가상 객체는 하나의 촉각 특성 정보를 포함할 수 있다. 따라서, 가상 세계 처리 방법은 가상 객체가 아바타를 제외한 그 외의 가상 객체인 경우, 감지 정보에 대응하는 가상 객체(예를 들어, 사용자가 촉각 디스플레이를 통하여 터치한 가상 객체)에 대한 가상 객체 정보로부터 촉각 특성 정보를 추출할 수 있다.
실시예에 따라서는, 하나의 가상 객체가 복수 개의 구성(Component)을 포함하는 경우, 복수 개의 구성 각각은 하나의 촉각 특성을 포함할 수 있다. 이 때, 가상 세계 처리 방법은 가상 객체 정보로부터 개별적인 구성에 대한 촉각 특성 정보를 추출할 수 있다.
예를 들어, 가상 세계의 전화기가 수화기 및 몸통의 구성을 포함하고, 사용자가 촉각 디스플레이를 터치하여 수화기를 터치하였다면, 가상 세계 처리 방법은 전화기에 대한 가상 객체 정보로부터 수화기가 포함하는 촉각 특성을 추출할 수 있다.
일실시예에 따른 아바타에 대한 가상 객체 정보는 외모 엘리먼트(Appearance) 및 촉각 속성 리스트(Haptic Property List)를 포함할 수 있다.
외모 엘리먼트는 아바타의 외모에 대한 정보를 포함할 수 있다. 또한, 외모 엘리먼트는 촉각 참조 ID(Haptic Reference ID)를 포함할 수 있다.
촉각 속성 리스트는 아바타에 적용되는 촉각 속성 정보를 포함하는 리스트이다. 실시예에 따라서는, 촉각 속성 정보 각각에 대해서 촉각 참조 ID가 할당될 수 있다.
일실시예에 따른 가상 세계 처리 방법은 가상 객체가 아바타인 경우, 감지 정보에 대응하는 아바타의 외모 엘리먼트로부터 촉각 참조 ID를 추출하고, 촉각 속성 리스트로부터 촉각 참조 ID에 대응하는 촉각 특성 정보를 추출할 수 있다.
즉, 일실시예에 따른 아바타는 외모 엘리먼트 별로 촉각 속성 정보를 할당하지 않고, 외모 엘리먼트 별로 촉각 참조 ID를 할당 할 수 있다. 따라서, 일실시예에 따른 가상 세계 처리 방법은 아바타의 외모 엘리먼트에 대한 촉각 정보를 추출하기 위해서, 촉각 참조 ID를 이용하여 촉각 속성 리스트를 참조할 수 있다. 즉, 가상 세계 처리 방법은 촉각 속성 리스트로부터 촉각 참조 ID에 대응하는 촉각 특성 정보를 추출할 수 있다.
가상 세계 처리 방법은 추출한 촉각 특성 정보를 촉각 피드백 장치(Haptic Feedback Device)로 전송한다(S830).
촉각 피드백 장치는 촉각 특성 정보에 대응하는 효과를 현실 세계에서 구동하는 장치이다. 실시예에 따라서는, 촉각 피드백 장치는 점자(點字) 디스플레이 장치, 4D 극장의 진동 의자, 안마 의자 등을 포함할 수 있다.
일실시예에 따른 가상 세계 처리 방법은 XML 형태의 메타데이터로 촉각 특성 정보를 인코딩하여 촉각 피드백 장치로 전송할 수 있다. 또한, 가상 세계 처리 방법은 이진 형태의 메타데이터로 촉각 특성 정보를 인코딩하여 촉각 피드백 장치로 전송할 수 있다. 또한, 가상 세계 처리 방법은 XML 형태의 제1 메타데이터로 촉각 특성 정보를 인코딩하고, 이진 형태의 제2 메타데이터로 제1 메타데이터를 인코딩하여 촉각 피드백 장치로 전송할 수 있다.
본 발명에 따른 실시예들은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(Floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 본 발명의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.
이상과 같이 본 발명은 비록 한정된 실시예와 도면에 의해 설명되었으나, 본 발명은 상기의 실시예에 한정되는 것은 아니며, 본 발명이 속하는 분야에서 통상의 지식을 가진 자라면 이러한 기재로부터 다양한 수정 및 변형이 가능하다.
그러므로, 본 발명의 범위는 설명된 실시예에 국한되어 정해져서는 아니 되며, 후술하는 특허청구범위뿐 아니라 이 특허청구범위와 균등한 것들에 의해 정해져야 한다.
110: 현실 세계
120: 적응 RV
130: 적응 RV/VR
140: 가상 세계

Claims (11)

  1. 가상 세계 처리 장치에 있어서,
    센서로부터 감지 정보를 수신하는 수신부;
    상기 감지 정보에 대응하는 가상 객체에 대한 가상 객체 정보로부터 촉각 특성 정보를 추출하는 추출부; 및
    상기 촉각 특성 정보를 촉각 피드백 장치로 전송하는 전송부
    를 포함하고,
    상기 가상 객체 정보는 적어도 하나의 서브-엘리먼트를 포함하는 외모 엘리먼트; 및 복수의 촉각 특성 정보들을 포함하는 촉각 속성 리스트를 포함하고, 상기 적어도 하나의 서브-엘리먼트는 상기 촉각 속성 리스트 내의 상기 복수의 촉각 특성 정보들 중 어느 하나를 참조하는 적어도 하나의 촉각 참조 ID를 포함하며,
    상기 추출부는 상기 적어도 하나의 서브-엘리먼트 중 어느 하나의 서브-엘리먼트로부터 촉각 참조 ID를 추출하고, 상기 촉각 속성 리스트의 상기 복수의 촉각 특성 정보들 중에서, 상기 추출된 촉각 참조 ID에 대응하는 상기 촉각 특성 정보를 추출하며,
    상기 가상 세계 처리 장치는 상기 촉각 특성 정보를 추출하기 위해 상기 어느 하나의 서브-엘리먼트를 확인하는,
    가상 세계 처리 장치.
  2. 제1항에 있어서, 상기 추출부는,
    상기 가상 객체가 아바타인 경우, 상기 감지 정보에 대응하는 상기 아바타의 상기 외모 엘리먼트로부터 상기 촉각 참조 ID를 추출하고, 상기 촉각 속성 리스트로부터 상기 촉각 참조 ID에 대응하는 상기 촉각 특성 정보를 추출하는 가상 세계 처리 장치.
  3. 제2항에 있어서, 상기 아바타에 대한 상기 가상 객체 정보는,
    상기 외모 엘리먼트 및 상기 촉각 속성 리스트를 포함하는 가상 세계 처리 장치.
  4. 제1항에 있어서, 상기 추출부는,
    상기 가상 객체가 복수 개의 가상 객체 구성을 포함하는 경우, 상기 복수 개의 가상 객체 구성 중 상기 감지 정보에 대응하는 제1 가상 객체 구성에 대한 상기 가상 객체 정보로부터 상기 촉각 특성 정보를 추출하는 가상 세계 처리 장치.
  5. 가상 세계 처리 방법에 있어서,
    센서로부터 감지 정보를 수신하는 단계;
    상기 감지 정보에 대응하는 가상 객체에 대한 가상 객체 정보로부터 촉각 특성 정보를 추출하는 단계; 및
    상기 촉각 특성 정보를 촉각 피드백 장치로 전송하는 단계
    를 포함하고,
    상기 가상 객체 정보는 적어도 하나의 서브-엘리먼트를 포함하는 외모 엘리먼트; 및 복수의 촉각 특성 정보들을 포함하는 촉각 속성 리스트를 포함하고, 상기 적어도 하나의 서브-엘리먼트는 상기 촉각 속성 리스트 내의 상기 복수의 촉각 특성 정보들 중 어느 하나를 참조하는 적어도 하나의 촉각 참조 ID를 포함하며,
    상기 촉각 특성 정보를 추출하는 단계는
    상기 적어도 하나의 서브-엘리먼트 중 어느 하나의 서브-엘리먼트로부터 촉각 참조 ID를 추출하는 단계; 및
    상기 촉각 속성 리스트의 상기 복수의 촉각 특성 정보들 중에서, 상기 추출된 촉각 참조 ID에 대응하는 상기 촉각 특성 정보를 추출하는 단계
    를 포함하고,
    상기 가상 세계 처리 방법은 상기 촉각 특성 정보를 추출하기 위해 상기 어느 하나의 서브-엘리먼트를 확인하는 단계를 더 포함하는,
    가상 세계 처리 방법.
  6. 제5항에 있어서,
    상기 가상 객체가 아바타인 경우, 상기 감지 정보에 대응하는 상기 아바타의 상기 외모 엘리먼트로부터 상기 촉각 참조 ID를 추출하는 단계
    를 더 포함하고,
    상기 촉각 특성 정보를 추출하는 단계는,
    상기 촉각 속성 리스트로부터 상기 촉각 참조 ID에 대응하는 상기 촉각 특성 정보를 추출하는 가상 세계 처리 방법.
  7. 제6항에 있어서, 상기 아바타에 대한 상기 가상 객체 정보는,
    상기 외모 엘리먼트 및 상기 촉각 속성 리스트를 포함하는 가상 세계 처리 방법.
  8. 제5항에 있어서, 상기 촉각 특성 정보를 추출하는 단계는,
    상기 가상 객체가 복수 개의 가상 객체 구성을 포함하는 경우, 상기 복수 개의 가상 객체 구성 중 상기 감지 정보에 대응하는 제1 가상 객체 구성에 대한 상기 가상 객체 정보로부터 상기 촉각 특성 정보를 추출하는 가상 세계 처리 방법.
  9. 제5항 내지 제8항 중 어느 한 항의 방법을 실행하는 프로그램을 기록한 컴퓨터 판독 가능 기록 매체.
  10. 가상 세계 처리 장치에 있어서,
    가상 세계를 처리하기 위한 가상 객체 정보를 추출하는 추출부
    를 포함하고,
    상기 가상 객체 정보는 적어도 하나의 서브-엘리먼트를 포함하는 외모 엘리먼트; 및 복수의 촉각 특성 정보들을 포함하는 촉각 속성 리스트를 포함하고, 상기 적어도 하나의 서브-엘리먼트는 상기 촉각 속성 리스트 내의 상기 복수의 촉각 특성 정보들 중 어느 하나를 참조하는 적어도 하나의 촉각 참조 ID를 포함하며,
    상기 추출부는 상기 적어도 하나의 서브-엘리먼트 중 어느 하나의 서브-엘리먼트로부터 촉각 참조 ID를 추출하고, 상기 촉각 속성 리스트의 상기 복수의 촉각 특성 정보들 중에서, 상기 추출된 촉각 참조 ID에 대응하는 촉각 특성 정보를 추출하며,
    상기 가상 세계 처리 장치는 상기 촉각 특성 정보를 추출하기 위해 상기 어느 하나의 서브-엘리먼트를 확인하고, 상기 추출된 촉각 특성 정보는 촉각 피드백을 제공하는데 이용되는,
    가상 세계 처리 장치.
  11. 가상 세계 처리 방법에 있어서,
    가상 세계를 처리하기 위한 가상 객체 정보를 추출하는 단계
    를 포함하고,
    상기 가상 객체 정보는 적어도 하나의 서브-엘리먼트를 포함하는 외모 엘리먼트; 및 복수의 촉각 특성 정보들을 포함하는 촉각 속성 리스트를 포함하고, 상기 적어도 하나의 서브-엘리먼트는 상기 촉각 속성 리스트 내의 상기 복수의 촉각 특성 정보들 중 어느 하나를 참조하는 적어도 하나의 촉각 참조 ID를 포함하며,
    상기 가상 객체 정보를 추출하는 단계는
    상기 적어도 하나의 서브-엘리먼트 중 어느 하나의 서브-엘리먼트로부터 촉각 참조 ID를 추출하는 단계; 및
    상기 촉각 속성 리스트의 상기 복수의 촉각 특성 정보들 중에서, 상기 추출된 촉각 참조 ID에 대응하는 촉각 특성 정보를 추출하는 단계
    를 포함하고,
    상기 가상 세계 처리 방법은 상기 촉각 특성 정보를 추출하기 위해 상기 어느 하나의 서브-엘리먼트를 확인하는 단계를 더 포함하고, 상기 추출된 촉각 특성 정보는 촉각 피드백을 제공하는데 이용되는,
    가상 세계 처리 방법.
KR1020100034399A 2010-04-14 2010-04-14 가상 세계 처리 장치 및 방법 KR101640043B1 (ko)

Priority Applications (3)

Application Number Priority Date Filing Date Title
KR1020100034399A KR101640043B1 (ko) 2010-04-14 2010-04-14 가상 세계 처리 장치 및 방법
US13/082,698 US8988202B2 (en) 2010-04-14 2011-04-08 Method and apparatus for processing virtual world
US14/628,896 US9952668B2 (en) 2010-04-14 2015-02-23 Method and apparatus for processing virtual world

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020100034399A KR101640043B1 (ko) 2010-04-14 2010-04-14 가상 세계 처리 장치 및 방법

Publications (2)

Publication Number Publication Date
KR20110114979A KR20110114979A (ko) 2011-10-20
KR101640043B1 true KR101640043B1 (ko) 2016-07-15

Family

ID=44787816

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020100034399A KR101640043B1 (ko) 2010-04-14 2010-04-14 가상 세계 처리 장치 및 방법

Country Status (2)

Country Link
US (2) US8988202B2 (ko)
KR (1) KR101640043B1 (ko)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20100138700A (ko) * 2009-06-25 2010-12-31 삼성전자주식회사 가상 세계 처리 장치 및 방법
KR101685922B1 (ko) * 2010-04-05 2016-12-13 삼성전자주식회사 가상 세계 처리 장치 및 방법
KR101746453B1 (ko) * 2010-04-12 2017-06-13 삼성전자주식회사 실감 효과 처리 시스템 및 방법
JP5862271B2 (ja) * 2010-12-29 2016-02-16 株式会社リコー ユーザインターフェイス装置、画像形成装置、ユーザインターフェイス制御方法およびプログラム
US10191546B2 (en) * 2011-06-20 2019-01-29 Immersion Corporation Haptic theme framework
US10222953B2 (en) * 2014-04-30 2019-03-05 Disney Enterprises, Inc. Systems and methods for editing virtual content of a virtual space
KR102300997B1 (ko) * 2015-03-11 2021-09-13 한국전자통신연구원 전정 재활 운동을 위한 실감 효과 장치 및 방법
KR102332318B1 (ko) * 2020-07-22 2021-12-01 이화여자대학교 산학협력단 시공간 인코딩을 사용하여 가상 객체의 거칠기 촉각을 제공하기 위한 방법 및 시스템

Family Cites Families (64)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7207053B1 (en) * 1992-12-09 2007-04-17 Sedna Patent Services, Llc Method and apparatus for locally targeting virtual objects within a terminal
US5734373A (en) * 1993-07-16 1998-03-31 Immersion Human Interface Corporation Method and apparatus for controlling force feedback interface systems utilizing a host computer
US6750877B2 (en) * 1995-12-13 2004-06-15 Immersion Corporation Controlling haptic feedback for enhancing navigation in a graphical environment
US6374255B1 (en) * 1996-05-21 2002-04-16 Immersion Corporation Haptic authoring
US6084587A (en) * 1996-08-02 2000-07-04 Sensable Technologies, Inc. Method and apparatus for generating and interfacing with a haptic virtual reality environment
US6411276B1 (en) * 1996-11-13 2002-06-25 Immersion Corporation Hybrid control of haptic feedback for host computer and interface device
WO1998048344A2 (en) * 1997-04-24 1998-10-29 Modern Cartoons, Ltd. Data augmentation system and method
US6088019A (en) * 1998-06-23 2000-07-11 Immersion Corporation Low cost force feedback device with actuator for non-primary axis
US6191796B1 (en) * 1998-01-21 2001-02-20 Sensable Technologies, Inc. Method and apparatus for generating and interfacing with rigid and deformable surfaces in a haptic virtual reality environment
US6421048B1 (en) * 1998-07-17 2002-07-16 Sensable Technologies, Inc. Systems and methods for interacting with virtual objects in a haptic virtual reality environment
US6650338B1 (en) * 1998-11-24 2003-11-18 Interval Research Corporation Haptic interaction with video and image data
US7050955B1 (en) * 1999-10-01 2006-05-23 Immersion Corporation System, method and data structure for simulated interaction with graphical objects
US6545682B1 (en) * 2000-05-24 2003-04-08 There, Inc. Method and apparatus for creating and customizing avatars using genetic paradigm
JP2002207685A (ja) * 2000-10-12 2002-07-26 Sony Computer Entertainment Inc 仮想世界システム、サーバコンピュータおよび情報処理装置
US7155673B2 (en) * 2001-02-01 2006-12-26 Ford Global Technologies, Llc System and method of interactive evaluation of a geometric model
US7636755B2 (en) * 2002-11-21 2009-12-22 Aol Llc Multiple avatar personalities
AU2003293449A1 (en) * 2002-12-08 2004-06-30 Immersion Corporation Methods and systems for providing a virtual touch haptic effect to handheld communication devices
US8830161B2 (en) * 2002-12-08 2014-09-09 Immersion Corporation Methods and systems for providing a virtual touch haptic effect to handheld communication devices
KR20050054731A (ko) * 2003-12-05 2005-06-10 한국전자통신연구원 햅틱 시뮬레이션 시스템 및 그 시스템에서의 실시간 촉감지원 방법
US7982711B2 (en) * 2003-12-19 2011-07-19 Immersion Corporation Haptic profiling system and method
US7148789B2 (en) * 2004-09-09 2006-12-12 Motorola, Inc. Handheld device having multiple localized force feedback
US20070174183A1 (en) * 2006-01-26 2007-07-26 Jung Edward K Context determinants in virtual world environment
US8136038B2 (en) * 2005-03-04 2012-03-13 Nokia Corporation Offering menu items to a user
US20060277466A1 (en) * 2005-05-13 2006-12-07 Anderson Thomas G Bimodal user interaction with a simulated object
KR100725776B1 (ko) * 2005-10-08 2007-06-08 삼성전자주식회사 이동통신 단말기에서 그래픽객체 인식을 이용한 메뉴구성및 실행방법
CN104063056B (zh) * 2006-04-06 2018-04-20 意美森公司 用于增强的触觉效果的系统和方法
US8376844B2 (en) * 2006-06-19 2013-02-19 Ambx Uk Limited Game enhancer
KR100860412B1 (ko) * 2007-02-02 2008-09-26 한국전자통신연구원 촉각체험 서비스 방법 및 그 시스템
US9028258B2 (en) * 2007-08-15 2015-05-12 Bright Cloud International Corp. Combined cognitive and physical therapy
KR100938260B1 (ko) * 2007-09-20 2010-01-22 한국전자통신연구원 터치 스크린을 이용한 체감 전달 장치 및 시스템
US20090088659A1 (en) * 2007-09-27 2009-04-02 Immersion Corporation Biological Sensing With Haptic Feedback
US8253686B2 (en) * 2007-11-26 2012-08-28 Electronics And Telecommunications Research Institute Pointing apparatus capable of providing haptic feedback, and haptic interaction system and method using the same
US8386918B2 (en) * 2007-12-06 2013-02-26 International Business Machines Corporation Rendering of real world objects and interactions into a virtual universe
KR100927009B1 (ko) * 2008-02-04 2009-11-16 광주과학기술원 증강 현실에서의 햅틱 상호 작용 방법 및 그 시스템
US8645846B2 (en) * 2008-02-20 2014-02-04 International Business Machines Corporation Accessibility in virtual worlds using tags
EP2131272A3 (en) * 2008-06-02 2014-05-07 LG Electronics Inc. Mobile communication terminal having proximity sensor and display controlling method therein
US8224891B2 (en) * 2008-06-12 2012-07-17 The Board Of Regents Of The University Of Oklahoma Electronic game-based learning system
US8154524B2 (en) * 2008-06-24 2012-04-10 Microsoft Corporation Physics simulation-based interaction for surface computing
KR101498622B1 (ko) * 2008-06-25 2015-03-04 엘지전자 주식회사 촉각 효과를 제공하는 휴대 단말기 및 그 제어방법
EP2741177B1 (en) * 2008-07-15 2019-06-26 Immersion Corporation Systems and Methods for Transmitting Haptic Messages
US9191238B2 (en) * 2008-07-23 2015-11-17 Yahoo! Inc. Virtual notes in a reality overlay
KR101474448B1 (ko) * 2008-07-31 2014-12-19 엘지전자 주식회사 컨텐츠 내비게이션 장치 및 그 방법과 그를 이용한텔레매틱스 단말기
US20100053151A1 (en) * 2008-09-02 2010-03-04 Samsung Electronics Co., Ltd In-line mediation for manipulating three-dimensional content on a display device
US8749495B2 (en) * 2008-09-24 2014-06-10 Immersion Corporation Multiple actuation handheld device
US9399167B2 (en) * 2008-10-14 2016-07-26 Microsoft Technology Licensing, Llc Virtual space mapping of a variable activity region
US8730245B2 (en) * 2008-12-01 2014-05-20 Naturalmotion Ltd. Defining an animation of a virtual object within a virtual world
US8335590B2 (en) * 2008-12-23 2012-12-18 Intuitive Surgical Operations, Inc. System and method for adjusting an image capturing device attribute using an unused degree-of-freedom of a master control device
US8686952B2 (en) * 2008-12-23 2014-04-01 Apple Inc. Multi touch with multi haptics
US8376858B2 (en) * 2009-02-20 2013-02-19 Sony Computer Entertainment America Llc System and method for communicating game information between a portable gaming device and a game controller
KR20190020180A (ko) * 2009-03-12 2019-02-27 임머숀 코퍼레이션 마찰 디스플레이 및 부가의 햅틱 효과에 대한 시스템 및 방법
US9874935B2 (en) * 2009-03-12 2018-01-23 Immersion Corporation Systems and methods for a texture engine
US8812358B2 (en) * 2009-03-19 2014-08-19 Motorola Mobility Llc Method of providing a shared virtual lounge experience
US8294557B1 (en) * 2009-06-09 2012-10-23 University Of Ottawa Synchronous interpersonal haptic communication system
US11520455B2 (en) * 2009-06-29 2022-12-06 International Business Machines Corporation Dioramic user interface having a user customized experience
KR101604696B1 (ko) * 2009-08-12 2016-03-18 엘지전자 주식회사 이동 단말기 및 이것의 전원 제어 방법
US20110148607A1 (en) * 2009-12-17 2011-06-23 Charles Timberlake Zeleny System,device and method for providing haptic technology
US20110148884A1 (en) * 2009-12-17 2011-06-23 Charles Timberlake Zeleny System and method for determining motion of a subject
TW201203052A (en) * 2010-05-03 2012-01-16 Flatfrog Lab Ab Touch determination by tomographic reconstruction
CN102971689B (zh) * 2010-06-28 2015-10-07 诺基亚公司 触觉表面压缩
US20120010506A1 (en) * 2010-07-08 2012-01-12 Immersion Corporation Multimodal laparoscopic ultrasound device with feedback system
KR101505060B1 (ko) * 2010-08-24 2015-03-26 한국전자통신연구원 가상 현실 연동 서비스 제공 시스템 및 그 방법
US8620850B2 (en) * 2010-09-07 2013-12-31 Blackberry Limited Dynamically manipulating an emoticon or avatar
US8723820B1 (en) * 2011-02-16 2014-05-13 Google Inc. Methods and apparatus related to a haptic feedback drawing device
US20120233198A1 (en) * 2011-03-10 2012-09-13 Microsoft Corporation Creating virtual worlds from existing data structures

Also Published As

Publication number Publication date
US9952668B2 (en) 2018-04-24
US20110254670A1 (en) 2011-10-20
KR20110114979A (ko) 2011-10-20
US8988202B2 (en) 2015-03-24
US20150169065A1 (en) 2015-06-18

Similar Documents

Publication Publication Date Title
KR101640043B1 (ko) 가상 세계 처리 장치 및 방법
JP6982215B2 (ja) 検出された手入力に基づく仮想手ポーズのレンダリング
US10636217B2 (en) Integration of tracked facial features for VR users in virtual reality environments
US10254833B2 (en) Magnetic tracking of glove interface object
US10203838B2 (en) Avatar personalization in a virtual environment
EP3259655B1 (en) Magnetic tracking of glove fingertips with peripheral devices
KR101700468B1 (ko) 사용자로부터 학습된 입력을 통해 비주얼 표현을 활성화하는 방법
TWI531396B (zh) 用於推動互動故事的自然使用者輸入
JP6775557B2 (ja) 動画配信システム、動画配信方法、及び動画配信プログラム
US20160274662A1 (en) Dynamic gloves to convey sense of touch and movement for virtual objects in hmd rendered environments
GB2556347A (en) Virtual reality
US20110154266A1 (en) Camera navigation for presentations
US11833430B2 (en) Menu placement dictated by user ability and modes of feedback
KR20130080442A (ko) 표정의 실시간 애니메이션화
US10166477B2 (en) Image processing device, image processing method, and image processing program
JP2010253277A (ja) ビデオゲームにおいてオブジェクトの動きを制御する方法およびシステム
JP2018142313A (ja) 仮想感情タッチのためのシステム及び方法
JP2023126237A (ja) キャラクタを使ったライブ通信システム
JP2020202575A (ja) 動画配信システム、動画配信方法、及び動画配信プログラム
KR20100138707A (ko) 영상 장치 및 컴퓨터 판독 기록매체
US20240091650A1 (en) Systems and methods for modifying user sentiment for playing a game
KR20180071761A (ko) Vr 디바이스를 이용한 모바일 게임 제공 시스템 및 방법
Wu et al. Interface design for somatosensory interaction
KR20100138701A (ko) 영상 장치 및 컴퓨터 판독 기록매체

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20190619

Year of fee payment: 4