KR101800182B1 - 가상 객체 제어 장치 및 방법 - Google Patents

가상 객체 제어 장치 및 방법 Download PDF

Info

Publication number
KR101800182B1
KR101800182B1 KR1020110023551A KR20110023551A KR101800182B1 KR 101800182 B1 KR101800182 B1 KR 101800182B1 KR 1020110023551 A KR1020110023551 A KR 1020110023551A KR 20110023551 A KR20110023551 A KR 20110023551A KR 101800182 B1 KR101800182 B1 KR 101800182B1
Authority
KR
South Korea
Prior art keywords
hand
virtual object
event
gesture
posture
Prior art date
Application number
KR1020110023551A
Other languages
English (en)
Other versions
KR20120105864A (ko
Inventor
한승주
한재준
박두식
최창규
유병인
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020110023551A priority Critical patent/KR101800182B1/ko
Priority to US13/421,262 priority patent/US9563277B2/en
Publication of KR20120105864A publication Critical patent/KR20120105864A/ko
Application granted granted Critical
Publication of KR101800182B1 publication Critical patent/KR101800182B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/014Hand-worn input/output arrangements, e.g. data gloves
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0412Digitisers structurally integrated in a display
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/28Recognition of hand or arm movements, e.g. recognition of deaf sign language

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Health & Medical Sciences (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Multimedia (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

가상 객체 제어 장치 및 방법이 개시된다. 본 발명의 실시예들에 따르면, 사용자의 손 동작을 감지하고, 손 동작에 대응하는 이벤트를 생성하여 가상 객체를 제어함으로써, 사용자는 3차원 그래픽 유저 인터페이스 상에 표시되는 가상 객체를 보다 직관적이고 손 쉽게 제어 및 조정할 수 있다.

Description

가상 객체 제어 장치 및 방법{Apparatus and Method for Controlling Virtual Object}
본 발명은 가상 객체 제어 장치 및 방법에 관한 것으로서, 보다 구체적으로는 사용자의 동작을 대응하여 가상 객체를 제어하는 장치 및 방법에 관한 것이다.
최근 인간과 컴퓨터 사이에 자연스러우면서도 상호작용이 강화된 직관적인 인터페이스 기술(Natural Interface)들이 부상하고 있다. 인간과 컴퓨터의 상호작용을 위한 사용자의 의도 및 행위 인식에 관한 연구가 활발히 진행되고 있으며, 대표적인 유저 인터페이스 기술인 키보드나 마우스를 대체해 보다 자연스러운 컴퓨팅 환경을 제공할 수 있는 상호적인 디스플레이(Interactive Display) 등의 분야가 급성장하고 있다.
종래의 상호적인 디스플레이(Interactive Display)는 일반적으로 디스플레이 표면에서 멀티 터치 및 근접 터치(Hovering)를 통한 UI를 조작하는 방법을 제공한다. 마우스나 키보드가 시선과 조작 공간이 불일치 하는 간접적인 상호작용(Indirect Interaction)인데 반해, 멀티터치 및 근접 터치(Hovering)는 조작 대상을 바라보는 시선과 조작 공간이 일치하는 직접적인 상호작용(Direct interaction)을 제공함으로써, 더 자연스러운 조작을 가능하게 한다. 하지만 멀티터치의 경우 디스플레이 표면에서만 조작이 가능한 2차원 상호작용 방법이고, 따라서 UI 등의 조작 대상이 3차원인 경우에도 실제 물체를 조작하는 듯한 직관적인 조작이 불가능하다. 근접 터치의 경우 손의 정보만을 이용해 몰입감 및 일체감 있는 객체의 조작을 제공하지 못한다.
한편, 최근 3D 영상을 제공 하는 디스플레이 장치가 범용화 되고 있다. 인간이 입체를 느끼는 방식은 크게 좌/우 양안에 각각 영상을 입력을 제공해주는 입체(Stereoscopic) 방식과, 인간의 시점에 따라 물체의 원근 및 좌/우 상 이동양이 달라지는 운동 시차(Motion Parallax) 방식이 있다. 이러한 3D 영상의 제공에 대한 수요는 계속하여 증가하고 있는 추세이다.
본 명세서에서는 더욱 몰입감 및 일체감을 제공할 수 있는 3D UI 및 3D UI를 제어하는 새로운 장치 및 방법에 대해서 제안한다.
본 발명의 일실시예에 따른 가상 객체 제어 장치는 센서로부터 사용자에 대한 감지 정보를 수신하는 수신부; 상기 수신된 감지 정보로부터 상기 사용자의 손 동작에 대한 손 동작 정보를 추출하는 처리부; 상기 추출된 손 동작 정보에 대응하는 이벤트를 생성하는 생성부; 및 상기 생성된 이벤트에 기반하여, 3차원 그래픽 유저 인터페이스 상에 표시되는 가상 객체를 제어하는 제어부를 포함한다.
본 발명의 일실시예에 따른 센서로부터 사용자의 동작에 대한 감지 정보를 수신하는 단계; 상기 수신된 감지 정보로부터 상기 사용자의 손 동작에 대한 손 동작 정보를 추출하는 단계; 상기 추출된 손 동작 정보에 대응하는 이벤트를 생성하는 단계; 및 상기 생성된 이벤트에 기반하여, 3차원 그래픽 유저 인터페이스 상에 표시되는 가상 객체를 제어하는 단계를 포함한다.
사용자의 손 동작을 감지하고, 손 동작에 대응하는 이벤트를 생성하여 가상 객체를 제어함으로써, 사용자는 3차원 그래픽 유저 인터페이스 상에 표시되는 가상 객체를 보다 직관적이고 손 쉽게 제어 및 조정할 수 있다.
도 1은 본 발명의 일실시예에 따른 가상 객체 제어 장치가 사용자의 동작을 감지하여 가상 객체를 제어하는 동작을 나타내는 도면이다.
도 2는 본 발명의 일실시예에 따른 가상 객체 제어 장치의 구성을 나타내는 도면이다.
도 3a는 본 발명의 일실시예에 따른 자세 이벤트의 실시예를 나타내는 도면이다.
도 4는 본 발명의 일실시예에 따른 제스처 이벤트의 실시예를 나타내는 도면이다.
도 5는 본 발명의 일실시예에 따른 가상 객체 제어 장치가 적용되는 전체 시스템을 나타내는 도면이다.
도 6은 본 발명의 일실시예에 따른 가상 객체 제어 방법을 나타내는 흐름도이다.
이하에서, 본 발명에 따른 실시예를 첨부된 도면을 참조하여 상세하게 설명한다. 그러나, 본 발명이 실시예들에 의해 제한되거나 한정되는 것은 아니다. 각 도면에 제시된 동일한 참조 부호는 동일한 부재를 나타낸다.
도 1은 본 발명의 일실시예에 따른 가상 객체 제어 장치가 사용자의 동작을 감지하여 가상 객체를 제어하는 동작을 나타내는 도면이다.
도 1을 참조하면, 사용자는 3차원 그래픽 유저 인터페이스 상에 표시되는 가상 객체를 제어하기 위하여, 센서 앞에서 가상 객체를 제어하기 위한 손 동작을 취할 수 있다(110). 예를 들어, 사용자는 주먹을 쥔 상태에서 엄지 손가락을 위로 치켜드는 썸-업(Thumb-Up) 자세를 취할 수 있다.
이 때, 센서는 사용자의 동작을 감지(Sensing)할 수 있다(120). 일실시예에 따른 센서는 모션 센서(Motion Sensor), 카메라(Camera) 등을 포함할 수 있다. 예를 들어, 카메라는 사용자가 썸-업 자세를 취하고 있는 모습을 촬영함으로써, 사용자에 대한 동작을 감지할 수 있다.
센서는 사용자의 동작에 대한 감지 정보를 가상 객체 제어 장치로 전송할 수 있다. 사용자의 동작에 대한 감지 정보를 수신한 가상 객체 제어 장치는 수신된 감지 정보로부터 사용자의 손 동작에 대한 손 동작 정보를 추출할 수 있다(130).
예를 들어, 카메라를 통하여 촬영된 사용자에 대한 감지 정보를 수신하는 경우, 가상 객체 제어 장치는 감지 정보로부터 사용자의 손이 썸-업 자세를 취하고 있음을 인지할 수 있다.
손 동작 정보가 추출되면, 가상 객체 제어 장치는 추출된 손 동작 정보에 대응하는 이벤트(Event)를 생성할 수 있다(140). 예를 들어, 사용자의 손 동작인 썸-업 자세에 대응하는 이벤트가 가상 객체를 실행(Run)하는 이벤트인 경우, 가상 객체 제어 장치는 썸-업 자세 및 가상 객체를 실행하는 동작에 대한 이벤트를 생성할 수 있다.
손 동작 정보에 대응하는 이벤트가 생성되면, 가상 객체 제어 장치는 이벤트에 기반하여 3차원 그래픽 유저 인터페이스 상에 표시되는 가상 객체를 제어할 수 있다(150). 예를 들어, 가상 객체 제어 장치는 썸-업 자세에 대응하는 이벤트에 따라서, 가상 객체에 대한 프로그램을 실행할 수 있다.
이하, 본 발명의 일실시예에 따른 가상 객체 제어 장치의 구성에 대해서 상세히 설명한다.
도 2는 본 발명의 일실시예에 따른 가상 객체 제어 장치의 구성을 나타내는 도면이다.
도 2를 참조하면, 본 발명의 일실시예에 따른 가상 객체 제어 장치(200)는 수신부(210), 처리부(220), 생성부(230) 및 제어부(240)를 포함한다.
수신부(210)는 센서(201, 202)로부터 사용자에 대한 감지 정보를 수신한다.
일실시예에 따른 센서는 모션 센서(201), 카메라(202), 밴드 센서 등을 포함할 수 있다.
처리부(220)는 수신된 감지 정보로부터 사용자의 손 동작에 대한 손 동작 정보를 추출한다. 자세히 설명하면, 처리부(220)는 감지 정보로부터 사용자의 손 자세 및 동작이 어떠한 자세(Posture) 또는 제스처(Gesture)를 취하고 있는지를 인지하고, 사용자의 손 동작에 대한 손 동작 정보를 감지 정보로부터 추출할 수 있다.
생성부(230)는 추출된 손 동작 정보에 대응하는 이벤트를 생성한다. 일실시예에 따른, 생성부(230)는, 추출된 손 자세 및 동작에 대한 정보의 오류를 최소화하기 위하여, 신뢰도, 속도/가속도 등에 기반하여 손 동작 정보를 처리함으로써, 손의 자세 및 동작 이벤트를 생성할 수 있다.
제어부(240)는 생성된 이벤트에 기반하여, 3차원 그래픽 유저 인터페이스 상에 표시되는 가상 객체를 제어한다.
본 발명의 일측에 따르면, 가상 객체는 BIFS(Binary Format for Scenes), LASeR(Light Application Scene Representation) 및 Widget 중 어느 하나의 장면 표현(Scene Representation)에 의해서 기술될 수 있다.
본 발명의 일측에 따르면, 가상 객체 제어 장치(200)는 출력부를 더 포함할 수 있다. 출력부는 디스플레이 장치에 가상 객체를 출력할 수 있다.
본 발명의 일측에 따르면, 이벤트는 사용자의 손의 자세에 대한 자세 이벤트(Posture Event) 및 사용자의 손의 제스처에 대한 제스처 이벤트(Gesture Event)를 포함할 수 있다. 즉, 일실시예에 따른 생성부(230)는 손 동작 정보에 따라서, 손의 자세 또는 제스처를 구별하여, 자세 이벤트 또는 제스처 이벤트를 생성할 수 있다.
이하, 본 발명의 일실시예에 따른 자세 이벤트 및 제스처 이벤트에 대해서 상세히 설명한다.
일실시예에 따른 자세 이벤트는 유저ID(UserID), 왼손 자세(LH_Posture), 왼손 위치(LH_Position), 오른손 자세(RH_Posture) 및 오른손 위치(RH_Position)의 구성 요소(Element)를 포함할 수 있다.
표 1은 일실시예에 따른 자세 이벤트의 신택스(Syntax)를 나타내는 표이다.
표 1
Figure 112011019262444-pat00001
표 2는 자세 이벤트의 각 구성 요소에 대한 세만틱(Semantics)을 나타내는 표이다.
표 2
Figure 112011019262444-pat00002
일실시예에 따른 왼손 자세의 구성 요소 및 오른손 자세의 구성 요소 각각은 오픈 팜(Open Plam), 피스트(Fist), 포인팅(Pointing), 썸-업(Thumb-Up), 썸-다운(Thumb-Down) 및 그랩(Grab)을 포함할 수 있다. 도 3을 참조하여 왼손 자세/오른손 자세의 구성 요소에 대하여 상세히 설명한다.
도 3a는 본 발명의 일실시예에 따른 자세 이벤트의 실시예를 나타내는 도면이다.
도 3a를 참조하면, 본 발명의 일실시예에 따른 자세 이벤트의 구성 요소 중 왼손 자세 및 오른손 자세에 대한 구성 요소는 오픈 팜(Open Plam)(311), 피스트(Fist)(321), 포인팅(Pointing)(331), 썸-업(Thumb-Up)(341), 썸-다운(Thumb-Down)(351) 및 그랩(Grab)(361)을 포함할 수 있다.
예를 들어, 센서로부터 수신된 감지 정보로부터 추출된 손 동작 정보가 사용자 손의 자세가 주먹을 쥔 상태인 경우, 가상 객체 제어 장치의 생성부는 피스트(321)를 포함하는 자세 이벤트를 생성할 수 있다.
실시예에 따라서는, 오픈 팜(311)을 포함하는 자세 이벤트는 가상 객체 또는 프로그램을 시작 또는 선택 해지하는 제어 명령(312)을 포함할 수 있다. 또한, 피스트(321)을 포함하는 자세 이벤트는 가상 객체 또는 프로그램을 정지 또는 선택하는 제어 명령(322)을 포함할 수 있다. 또한, 포인팅(331)을 포함하는 자세 이벤트는 가상 객체 또는 프로그램을 포인팅하는 제어 명령(332)을 포함할 수 있다. 또한, 썸-업(341)을 포함하는 자세 이벤트는 가상 객체 또는 프로그램을 실행하는 제어 명령(342)을 포함할 수 있다. 또한, 썸-다운(351)을 포함하는 자세 이벤트는 가상 객체 또는 프로그램을 취소하는 제어 명령(352)을 포함할 수 있다. 또한, 그랩(361)을 포함하는 자세 이벤트는 가상 객체 또는 프로그램을 실행 또는 스크롤링(Scrolling)하는 제어 명령(362)을 포함할 수 있다.
본 발명의 일실시예에 따른 개별적인 자세 이벤트(311 내지 361)에 대응하는 제어 명령(312 내지 362)은 사용자가 직접 설정할 수 있다. 따라서, 도 3에 나타난 자세 이벤트에 대응하는 제어 명령은 일실시예이고, 본 발명이 이에 제한되는 것은 아니다.
표 1-2는 일실시예에 따른 자세 이벤트의 또 다른 신택스(Syntax)를 나타내는 표이다.
표 1-2
<!-- ################################################ -->
<!- Hand Posture Information -->
<!-- ################################################ -->
<complexType name="HandPostureType">
<sequence>
<element name="UserID" type="aui:ID" minOccurs="0"/>
<element name="LH_Posture" type="auict:HandPostureType"/>
<element name="LH_Position" type="aui:PositionType" minOccurs="0"/>
<element name="RH_Posture" type="auict:HandPosureType"/>
<element name="RH_Position" type="aui:PositionType" minOccurs="0"/>
</sequence>
<attribute name="LH_PostureConfidence" type="float" use="optional"/>
<attribute name="RH_PostureConfidence" type="float" use="optional"/>
</complexType>
표 2-2는 또 다른 자세 이벤트의 각 구성 요소에 대한 세만틱(Semantics)을 나타내는 표이다.
표 2-2
Figure 112011019262444-pat00003
표 1-3은 또 다른 일실시예에 따른 자세 이벤트의 신택스(Syntax)를 나타내는 표이다.
표 1-3
<!-- ################################################ -->
<!-- Hand Posture Information -->
<!-- ################################################ -->
<complexType name="HandPostureType">
<sequence>
<element name="Posture" type="aui:HandPostureDataType" maxOccurs="2"/>
<element name="UserID" type="ID" minOccurs="0"/>
</sequence>
</complexType>
<simpleType name="HandSideType">
<restriction base="string">
<enumeration value="Right"/>
<enumeration value="Left"/>
</restriction>
</simpleType>
<complexType name="HandPostureDataType">
<sequence>
<element name="PostureType" type=" auict:HandPostureType"/>
<element name="HandSide" type="aui:HandSideType" minOccurs="0"/>
<element name="Position" type="aui:PositionType" minOccurs="0"/>
<element name="Confidence" type="float" minOccurs="0"/>
</sequence>
</complexType>
표 2-3은 또 다른 자세 이벤트의 각 구성 요소에 대한 세만틱(Semantics)을 나타내는 표이다.
표 2-3
Figure 112011019262444-pat00004
본 발명의 일측에 따르면, 생성부(230)는 처리부(220)에서 인식된 손 동작 정보에 포함된 손 자세에 대한 손 자세 정보(예를 들어, 표 1-2의 신택스 또는 표 1-3의 신택스)를 입력으로 하여 자세 이벤트를 생성할 수 있다. 이때, 손 자세 정보에 포함된 신뢰도(Confidence) 데이터가 미리 설정된 임계값(Threshold value)보다 높은 경우에 한하여, 생성부(230)는 인식된 손 자세 정보를 유효한 데이터로 판단하고, 유효한 손 자세 정보에 기반하여 자세 이벤트를 생성할 수 있다.
또 다른 실시예에 따라서는, 신뢰도 데이터가 미리 설정된 임계값보다 높은 값을 일정 기간 동안 유지되는 경우에 한하여, 생성부(230)는 인식된 손 자세 정보를 유효한 데이터로 판단하고, 유효한 손 자세 정보에 기반하여 자세 이벤트를 생성할 수 있다.
또 다른 실시예에 따라서는, 신뢰도 데이터가 미리 설정된 임계값보다 높은 값을 일정 기간(T) 동안 일정 비율(x %) 이상 유지되는 경우에 한하여, 생성부(230)는 인식된 손 자세 정보를 유효한 데이터로 판단하고, 유효한 손 자세 정보에 기반하여 자세 이벤트를 생성할 수 있다.
일실시예에 따른 신뢰도 데이터는 퍼센트(%)의 값으로 표현될 수 있다. 또한, 신뢰도 데이터는 변화량(Variance)의 역수로 표현될 수 있다. 또한, 신뢰도 데이터는 손 자세 정보의 정확도를 측정할 수 있는 어떠한 정보일 수 있다.
도 3b는 사용자의 손 자세에 대한 자세 이벤트의 상태 변화 흐름도를 나타내는 도면이다.
도 3b를 참조하면, 본 발명의 일실시예에 따른 사용자의 손 자세에 대한 자세 이벤트의 상태는 정의되지 않은 상태(undetermined posture)(371) 및 정의된 자세(372) 사이에서 변화할 수 있다.
도 3c는 본 발명의 일실시예에 따른 사용자의 손 자세의 시간에 따른 변화 흐름도를 나타내는 도면이다.
도 3c를 참조하면, 사용자의 손 자세는 시간의 흐름에 따라 변화할 수 있다. 예를 들어, 사용자는 손바닥을 편 상태(381)에서, 정의되지 않은 상태(382)로 손 자세를 변화시키고, 다시 썸-업 자세(383)로 손 자세를 변화시키고, 손을 위로 올리는 제스처(384)로 손 동작을 변화시키고, 주먹쥔 상태(385)로 손 자세를 변화시킬 수 있다.
이 때, 매 시간에 인식된 손 자세 정보를 보내는 경우 및 손의 자세 정보가 바뀐 시간에 정보를 보내는 경우가 모두 포함될 수 있다.
다시 도 2를 참조하면, 일실시예에 따른 제스처 이벤트는 유저ID(UserID), 왼손 제스처(LH_Gesture), 왼손 시작위치(LH_StartPosition), 왼손 종료위치(LH_EndPosition), 왼손 속도(LH_Velocity), 왼손 가속도(LH_Acceleration), 오른손 제스처(RH_Gesture), 오른손 시작위치(RH_StartPosition), 오른손 종료위치(RH_EndPosition), 오른손 속도(RH_Velocity) 및 오른손 가속도(RH_Acceleration)의 구성 요소를 포함할 수 있다.
표 3은 일실시예에 따른 제스처 이벤트의 신택스(Syntax)를 나타내는 표이다.
표 3
Figure 112011019262444-pat00005
표 4는 제스처 이벤트의 각 구성 요소에 대한 세만틱(Semantics)을 나타내는 표이다.
표 4
Figure 112011019262444-pat00006
Figure 112011019262444-pat00007
일실시예에 따른 왼손 자세의 구성 요소 및 오른손 자세의 구성 요소 각각은 푸쉬(push), 풀(pull), 슬랩 레프트(slap left), 슬랩 라이트(slap right), 슬랩 탑(slap top), 슬랩 바텀(slap bottom), 시계 방향 써클(circle clockwise), 반시계 방향 써클(circle anti-clockwise), 웨이빙(waving) 및 체크(check)를 포함할 수 있다. 도 4을 참조하여 왼손 제스처/오른손 제스처의 구성 요소에 대하여 상세히 설명한다.
도 4는 본 발명의 일실시예에 따른 제스처 이벤트의 실시예를 나타내는 도면이다.
도 4를 참조하면, 본 발명의 일실시예에 따른 제스처 이벤트의 구성 요소 중 왼손 제스처 및 오른손 제스처에 대한 구성 요소는 푸쉬(push)(401), 풀(pull)(411), 슬랩 레프트(slap left)(421), 슬랩 라이트(slap right)(431), 슬랩 탑(slap top)(441), 슬랩 바텀(slap bottom)(451), 시계 방향 써클(circle clockwise)(461), 반시계 방향 써클(circle anti-clockwise)(471), 웨이빙(waving)(481) 및 체크(check)(491)를 포함할 수 있다.
예를 들어, 센서로부터 수신된 감지 정보로부터 추출된 손 동작 정보가 사용자 손의 제스처가 손을 전방으로 내미는 동작인 경우, 가상 객체 제어 장치의 생성부는 푸쉬(401)를 포함하는 제스처 이벤트를 생성할 수 있다.
실시예에 따라서는, 푸쉬(401)를 포함하는 제스처 이벤트는 가상 객체 또는 프로그램을 줌 인 또는 선택하는 제어 명령(402)을 포함할 수 있다. 또한, 풀(411)를 포함하는 제스처 이벤트는 가상 객체 또는 프로그램을 줌 아웃 또는 취소하는 제어 명령(412)을 포함할 수 있다. 또한, 슬램 레프트(421)를 포함하는 제스처 이벤트는 가상 객체 또는 프로그램을 오른쪽에서 왼쪽으로 수평 방향으로 스크롤하는 제어 명령(422)을 포함할 수 있다. 또한, 슬램 라이트(431)를 포함하는 제스처 이벤트는 가상 객체 또는 프로그램을 왼쪽에서 오른쪽으로 수평 방향으로 스크롤하는 제어 명령(432)을 포함할 수 있다. 또한, 슬랩 탑(441)를 포함하는 제스처 이벤트는 가상 객체 또는 프로그램을 아래에서 위쪽으로 수직 방향으로 스크롤하는 제어 명령(442)을 포함할 수 있다. 또한, 슬랩 바텀(451)를 포함하는 제스처 이벤트는 가상 객체 또는 프로그램을 위에서 아래쪽으로 수직 방향으로 스크롤하는 제어 명령(452)을 포함할 수 있다. 또한, 시계 방향 써클(461)를 포함하는 제스처 이벤트는 가상 객체 또는 프로그램을 확대하는 제어 명령(462)을 포함할 수 있다. 또한, 반시계 방향 써클(461)를 포함하는 제스처 이벤트는 가상 객체 또는 프로그램을 축소하는 제어 명령(472)을 포함할 수 있다. 또한, 웨이빙(481)를 포함하는 제스처 이벤트는 가상 객체 또는 프로그램을 웨이크-업 또는 컨텍스트 메뉴(Context Menu)를 실행하는 제어 명령(482)을 포함할 수 있다. 또한, 체크(491)를 포함하는 제스처 이벤트는 가상 객체 또는 프로그램을 허용하는 제어 명령(492)을 포함할 수 있다.
본 발명의 일실시예에 따른 개별적인 제스처 이벤트(401 내지 491)에 대응하는 제어 명령(402 내지 492)은 사용자가 직접 설정할 수 있다. 따라서, 도 4에 나타난 제스처 이벤트에 대응하는 제어 명령은 일실시예이고, 본 발명이 이에 제한되는 것은 아니다.
표 3-2은 또 다른 일실시예에 따른 제스처 이벤트의 신택스(Syntax)를 나타내는 표이다.
표 3-2
<!-- ################################################ -->
<!- Hand Gesture Information -->
<!-- ################################################ -->
<complexType name="HandGestureType">
<sequence>
<element name="UserID" type="aui:UserIDType" minOccurs="0"/>
<element name="LH_Gesture" type="auict:HandGestureType" minOccurs="0"/>
<element name="LH_StartPosition" type="aui:PositionType" minOccurs="0"/>
<element name="LH_EndPosition" type="aui:PositionType" minOccurs="0"/>
<element name="LH_Velocity" type="aui:VectorType" minOccurs="0"/>
<element name="LH_Acceleration" type="aui:VectorType" minOccurs="0"/>
<element name="RH_Gesture" type="aui:HandGestureType" minOccurs="0"/>
<element name="RH_StartPosition" type="aui:PositionType" minOccurs="0"/>
<element name="RH_EndPosition" type="aui:PositionType" minOccurs="0"/>
<element name="RH_Velocity" type="aui:VectorType" minOccurs="0"/>
<element name="RH_Acceleration" type="aui:VectorType" minOccurs="0"/>
</sequence>
<attribute name="LH_GestureConfidence" type="float" use="optional"/>
<attribute name="RH_GestureConfidence" type="float" use="optional"/>
</complexType>
표 4-2는 또 다른 제스처 이벤트의 각 구성 요소에 대한 세만틱(Semantics)을 나타내는 표이다.
표 4-2
Figure 112011019262444-pat00008
표 3-3은 또 다른 일실시예에 따른 제스처 이벤트의 신택스(Syntax)를 나타내는 표이다.
표 3-3
<!-- ################################################ -->
<!-- Hand Gesture Information -->
<!-- ################################################ -->
<complexType name="HandGestureType">
<sequence>
<element name="Gesture" type="aui:HandGestureDataType" maxOccurs="unbounded"/>
<element name="UserID" type="ID" minOccurs="0"/>
</sequence>
</complexType>
<complexType name="HandGestureDataType">
<sequence>
<element name="GestureType" type=" auict:HandGestureType "/>
<element name="HandSide" type=" aui:HandSideType" minOccurs="0"/>
<element name="StartPosition" type=" aui:PositionType" minOccurs="0"/>
<element name="EndPosition" type=" aui:PositionType" minOccurs="0"/>
<element name="Velocity" type=" aui:VelocityValueType" minOccurs="0"/>
<element name="Acceleration" type="aui: AccelerationValueType" minOccurs="0"/>
<element name="Confidence" type="float" minOccurs="0"/>
</sequence>
</complexType>
표 4-3는 또 다른 제스처 이벤트의 각 구성 요소에 대한 세만틱(Semantics)을 나타내는 표이다.
표 4-3
Figure 112011019262444-pat00009
본 발명의 일측에 따르면, 생성부(230)는 처리부(220)에서 인식된 손 동작 정보에 포함된 손 제스처에 대한 손 제스처 정보(예를 들어, 표 3-2의 신택스 또는 표 3-3의 신택스)를 입력으로 하여 제스처 이벤트를 생성할 수 있다. 이때, 손 제스처 정보에 포함된 신뢰도(Confidence) 데이터가 미리 설정된 임계값(Threshold value)보다 높은 경우에 한하여, 생성부(230)는 인식된 손 제스처 정보를 유효한 데이터로 판단하고, 유효한 손 제스처 정보에 기반하여 제스처 이벤트를 생성할 수 있다.
또 다른 실시예에 따라서는, 신뢰도(Confidence) 데이터가 미리 설정된 임계값보다 높은 경우로서, 속도 값이 속도 임계값보다 높은 경우에 한하여, 생성부(230)는 인식된 손 제스처 정보를 유효한 데이터로 판단하고, 유효한 손 제스처 정보에 기반하여 제스처 이벤트를 생성할 수 있다.
또 다른 실시예에 따라서는, 신뢰도(Confidence) 데이터가 미리 설정된 임계값보다 높은 경우로서, 가속도 값이 가속도 임계값보다 높은 경우에 한하여, 생성부(230)는 인식된 손 제스처 정보를 유효한 데이터로 판단하고, 유효한 손 제스처 정보에 기반하여 제스처 이벤트를 생성할 수 있다.
또 다른 실시예에 따라서는, 신뢰도(Confidence) 데이터가 미리 설정된 임계값보다 높은 경우로서, 최대 가속도 값이 가속도 임계값보다 높은 경우이며, 평균 속도 값이 속도 임계값보다 높은 경우에 한하여, 생성부(230)는 인식된 손 제스처 정보를 유효한 데이터로 판단하고, 유효한 손 제스처 정보에 기반하여 제스처 이벤트를 생성할 수 있다.
일실시예에 따른 신뢰도 데이터는 퍼센트(%)의 값으로 표현될 수 있다. 또한, 신뢰도 데이터는 변화량(Variance)의 역수로 표현될 수 있다. 또한, 신뢰도 데이터는 손 자세 정보의 정확도를 측정할 수 있는 어떠한 정보일 수 있다.
도 5는 본 발명의 일실시예에 따른 가상 객체 제어 장치가 적용되는 전체 시스템을 나타내는 도면이다.
도 5를 참조하면, 물리적 상호 장치(Physical Interaction Devices)(504)(즉, 현실 세계)와 장면 표현(Scene Representation)(501)(즉, 가상 세계, 가상 객체) 사이의 상호 작용이 나타난다.
가상 객체의 실시예로 장면 표현(Scene Representation)을 들 수 있다. 장면 표현은 BIFS(Binary Format for Scenes), LASeR(Light Application Scene Representation), 위젯(Widget) 등을 포함할 수 있다. BIFS는 모든 멀티미디어 콘텐츠에 대한 장면 기술 표준이며, LASeR는 휴대폰과 같이 디스플레이 크기가 작고, 네트워크 대역폭도 작은 멀티미디어 콘텐츠에 대한 장면 기술 표준이다.
영역(510)은 위젯 매니저(Widget Manager)(502)와 장면 표현(501) 사이의 상호 호환 영역을 나타내는 것으로서, MPEG-U Part 1이 적용될 수 있다. MPEG-U Part 1은 IPTV, 휴대폰 등의 CE 단말간 위젯 포맷을 상호 호환하게 하는 기술 표준이다.
영역(520)은 세만틱 생성기(Sematics Generator)(503)와 장면 표현(501) 사이, 위젯 매니저(502)와 세만틱 생성기(503) 사이 및 위젯 매니저(502)와 물리적 상호 장치(504) 사이의 상호 호환 영역을 나타내는 것으로서, MPEG-U Part 2가 적용될 수 있다. MPEG-U Part 2는 CE 기기에서 리치 미디어(Rich Media)와의 상호 작용을 위하여 BIFS, LASeR 등의 장면 표현 엔진과 센서/엑츄에이터(Actuator)를 연계하는 기술 표준이다.
영역(530)은 장면 표현(501)과 물리적 상호 장치(504) 사이, 위젯 매니저(502)와 물리적 상호 장치(504) 사이 및 세만틱 생성기(503)와 물리적 상호 장치(504) 사이의 상호 호환 영역을 나타내는 것으로서, MPEG-V Part 5가 적용될 수 있다. MPEG-V는 3D MR, 3D 인터넷(Internet), 체감형 게임 상에서 인터페이스(Interface) 정보 교환을 위한 3D 인터페이스 표준이며, MPEG-V part 5는 센서/엑츄에이터(Actuator)의 감지 정보를 기술한 분야이다.
실시예에 따라서는, 도 1 내지 도 4에서 설명한 본 발명의 일실시예에 따른 가상 객체 제어 장치는 영역(520)에 적용될 수 있다.
도 6은 본 발명의 일실시예에 따른 가상 객체 제어 방법을 나타내는 흐름도이다.
도 6을 참조하면, 본 발명의 일실시예에 따른 가상 객체 제어 방법은 센서로부터 사용자에 대한 감지 정보를 수신한다(610).
일실시예에 따른 센서는 모션 센서, 카메라 등을 포함할 수 있다.
가상 객체 제어 방법은 수신된 감지 정보로부터 사용자의 손 동작에 대한 손 동작 정보를 추출한다(620). 자세히 설명하면, 가상 객체 제어 방법은 감지 정보로부터 사용자의 손 동작이 어떠한 자세(Posture) 또는 제스처(Gesture)를 취하고 있는지를 인지하고, 사용자의 손 동작에 대한 손 동작 정보를 감지 정보로부터 추출할 수 있다.
가상 객체 제어 방법은 추출된 손 동작 정보에 대응하는 이벤트를 생성한다(630).
가상 객체 제어 방법은 생성된 이벤트에 기반하여, 3차원 그래픽 유저 인터페이스 상에 표시되는 가상 객체를 제어한다(640).
본 발명의 일측에 따르면, 가상 객체는 BIFS(Binary Format for Scenes), LASeR(Light Application Scene Representation) 및 Widget 중 어느 하나의 장면 표현(Scene Representation)에 의해서 기술될 수 있다.
본 발명의 일측에 따르면, 가상 객체 제어 방법은 디스플레이 장치에 가상 객체를 출력하는 단계를 더 포함할 수 있다.
본 발명의 일측에 따르면, 이벤트는 사용자의 손의 자세에 대한 자세 이벤트(Posture Event) 및 사용자의 손의 제스처에 대한 제스처 이벤트(Gesture Event)를 포함할 수 있다. 즉, 일실시예에 따른 가상 객체 제어 방법은 손 동작 정보에 따라서, 손의 자세 또는 제스처를 구별하여, 자세 이벤트 또는 제스처 이벤트를 생성할 수 있다.
일실시예에 따른 자세 이벤트는 유저ID(UserID), 왼손 자세(LH_Posture), 왼손 위치(LH_Position), 오른손 자세(RH_Posture) 및 오른손 위치(RH_Position)의 구성 요소(Element)를 포함할 수 있다.
일실시예에 따른 왼손 자세의 구성 요소 및 오른손 자세의 구성 요소 각각은 오픈 팜(Open Plam), 피스트(Fist), 포인팅(Pointing), 썸-업(Thumb-Up), 썸-다운(Thumb-Down) 및 그랩(Grab)을 포함할 수 있다.
일실시예에 따른 제스처 이벤트는 유저ID(UserID), 왼손 제스처(LH_Gesture), 왼손 시작위치(LH_StartPosition), 왼손 종료위치(LH_EndPosition), 왼손 속도(LH_Velocity), 왼손 가속도(LH_Acceleration), 오른손 제스처(RH_Gesture), 오른손 시작위치(RH_StartPosition), 오른손 종료위치(RH_EndPosition), 오른손 속도(RH_Velocity) 및 오른손 가속도(RH_Acceleration)의 구성 요소를 포함할 수 있다.
일실시예에 따른 왼손 자세의 구성 요소 및 오른손 자세의 구성 요소 각각은 푸쉬(push), 풀(pull), 슬랩 레프트(slap left), 슬랩 라이트(slap right), 슬랩 탑(slap top), 슬랩 바텀(slap bottom), 시계 방향 써클(circle clockwise), 반시계 방향 써클(circle anti-clockwise), 웨이빙(waving) 및 체크(check)를 포함할 수 있다.
본 발명에 따른 실시예들은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(Floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 본 발명의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.
이상과 같이 본 발명은 비록 한정된 실시예와 도면에 의해 설명되었으나, 본 발명은 상기의 실시예에 한정되는 것은 아니며, 본 발명이 속하는 분야에서 통상의 지식을 가진 자라면 이러한 기재로부터 다양한 수정 및 변형이 가능하다.
그러므로, 본 발명의 범위는 설명된 실시예에 국한되어 정해져서는 아니 되며, 후술하는 특허청구범위뿐 아니라 이 특허청구범위와 균등한 것들에 의해 정해져야 한다.
200: 가상 객체 제어 장치
210: 수신부
220: 처리부
230: 생성부
240: 제어부

Claims (14)

  1. 센서로부터 사용자에 대한 감지 정보를 수신하는 수신부;
    상기 수신된 감지 정보로부터 상기 사용자의 손 동작에 대한 손 동작 정보를 추출하는 처리부;
    상기 추출된 손 동작 정보에 대응하는 이벤트를 생성하는 생성부; 및
    상기 생성된 이벤트에 기반하여, 3차원 그래픽 유저 인터페이스 상에 표시되는 가상 객체를 제어하는 제어부
    를 포함하고,
    상기 가상 객체는
    BIFS(Binary Format for Scenes), LASeR(Light Application Scene Representation) 및 Widget 중 어느 하나의 장면 표현(Scene Representation)에 의해서 기술되는,
    가상 객체 제어 장치.
  2. 삭제
  3. 제1항에 있어서,
    상기 이벤트는
    상기 사용자의 손의 자세에 대한 자세 이벤트 및 상기 손의 제스처에 대한 제스처 이벤트를 포함하는 가상 객체 제어 장치.
  4. 제3항에 있어서,
    상기 자세 이벤트는
    유저ID, 왼손 자세, 왼손 위치, 오른손 자세 및 오른손 위치의 구성 요소
    를 포함하는 가상 객체 제어 장치.
  5. 제4항에 있어서,
    상기 자세 이벤트는
    왼손 자세 신뢰도 및 오른손 자세 신뢰도의 속성
    을 더 포함하는 가상 객체 제어 장치.
  6. 제3항에 있어서,
    상기 자세 이벤트는
    손 자세, 손 종류, 손 위치 및 자세 신뢰도의 손 자세 정보; 및
    유저ID의 구성 요소
    를 포함하는 가상 객체 제어 장치.
  7. 제4항에 있어서,
    상기 왼손 자세의 구성 요소 및 상기 오른손 자세의 구성 요소는
    오픈 팜(Open Plam), 피스트(Fist), 포인팅(Pointing), 썸-업(Thumb-Up), 썸-다운(Thumb-Down) 및 그랩(Grab)을 포함하는 가상 객체 제어 장치.
  8. 제3항에 있어서,
    상기 제스처 이벤트는
    왼손 제스처 및 오른손 제스처 중 적어도 하나의 구성 요소
    를 포함하는 가상 객체 제어 장치.
  9. 제8항에 있어서,
    상기 제스처 이벤트는
    유저ID, 왼손 제스처, 왼손 시작위치, 왼손 종료위치, 왼손 속도, 왼손 가속도, 오른손 제스처, 오른손 시작위치, 오른손 종료위치, 오른손 속도 및 오른손 가속도의 구성 요소
    를 더 포함하는 가상 객체 제어 장치.
  10. 제8항에 있어서,
    상기 제스처 이벤트는
    왼손 제스처 신뢰도 및 오른손 제스처 신뢰도의 속성
    을 더 포함하는 가상 객체 제어 장치.
  11. 제8항에 있어서,
    상기 왼손 제스처의 구성 요소 및 상기 오른손 제스처의 구성 요소는
    푸쉬(push), 풀(pull), 슬랩 레프트(slap left), 슬랩 라이트(slap right), 슬랩 탑(slap top), 슬랩 바텀(slap bottom), 시계 방향 써클(circle clockwise), 반시계 방향 써클(circle anti-clockwise), 웨이빙(waving) 및 체크(check)를 포함하는 가상 객체 제어 장치.
  12. 제1항에 있어서,
    디스플레이 장치에 상기 가상 객체를 출력하는 출력부
    를 더 포함하는 가상 객체 제어 장치.
  13. 센서로부터 사용자의 동작에 대한 감지 정보를 수신하는 단계;
    상기 수신된 감지 정보로부터 상기 사용자의 손 동작에 대한 손 동작 정보를 추출하는 단계;
    상기 추출된 손 동작 정보에 대응하는 이벤트를 생성하는 단계; 및
    상기 생성된 이벤트에 기반하여, 3차원 그래픽 유저 인터페이스 상에 표시되는 가상 객체를 제어하는 단계
    를 포함하고,
    상기 가상 객체는
    BIFS(Binary Format for Scenes), LASeR(Light Application Scene Representation) 및 Widget 중 어느 하나의 장면 표현(Scene Representation)에 의해서 기술되는,
    가상 객체 제어 방법.
  14. 제13항의 방법을 실행하는 프로그램을 기록한 컴퓨터 판독 가능 기록 매체.
KR1020110023551A 2011-03-16 2011-03-16 가상 객체 제어 장치 및 방법 KR101800182B1 (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020110023551A KR101800182B1 (ko) 2011-03-16 2011-03-16 가상 객체 제어 장치 및 방법
US13/421,262 US9563277B2 (en) 2011-03-16 2012-03-15 Apparatus, system, and method for controlling virtual object

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020110023551A KR101800182B1 (ko) 2011-03-16 2011-03-16 가상 객체 제어 장치 및 방법

Publications (2)

Publication Number Publication Date
KR20120105864A KR20120105864A (ko) 2012-09-26
KR101800182B1 true KR101800182B1 (ko) 2017-11-23

Family

ID=46828046

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020110023551A KR101800182B1 (ko) 2011-03-16 2011-03-16 가상 객체 제어 장치 및 방법

Country Status (2)

Country Link
US (1) US9563277B2 (ko)
KR (1) KR101800182B1 (ko)

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9110502B2 (en) * 2011-12-16 2015-08-18 Ryan Fink Motion sensing display apparatuses
US10133470B2 (en) 2012-10-09 2018-11-20 Samsung Electronics Co., Ltd. Interfacing device and method for providing user interface exploiting multi-modality
US9829984B2 (en) * 2013-05-23 2017-11-28 Fastvdo Llc Motion-assisted visual language for human computer interfaces
KR102170321B1 (ko) 2013-06-17 2020-10-26 삼성전자주식회사 파지된 물체를 이용한 모션을 인식하는 장치 및 방법, 시스템
CN105279354B (zh) * 2014-06-27 2018-03-27 冠捷投资有限公司 用户可融入剧情的情境建构系统
KR101488662B1 (ko) * 2014-07-31 2015-02-04 스타십벤딩머신 주식회사 Nui 장치를 통하여 사용자와 상호작용하는 인터페이스 제공방법 및 제공장치
CN106033256A (zh) * 2015-03-17 2016-10-19 深圳市加珠宝有限公司 一种人机互动装置
EP3099030A1 (en) * 2015-05-26 2016-11-30 Thomson Licensing Method and device for encoding/decoding a packet comprising data representative of a haptic effect
US11010972B2 (en) 2015-12-11 2021-05-18 Google Llc Context sensitive user interface activation in an augmented and/or virtual reality environment
US20180052520A1 (en) * 2016-08-19 2018-02-22 Otis Elevator Company System and method for distant gesture-based control using a network of sensors across the building
CN110520822B (zh) * 2017-04-27 2023-06-27 索尼互动娱乐股份有限公司 控制装置、信息处理系统、控制方法和程序
EP3542252B1 (en) * 2017-08-10 2023-08-02 Google LLC Context-sensitive hand interaction
US10249163B1 (en) * 2017-11-10 2019-04-02 Otis Elevator Company Model sensing and activity determination for safety and efficiency
US20240012485A1 (en) * 2022-07-06 2024-01-11 Shopify Inc. System and method to manipulate virtual model based on physical parameters of gesture input

Family Cites Families (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100457929B1 (ko) 2001-11-05 2004-11-18 한국과학기술원 손 지시 인식을 이용한 원격제어 시스템
JP4038812B2 (ja) * 2001-12-27 2008-01-30 ソニー株式会社 データ処理装置およびデータ処理方法、プログラムおよび記録媒体、並びにデータ処理システム
KR20060070280A (ko) 2004-12-20 2006-06-23 한국전자통신연구원 손 제스처 인식을 이용한 사용자 인터페이스 장치 및 그방법
KR100960577B1 (ko) 2005-02-08 2010-06-03 오블롱 인더스트리즈, 인크 제스처 기반의 제어 시스템을 위한 시스템 및 방법
KR100687737B1 (ko) 2005-03-19 2007-02-27 한국전자통신연구원 양손 제스쳐에 기반한 가상 마우스 장치 및 방법
US9075441B2 (en) * 2006-02-08 2015-07-07 Oblong Industries, Inc. Gesture based control using three-dimensional information extracted over an extended depth of field
KR100862349B1 (ko) 2007-01-08 2008-10-13 전자부품연구원 제스처 인식 기능을 이용한 반투과 거울 기반 사용자인터페이스 시스템
CN102112945B (zh) 2008-06-18 2016-08-10 奥布隆工业有限公司 用于交通工具接口的基于姿态的控制系统
KR101284797B1 (ko) 2008-10-29 2013-07-10 한국전자통신연구원 착용형 컴퓨팅 환경 기반의 사용자 인터페이스 장치 및 그 방법
KR20100055945A (ko) 2008-11-18 2010-05-27 삼성전자주식회사 사용자 설정 제스처를 수행하는 디지털 영상 처리 장치 및 그 동작 방법
KR20100088042A (ko) 2009-01-29 2010-08-06 삼성전자주식회사 Mpeg-v에서 다중 입력 소스를 통한 아바타 모션 제어
US7996793B2 (en) 2009-01-30 2011-08-09 Microsoft Corporation Gesture recognizer system architecture
KR20100113995A (ko) 2009-04-14 2010-10-22 한국전자통신연구원 LASeR에서의 사용자 인터랙션 제공 방법 및 장치
US20100268745A1 (en) 2009-04-16 2010-10-21 Bum-Suk Choi Method and apparatus for representing sensory effects using sensory device capability metadata
KR101671900B1 (ko) 2009-05-08 2016-11-03 삼성전자주식회사 가상 세계에서의 객체를 제어하는 시스템, 방법 및 기록 매체
KR101094636B1 (ko) 2009-05-21 2011-12-20 팅크웨어(주) 제스처 기반 사용자 인터페이스 시스템 및 그 방법
US20100302357A1 (en) 2009-05-26 2010-12-02 Che-Hao Hsu Gesture-based remote control system
KR20100131213A (ko) 2009-06-05 2010-12-15 탑시드 테크놀로지 코포레이션 제스쳐-기반의 리모컨 시스템
US8730309B2 (en) * 2010-02-23 2014-05-20 Microsoft Corporation Projectors and depth cameras for deviceless augmented reality and interaction
US20110317871A1 (en) * 2010-06-29 2011-12-29 Microsoft Corporation Skeletal joint recognition and tracking system
US8994718B2 (en) * 2010-12-21 2015-03-31 Microsoft Technology Licensing, Llc Skeletal control of three-dimensional virtual world

Also Published As

Publication number Publication date
US9563277B2 (en) 2017-02-07
US20120235899A1 (en) 2012-09-20
KR20120105864A (ko) 2012-09-26

Similar Documents

Publication Publication Date Title
KR101800182B1 (ko) 가상 객체 제어 장치 및 방법
US11741917B2 (en) Eclipse cursor for mixed reality displays
US11494000B2 (en) Touch free interface for augmented reality systems
US11520477B2 (en) Augmented reality scrollbar
EP3746870B1 (en) Eclipse cursor for virtual content in mixed reality displays
US9619105B1 (en) Systems and methods for gesture based interaction with viewpoint dependent user interfaces
US9298266B2 (en) Systems and methods for implementing three-dimensional (3D) gesture based graphical user interfaces (GUI) that incorporate gesture reactive interface objects
CN107391008B (zh) 用于在用户界面之间导航的设备和方法
US9081419B2 (en) Natural gesture based user interface methods and systems
CN108363526B (zh) 用于在用户界面之间导航的设备和方法
US8499257B2 (en) Handles interactions for human—computer interface
JP5807686B2 (ja) 画像処理装置、画像処理方法及びプログラム
JP2018077882A (ja) 複数クライアント装置およびディスプレイを有する動作環境のための方法、およびシステム
KR101815020B1 (ko) 인터페이스 제어 장치 및 방법
US11941764B2 (en) Systems, methods, and graphical user interfaces for adding effects in augmented reality environments
US20130307765A1 (en) Contactless Gesture-Based Control Method and Apparatus
CN111801641A (zh) 采用物理操纵的对象创建
Chen et al. An integrated framework for universal motion control
CN104777900A (zh) 一种基于手势趋势的图形界面响应方法
KR101558094B1 (ko) 직관적인 핸드 모션에 기반한 멀티-모달 시스템 및 그 제어 방법
Ramírez Guidelines for choosing VR devices from interaction techniques

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant