KR101263129B1 - 착용형 통신 장치를 이용한 원격 제어 시스템 - Google Patents

착용형 통신 장치를 이용한 원격 제어 시스템 Download PDF

Info

Publication number
KR101263129B1
KR101263129B1 KR1020110146158A KR20110146158A KR101263129B1 KR 101263129 B1 KR101263129 B1 KR 101263129B1 KR 1020110146158 A KR1020110146158 A KR 1020110146158A KR 20110146158 A KR20110146158 A KR 20110146158A KR 101263129 B1 KR101263129 B1 KR 101263129B1
Authority
KR
South Korea
Prior art keywords
wearable communication
communication device
electronic device
user
information
Prior art date
Application number
KR1020110146158A
Other languages
English (en)
Inventor
반호영
최용근
Original Assignee
주식회사 네오펙트
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 네오펙트 filed Critical 주식회사 네오펙트
Priority to KR1020110146158A priority Critical patent/KR101263129B1/ko
Priority to PCT/KR2012/004313 priority patent/WO2012165882A2/ko
Application granted granted Critical
Publication of KR101263129B1 publication Critical patent/KR101263129B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/014Hand-worn input/output arrangements, e.g. data gloves
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04QSELECTING
    • H04Q9/00Arrangements in telecontrol or telemetry systems for selectively calling a substation from a main station, in which substation desired apparatus is selected for applying a control signal thereto or for obtaining measured values therefrom

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • User Interface Of Digital Computer (AREA)
  • Selective Calling Equipment (AREA)

Abstract

사용자의 신체에 착용되며, 착용 부위에 발생된 동작 센싱 정보를 원격의 전자기기로 전송하는, 착용형 통신 장치; 및 상기 전자기기에서 구동되며, 상기 착용형 통신 장치와의 네트워크 연결을 수행하고 상기 착용형 통신 장치로부터 수신된 상기 동작 센싱 정보로부터 사용자 동작 정보를 획득하며 획득된 사용자 동작 정보에 상응하여 상기 전자기기의 동작 및 상기 전자기기에서 실행 중인 어플리케이션 중 어느 하나를 제어하는, 장치 연동 에이전트를 포함하는 착용형 통신 장치를 이용한 원격 제어 시스템이 제공된다.

Description

착용형 통신 장치를 이용한 원격 제어 시스템{REMOTE CONTROL SYSTEM USING COMMUNICATION EQUIPMENT}
본 발명은 인포메이션 테크놀로지 기술에 관한 것으로서, 보다 구체적으로는 착용형 통신 장치를 이용한 원격 제어 시스템에 관한 것이다.
본 발명의 배경이 되는 기술로는 한국공개특허공보 2011-0012334호가 있다. 그러나 위 특허문헌에 의하면, 게임 조작을 위한 별도의 키 버튼, 방향 선택 버튼 등을 구비한 착용형 게임 콘트롤 장치를 이용하고 있어, 사용자의 다양한 손 동작, 자세, 위치 변동 등을 구현해내는데 어려움이 있어 다양한 게임 조작에는 한계가 있으며, 또한 게임 이외의 다양한 응용분야에는 활용되기 어려운 측면이 있다.
한국공개특허공보 2011-0012334호
본 발명은 사용자의 다양한 신체 동작을 센싱할 수 있는 착용형 통신 장치를 이용하고 이와의 통신 연동을 통해 전자기기의 동작, 전자기기에서 실행 중인 어플리케이션의 동작, 데이터 입력 등을 신속 간편하게 제어할 수 있으며, 보다 직관적인 데이터 입력, 동작 제어가 가능한, 착용형 통신 장치를 이용한 원격 제어 시스템을 제공하기 위한 것이다.
본 발명의 일 측면에 따르면, 착용형 통신 장치를 이용한 원격 제어 시스템으로서,
사용자의 신체에 착용되며, 착용 부위에 발생된 동작 센싱 정보를 원격의 전자기기로 전송하는, 착용형 통신 장치; 및
상기 전자기기에서 구동되며, 상기 착용형 통신 장치와의 네트워크 연결을 수행하고 상기 착용형 통신 장치로부터 수신된 상기 동작 센싱 정보로부터 사용자 동작 정보를 획득하며 획득된 사용자 동작 정보에 상응하여 상기 전자기기의 동작 및 상기 전자기기에서 실행 중인 어플리케이션 중 어느 하나를 제어하는, 장치 연동 에이전트
를 포함하는 착용형 통신 장치를 이용한 원격 제어 시스템이 제공된다.
일 실시예에서, 상기 착용형 통신 장치는,
근거리 무선 통신 모듈;
전원을 공급하는 배터리;
상기 착용 부위의 움직임, 자세 변화, 위치 변화 중 적어도 하나에 관한 상기 동작 센싱 정보를 감지하기 위한, 적어도 하나의 센서를 포함하는 동작 감지부; 및
상기 동작 감지부로부터 출력된 상기 동작 센싱 정보를 수집하여 상기 근거리 무선 통신 모듈을 통해 상기 네트워크 연결된 상기 장치 에이전트로 전송하는 제어부를 포함할 수 있다.
일 실시예에서, 상기 장치 연동 에이전트는,
상기 전자기기에 탑재된 통신 모듈을 통해 상기 착용형 통신 장치가 식별되면, 상기 착용형 통신 장치와의 데이터 교환을 위한 네트워크 연결을 수행하는 네트워크 관리자;
상기 착용형 통신 장치로부터 수신된 상기 동작 센싱 정보에 기초하여, 상기 전자기기의 동작 및 상기 전자기기에서 실행 중인 어플리케이션 중 어느 하나의 제어에 이용될 유의미한 동작인 것으로 해석되는 상기 사용자 동작 정보를 획득하는, 정보 해석기; 및
상기 정보 해석부에 의해 획득된 상기 사용자 동작 정보에 상응하여 상기 전자기기의 동작 및 상기 전자기기에서 실행 중인 어플리케이션 중 어느 하나의 제어를 지시하는 장치 연동 관리자를 포함할 수 있다.
일 실시예에서, 상기 장치 연동 관리자는,
상기 정보 해석부에 의해 획득된 상기 사용자 동작 정보에 근거하여,
상기 사용자 동작 정보에 맵핑된 제어 동작이 상기 전자기기 또는 상기 전자기기에서 실행 중인 어플리케이션에서 실행되도록 지시하거나, 상기 사용자 동작 정보에 맵핑된 데이터가 상기 전자기기에서 실행 중인 어플리케이션 내의 데이터 입력창에 입력되도록 지시하거나, 상기 사용자 동작 정보에 추종하여 상기 전자기기에서 실행 중인 어플리케이션 화면 내에 표출된 포인터가 이동되도록 지시하거나, 상기 사용자 동작 정보에 상응하는 동작이 상기 전자기기에서 실행 중인 어플리케이션 화면 내에 표출된 가상 객체에 반영되도록 지시할 수 있다.
일 실시예에서, 상기 장치 연동 관리자는,
상기 착용형 통신 장치가 식별되는 경우, 상기 전자기기의 동작 및 상기 전자기기에서 실행 중인 어플리케이션 중 적어도 하나에 관한 제어 권한을 상기 착용형 통신 장치로 전환시키고, 상기 착용형 통신 장치에 의해 제어 가능한 장치 리스트 또는 어플리케이션 리스트가 상기 전자기기의 화면을 통해 GUI(Graphic User Interface)로 표출되도록 할 수 있다.
일 실시예에서, 상기 장치 연동 관리자는,
상기 착용형 통신 장치가 식별되는 경우, 지정된 어플리케이션이 상기 전자기기에서 자동 실행되도록 하고, 상기 지정된 어플리케이션의 실행 화면에 표출될 미리 지정된 가상 객체의 제어 권한을 상기 착용형 통신 장치로 전환시킬 수 있다.
일 실시예에서, 식별된 착용형 통신 장치가 복수개인 경우,
상기 장치 연동 관리자는,
상기 식별된 복수개의 착용형 통신 장치 별로, 해당 장치를 사용할 사용자를 선택하기 위한 제1 선택 항목 및 해당 장치의 착용 부위를 선택하기 위한 제2 선택 항목 중 적어도 하나가 포함된 GUI가 상기 전자기기의 화면에 표출되도록 할 수 있다.
일 실시예에서, 상기 복수개의 착용형 통신 장치가 착용 부위를 달리하여 1인의 사용자에 한 세트로 할당된 경우, 상기 장치 연동 관리자는,
상기 전자기기에서 실행 중인 어플리케이션 화면 내에 표출된 가상 객체의 제어 요소 별로의 제어 권한을 상기 복수개의 착용형 통신 장치와 하나씩 대응시키고, 상기 정보 해석부에 의해 획득된 사용자 동작 정보를 상기 복수개의 착용형 통신 장치의 각 식별정보에 근거하여 구별함으로써, 상기 가상 객체가 상기 제어 요소 별로 독립적으로 제어될 수 있도록 할 수 있다.
일 실시예에서, 상기 복수개의 착용형 통신 장치가 착용 부위를 달리하여 1인의 사용자에 한 세트로 할당되고, 상기 전자기기에서 실행 중인 어플리케이션 화면 내에 표출된 가상 객체의 속성 상 하나의 제어 요소에 2개 이상의 착용형 통신 장치가 그룹 설정되어야 하는 경우,
상기 장치 연동 관리자는, 상기 그룹 설정된 착용형 통신 장치들 각각의 사용자 동작 정보가 조합된 동작에 상응하여 상기 가상 객체가 제어될 수 있도록 할 수 있다.
일 실시예에서, 상기 복수개의 착용형 통신 장치가 2인 이상의 사용자에게 나뉘어 할당된 경우, 상기 장치 연동 관리자는,
상기 전자기기에서 실행 중인 어플리케이션 화면 내에 표출된 가상 객체 별로의 제어 권한을 상기 사용자 별로 하나씩 대응시키고, 상기 정보 해석부에 의해 획득된 사용자 동작 정보를 상기 복수개의 착용형 통신 장치의 각 식별정보에 근거하여 구별함으로써, 상기 가상 객체가 상기 사용자 별로 독립적으로 제어될 수 있도록 할 수 있다.
본 발명의 실시예에 의하면, 사용자의 다양한 신체 동작을 센싱할 수 있는 착용형 통신 장치를 이용하고 이와의 통신 연동을 통해 전자기기의 동작, 전자기기에서 실행 중인 어플리케이션의 동작, 데이터 입력 등을 신속 간편하게 제어할 수 있으며, 보다 직관적인 데이터 입력, 동작 제어가 가능한 효과가 있다.
또한 본 발명을 게임 콘트롤 시스템으로서 응용하는 경우, 보다 다양한 응용 동작의 재현, 보다 직관적인 게임 제어를 통해서 사용자의 흥미를 극대화시킬 수 있는 효과가 있다.
도 1은 본 발명의 실시예에 따른 착용형 통신 장치를 이용한 원격 제어 시스템의 개관도.
도 2는 본 발명의 실시예에 따른, 착용형 통신 장치와 전자기기 상에서 구동되는 장치 연동 에이전트의 블록도.
도 3은 착용형 통신 장치로서, 장갑 형태를 갖는 통신 장치에 관한 예시도.
도 4는 도 1의 착용형 통신 장치의 A-A' 단면도.
도 5는 손가락 동작의 일 예로서, 착용형 통신 장치에서의 손가락 구부림 감지 방법을 설명하기 위한 도면.
도 6은 본 발명의 실시예에 따른, 착용형 통신 장치와 장치 연동 에이전트 간의 연동에 따른 원격 제어 방법을 간략히 나타낸 순서도.
도 7은 본 발명의 원격 제어 시스템을 이용하는 활용례.
본 발명은 다양한 변경을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시예들을 도면에 예시하고 이를 상세한 설명을 통해 상세히 설명하고자 한다. 그러나, 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.
본 발명을 설명함에 있어서, 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. 또한, 본 명세서의 설명 과정에서 이용되는 숫자(예를 들어, 제1, 제2 등)는 하나의 구성요소를 다른 구성요소와 구분하기 위한 식별기호에 불과하다.
또한, 본 명세서에서, 일 구성요소가 다른 구성요소와 "연결된다" 거나 "접속된다" 등으로 언급된 때에는, 상기 일 구성요소가 상기 다른 구성요소와 직접 연결되거나 또는 직접 접속될 수도 있지만, 특별히 반대되는 기재가 존재하지 않는 이상, 중간에 또 다른 구성요소를 매개하여 연결되거나 또는 접속될 수도 있다고 이해되어야 할 것이다. 이는 일 구성요소로부터 다른 구성요소로 특정 데이터를 "전송한다" 등으로 언급된 경우에도 위와 동일하게 해석되어야 할 것이다.
또한, 본 명세서에 기재된 "~부", "~기", "~자", "~모듈" 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 이는 하드웨어나 소프트웨어 또는 하드웨어 및 소프트웨어의 결합으로 구현될 수 있다.
그리고 본 명세서에서의 구성부들에 대한 구분은 각 구성부가 담당하는 주기능별로 구분한 것에 불과함을 명확히 하고자 한다. 즉, 이하에서 설명할 2개 이상의 구성부가 하나의 구성부로 합쳐지거나 또는 하나의 구성부가 보다 세분화된 기능별로 2개 이상으로 분화되어 구비될 수도 있다. 그리고 이하에서 설명할 구성부 각각은 자신이 담당하는 주기능 이외에도 다른 구성부가 담당하는 기능 중 일부 또는 전부의 기능을 추가적으로 수행할 수도 있으며, 구성부 각각이 담당하는 주기능 중 일부 기능이 다른 구성부에 의해 전담되어 수행될 수도 있음은 물론이다.
이하, 첨부된 도면들을 참조하여 본 발명의 실시예들을 상세히 설명한다.
도 1은 본 발명의 실시예에 따른 착용형 통신 장치를 이용한 원격 제어 시스템의 개관도이고, 도 2는 본 발명의 실시예에 따른, 착용형 통신 장치와 전자기기 상에서 구동되는 장치 연동 에이전트의 블록도이다.
도 1을 참조하면, 본 발명의 실시예에 따른 원격 제어 시스템은, 착용형 통신 장치(10)와, 이와 통신 연동되는 전자기기(100)를 포함하여 구성될 수 있다.
여기서, 전자기기(100)는, 착용형 통신 장치(10)와 통신하기 위한 통신 모듈(도 2의 도면부호 130 참조)과, 디스플레이(도 2의 도면부호 110 참조)를 포함하는 장치로서, 후술할 장치 연동 에이전트(200)가 탑재 또는 설치되는 장치라면 별다른 제한 없이 여기에 해당될 수 있다. 물론 일반적 구성으로서 도 2에서와 같이 전원부(120), 메모리(140), 전자기기 제어부(150) 등이 더 포함될 수 있다. 다만, 본 명세서에서는 설명의 편의 및 집중을 위해, 상기 전자기기(100)는 도 1에 도시된 바와 같이 스마트 TV인 것을 중심으로 설명하기로 한다.
그리고 착용형 통신 장치(10)는, 사용자의 신체에 착용되어, 사용자의 동작에 따라 해당 착용 부위에 발생된 동작 센싱 정보를 획득하고, 이를 소정의 통신 장치(본 실시예에서는, 근거리 무선 통신 모듈(도 2의 50 참조)임)를 통해서 그 획득된 정보를 원격의 전자기기(100)로 전송할 수 있는 장치라면 이 또한 특별한 제한이 없음은 물론이다. 즉, 착용형 통신 장치(10)는, 본 명세서에서 도 1 및 도 3에 도시된 바와 같이 사용자의 손에 착용되는 장갑 형태의 통신 장치를 중심으로 설명하지만, 착용 부위는 반드시 손에 한정될 필요는 없다. 또한 착용형 통신 장치(10)는 사용자의 신체 부위 중 어느 하나에만 착용될 필요는 없으며, 복수개의 착용형 통신 장치(10)가 1 세트로서 구성되어, 사용자의 양 손, 양 발 등에 각각 착용되어 동작할 수도 있다. 이는 이하의 설명에 의해 보다 명확히 이해될 수 있을 것이다.
이하, 착용형 통신 장치(10)에 포함되는 구성부 및 전자기기(100) 내에 탑재 또는 설치되는 장치 연동 에이전트(10)에 포함되는 구성부에 관하여, 도 2의 실시예에 근거하여 보다 구체적으로 설명하기로 한다.
도 2를 참조하면, 착용형 통신 장치(10)는, 동작 감지부(20, 30), 제어부(40), 근거리 무선 통신 모듈(50), 배터리(60)를 포함할 수 있다. 다만, 이러한 구성부에만 한정되는 것은 아니며, 필요 및 설계에 따라 이에 추가 구성부가 더 포함될 수도 있음은 물론이다. 이하, 착용형 통신 장치(10)에 관해서는 도 3 ~ 도 5를 함께 참조하여 설명한다.
여기서, 도 3은 착용형 통신 장치로서, 장갑 형태를 갖는 통신 장치에 관한 예시도이고, 도 4는 도 1의 착용형 통신 장치의 A-A' 단면도이며, 도 5는 손가락 동작의 일 예로서, 착용형 통신 장치에서의 손가락 구부림 감지 방법을 설명하기 위한 도면이다.
동작 감지부(20, 30)는, 착용 부위의 다양한 동작 정보(즉, 움직임, 자세 변화, 위치 변화/이동 등)에 관한 적어도 하나의 동작 센싱 정보를 감지한다. 이를 위해, 동작 감지부(20, 30)는, 도 1 및 도 3에 도시된 바와 같이 복수의 감지 센서를 포함할 수 있다. 이를 사용자의 손 동작과 관련하여 설명하면 다음과 같다.
예를 들어, 사용자의 손가락 움직임에 관한 정보를 감지하는 경우, 동작 감지부(20)는 손가락 각도 센서를 구비할 수 있다. 이때, 손가락 각도 센서는, 사용자가 장갑을 착용하였을 때 각 손가락이 삽입될 위치에 대응되는 부분에 설치될 수 있다. 예를 들어, 손가락 각도 센서는, 손가락의 등면(도 4 및 도 5의 도면부호 20 참조) 또는 바닥면에 대응되는 장갑 부위에 그 손가락의 길이 방향으로 길게 연장 설치될 수 있다. 또는 손가락의 각 마디에 대응되는 부위 마다 손가락 각도 센서를 별도로 설치할 수도 있다. 즉, 손가락 각도 센서의 설치 부위 및 설치 개수 등은 필요 및 설계에 따라 다양하게 변형될 수 있는 것이다.
이러한 손가락 각도 센서에 의하면, 사용자가 손가락을 구부리거나 펴는 동작을 취함에 따른, 손가락의 구부림/펴짐 정도에 관한 데이터를 정량적으로 확인해낼 수 있게 된다.
또한, 동작 감지부(30)는, 사용자의 손의 자세 변화 또는/및 손의 위치 변화도 감지하기 위한 센서(예를 들어, 자이로 센서, 중력 센서, 가속도 센서, 관성 센서 등)를 구비할 수도 있다. 이와 같은 구성을 갖는 경우, 감지부(30)는, 손의 뒤집힘, 회전 등과 같은 자세 변화를 확인할 수 있고, 또한 손에 의한 2차원 또는 3차원 이동 궤적을 나타내는 손의 위치 변화를 확인할 수 있다.
위와 같이 동작 감지부(20, 30)에 의해 손 동작에 관한 동작 센싱 정보(즉, 손가락의 구부러짐/펴짐 정도에 따른 움직임 정보, 손의 자세 정보, 손의 위치 정보 등)가 감지되면, 제어부(40)는, 해당 정보가 근거리 무선 통신 모듈(50)을 통해서 원격에 위치하는 전자기기(100)로 전송되도록 제어한다.
이 경우, 제어부(40)는, 동작 감지부(20, 30)에 의해 감지된 동작 센싱 정보를 그대로 전자기기(100)로 전송할 수도 있고, 각각의 센서로부터 출력된 센싱 데이터를 취합 또는/및 미리 지정된 형태로 가공한 후 전자기기(100)로 전송할 수도 있다.
이때, 상기 동작 센싱 정보가 전자기기(100)로 전송되는 근거리 무선 통신 방식으로는, 도 3에 도시된 바와 같이 블루투스(Bluetooth) 통신 방식이 이용될 수 있다. 이와 같은 경우, 전자기기(100)도 블루투스 통신 모듈을 포함함으로써, 착용형 통신 장치(10)과 피어-투-피어로 연결되어 손 동작 정보를 직접 수신할 수 있다. 그러나 본 발명에 있어서, 손 동작 정보의 전송 및 수신을 위한 통신 방식은 위와 같은 블루투스 방식에 한정되는 것은 아니며, 이외에도 WIFI Direct 기술 등과 같은 다양한 근거리 무선 통신 방식이 이용될 수 있다. 또한, 본 발명에서 착용형 통신 장치(10)과 전자기기(100) 간 통신 방법으로는, 근거리 무선 통신 방식에 한정되는 것은 아니다. 예를 들어, 전자기기(100)는, AP(Access Point) 등과 같은 무선 중계 장치를 매개로 하여 착용형 통신 장치(10)로부터 전송된 사용자의 동작 센싱 정보를 수신할 수도 있을 것이다.
또한 도 2를 참조하면, 장치 연동 에이전트(200)는, 네트워크 관리자(210), 정보 해석기(220), 장치 연동 관리자(230), 룩업 테이블(Lookup table)(240)을 포함할 수 있다. 물론, 필요 또는 설계에 따라 이외에 추가 구성을 더 포함할 수도 있고, 상기 룩업 테이블(240)은 전자기기(100)의 메모리(140)에 포함될 수도 있다.
여기서, 장치 연동 에이전트(200)는, 전자기기(100)에 사전에 탑재 또는 설치되어 전자기기(100) 상에서 구동될 수도 있지만, 펌웨어 또는 소프트웨어(어플리케이션) 형태로 구현되고 전자기기(100)의 사용자가 이를 다운로드 받아 설치할 수도 있다. 예를 들어, 스마트 TV에 사전에 설치되어 있는 것은 아니지만, 사용자는 본 발명의 실시예에 따른 착용형 통신 장치(10)를 별도 구입하고 그 착용형 통신 장치(10)를 이용하여 전자기기(100)의 동작, 전자기기(100)에서 구동되는 특정 어플리케이션(일 예로, 후술할 특정 게임 어플 등)의 동작 등을 원격 제어하기 위해, 그에 맞는 장치 연동 에이전트(200)를 전자기기(100)에 후에 설치할 수도 있는 것이다.
이에 따라, 장치 연동 에이전트(200)는 전자기기(100) 상에서 구동됨으로써, 전자기기(100)와 착용형 통신 장치(10) 간의 장치 연동 및 제어를 수행하며, 이를 위한 각 구성부의 역할을 다음과 같다.
네트워크 관리자(210)는 전자기기(100)에 탑재된 통신 모듈(130)을 통해 착용형 통신 장치(10)가 식별되면, 상기 착용형 통신 장치(10)와의 데이터 교환을 위한 네트워크 연결을 수행한다.
정보 해석기(220)는 착용형 통신 장치(10)로부터 수신된 동작 센싱 정보로부터, 전자기기(10)의 동작, 그 전자기기(10)에서 실행 중인 어플리케이션 중 어느 하나의 제어에 이용될 사용자 동작 정보를 획득한다. 여기서, 사용자 동작 정보란, 착용형 통신 장치(10)로부터 수신되는 동작 센싱 정보들 중 본 발명에 따른 원격 제어를 하는데 유의미한 정보인 것으로 해석되는 것(즉, 사용자가 취한 다양한 동작 중 사용자의 의도가 원격 제어를 위한 동작인 것인 것으로 확인되는 동작 정보)을 의미한다.
즉, 사용자가 도 1 및 도 3에서와 같은 장갑 형태의 통신 장치(10)를 착용한 상태에서도, 의도치 않게 발생되는 움직임이 존재할 수 있은 바, 정보 해석기(220)는 이를 필터링하여 원격 제어 의도를 갖는 유의미한 동작들 만을 추출해내는 역할을 수행한다. 이를 위해, 정보 해석기(220)는, 룩업 테이블(240)에 저장된 특정 테이블(이하, 이를 제1 룩업 테이블이라 함)을 참조할 수 있다. 제1 룩업 테이블은 예를 들어 아래의 테이블과 같이 존재할 수 있다.
[표 1 - 제1 룩업 테이블]
#1 엄지 구부림 #2 검지 구부림
#3 중지 구부림 #4 약지 구부림
#5 소지 구부림 #6 손바닥 뒤집기
#7 손 오른쪽 방향 이동 #8 손 왼쪽 방향 이동
#9 손 아래로 이동 #10 손 위로 이동
따라서, 상기 [표 1]의 예에 따른 제1 룩업 테이블을 참조하여, 정보 해석기(220)는 해당 테이블에 정의된 손 동작을 제외한 동작은 무시하고, 해당 테이블에 정의되어 있는 손 동작만을 원격 제어를 위한 사용자의 의도적인 동작으로 판단하여 해당 동작에 상응하는 사용자 동작 정보만을 획득할 수 있다. 여기서, 후술할 장치 연동 관리자(230)로 전달될 사용자 동작 정보는, 상기 테이블의 동작 식별 정보(즉, #1 등)일 수 있다.
다만, 위 제1 룩업 테이블은 일 예시에 불과하며, 이보다 더 다양한 동작들이 유의미한 사용자 동작 정보로서 정의되어 있을 수도 있음은 물론이다. 이하에서도 설명하겠지만, 만일 "테니스 게임", "탁구 게임" 등과 같은 게임 어플이 스마트 TV 화면을 통해 실행되고 있는 경우를 가정하면, 게임 실행 화면에 표출되어 그 게임을 즐기는 사용자와 동일시되는 가상의 선수(virtual player)가 라켓을 휘두르는 동작에 상응하는 사용자 동작이 위와 같은 룩업 테이블을 통해 정의되어 있을 수 있는 것이다. 또는, 1인칭 슈팅 게임(First-Person Shooter)과 같은 경우, 사용자가 총의 방아쇠를 당기는 동작에 상응하는 손 동작(즉, 검지를 구부림 또는 검지를 구부리는 동시에 엄지를 움직임 등)이 유의미한 사용자 동작 정보로서 정의되어 있을 수도 있다. 이외에도 2개 이상의 손가락 조합, 미리 지정된 연이은 손 동작 입력 등 매우 다양한 손 동작 조합들이 존재할 수 있으며, 또한 제어 대상, 실행 어플리케이션의 특성, 그 실행 어플리케이션 내에 표출될 가상 객체의 속성 등에 기초하여 매우 다양한 응용례가 존재할 수 있음은 당업자라면 쉽게 이해할 수 있을 것이다. 즉, 위 제1 룩업 테이블은 그 제어 대상, 어플리케이션의 종류 및 특성, 가상 객체 등에 따라 각각 달리 정의될 수 있다.
상술한 바와 같이, 정보 해석기(220)를 통해서 원격 제어에 유의미한 동작인 사용자 동작 정보가 획득되면, 장치 연동 관리자(230)는 그 사용자 동작 정보에 상응하여 전자기기의 동작, 전자기기에서 실행 중인 어플리케이션의 동작 등을 제어하는 역할을 수행한다.
여기서, 장치 연동 관리자(230)도 위와 같은 제어를 위해, 앞선 설명에서와 유사하게 룩업 테이블(240)에 저장된 특정 테이블(이하 이를 제2 룩업 테이블이라 함)을 참조할 수 있다. 앞선 예에서와 대응시킨 일 예시의 제2 룩업 테이블은 다음과 같을 수 있다.
[표 2 - 제2 룩업 테이블]
#1 폭탄 투여 #2 총 발사
#3 점프 #4 방향 오른쪽 회전
#5 방향 왼쪽 회전 #6 게임 정지
#7 오른쪽으로 이동 #8 왼쪽으로 이동
#9 후진 #10 전진
그러나 위 예시의 제2 룩업 테이블 또한 그 제어 대상, 어플리케이션의 종류 및 특성, 가상 객체 등에 따라 각각 달리 정의될 수 있음은 자명하다. 즉, 위 제2 룩업 테이블은, 1인칭 슈팅 게임의 경우를 가정하여 사용자 동작 정보와 어플리케이션 동작 제어를 1대 1 맵핑시켜 본 예에 불과하다. 따라서, 전자기기 자체의 동작 제어에 활용되는 경우라면, 사용자 동작 정보인 #7(손 오른쪽 방향 이동)은 채널 업, #8(손 왼쪽 방향 이동)은 채널 다운, #9(손 아래로 이동)는 볼륨 다운, #10(손 위로 이동)은 볼륨 업 등과 같이 맵핑될 수도 있을 것이다. 또한 실행 어플리케이션이 문서 작성 어플리케이션(예를 들어, 메모장, WORD 등)인 경우는 위 사용자 동작 정보들이 각 "문자(Character)"와 대응되어 있을 수도 있고, CALL 어플리케이션인 경우에는 각 "숫자(number)"와 대응되어 있을 수도 있을 것이다.
즉, 장치 연동 관리자(230)는 `장치 제어의 대상에 따라서 서로 다른 제어 동작을 수행할 수 있다. 일 예로, 전자기기 동작을 제어하는 경우라면, 전자기기의 각 장치(오디오 볼륨, 채널 선택, 화면 전환 등)의 기능을 사용자 동작 정보 및 그 제2 룩업 테이블에 근거하여 제어할 수 있고, 다른 예로, 문자/숫자 입력 어플리케이션의 실행 동작을 제어하는 경우라면, 화면 상에 표출되는 가상 키보드를 통한 문자/숫자 입력을 수행할 수 있으며, 또 다른 예로, 홈 스크린 상에서 표출된 아이콘들의 선택을 위해 사용자 동작 정보에 추종하여 상기 전자기기에서 실행 중인 어플리케이션 화면 내에 표출된 포인터(Pointer)가 이동되도록 제어할 수도 있다. 또한, 이하에서 설명할 바와 같이, 사용자 동작 정보에 상응하는 동작이 실행 중인 어플리케이션 화면 내에 표출된 가상 객체(도 7의 "손 모양 가상 객체" 참조)에 반영되도록 제어할 수도 있을 것이다.
도 6은 본 발명의 실시예에 따른, 착용형 통신 장치와 장치 연동 에이전트 간의 연동에 따른 원격 제어 방법을 간략히 나타낸 순서도이다. 그리고 도 7은 본 발명의 원격 제어 시스템을 이용하는 활용례이다.
도 6을 참조하면, 착용형 통신 장치(10)가 턴 온됨에 따라[단계 S12], 착용형 통신 장치(10)로부터 접속 요청 메시지가 전송되면[단계 S14], 장치 연동 에이전트(200)의 네트워크 관리자(210)는 착용형 통신 장치(10)를 식별할 수 있다[단계 S16]. 이와 같이 식별된 경우, 네트워크 관리자(210)는 착용형 통신 장치(10)와의 네트워크 연결을 수행한다[단계 S18].
이와 같이, 착용형 통신 장치(10)가 식별되는 경우, 장치 연동 관리자(220)는, 전자기기의 동작 및 전자기기에서 실행 중인 어플리케이션 중 적어도 하나에 관한 제어 권한을 착용형 통신 장치(10)로 전환시키고[단계 S20], 상기 착용형 통신 장치(10)에 의해 제어 가능한 장치 리스트 또는 어플리케이션 리스트가 전자기기(100)의 화면을 통해 GUI(Graphic User Interface)로 표출되도록 지시(요청)한다[단계 S22]. 이와 같은 지시(요청)은 전자기기(100)의 제어부(150)로 전달됨으로써, 전자기기 제어부(150)는 해당 GUI를 생성하여 디스플레이 화면을 통해 표출하게 된다.
이에 따라, 착용형 통신 장치(10)의 사용자는 전자기기(100)의 화면을 통해서 자신이 제어할 수 있는 대상들을 시각적으로 확인할 수 있다. 이후, 사용자 선택(즉, 그러한 선택을 지시하는 동작을 사용자가 취함)에 따른, 제어 대상 선택을 위한 동작 센싱 정보가 착용형 통신 장치(10)로부터 전송되면[단계 S24], 장치 연동 에이전트(200)는 정보 해석기(220)를 통해서 이와 관련된 사용자 동작 정보을 획득할 수 있다. 이러한 획득 정보에 근거하여 장치 연동 관리자(230)는 사용자에 의해 의도된 바에 따른 장치 제어를 위한 설정을 수행하고 그 설정을 완료한다[단계 S26].
상술한 바와 같이, 장치 제어를 위한 설정 과정이 완료된 후, 착용형 통신 장치(10)로부터 그 선택 대상의 제어를 위한 동작 센싱 정보가 전송되면[단계 S28], 장치 연동 관리자(230)는 정보 해석기(220)에 의해 획득된 사용자 동작 정보에 따라서 그에 상응하는 제어 동작이 수행되도록, 전자기기(100)의 제어부(150)에 지시(요청)한다[단계 S32].
물론, 이상에서는, 착용형 통신 장치(10)가 식별되는 경우, 이에 의해 원격 제어될 제어 대상을 선택하기 위한 과정(즉, 단계 S22의 GUI 표출 과정, 단계 S24의 선택 동작에 관한 동작 센싱 정보 수신)이 선행되는 것과 같이 기재하고 있지만, 필요에 따라 또는 발명 구현에 따라 본 단계는 생략될 수도 있음은 물론이다. 예를 들어, 착용형 통신 장치(10)가 특정 어플리케이션의 동작 제어에만 권한을 갖도록 설정되어 있는 경우라면, 위와 같은 단계는 생략될 수 있다. 이 경우, 장치 연동 관리자(230)는 착용형 통신 장치(10)와 관련된 그 특정의 어플리케이션을 바로 자동 실행시킴으로써, 장치 제어를 위한 설정을 수행할 수도 있을 것이다.
여기서, 상기 단계 S26에 따른 장치 연동 관리자(230)를 통한 장치 제어를 위한 설정 과정은 다음과 같은 과정을 더 포함할 수 있다. 예를 들어 만일 도 7에서와 같이 전자기기(100)에서 특정 어플리케이션이 실행 중인 상태를 가정하면, 그 어플 실행 화면 내에 표출되어 있는 요소들 중 특정 제어요소(도 7에서는 "손 모양 가상 객체"를 의미함)의 제어 권한을 착용형 통신 장치(10)로 전환하는 과정이 더 포함될 수 있다.
또한, 앞서 설명한 단계 S22에 따른 GUI 표출 과정도 상황에 따라 다음과 같은 과정을 더 포함할 수 있다. 예를 들어, 식별된 착용형 통신 장치가 복수개인 경우를 가정한다면, 그 복수의 착용형 통신 장치가 어떤 방식으로 누구에 의해서 사용될 것인지를 확인하는 과정이 필요할 수 있다. 따라서, 장치 연동 관리자(230)는, 위와 같은 경우, 상기 식별된 복수개의 착용형 통신 장치 별로, 해당 장치를 사용할 사용자를 선택하기 위한 제1 선택 항목 및 해당 장치의 착용 부위를 선택하기 위한 제2 선택 항목 중 적어도 하나가 포함된 GUI가 전자기기의 화면에 표출되도록 할 수도 있다.
상술한 과정에 따라서, 만일 그 복수개의 착용형 통신 장치가 착용 부위를 달리하여 1인의 사용자에 한 세트로 할당되는 경우, 장치 연동 관리자(230)는, 전자기기에서 실행 중인 어플리케이션 화면 내에 표출된 가상 객체의 제어 요소 별로의 제어 권한을 상기 복수개의 착용형 통신 장치와 하나씩 대응시킬 수 있다. 이 경우, 장치 연동 관리자(230)는, 정보 해석부(220)에 의해 획득된 사용자 동작 정보를 상기 복수개의 착용형 통신 장치의 각 식별정보에 근거하여 구별함으로써, 상기 가상 객체가 상기 제어 요소 별로 독립적으로 제어될 수 있도록 할 수도 있다.
이는 다음과 같은 케이스에 적용될 수 있다. 만일 사용자가 "테니스 게임" 화면을 통해 표출되는 가상의 플레이어를 착용형 통신 장치(10)를 이용하여 원격 제어하고자 하는 경우에도, 오른손에 착용형 통신 장치(10) 하나를 착용하여 조작/제어를 할 수도 있지만, 1 세트인 복수의 착용형 통신 장치를 착용하여 조작하고자 할 수도 있다. 즉, 가상의 플레이어의 오른손에 쥔 라켓을 제어하는 착용형 통신 장치 1개에 더불어, 양 발목에 착용형 통신 장치를 더 착용함으로써, 가상 플레이어의 좌/우 이동을 제어하고자 할 수도 있다. 이 경우, 그 1 세트의 착용형 통신 장치 각각으로부터 수신되는 동작 센싱 정보는 그 가상 플레이어에 관한 각 제어요소(즉, 라켓, 플레이어의 좌/우 이동)에 각각 대응되어 독립적으로 제어될 필요가 있으며, 이러한 케이스에 위와 같은 제어 방식은 유용하게 쓰일 수 있는 것이다.
이외에도 다른 제어 방식이 활용될 수도 있다. 이를 설명하면 다음과 같다. 만일, 상기 복수개의 착용형 통신 장치가 착용 부위를 달리하여 1인의 사용자에 한 세트로 할당되되, 실행 중인 어플리케이션 화면 내에 표출된 가상 객체의 속성 상 하나의 제어 요소에 2개 이상의 착용형 통신 장치가 그룹 설정되어야 하는 경우가 있을 수 있다. 예를 들어, "자동차 경주" 게임에서의 가상 객체로서의 핸들이 이러한 제어 요소에 해당될 수 있다. 이러한 경우, 장치 연동 관리자(230)는, 그 그룹 설정된 착용형 통신 장치들(예를 들어, 오른손과 왼손에 각각 착용된 장치) 각각의 사용자 동작 정보가 조합된 동작에 상응하여 그 제어 요소(본 예에서는 핸들)가 제어될 수 있도록 할 수 있다. 즉, 이러한 경우 사용자는 양손에 각각 착용된 통신 장치를 이용하여 핸들 조작을 하는 것과 같은 동작을 취함으로써 게임 실행 화면에 표출된 가상 핸들의 조작을 원격에서 제어할 수 있다.
또 다른 예로서, 복수의 착용형 통신 장치가 각각 사용자를 달리하여 쓰일 수도 있을 것이다. 즉, 두 명 이상의 사용자(즉, 게임 플레이어)가 각각 자신에 할당된 가상 객체(예를 들어, 자동차 경주를 가정하거나, 권투 시합을 가정해볼 수 있음)를 자신이 착용한 통신 장치로 원격 제어하고자 할 수 있다. 이러한 경우 장치 연동 관리자(230)는, 실행 중인 어플리케이션 화면 내에 표출된 가상 객체 별로의 제어 권한을 상기 사용자 별로 하나씩 대응시키고, 정보 해석부(220)에 의해 획득된 사용자 동작 정보를 상기 복수개의 착용형 통신 장치의 각 식별정보에 근거하여 구별함으로써, 상기 가상 객체가 상기 사용자 별로 독립적으로 제어될 수 있도록 할 수 있다.
이상에서는 본 발명의 실시예를 참조하여 설명하였지만, 해당 기술 분야에서 통상의 지식을 가진 자라면 하기의 특허 청구의 범위에 기재된 본 발명의 사상 및 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 쉽게 이해할 수 있을 것이다.
10 : 착용형 통신 장치
20, 30 : 동작 감지부
40 : 제어부
50 : 근거리 무선 통신 모듈
60 : 배터리
100 : 전자기기
200 : 장치 연동 에이전트
210 : 네트워크 관리자
220 : 정보 해석기
230 : 장치 연동 관리자
240 : 룩업 테이블

Claims (10)

  1. 착용형 통신 장치를 이용한 원격 제어 시스템으로서,
    사용자의 신체에 착용되며, 착용 부위에 발생된 동작 센싱 정보를 원격의 전자기기로 전송하는, 착용형 통신 장치;
    상기 전자기기에서 구동되며, 상기 착용형 통신 장치와의 네트워크 연결을 수행하고 상기 착용형 통신 장치로부터 수신된 상기 동작 센싱 정보로부터 사용자 동작 정보를 획득하며 획득된 사용자 동작 정보에 상응하여 상기 전자기기의 동작 및 상기 전자기기에서 실행 중인 어플리케이션 중 어느 하나를 제어하는, 장치 연동 에이전트를 포함하되,
    상기 장치 연동 에이전트는,
    상기 전자기기에 탑재된 통신 모듈을 통해 상기 착용형 통신 장치가 식별되면, 상기 착용형 통신 장치와의 데이터 교환을 위한 네트워크 연결을 수행하는 네트워크 관리자;
    상기 착용형 통신 장치로부터 수신된 상기 동작 센싱 정보에 기초하여, 상기 전자기기의 동작 및 상기 전자기기에서 실행 중인 어플리케이션 중 어느 하나의 제어에 이용될 유의미한 동작인 것으로 해석되는 상기 사용자 동작 정보를 획득하는, 정보 해석기; 및
    상기 정보 해석부에 의해 획득된 상기 사용자 동작 정보에 상응하여 상기 전자기기의 동작 및 상기 전자기기에서 실행 중인 어플리케이션 중 어느 하나의 제어를 지시하는 장치 연동 관리자를 포함하고,
    상기 장치 연동 관리자는,
    상기 착용형 통신 장치가 식별되는 경우, 상기 전자기기의 동작 및 상기 전자기기에서 실행 중인 어플리케이션 중 적어도 하나에 관한 제어 권한을 상기 착용형 통신 장치로 전환시키고, 상기 착용형 통신 장치에 의해 제어 가능한 장치 리스트 또는 어플리케이션 리스트가 상기 전자기기의 화면을 통해 GUI(Graphic User Interface)로 표출되도록 하는,
    착용형 통신 장치를 이용한 원격 제어 시스템.
  2. 제1항에 있어서,
    상기 착용형 통신 장치는,
    근거리 무선 통신 모듈;
    전원을 공급하는 배터리;
    상기 착용 부위의 움직임, 자세 변화, 위치 변화 중 적어도 하나에 관한 상기 동작 센싱 정보를 감지하기 위한, 적어도 하나의 센서를 포함하는 동작 감지부;
    상기 동작 감지부로부터 출력된 상기 동작 센싱 정보를 수집하여 상기 근거리 무선 통신 모듈을 통해 상기 네트워크 연결된 상기 장치 에이전트로 전송하는 제어부
    를 포함하는 착용형 통신 장치를 이용한 원격 제어 시스템.
  3. 삭제
  4. 제1항에 있어서,
    상기 장치 연동 관리자는,
    상기 정보 해석부에 의해 획득된 상기 사용자 동작 정보에 근거하여,
    상기 사용자 동작 정보에 맵핑된 제어 동작이 상기 전자기기 또는 상기 전자기기에서 실행 중인 어플리케이션에서 실행되도록 지시하거나, 상기 사용자 동작 정보에 맵핑된 데이터가 상기 전자기기에서 실행 중인 어플리케이션 내의 데이터 입력창에 입력되도록 지시하거나, 상기 사용자 동작 정보에 추종하여 상기 전자기기에서 실행 중인 어플리케이션 화면 내에 표출된 포인터가 이동되도록 지시하거나, 상기 사용자 동작 정보에 상응하는 동작이 상기 전자기기에서 실행 중인 어플리케이션 화면 내에 표출된 가상 객체에 반영되도록 지시하는,
    착용형 통신 장치를 이용한 원격 제어 시스템.
  5. 삭제
  6. 제1항에 있어서,
    상기 장치 연동 관리자는,
    상기 착용형 통신 장치가 식별되는 경우, 지정된 어플리케이션이 상기 전자기기에서 자동 실행되도록 하고, 상기 지정된 어플리케이션의 실행 화면에 표출될 미리 지정된 가상 객체의 제어 권한을 상기 착용형 통신 장치로 전환시키는,
    착용형 통신 장치를 이용한 원격 제어 시스템.
  7. 제1항에 있어서,
    식별된 착용형 통신 장치가 복수개인 경우,
    상기 장치 연동 관리자는,
    상기 식별된 복수개의 착용형 통신 장치 별로, 해당 장치를 사용할 사용자를 선택하기 위한 제1 선택 항목 및 해당 장치의 착용 부위를 선택하기 위한 제2 선택 항목 중 적어도 하나가 포함된 GUI가 상기 전자기기의 화면에 표출되도록 하는,
    착용형 통신 장치를 이용한 원격 제어 시스템.
  8. 제7항에 있어서,
    상기 복수개의 착용형 통신 장치가 착용 부위를 달리하여 1인의 사용자에 한 세트로 할당된 경우, 상기 장치 연동 관리자는,
    상기 전자기기에서 실행 중인 어플리케이션 화면 내에 표출된 가상 객체의 제어 요소 별로의 제어 권한을 상기 복수개의 착용형 통신 장치와 하나씩 대응시키고, 상기 정보 해석부에 의해 획득된 사용자 동작 정보를 상기 복수개의 착용형 통신 장치의 각 식별정보에 근거하여 구별함으로써, 상기 가상 객체가 상기 제어 요소 별로 독립적으로 제어될 수 있도록 하는,
    착용형 통신 장치를 이용한 원격 제어 시스템.
  9. 제7항에 있어서,
    상기 복수개의 착용형 통신 장치가 착용 부위를 달리하여 1인의 사용자에 한 세트로 할당되고, 상기 전자기기에서 실행 중인 어플리케이션 화면 내에 표출된 가상 객체의 속성 상 하나의 제어 요소에 2개 이상의 착용형 통신 장치가 그룹 설정되어야 하는 경우,
    상기 장치 연동 관리자는, 상기 그룹 설정된 착용형 통신 장치들 각각의 사용자 동작 정보가 조합된 동작에 상응하여 상기 가상 객체가 제어될 수 있도록 하는,
    착용형 통신 장치를 이용한 원격 제어 시스템.
  10. 제7항에 있어서,
    상기 복수개의 착용형 통신 장치가 2인 이상의 사용자에게 나뉘어 할당된 경우,
    상기 장치 연동 관리자는,
    상기 전자기기에서 실행 중인 어플리케이션 화면 내에 표출된 가상 객체 별로의 제어 권한을 상기 사용자 별로 하나씩 대응시키고, 상기 정보 해석부에 의해 획득된 사용자 동작 정보를 상기 복수개의 착용형 통신 장치의 각 식별정보에 근거하여 구별함으로써, 상기 가상 객체가 상기 사용자 별로 독립적으로 제어될 수 있도록 하는,
    착용형 통신 장치를 이용한 원격 제어 시스템.
KR1020110146158A 2011-05-31 2011-12-29 착용형 통신 장치를 이용한 원격 제어 시스템 KR101263129B1 (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020110146158A KR101263129B1 (ko) 2011-12-29 2011-12-29 착용형 통신 장치를 이용한 원격 제어 시스템
PCT/KR2012/004313 WO2012165882A2 (ko) 2011-05-31 2012-05-31 재활 운동 장치, 착용형 통신 장치 및 이를 응용한 응용 시스템 및 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020110146158A KR101263129B1 (ko) 2011-12-29 2011-12-29 착용형 통신 장치를 이용한 원격 제어 시스템

Publications (1)

Publication Number Publication Date
KR101263129B1 true KR101263129B1 (ko) 2013-05-15

Family

ID=48665972

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020110146158A KR101263129B1 (ko) 2011-05-31 2011-12-29 착용형 통신 장치를 이용한 원격 제어 시스템

Country Status (1)

Country Link
KR (1) KR101263129B1 (ko)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101541082B1 (ko) 2015-01-23 2015-08-03 주식회사 네오펙트 손 재활 운동 시스템 및 방법
WO2017065321A1 (ko) * 2015-10-12 2017-04-20 주식회사 네오펙트 측정센서장치의 부착위치 초기설정시스템, 초기설정방법 및 초기설정프로그램

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101541082B1 (ko) 2015-01-23 2015-08-03 주식회사 네오펙트 손 재활 운동 시스템 및 방법
WO2016117758A1 (ko) * 2015-01-23 2016-07-28 주식회사 네오펙트 손 재활 운동 시스템 및 방법
US10143403B2 (en) 2015-01-23 2018-12-04 Neofect Co., Ltd. System and method for rehabilitation exercise of the hands
US10758158B2 (en) 2015-01-23 2020-09-01 Neofect Co., Ltd. System and method for rehabilitation exercise of the hands
WO2017065321A1 (ko) * 2015-10-12 2017-04-20 주식회사 네오펙트 측정센서장치의 부착위치 초기설정시스템, 초기설정방법 및 초기설정프로그램
US10314522B2 (en) 2015-10-12 2019-06-11 Neofect Co., Ltd. System, method, and program for initializing attachment location of measurement sensor
US11051721B2 (en) 2015-10-12 2021-07-06 Neofect Co., Ltd. System, method, and program for initializing attachment location of measurement sensor

Similar Documents

Publication Publication Date Title
US10838495B2 (en) Devices for controlling computers based on motions and positions of hands
US11099655B2 (en) System and method for gesture based data and command input via a wearable device
US11435825B2 (en) Haptic interaction method, tool and system
US9360944B2 (en) System and method for enhanced gesture-based interaction
EP2347321B1 (en) Command by gesture interface
US10001833B2 (en) User input system for immersive interaction
WO2016189372A2 (en) Methods and apparatus for human centric "hyper ui for devices"architecture that could serve as an integration point with multiple target/endpoints (devices) and related methods/system with dynamic context aware gesture input towards a "modular" universal controller platform and input device virtualization
US9662569B2 (en) Sensor fusion to combine sensor input data from multiple devices into one input stream
EP3234742A2 (en) Methods and apparatus for high intuitive human-computer interface
WO2014048506A1 (en) Remote control with 3d pointing and gesture recognition capabilities
CN106843504A (zh) Vr环境与现实环境实现真实交互的触感手套及交互方法
US20220129081A1 (en) Controller and method for gesture recognition and a gesture recognition device
KR101263129B1 (ko) 착용형 통신 장치를 이용한 원격 제어 시스템
KR20090085821A (ko) 인터페이스 장치와 이를 이용한 게임기 및 컨텐츠 제어방법
KR20140030390A (ko) 그립 상태에 따라 사용성이 달라지는 인풋 디바이스
GB2556894A (en) Apparatus and method of interactive control
KR20150101520A (ko) 모션 인터페이스 디바이스 및 그것을 이용한 캐릭터 제어 방법

Legal Events

Date Code Title Description
A201 Request for examination
A302 Request for accelerated examination
E902 Notification of reason for refusal
A107 Divisional application of patent
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20160404

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20180327

Year of fee payment: 6

FPAY Annual fee payment

Payment date: 20190405

Year of fee payment: 7