KR20140144412A - 제스처 기반 통신 서비스 수행 방법 및 장치 - Google Patents

제스처 기반 통신 서비스 수행 방법 및 장치 Download PDF

Info

Publication number
KR20140144412A
KR20140144412A KR1020130066264A KR20130066264A KR20140144412A KR 20140144412 A KR20140144412 A KR 20140144412A KR 1020130066264 A KR1020130066264 A KR 1020130066264A KR 20130066264 A KR20130066264 A KR 20130066264A KR 20140144412 A KR20140144412 A KR 20140144412A
Authority
KR
South Korea
Prior art keywords
gesture
motion
information
event
gestures
Prior art date
Application number
KR1020130066264A
Other languages
English (en)
Other versions
KR101824921B1 (ko
Inventor
윤여준
니푼 쿠마르
이용연
최영준
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020130066264A priority Critical patent/KR101824921B1/ko
Priority to EP14170920.4A priority patent/EP2813921B1/en
Priority to US14/295,387 priority patent/US10019067B2/en
Publication of KR20140144412A publication Critical patent/KR20140144412A/ko
Application granted granted Critical
Publication of KR101824921B1 publication Critical patent/KR101824921B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/014Hand-worn input/output arrangements, e.g. data gloves
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/015Input arrangements based on nervous system activity detection, e.g. brain waves [EEG] detection, electromyograms [EMG] detection, electrodermal response detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72403User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality
    • H04M1/72409User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality by interfacing with external accessories
    • H04M1/72412User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality by interfacing with external accessories using two-way short-range wireless interfaces
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72448User interfaces specially adapted for cordless or mobile telephones with means for adapting the functionality of the device according to specific conditions
    • H04M1/72454User interfaces specially adapted for cordless or mobile telephones with means for adapting the functionality of the device according to specific conditions according to context-related or environment-related conditions
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/20Services signaling; Auxiliary data signalling, i.e. transmitting data via a non-traffic channel
    • H04W4/21Services signaling; Auxiliary data signalling, i.e. transmitting data via a non-traffic channel for social networking applications
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1684Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
    • G06F1/1694Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being a single or a set of motion sensors for pointer control or gesture input obtained by sensing movements of the portable computer
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2250/00Details of telephonic subscriber devices
    • H04M2250/64Details of telephonic subscriber devices file transfer between terminals

Abstract

제스처 기반 통신 서비스를 수행하는 방법 및 장치가 제공된다.
제1 기기는 제1 모션을 감지하고, 제1 모션이 미리 설정된 제스처 그룹에 속하는 제1 제스처에 대응하면, 제1 기기의 주변에 위치한 제2 기기로부터 제2 모션에 대한 정보를 수신할 수 있다. 제1 기기는 수신된 정보가 미리 설정된 제스처 그룹에 속하는 제2 제스처에 대응하면, 제1 제스처 및 제2 제스처의 조합에 대응하는 이벤트를 수행할 수 있다.

Description

제스처 기반 통신 서비스 수행 방법 및 장치{Method And Apparatus For Performing Communication Service Based On Gesture}
본 발명은 통신 서비스를 수행하는 방법 및 장치에 관한 것으로, 더욱 상세하게는 제스처를 기반으로 기기들간 통신 서비스를 수행하는 방법 및 장치에 관한 것이다.
사용자 인터페이스(user interface)는 사용자와 사물, 시스템, 장치, 또는 프로그램 등 사이의 의사소통이 가능하도록 일시적 또는 지속적인 접근을 제공하는 기술이다.
사용자가 전자 장치를 용이하게 조작할 수 있도록 개선하는 사용자 인터페이스가 연구되고 있다. 개선된 사용자 인터페이스를 통해 사용자는 전자 장치에 쉽게 입력하거나, 출력물을 신속하게 인지할 수 있다.
휴대용 전자 장치에 대한 사용자 인터페이스는 사용자가 휴대용 전자 장치를 그립한 상태에서 해당 장치를 조작하는 환경을 고려하여 설계된다. 휴대용 전자 장치에 대한 사용자의 조작시 그립된 상태가 안정하게 유지되도록, 전자 장치에서는 터치 입력, 버튼 입력과 같이 주로 정적인 입력이 사용된다. 예를 들어, 휴대용 전자 장치에 대한 사용자 입력을 위해 휴대용 전자 장치에는 터치 스크린이 구비되고, 손가락 또는 스타일러스 펜과 같은 입력 유닛이 휴대용 전자 장치와 함께 사용될 수 있다.
최근에는 기기 또는 사용자의 움직임을 감지하여, 전자 장치를 제어하는데 활용하는 사용자 인터랙션이 소개되고 있다. 이에 따라, 기기 또는 사용자의 다양한 움직임을 감지하여 사용자 인터페이스로 활용하고, 보다 직관적이고 편리한 사용자 경험을 제공하는 방안에 대한 연구가 필요하다.
본 발명의 일 면에 따른 목적은 통신 서비스를 수행함에 있어서, 제스처를 기반으로 편리하게 기기들간 데이터 송수신이 가능한 통신 서비스 수행 방법 및 장치를 제공하는데 있다.
또한, 본 발명의 타의 면에 따른 목적은 통신 서비스를 수행함에 있어서, 통신 서비스에 활용 가능한 다양한 제스처를 인식하는 통신 서비스 수행 방법 및 장치를 제공하는데 있다.
또한, 본 발명의 또 다른 타의 면에 따른 목적은 통신 서비스를 제공함에 있어서, 제스처를 이용하여 사용자의 의도에 따라 기기들간 이벤트가 발생하는 통신 서비스 수행 방법 및 장치를 제공하는데 있다.
본 발명의 일 면에 따르면, 제1 기기에서 제2 기기와 통신 서비스를 수행하는 방법은, 제1 모션을 감지하는 단계; 상기 제1 모션이 미리 설정된 제스처 그룹에 속하는 제1 제스처에 대응하면, 상기 제1 기기의 주변에 위치한 제2 기기로부터 제2 모션에 대한 정보를 수신하는 단계; 및 상기 수신된 정보가 상기 미리 설정된 제스처 그룹에 속하는 제2 제스처에 대응하면, 상기 제1 제스처 및 상기 제2 제스처의 조합에 대응하는 이벤트를 수행하는 단계를 포함한다.
일 면에 따르면, 상기 제1 모션은 상기 제1 기기의 제1 사용자 신체 일부의 제1 형상 정보, 상기 제1 기기에 대한 제1 가속도 정보 및 상기 제1 기기의 움직임 방향을 나타내는 제1 방향 정보 중 적어도 하나를 포함하고, 상기 제2 모션은 상기 제2 기기의 제2 사용자 신체 일부의 제2 형상 정보, 상기 제2 기기에 대한 제2 가속도 정보 및 상기 제2 기기의 움직임 방향을 나타내는 제2 방향 정보 중 적어도 하나를 포함할 수 있다.
일 면에 따르면, 상기 제1 형상 정보 및 상기 제2 형상 정보 각각은 상기 제1 기기 및 제2 기기 각각에서 광학 센서 및 근전도(electromyogram) 센서 중 적어도 하나를 통해 감지될 수 있다.
일 면에 따르면, 상기 제1 모션을 감지하는 단계는 상기 제1 기기의 제1 사용자 신체 일부의 제1 형상 정보, 상기 제1 기기에 대한 제1 가속도 정보 및 상기 제1 기기의 움직임 방향을 나타내는 제1 방향 정보 중 적어도 하나를 감지하는 단계일 수 있다.
일 면에 따르면, 상기 제1 기기 및 상기 제2 기기는 밴드 형태, 손목 시계 형태 및 팔찌 형태 중 적어도 하나의 형태를 가질 수 있다.
일 면에 따르면, 상기 이벤트를 수행하는 단계는 상기 수신된 정보가 상기 제2 제스처에 대응하고, 상기 제1 제스처에 대응하는 상기 제1 모션의 감지 시점 및 상기 제2 제스처에 대응하는 상기 제2 모션의 감지 시점간의 차가 미리 설정된 시간보다 작으면, 상기 이벤트를 수행하는 것일 수 있다.
일 면에 따르면, 상기 제2 모션에 대한 정보를 수신하는 단계는 서비스 세트 식별자(Service Set Identifier, 이하 ‘SSID’)를 검색하는 단계; 및 상기 SSID가 검색되지 않으면, 상기 SSID를 브로드캐스트하는 단계를 포함할 수 있다.
일 면에 따르면, 상기 제1 제스처 및 상기 제2 제스처의 조합은 상기 제1 제스처 및 상기 제2 제스처가 실질적으로 동일한 것을 포함할 수 있다.
일 면에 따르면, 상기 제1 제스처 및 상기 제2 제스처의 조합은 상기 제1 제스처 및 상기 제2 제스처의 궤적 형상이 실질적으로 동일하고, 움직임의 방향이 서로 반대 방향인 것을 포함할 수 있다.
일 면에 따르면, 상기 제1 모션을 감지하기 이전에, 상기 미리 설정된 제스처 그룹에 속하는 상기 제1 제스처 및 상기 제2 제스처를 포함하는 복수의 제스처들에 대한 적어도 하나의 조합을 메모리에 유지하는 단계를 더 포함할 수 있다.
일 면에 따르면, 상기 적어도 하나의 조합 각각은 서로 다른 적어도 둘의 기기들에서 발생되는 종속 제스처들로 구성되고, 상기 종속 제스처들이 함께 발생되는 경우 상응하는 이벤트가 수행되도록 하는 것일 수 있다.
일 면에 따르면, 하나의 기기에서 발생되고, 상기 하나의 기기의 사용자 인터페이스에 대한 입력 이벤트에 대응하는 적어도 하나의 독립 제스처를 상기 적어도 하나의 조합과 별도로 상기 메모리에 더 유지하는 단계를 더 포함할 수 있다.
본 발명의 일 면에 따르면, 제2 기기와 통신 서비스를 수행하는 제1 기기는, 제1 모션을 감지하는 센서부; 상기 제1 모션이 미리 설정된 제스처 그룹에 속하는 제1 제스처에 대응하면, 상기 제1 기기의 주변에 위치한 제2 기기로부터 제2 모션에 대한 정보를 수신하는 통신부; 및 상기 수신된 정보가 상기 미리 설정된 제스처 그룹에 속하는 제2 제스처에 대응하면, 상기 제1 제스처 및 상기 제2 제스처의 조합에 대응하는 이벤트가 수행되도록 제어하는 제어부;를 포함한다.
일 면에 따르면, 상기 제1 모션은 상기 제1 기기의 제1 사용자 신체 일부의 제1 형상 정보, 상기 제1 기기에 대한 제1 가속도 정보 및 상기 제1 기기의 움직임 방향을 나타내는 제1 방향 정보 중 적어도 하나를 포함하고, 상기 제2 모션은 상기 제2 기기의 제2 사용자 신체 일부의 제2 형상 정보, 상기 제2 기기에 대한 제2 가속도 정보 및 상기 제2 기기의 움직임 방향을 나타내는 제2 방향 정보 중 적어도 하나를 포함할 수 있다.
일 면에 따르면, 상기 센서부는 광학 센서 및 근전도 센서 중 적어도 하나를 포함하고, 상기 제1 형상 정보 및 상기 제2 형상 정보 각각은 상기 제1 기기 및 제2 기기 각각에서 상기 광학 센서 및 상기 근전도 센서 중 적어도 하나를 통해 감지될 수 있다.
일 면에 따르면, 상기 센서부는 상기 제1 기기의 제1 사용자 신체 일부의 제1 형상 정보, 상기 제1 기기에 대한 제1 가속도 정보 및 상기 제1 기기의 움직임 방향을 나타내는 제1 방향 정보 중 적어도 하나를 감지함으로써 상기 제1 모션을 감지할 수 있다.
일 면에 따르면, 상기 제1 기기 및 상기 제2 기기는 밴드 형태, 손목 시계 형태 및 팔찌 형태 중 적어도 하나의 형태를 가질 수 있다.
일 면에 따르면, 상기 제어부는 상기 수신된 정보가 상기 제2 제스처에 대응하고, 상기 제1 제스처에 대응하는 상기 제1 모션의 감지 시점 및 상기 제2 제스처에 대응하는 상기 제2 모션의 감지 시점간의 차가 미리 설정된 시간보다 작으면, 상기 이벤트가 수행되도록 제어할 수 있다.
일 면에 따르면, 상기 통신부는 상기 제2 모션에 대한 정보를 수신하기 이전에, 서비스 세트 식별자(Service Set Identifier, 이하 ‘SSID’)를 검색하고, 상기 SSID가 검색되지 않으면 상기 SSID를 브로드캐스트할 수 있다.
일 면에 따르면, 상기 제1 제스처 및 상기 제2 제스처의 조합은 상기 제1 제스처 및 상기 제2 제스처가 실질적으로 동일한 것을 포함할 수 있다.
일 면에 따르면, 상기 제1 제스처 및 상기 제2 제스처의 조합은 상기 제1 제스처 및 상기 제2 제스처의 궤적 형상이 실질적으로 동일하고, 움직임의 방향이 서로 반대 방향인 것을 포함할 수 있다.
일 면에 따르면, 상기 제1 모션을 감지하기 이전에, 상기 미리 설정된 제스처 그룹에 속하는 상기 제1 제스처 및 상기 제2 제스처를 포함하는 복수의 제스처들에 대한 적어도 하나의 조합을 유지하는 메모리를 더 포함할 수 있다.
일 면에 따르면, 상기 적어도 하나의 조합 각각은 서로 다른 적어도 둘의 기기들에서 발생되는 종속 제스처들로 구성되고, 상기 종속 제스처들이 함께 발생되는 경우 상응하는 이벤트가 수행되도록 하는 것일 수 있다.
일 면에 따르며, 상기 메모리는 하나의 기기에서 발생되고, 상기 하나의 기기의 사용자 인터페이스에 대한 입력 이벤트에 대응하는 적어도 하나의 독립 제스처를 상기 적어도 하나의 조합과 별도로 더 유지할 수 있다.
본 발명의 일 면에 따르면, 제2 기기에서 제1 기기와 통신 서비스를 수행하는 방법은, 제2 모션을 감지하는 단계; 상기 제2 모션이 미리 설정된 제스처 그룹에 속하는 제2 제스처에 대응하면, 상기 제2 기기의 주변에 위치한 제1 기기로 상기 제2 모션에 대한 정보를 전송하는 단계; 및 상기 제2 모션의 감지 시점 전 또는 후로부터 미리 설정된 시간이내에 상기 제1 기기에서 상기 미리 설정된 제스처 그룹에 속하는 제1 제스처에 대응하는 제1 모션이 감지되면, 상기 제1 제스처 및 상기 제2 제스처의 조합에 대응하는 이벤트를 수행하는 단계를 포함한다.
본 발명의 일 면에 따르면, 제1 기기와 통신 서비스를 수행하는 제2 기기는, 제2 모션을 감지하는 센서부; 상기 제2 모션이 미리 설정된 제스처 그룹에 속하는 제2 제스처에 대응하면, 상기 제2 기기의 주변에 위치한 제1 기기로 상기 제2 모션에 대한 정보를 전송하는 통신부; 및 상기 제2 모션의 감지 시점 전 또는 후로부터 미리 설정된 시간이내에 상기 제1 기기에서 상기 미리 설정된 제스처 그룹에 속하는 제1 제스처에 대응하는 제1 모션이 감지되면, 상기 제1 제스처 및 상기 제2 제스처의 조합에 대응하는 이벤트가 수행되도록 제어하는 제어부;를 포함한다.
본 발명의 타의 면에 따르면, 제1 기기에서 제2 기기와 통신 서비스를 수행하는 방법은, 순차적인 이벤트들에 대응하는 복수의 제스처들을 포함하는 미리 설정된 제스처 그룹을 저장하는 단계; 모션을 감지하는 단계; 상기 감지된 모션으로부터 상기 복수의 제스처들 중에서 제1 이벤트에 대응하는 제1 제스처가 식별되면, 상기 제1 이벤트로서 상기 제1 기기의 주변에 위치한 상기 제2 기기로 요청 정보를 전송하는 단계; 및 상기 복수의 제스처들 중에서 상기 제1 이벤트에 뒤따르는 제2 이벤트에 대응하는 제2 제스처가 상기 제2 기기에서 발생되면, 상기 제2 이벤트로서 상기 제2 기기로부터 전송되는 응답 정보를 수신하는 단계를 포함한다.
본 발명의 타의 면에 따르면, 제2 기기와 통신 서비스를 수행하는 제1 기기는, 순차적인 이벤트들에 대응하는 복수의 제스처들을 포함하는 미리 설정된 제스처 그룹을 저장하는 메모리; 모션을 감지하는 센서부; 상기 감지된 모션으로부터 상기 복수의 제스처들 중에서 제1 이벤트에 대응하는 제1 제스처가 식별되면, 상기 제1 이벤트로서 상기 제1 기기의 주변에 위치한 상기 제2 기기로 요청 정보가 전송되도록 제어하는 제어부; 및 상기 복수의 제스처들 중에서 상기 제1 이벤트에 뒤따르는 제2 이벤트에 대응하는 제2 제스처가 상기 제2 기기에서 발생되면, 상기 제2 이벤트로서 상기 제2 기기로부터 전송되는 응답 정보를 수신하는 통신부;를 포함한다.
서로 다른 복수의 기기들에서 발생된 제스처들의 조합에 대응하여 이벤트가 수행됨으로써, 사용자에게 제스처를 기반으로 편리한 통신 서비스를 제공하는 효과를 갖는다.
또한, 기기에 대한 가속도 정보, 움직임 방향 및 사용자 신체 일부의 형상 정보 중 적어도 하나를 이용하여 다양한 제스처가 식별됨으로써, 사용자에게 섬세한 기기 조작 환경 및 흥미로운 사용자 경험을 제공하는 효과를 갖는다.
또한, 제스처들의 조합 또는 발생 순서에 따라 기기들간 이벤트가 발생됨으로써, 사용자의 의도에 따라 직관적으로 통신 서비스가 제공될 수 있는 효과를 갖는다.
도 1A, 도 1A 및 도 1C는 본 발명의 일 면에 따른 통신 서비스를 수행하는 기기의 외형을 나타내는 예시도이고;
도 2는 본 발명의 일 면에 따른 통신 서비스를 수행하는 기기의 외형을 나타내는 다른 예시도이고;
도 3A 및 도 3B는 본 발명의 일 면에 따른 기기들간 통신 서비스를 수행하는 개념을 나타내는 예시도이고;
도 4는 본 발명의 일 면에 따른 통신 서비스를 수행하는 기기를 나타내는 예시도이고;
도 5A 및 도 5B는 본 발명의 일 면에 따른 통신 서비스를 수행하는 기기에서 광학 센서를 설명하기 위한 예시도이고;
도 6A 및 도 6B는 본 발명에서 일 면에 따른 통신 서비스를 수행하는 기기에서 근전도 센서를 설명하기 위한 예시도이고;
도 7은 본 발명에서 일 면에 따른 근전도 센서를 나타내는 예시도이고;
도 8A 및 도 8B는 본 발명에서 일 면에 따른 근전도 센서를 통해 검출되는 근전도 신호를 나타내는 예시도이고;
도 9는 본 발명의 일 면에 따른 통신 서비스를 수행하는 기기를 나타내는 다른 예시도이고;
도 10은 본 발명의 일 면에 따른 제1 기기에서 통신 서비스를 수행하는 방법을 나타내는 순서도이고;
도 11은 본 발명의 일 면에 따른 제2 기기에서 통신 서비스를 수행하는 방법을 나타내는 순서도이고;
도 12는 본 발명의 일 면에 따른 제1 기기 및 제2 기기간 통신 서비스를 수행하는 절차를 나타내는 예시도이고;
도 13은 본 발명의 일 면에 따른 제1 기기 및 제2 기기간 통신 서비스를 수행하는 절차를 나타내는 다른 예시도이고;
도 14는 본 발명의 타의 면에 따른 제1 기기에서 통신 서비스를 수행하는 방법을 나타내는 순서도이고;
도 15는 본 발명의 타의 면에 따른 제2 기기에서 통신 서비스를 수행하는 방법을 나타내는 순서도이고;
도 16은 본 발명의 타의 면에 따른 제1 기기 및 제2 기기간 통신 서비스를 수행하는 절차를 나타내는 예시도이고;
도 17은 본 발명의 타의 면에 따른 제1 기기 및 제2 기기간 통신 서비스를 수행하는 절차를 나타내는 다른 예시도이고;
도 18A 및 도 18B는 본 발명의 일 면에 따른 제스처를 나타내는 예시도이고;
도 19는 본 발명의 일 면에 따른 제스처를 나타내는 다른 예시도이고;
도 20은 본 발명의 일 면에 따른 통신 서비스를 수행하는 기기에서 비주얼 피드백을 나타내는 예시도이고;
도 21은 본 발명의 일 면에 따른 제스처 및 비주얼 피드백을 나타내는 예시도이고;
도 22A 및 도 22B는 본 발명의 일 면에 따른 제스처를 나타내는 또 다른 예시도이고;
도 23은 본 발명의 일 면에 따른 제스처를 나타내는 또 다른 예시도이고;
도 24는 본 발명의 일 면에 따른 제스처를 나타내는 또 다른 예시도이고;
도 25는 본 발명의 일 면에 따른 제스처를 나타내는 또 다른 예시도이고;
도 26은 본 발명의 일 면에 따른 제스처를 나타내는 또 다른 예시도이고;
도 27은 본 발명의 타의 면에 따른 제스처를 나타내는 예시도이고;
도 28은 본 발명의 일 면에 따른 다양한 제스처를 이용한 서비스를 나타내는 예시도이다.
이하, 본 발명을 제조하고 사용하는 방법이 상세하게 설명된다. 본 명세서에 기재된 "...부", "모듈" 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 이는 하드웨어 또는 소프트웨어로 구현되거나 하드웨어와 소프트웨어의 결합으로 구현될 수 있다.
본 발명의 일 실시예에 따른 통신 서비스를 수행하는 기기는 휴대 단말일 수 있다. 예를 들어, 휴대 단말에는 휴대폰, 스마트 폰(smart phone), 노트북 컴퓨터(laptop computer), 태블릿 PC, 전자북(e-book) 단말기, 디지털방송용 단말기, PDA(Personal Digital Assistants), PMP(Portable Multimedia Player), 네비게이션, 웨어러블 PC, 손목 시계폰(Wrist-Watch Phone) 등이 있을 수 있으나, 이에 한정되는 것은 아니다.
아래에서는 첨부한 도면을 참고하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 본 발명의 일 실시예에 대하여 상세히 설명된다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략되었으며, 명세서 전체를 통하여 유사하거나 동일한 부분에 대해서는 동일한 도면 부호가 붙여졌다.
도 1 내지 도 3을 참조하여 본 발명의 일 면에 따른 기기에 대한 개념 및 기기들간 통신 서비스에 대해 설명된다.
본 발명의 일 면에 따른 통신 서비스를 수행하는 시스템은 적어도 둘의 기기들을 포함한다. 예를 들어, 적어도 둘의 기기들은 제1 기기(100) 및 제2 기기(200)를 포함할 수 있다. 제1 기기(100) 및 제2 기기(200)는 모션을 획득하고, 획득된 모션으로부터 제스처를 식별할 수 있다. 여기서, 모션을 획득하는 것은 사용자의 적어도 일부의 신체 또는 기기의 움직임 또는 자세에 대한 정보를 획득하는 것일 수 있다. 움직임 또는 자세에 대한 정보는 해당 기기의 센서부에서 검출되는 정보이거나, 액세서리와 같은 외부 기기로부터 수신된 정보일 수 있다.
본 발명의 일 면에 따른 제스처는 사용자의 적어도 일부의 신체 또는 기기의 모션(motion) 또는 자세(posture)에 대한 패턴일 수 있다. 또한, 제스처는 기기에 대한 입력으로 사용하기 위한 미리 설정된 모션 또는 미리 설정된 자세일 수 있다. 예를 들어, 제스처는 사용자의 손가락, 손, 팔, 발가락, 발, 머리, 목 또는 허리 등의 모션 또는 자세를 포함할 수 있다. 또한, 제스처는 사용자의 모션 또는 자세로 인해 기기의 센서부에서 감지되는 해당 기기에 대한 모션 또는 자세(또는 방향)를 포함할 수 있다.
본 발명의 일 면에 따른 제스처는 적어도 하나의 독립 제스처 및 복수의 종속 제스처들을 포함할 수 있다. 기기는 미리 설정된 제스처 그룹에 속하는 복수의 종속 제스처들에 대한 적어도 하나의 조합을 메모리에 유지할 수 있다. 또한, 적어도 둘의 종속 제스처들로 구성된 각 조합은 통신 서비스와 관련된 미리 설정된 이벤트에 대응되는 것일 수 있다.
적어도 하나의 독립 제스처는 하나의 기기에서 발생되어, 상기 하나의 기기의 사용자 인터페이스에 대한 입력 이벤트에 대응하는 것일 수 있다. 독립 제스처는 외부의 기기 또는 인접한 기기의 동작과는 무관하게 해당 제스처가 발생된 기기에서의 사용자 인터페이스와 관련된 것일 수 있다. 예를 들어, 독립 제스처는 특정 기기의 디스플레이 스크린에 표시되는 메뉴에 대한 네비게이션이나, 아이템에 대한 선택 또는 실행 등의 사용자 인터페이스에 대응하는 제스처일 수 있다.
복수의 종속 제스처들은 서로 다른 적어도 둘의 기기들에서 함께 발생됨으로써 통신 서비스와 관련된 이벤트가 수행되도록 하는 제스처일 수 있다. 제스처들이 함께 발생된다는 것은, 서로 다른 기기들에서 실질적으로 동시에 제스처들이 발생되는 것과, 시간에 따라 순차적으로 서로 다른 기기들에서 번갈아 제스처가 발생되는 것을 포함할 수 있다. 또한, 제스처가 함께 발생된다는 것은, 이벤트가 발생되기 위해서 선행하는 제스처에 따라 후행하는 제스처가 제한되는 방식으로, 상대 기기의 제스처(또는 이벤트)에 반응하여 순차적으로 제스처가 발생되는 것을 포함할 수 있다.
예를 들어, 제1 제스처가 제1 기기(100)에서 제1 시점에 발생되고, 제2 제스처가 제2 기기(200)에서 제2 시점에 발생되고, 제1 제스처 및 제2 제스처가 미리 설정된 종속 제스처일 수 있다. 여기서, 제1 시점 및 제2 시점간의 차 또는 제1 제스처에 해당하는 제1 모션의 감지 시점과 제2 제스처에 해당하는 제2 모션의 감지 시점간의 차가 미리 설정된 시간보다 작은 경우, 제1 기기(100)에 지정된 컨텐츠가 제2 기기(200)로 전송되거나, 제2 기기(200)에 지정된 컨텐츠가 제1 기기(100)로 전송되는 통신 서비스가 수행될 수 있다. 여기서, 두 제스처들의 발생 시점들, 또는 두 제스처들에 해당하는 모션들의 감지 시점들간의 차가 미리 설정된 시간(일례로, 500msec)보다 작으면, 실질적으로 동시에 종속 제스처가 발생된 것으로 판단될 수 있다.
적어도 둘의 종속 제스처들의 조합은 통신 서비스와 관련된 미리 설정된 이벤트에 대응되는 것일 수 있다. 제1 기기(100) 및 제2 기기(200) 각각은 적어도 하나의 조합을 메모리에 유지할 수 있다. 또한, 메모리에는 각 조합에 대응하는 이벤트가 저장될 수 있다.
제스처 또는 제스처들의 조합에 대해서는 다양한 실시예들을 통해 보다 상세한 설명된다.
이하 설명에서는 사용자의 손가락, 손 또는 팔의 모션(또는 자세), 또는 그러한 사용자의 모션(또는 자세)에 따른 기기의 모션(또는 자세)을 감지하여 통신 서비스가 수행되는 것이 주로 예시된다. 하지만, 이에 한정되지 않고 다양한 신체의 움직임 또는 제스처가 정의되어 기기에서 사용될 수도 있다.
또한, 이하 설명에서, 사용자의 손가락, 손 또는 팔의 다양한 모션(또는 자세)을 감지할 수 있는 휴대용 단말, 예를 들어, 뱅글 타입의 웨어러블(wearable) 기기가 예시된다.
또한, 기기가 웨어러블 형태가 아닌 경우, 예를 들어, 스마트 폰 또는 태블릿 PC와 같은 휴대용 단말에서는 비록 웨어러블 기기보다 한정된 제스처가 사용될 수 있으나, 사용자에의해 파지된 기기에 대한 모션(또는 자세)이 감지되고, 감지된 모션으로부터 제스처가 식별될 수 있음에 유의해야 한다.
또한, 본 발명의 일 면에 따른 기기는 착용하거나 파지하여 움직이기 적합한지 여부와 상관없이, 다양한 형태의 휴대 단말을 포함할 수도 있다. 예를 들어, 기기는 웨어러블 액세서리로부터 모션(또는 자세)에 대한 정보를 수신함으로써, 모션을 획득할 수 있다.
도 1A, 도 1A 및 도 1C는 본 발명의 일 면에 따른 통신 서비스를 수행하는 기기의 외형을 나타내는 예시도이다.
통신 서비스를 수행하는 기기의 일례로서 제1 기기(100)가 설명된다. 또한, 제2 기기(200)는 제1 기기(100)와 동일하거나 유사한 형태의 휴대 단말일 수 있다. 예를 들어, 제1 기기(100)의 외형은 도 1A에 도시된 밴드 형태, 도 1C에 도시된 손목 시계 형태 또는 도 1B에 도시된 팔찌 형태 등을 가질 수 있다. 제1 기기(100)에는 디스플레이 스크린(156)이 포함될 수 있다. 디스플레이 스크린(156)은 제1 기기(100)의 디스플레이 모듈에 포함된 디스플레이 패널에서 정보 또는 데이터가 표시되는 면일 수 있다. 도 1A에 도시된 바와 같이, 제1 기기(100)의 디스플레이 모듈은 디스플레이 스크린(156)이 휘어진 형태를 갖는 플렉서블 디스플레이일 수 있다. 또한, 도 1C에 예시된 제1 기기(100)는 평면형의 디스플레이 스크린(156)을 가질 수도 있다. 또한, 도 1B에 도시된 제1 기기(100)는 작은 디스플레이 스크린(156)을 가질 수도 있으며, 디스플레이 스크린(156)에는 텍스트 형태의 메시지 및 주요 알림 정보 등이 표시될 수 있다.
또한, 제1 기기(100)에서 디스플레이 스크린(156)이 생략될 수도 있다. 예를 들어, 제1 기기(100)에서 디스플레이 스크린(156)이 생략되는 경우, 제1 기기(100)에는 음성 인식 및 청각적 피드백 등을 이용하여 사용자 인터페이스가 제공될 수 있다.
또한, 제1 기기(100)는 자립형(stand alone) 기기이거나, 비자립형 기기일 수도 있다.
도 2는 본 발명의 일 면에 따른 통신 서비스를 수행하는 기기의 외형을 나타내는 다른 예시도이다.
제1 기기(100)는 스마트 폰 또는 태블릿 PC와 같은 휴대용 단말일 수 있다. 제1 액세서리(180)는 도 1A 내지 도 1C에 도시된 제1 기기(100)의 형태와 유사한 웨어러블 기기일 수 있다. 제1 기기(100)와 제1 액세서리(180)는 각각에 구비된 와이파이(WiFi), 와이파이 다이렉트(WiFi-Direct), 블루투스(Bluetooth) 등의 근거리 통신 모듈 중 적어도 하나를 이용하여 통신 연결될 수 있다. 제1 액세서리(180)는 사용자의 움직임(또는 자세)에 따른 제1 모션을 감지할 수 있다. 제1 액세서리(180)는 제1 모션에 대한 정보를 제1 기기(100)로 전송할 수 있다. 제1 기기(100)는 제1 액세서리(180)로부터 획득된 제1 모션으로부터 미리 설정된 제스처를 식별할 수 있다.
제1 기기(100)는 식별된 제스처가 독립 제스처이면, 식별된 제스처에 대응하는 제1 기기(100)의 사용자 인터페이스의 제어 이벤트 또는 입력 이벤트가 처리되도록 제어할 수 있다.
또한, 제1 기기(100)는 식별된 제스처가 미리 설정된 제스처 그룹에 속하는 종속 제스처이면, 식별된 제스처를 기반으로 인접한 기기와 통신 서비스를 수행할 수 있다. 또한, 제1 기기(100)는 통신 서비스의 수행에 따른 결과의 피드백 정보 또는 사용자 입력 요청에 대한 정보를 제1 액세서리(180)로 전송할 수 있다. 또한, 제1 액세서리(180)는 수신된 정보를 제1 액세서리(180)에 구비된 디스플레이 스크린, 스피커 또는 액츄에이터 등을 이용하여, 사용자에게 시각적, 청각적, 또는 촉각적 피드백을 제공할 수 있다.
도 3A 및 도 3B는 본 발명의 일 면에 따른 기기들간 통신 서비스를 수행하는 개념을 나타내는 예시도이다.
도 3A를 참조하면, 제1 사용자(190)의 손목에 제1 기기(100)가 착용되고, 제2 사용자(290)의 손목에 제2 기기(200)가 착용될 수 있다. 제1 기기(100) 및 제2 기기(200)는 서로 와이파이 다이렉트 방식으로 통신 링크가 형성될 수 있다고 가정한다. 제1 기기(100) 및 제2 기기(200)에는 미리 설정된 제스처 그룹에 속하는 제스처들이 저장될 수 있다. 제1 사용자(190) 및 제2 사용자(290)가 서로 악수하는 움직임을 통해, 제1 기기(100)에서 제1 모션이 감지되고, 제2 기기(200)에서 제2 모션이 실질적으로 동시에 검출될 수 있다. 제1 모션이 미리 설정된 제스처 그룹에 속하는 제1 제스처에 대응하면, 제1 기기(100)는 주변 기기와 통신 링크를 형성하기 위해 무선상에서 서비스 세트 식별자(Service Set Identifier, 이하 ‘SSID’)를 검색할 수 있다. 또한, 제2 모션이 미리 설정된 제스처 그룹에 속하는 제2 제스처에 대응하면, 제2 기기(200)는 무선상에서 SSID를 검색할 수 있다.
여기서, SSID로는 인터넷 공유기와 같은 일반적인 식별자 패턴과 달리, 미리 설정된 패턴 또는 미리 설정된 시퀀스가 사용되거나, 미리 설정된 값이 포함 또는 결합되어 사용될 수 있다. 별도의 SSID가 사용되면, SSID를 수신하는 기기는 기기간 연결이 요청되는 상황 또는 본 발명의 일 면에 따른 통신 서비스를 위한 준비 절차가 요구됨을 파악할 수 있다.
또한, SSID를 애드버타이징하는 기기가 통상적인 SSID를 사용하고, SSID를 포함하는 애드버타이징 패킷의 헤더 또는 페이로드를 이용하여, 발생된 제스처에 대응하는 통신 서비스의 식별자 또는 요구되는 통신 절차 등의 이벤트에 대한 정보를 주변 기기에게 알릴 수도 있다.
주변에서 SSID가 검색되지 않으면, 해당 기기는 임의로 마스터가 되어 액세스 포인트의 역할로서 SSID를 애드버타이징하고, SSID를 수신하는 주변에 위치한 기기는 슬레이브가 되어 통신 연결 절차를 수행할 수 있다. 이때, 마스터로 동작하려는 기기는 SSID를 애드버타이징하는 시점을 랜덤 백오프로 결정하고, SSID를 애드버타이징하기 직전까지 SSID를 검색함으로써, 주변의 기기들간 서로 SSID를 애드버타이징하여 충돌하는 것을 방지할 수도 있다. 여기서는, 제1 기기(100)가 와이파이 다이렉트 방식의 마스터로 동작함을 가정한다.
제1 기기(100)가 마스터로, 제2 기기(200)가 슬레이브로 통신 연결 절차를 수행하여 통신 링크가 형성될 수 있다. 또한, 제1 모션 및 제2 모션이 감지되기 이전에 제1 기기(100) 및 제2 기기(200)간 통신 링크가 이미 형성되어 있는 경우, 상술된 SSID를 전송하는 동작을 포함하는 통신 연결 절차가 생략될 수도 있다.
통신 링크를 통해 제2 기기(200)는 제1 기기(100)로 제2 모션에 대한 정보를 전송할 수 있다. 제2 모션에 대한 정보는 제2 모션을 나타내는 제2 기기(100)의 센서부에서 검출된 데이터, 또는 제2 모션에 대응하는 제2 제스처를 나타내는 것일 수 있다. 또한, 제2 모션에 대한 정보는 제2 모션의 감지 시점 또는 제2 제스처의 발생 시점에 대한 정보를 포함할 수 있다.
제2 모션에 대한 정보를 수신한 제1 기기(100)는 통신 서비스를 수행하기 위한 조건으로서 제2 모션이 미리 설정된 제스처 그룹에 속하는 제2 제스처에 대응하는지 판단할 수 있다. 또한, 제1 기기(100)는 상기 조건으로서 제1 모션의 감지 시점 및 제2 모션의 감지 시점간의 차가 미리 설정된 시간보다 작은지를 더 판단할 수 있다. 상기 조건이 만족되면, 제1 기기(100)는 제2 기기(200)로 조건 만족 응답 메시지를 전송할 수 있다.
또한, 제1 기기(100) 및 제2 기기(200)는 제1 제스처 및 제2 제스처의 조합에 대응하는 이벤트를 수행할 수 있다. 예를 들어, 이벤트는 기기들 각각에 지정된 데이터들을 서로 교환하는 것일 수 있으며, 제1 기기(100)의 디스플레이 스크린(156)에는 제2 기기(200)로부터 수신된 제2 사용자(290)의 명함 정보가 표시될 수 있다. 또한, 제2 기기(200)의 디스플레이 스크린(미도시)에는 제1 기기(100)로부터 수신된 제1 사용자(190)의 명함 정보가 표시될 수 있다.
도 3B를 참조하면, 제1 사용자(190)가 사용하는 제1 기기(100), 제2 사용자(290)가 사용하는 제2 기기(200) 및 제3 사용자(291)가 사용하는 제3 기기(201)가 있다. 기기들 각각은 가위, 바위, 보를 포함하는 미리 설정된 제스처 그룹을 저장할 수 있다. 도 3A를 참조하여 설명된 바와 같이, 하나의 기기가 임의로 마스터로 동작하여 SSID를 애드버타이징하고, 마스터 기기의 주변에 위치한 다른 기기들이 슬레이브로서 SSID를 수신함으로써, 기기들간 통신 연결 절차가 수행될 수 있다. 마스터 기기는 통신 연결된 슬레이브 기기들로부터 모션에 대한 정보들을 수신할 수 있다. 마스터 기기는 모션이 미리 설정된 제스처 그룹에 속하는 제스처에 대응하는 경우, 제스처들의 조합에 대응하는 이벤트가 수행되도록 조건 만족 응답 메시지를 슬레이브 기기들로 전송할 수 있다.
예를 들어, 가위 바위 보 게임의 룰에 따라, 도 3B에 도시된 제1 기기(100), 제2 기기(200), 제3 기기(201)는 게임에서 무승부가 되었음을 자동으로 사용자에게 피드백할 수 있다. 또한, 제1 기기(100)에서 가위에 대한 제스처, 제2 기기(200) 및 제3 기기(201)에서 보에 대한 제스처가 발생된 경우, 제1 기기(100)에서 승리에 대한 정보가 표시되고, 제2 기기(200) 및 제3 기기(201)에서 패배에 대한 정보가 피드백될 수 있다.
상술된 예시와 같이, 본 발명의 일 면에 따른 통신 서비스는, 기기간 무선 통신 방식의 통신 링크를 이용하여 지정된 데이터, 제어 정보, 컨텐츠 등을 전송하거나 교환하는 서비스, 적어도 둘의 사용자가 함께 참여하는 교육 서비스, 엔터테인먼트 서비스 또는 소셜 네트워크 서비스 등을 포함할 수 있다.
도 4는 본 발명의 일 면에 따른 통신 서비스를 수행하는 기기를 나타내는 예시도이다.
본 발명의 일 면에 따른 제1 기기(100)는 센서부(110), 통신부(120) 및 제어부(130)를 포함한다. 즉, 제1 기기(100)는 제1 모션을 감지하는 센서부(110), 제1 모션이 미리 설정된 제스처 그룹에 속하는 제1 제스처에 대응하면, 제1 기기(100)의 주변에 위치한 제2 기기(200)로부터 제2 모션에 대한 정보를 수신하는 통신부(120), 및 수신된 정보가 미리 설정된 제스처 그룹에 속하는 제2 제스처에 대응하면, 제1 제스처 및 제2 제스처의 조합에 대응하는 이벤트가 수행되도록 제어하는 제어부(130)를 포함할 수 있다.
또한, 제1 기기(100)는 메모리(140)를 더 포함할 수 있다. 또한, 제1 기기(100)는 사용자 인터페이스부(150) 및 전원 공급부(160)를 더 포함할 수 있다.
본 발명의 타의 면에 따른 제1 기기(100)는 순차적인 이벤트들에 대응하는 복수의 제스처들을 포함하는 미리 설정된 제스처 그룹을 저장하는 메모리(140), 모션을 감지하는 센서부(110), 감지된 모션으로부터 복수의 제스처들 중에서 제1 이벤트에 대응하는 제1 제스처가 식별되면, 제1 이벤트로서 제1 기기(100)의 주변에 위치한 제2 기기(200)로 요청 정보가 전송되도록 제어하는 제어부(130), 및 복수의 제스처들 중에서 제1 이벤트에 뒤따르는 제2 이벤트에 대응하는 제2 제스처가 제2 기기(200)에서 발생되면, 제2 이벤트로서 제2 기기(200)로부터 전송되는 응답 정보를 수신하는 통신부(120)를 포함할 수 있다.
또한, 본 발명의 일 면에 따른 제2 기기(200) 또는 제1 기기(100)와 통신 서비스를 수행하는 상대 기기는 제1 기기(100)와 동일하거나, 유사한 장치적 구성을 가질 수 있다. 제2 기기(200)의 장치 구성도가 별도로 도시되지 않았으나, 제2 기기(200)가 제1 기기(100)와 동일한 형태의 블록도를 갖는다고 가정한다. 이에 따라, 도 4에 도시된 블록을 참조하여, 도 4의 참조 번호의 첫자리를 100에서 200으로 변경하여 제2 기기(200)를 구성하는 블록들이 설명된다. 제2 기기(200)는 센서부(210), 통신부(220) 및 제어부(230)를 포함한다.
예를 들어, 제2 기기(200)는 제2 모션을 감지하는 센서부(210), 제2 모션이 미리 설정된 제스처 그룹에 속하는 제2 제스처에 대응하면, 제2 기기(200)의 주변에 위치한 제1 기기(100)로 제2 모션에 대한 정보를 전송하는 통신부(220), 및 제2 모션의 감지 시점 전 또는 후로부터 미리 설정된 시간이내에 제1 기기에서 미리 설정된 제스처 그룹에 속하는 제1 제스처에 대응하는 제1 모션이 감지되면, 제1 제스처 및 제2 제스처의 조합에 대응하는 이벤트가 수행되도록 제어하는 제어부(230)를 포함할 수 있다. 또한, 제2 기기(200)는 메모리(240), 사용자 인터페이스부(250) 또는 전원 공급부(260)를 더 포함할 수 있다.
이하에서는, 제2 기기(200)를 구성하는 블록에서 제1 기기(100)와 중복되는 기능에 대한 상세한 설명은 생략되고, 제1 기기(100)와 차별된 기능을 수행하는 블록에 대해서 설명된다.
제1 기기(100)의 센서부(110)는 제1 사용자(190) 또는 제1 사용자(190)의 움직임에 따른 제1 기기(100)에 대한 제1 모션을 감지한다. 예를 들어, 감지되는 제1 모션은 제1 사용자(190)의 신체 일부의 제1 형상 정보(일 례로, 손 또는 손가락의 모양), 제1 기기(100)에 대한 제1 가속도 정보, 또는 제1 기기(100)의 움직임 방향을 나타내는 제1 방향 정보일 수 있다.
센서부(100)는 근전도 센서(111), 광학 센서(112), 가속도 센서(113) 또는 자이로 센서(114)를 포함할 수 있다. 또한, 센서부(110)는 고도 센서(115) 또는 마이크(116)를 포함할 수 있다. 제1 형상 정보는 광학 센서(112) 및 근전도 센서(111) 중 적어도 하나를 통해 감지될 수 있다.
도 5A 및 도 5B를 참조하면, 제1 기기(100)에는 적어도 하나의 광학 센서(112)가 장착될 수 있다. 도 5A는 제1 기기(100)가 사용자의 손목에 착용된 것을 나타내고, 도 5B는 제1 기기(100)의 일 측면에 광학 센서(112)가 배치된 것을 나타낸다. 손에 대한 촬영이 용이하도록, 광학 센서(112)의 배치 위치 또는 광을 수신하는 채널의 개수는 제조자의 설계에 따라 변경될 수 있다. 예를 들어, 카메라의 위치가 사용자의 손을 향하도록 제1 기기(100)의 옆 면에 장착될 수 있다.
광학 센서(112)로는 2D 또는 3D 카메라, 깊이 센서로 사용되는 적외선 카메라 등이 사용될 수 있다. 예를 들어, 광학 센서(112)는 제1 기기(100)의 일 측면에 위치하여 시간에 따라 손 또는 손가락을 촬영하여 이미지 데이터를 획득할 수 있다. 제어부(130)는 이미지 데이터로부터 제1 형상 정보를 검출할 수 있다.
또한, 도 6A 및 6B를 참조하면, 센서부(110)는 근전도 센서(electro myogram sensor)(111)를 포함할 수 있다. 근전도 센서(111)는 근육 주위에 부착된 전극을 통해 검출된 극육 활동에 동반된 생체 전기신호를 측정하는 센서일 수 있다. 근전도 센서(111)의 전극들(620)은 제1 사용자(190)의 피부와 가까운 위치에 어레이 형태로 배치될 수 있다. 제조자의 설계에 따라, 전극들(620)은 외부에 노출될 수도 있으며, 근전도 측정의 정확성을 고려하여 근전도 신호 채널 개수 또는 전극들(620)의 개수가 변경될 수 있다. 또한, 근전도에 대한 보다 정확한 측정과 착용감을 고려하여, 제1 기기(100)가 제1 사용자(190)의 신체와 맞닿는 면(610)의 재질, 제1 기기(100)의 하우징 또는 기구 등이 설계될 수 있다. 예를 들어, 손, 손목, 팔 등에 밀착되도록 면(610)의 하부에는 에어 쿠션(air cushion)등의 탄성 소재가 장착될 수도 있다. 또한, 제1 기기(100)의 하우징 또는 기구가 제1 사용자(190)의 신체에 감기도록 설계될 수 있다. 또한, 면(610)에 위치한 전극들(620)이 신체에 밀착되도록 에어 펌프 형태로 하우징 또는 기구가 제작될 수도 있다.
제1 사용자(190)의 손의 형태에 따라 근육(191)이 움직이고, 이에 따라 근전도 센서(111)는 시간에 따른 근전도 세기의 변화를 측정할 수 있다. 제어부(130)는 근전도 세기의 변화에 대한 정보로부터 미리 측정된 데이터 베이스에 기초한 통계적 방식, 머신 러닝 또는 휴리스틱 알고리즘 등을 이용하여 손의 형상을 추정할 수 있다.
도 7을 참조하면, 근전도 센서(111)는 전극부(720), 신호 조절 회로(730), AD 컨버터(Analog to Digital Converter)(740) 또는 통신 회로(750)를 포함할 수 있다. 또한, 근전도 센서(111)는 전극부(720) 또는 신호 조절 회로 등에 전원을 공급하는 전원 회로(710)를 더 포함할 수 있다. 전극부(720)는 측정 전극, 기준 전극, 그라운드 전극 등의 전극들(620)을 포함할 수 있다. 전극에 전원 또는 신호가 인가되면, 측정 전극과 기준 전극 사이에 형성된 전위차가 신호 조절 회로(730)에서 증폭될 수 있다. 신호 조절 회로(730)는 신호로부터 잡음을 제거하기 위한 필터, 증폭기 등을 포함할 수 있다. AD 컨버터(740)는 증폭된 아날로그 신호를 디지털로 변환하고, 통신 회로(750)는 변환된 근전도 신호를 제어부(130)에 전송하거나, 최근 일정 시간 동안에 측정된 근전도 신호가 버퍼링되거나 저장되도록 메모리(140)에 전송할 수 있다.
도 8A 및 도 8B는 본 발명에서 일 면에 따른 근전도 센서를 통해 검출되는 근전도 신호를 나타내는 예시도이다. 도 8A를 참고하면, 시구간(831)에서 근전도 신호(810)는 제1 기기(100)가 사용자의 신체에 착용되지 않은 상태에서 측정된 것이고, 시구간(832)에서 근전도 신호(810)는 제1 기기(100)가 사용자의 신체에 착용된 상태에서 측정된 것을 나타낸다. 보조 신호(840)는 제1 기기(100)가 사용자 신체에 착용되어 정상적으로 근전도 신호(810)가 수신되는지를 나타내는 신호이다. 구현에 따라, 근전도 신호(810)만 검출되고 보조 신호(840)는 생략될 수 있다.
도 8B를 참고하면, (a)에 도시된 근전도 신호(850)는 제1 기기(100)에서 검출된 것이고, (b)에 도시된 근전도 신호(870)는 제2 기기(200)에서 검출된 것일 수 있다. 예를 들어, 도 3A에서 설명된 바와 같이, 메모리(140)는 악수에 대한 제스처를 포함하는 미리 설정된 제스처 그룹을 저장할 수 있다. 제1 사용자(190) 및 제2 사용자(290)가 서로 악수하는 손 모양 또는 움직임에 따라, 제1 기기(100)에서 근전도 신호(850)가 감지되고, 제2 기기(200)에서 근전도 신호(870)가 감지될 수 있다. 제1 기기(100)의 제어부(130)는 JT11부터 JT12까지의 제스처 시간(861) 동안의 근전도 신호(850)로부터 악수에 대한 제1 제스처를 식별할 수 있다.
또한, 제2 기기(200)의 메모리(240)도 악수에 대한 제스처를 포함하는 미리 설정된 제스처 그룹을 저장할 수 있다. 제어부(230)는 센서부(210)에서 감지된 JT21부터 JT22까지의 제스처 시간(861)동안의 근전도 신호(870)로부터 악수에 대한 제2 제스처를 식별할 수 있다.
여기서, WT11부터 WT12까지의 시구간 및 WT21부터 WT22까지의 시구간은 제스처를 식별하기 위해 모션을 관측하거나, 적어도 둘의 기기에서 발생된 제스처에 대응하는 모션을 비교하기 위한 윈도우 크기(862)를 나타낸다. 윈도우 크기(862)는 미리 설정된 제스처에 대응하는 제스처 시간(861) 및 미리 설정된 시간을 고려하여 설정될 수 있다. 미리 설정된 시간은 서로 다른 기기들간 발생된 제스처들의 발생 시점들 또는 제스처들에 대응하는 모션의 감지 시점들간의 차에 대한 기준 크기를 나타낸다.
예를 들어, 제2 기기(200)가 제1 기기(100)로 전송하는 제2 모션에 대한 정보는 WT21부터 WT22까지의 윈도우 크기(862)에 해당하는 근전도 신호(870)에 대한 데이터를 포함할 수 있다. 또한, 제2 모션에 대한 정보로서 제스처 시간(862)에 해당하는 근전도 신호(870)가 전송될 수도 있다. 제스처의 발생 시점 또는 모션의 감지 시점 정보도 함께 전송될 수 있다.
제1 기기(100)에서 발생된 제1 제스처 및 제2 기기(200)에서 발생된 제2 제스처의 조합에 대응하는 이벤트를 수행하기 위한 조건은, 제1 제스처에 대응하는 제1 모션의 감지 시점 및 제2 제스처에 대응하는 제2 모션의 감지 시점간의 차가 미리 설정된 시간보다 작은 것을 포함할 수 있다. 도 8B의 (a)를 참조하면, 제1 모션의 감지 시점은 제스처에 대응하는 모션의 시작 시각(JT11), 끝 시각(JT12) 또는 평균 시각((JT11+JT12)/2) 등으로 지정될 수 있다. 예를 들어, 두 모션들의 감지 시점간의 차는 JT11과 JT21의 시간차(860)일 수 있고, JT11과 JT21의 시간차(860)가 미리 설정된 시간보다 작으면 상기 이벤트를 수행하기 위한 조건이 만족된 것으로 판단될 수 있다. 또한, 사용자들의 악수로 인한 제스처들의 조합에 대응하는 이벤트를 수행하기 위한 조건으로써, 제1 기기(100)의 제어부(130)는 JT11부터 JT12까지의 제스처 시간(861)에 해당하는 근전도 신호(850)와 유사한 패턴의 신호가 제2 기기(200)로부터 수신된 WT21부터 WT22까지의 시구간에서의 근전도 신호(870)에 포함되어 있는지 여부를 판단할 수 있다. 예를 들어, 제어부(130)는 제스처 시간(861) 또는 윈도우 크기(862) 동안의 근전도 신호(850)와 근전도 신호(870)의 상관 관계를 연산하여, 관련도가 일정 설정된 값 이상이면 실질적으로 동일한 제스처로 판단할 수 있다.
또한, 센서부(110)는 가속도 센서(113) 또는 자이로 센서(114)를 포함할 수 있다. 가속도 센서(113) 또는 자이로 센서(114)는 제1 기기(100)에 대한 제1 가속도 정보, 또는 제1 기기(100)의 움직임 방향을 나타내는 제1 방향 정보를 감지할 수 있다.
또한, 센서부(110)는 근전도 센서(111), 광학 센서(112), 가속도 센서(113) 및 자이로 센서(113) 중 적어도 하나를 포함할 수 있다. 또한, 제2 기기(200)의 센서부(210)도 제1 기기(100)의 센서부(110)와 동일하게 기능할 수 있다. 또한, 제2 모션에 대한 정보로서, 형상 정보, 가속도 정보 또는 방향 정보가 각 정보에 대응하는 윈도우 크기만큼 또는 제스처 시간만큼 제2 기기(200)에서 제1 기기(100)로 전송될 수 있다.
또한, 센서부(110)는 압전 센서(미도시) 또는 음파(acoustic wave) 측정 모듈(미도시)을 포함할 수 있다. 압전 센서 또는 음파 측정 모듈은 신체의 움직임, 신체에 대한 두드림(tap) 또는 충격 등을 감지하여, 모션 또는 제스처를 획득할 수 있다.
또한, 센서부(110)는 고도 센서(115)를 포함할 수 있다. 고도 센서(115)는 대기압을 통해 고도를 측정하거나, 복수의 기기들간의 상대적 높낮이를 결정짓는 센서일 수 있다. 이에 따라, 모션에 대한 정보에는 높이 정보가 더 포함될 수도 있다.
또한, 센서부(110)는 음성 또는 음향 등의 음파를 전기 신호로 변환하는 마이크(116)를 포함할 수 있다. 또한, 마이크(116)는 사용자 인터페이스부(150)의 스피커(154)와 함께 음파 통신 모듈(미도시)에 포함되어 음파 통신 신호를 송수신하는데 사용될 수도 있다.
제어부(130)는 제1 모션에 대한 정보로서 제1 형상 정보, 제1 가속도 정보 또는 제1 방향 정보를 센서부(130)에 포함된 적어도 하나의 센서로부터 수신할 수 있다. 제어부(130)는 제1 모션에 대한 정보로부터 제1 모션에 대응하는 제1 제스처를 식별할 수 있다. 제2 기기(200)의 제어부(230)도 제2 모션에 대한 정보를 수신하고, 제2 제스처를 식별하는 기능을 가질 수 있다.
또한, 제2 기기(200)가 제1 기기(100)로 전송하는 제2 모션에 대한 정보는 제2 모션에 대응하는 제2 제스처에 대한 정보일 수 있다. 이 때, 제2 제스처에 대한 정보는 미리 설정된 제스처 그룹에 속하는 제스처들에 대해 부여된 식별자들 중 하나일 수 있다. 예를 들어, 제2 기기(200)의 제어부(230)는 제2 모션으로부터 제2 제스처를 식별하여, 제2 모션에 대한 정보로서 제2 제스처에 대한 식별자가 제1 기기(100)로 전송되도록 제어할 수 있다. 제2 제스처에 대한 정보를 수신한 제1 기기(100)의 제어부(130)는 제2 제스처가 미리 설정된 제스처 그룹에 속하는지 여부를 판단하고, 제1 기기(100)에서 발생된 제1 제스처의 발생 시점과 제2 기기(200)에서 발생된 제2 제스처의 발생 시점간의 시간차(또는 각각의 제스처들에 대응되는 모션의 감지 시점들간의 시간차)가 미리 설정된 시간보다 작은지 여부를 판단할 수 있다. 상술된 판단 조건이 만족되면, 제어부(130)는 제2 기기(200)와 통신 서비스가 수행되도록 제어할 수 있다.
또한, 제어부는 최근 일정 시간 동안 측정된 형상 정보, 가속도 정보, 방향 정보 등의 모션에 대한 정보를 로그(log) 데이터로서 메모리(140)에 저장되도록 제어할 수 있다. 예를 들어, 메모리(140)는 윈도우 크기만큼에 해당하는 로그 데이터를 임시 저장할 수 있다. 또한 메모리(140)는 일정 시간이상 지속적으로 로그 데이터를 축적할 수도 있다. 축적된 로그 데이터는 해당 사용자의 사용 패턴을 추출하여 상황에 맞는 서비스를 제공하는데 사용될 수도 있고, 모션으로부터 사용자의 의도에 맞게 제스처를 식별할 수 있도록 머신 러닝에 사용될 수도 있다.
또한, 센서부(130)는 마이크(116)를 포함할 수 있다. 마이크(116)는 사용자 인터페이스의 입력, 사용자의 음성 인식 또는 통화 기능 등에서 동작할 수 있다.
제1 기기(100)의 통신부(120)는 제1 모션이 미리 설정된 제스처 그룹에 속하는 제1 제스처에 대응하면, 제1 기기(100)의 주변에 위치한 제2 기기(200)로부터 제2 모션에 대한 정보를 수신한다.
또한, 제2 기기(200)의 통신부(220)는 제2 모션이 미리 설정된 제스처 그룹에 속하는 제2 제스처에 대응하면, 제2 기기(200)의 주변에 위치한 제1 기기(100)로 제2 모션에 대한 정보를 전송한다.
통신부(120)는 와이파이 모듈(121) 또는 블루투스 모듈(122)을 포함할 수 있다. 블루투스 모듈(122)은 블루투스 저에너지(Bluetooth Low Energy, 이하 ‘BLE’) 통신 방식 또는 블루투스 클래식(Bluetooth Classic) 통신 방식 기반으로 동작할 수 있다. 와이파이 모듈(121)은 IEEE 802.11 통신 표준을 기반의 통신 모듈로서, 액세스 포인트로 동작하거나, 액세스 포인트에 접속하여 근거리 무선랜을 형성할 수 있다. 와이파이 모듈(121)은 와이파이 다이렉트 방식을 포함할 수 있다. 또한, 와이파이 모듈(121)은 기기간 통신 연결에서 동작하는 경우, 하나의 기기가 마스터로 동작되고 나머지 기기가 슬레이브로 동작되는 방식과 기기들이 연결 절차 및 능력 등에 대해 서로 협상하여 동등하게 동작하는 방식을 모두 포함할 수 있다.
또한, 통신부(120)는 지그비(Zigbee), 적외선 통신(IrDA, infrared Data Association), RF-ID 또는 NFC(Near Field Communication) 등의 근거리 통신 방식을 포함할 수 있다. 또한, 통신부(120)는 음파(Sound Wave) 통신 모듈(미도시)을 포함할 수 있다. 음파 통신 모듈은 스피커, 마이크, 사운드 회로 또는 프로세서 등을 이용하여, 음향 주파수 대역 신호를 이용하여 음파 신호를 송수신할 수 있다.
또한, 통신부(120)는 근거리 통신 방식의 통신 모듈뿐만 아니라, 이동 통신 모듈을 포함할 수도 있다. 이동 통신 모듈은 TDM, TDMA, FDM, FDMA, CDM, CDMA, OFDM, OFDMA, MIMO, 스마트 안테나 등의 기술을 이용하는 GSM, WCDMA, HSDPA, LTE, WiMAX 등의 표준기반의 통신 모듈을 포함할 수 있다.
제1 기기(100)의 제어부(130)는 수신된 정보가 미리 설정된 제스처 그룹에 속하는 제2 제스처에 대응하면, 제1 제스처 및 제2 제스처의 조합에 대응하는 이벤트가 수행되도록 제어한다.
또한, 제2 기기(200)의 제어부(230)는 제2 모션의 감지 시점 전 또는 후로부터 미리 설정된 시간이내에 제1 기기(100)에서 미리 설정된 제스처 그룹에 속하는 제1 제스처에 대응하는 제1 모션이 감지되면, 제1 제스처 및 제2 제스처의 조합에 대응하는 이벤트가 수행되도록 제어할 수 있다.
제어부(130)는 CPU(Central Processing Unit), 제1 기기(100)의 제어를 위한 제어프로그램이 저장된 롬(ROM), 및 제1 기기(100)의 외부로부터 입력되는 신호 또는 데이터를 기억하거나 제1 기기(100)에서 수행되는 작업을 위한 기억영역으로 사용되는 램(RAM)을 포함할 수 있다. CPU는 싱글 코어뿐만 아니라 듀얼 코어, 쿼드 코어, 또는 옥타 코어 등의 멀티 코어를 포함할 수 있다. CPU, 롬 및 램은 내부버스(bus)를 통해 상호 연결되거나 칩 또는 모듈 형태로 구현될 수 있다.
메모리(140)는 미리 설정된 제스처 그룹을 저장한다. 또한, 메모리(140)는 제1 모션을 감지하기 이전에, 미리 설정된 제스처 그룹에 속하는 제1 제스처 및 제2 제스처를 포함하는 복수의 제스처들에 대한 적어도 하나의 조합을 유지할 수 있다. 적어도 하나의 조합 각각은 서로 다른 적어도 둘의 기기들에서 발생되는 종속 제스처들로 구성되고, 종속 제스처들이 함께 발생되는 경우 상응하는 이벤트가 수행되도록 하는 것일 수 있다. 또한, 메모리(140)는 하나의 기기에서 발생되고, 상기 하나의 기기의 사용자 인터페이스에 대한 입력 이벤트에 대응하는 적어도 하나의 독립 제스처를 적어도 하나의 조합과 별도로 더 유지할 수 있다.
또한, 메모리(140)는 순차적인 이벤트들에 대응하는 복수의 제스처들을 포함하는 미리 설정된 제스처 그룹을 저장할 수 있다.
제2 기기(200)의 메모리(240)는 제1 기기(100)의 메모리(140)와 동일하게 미리 설정된 제스처 그룹을 저장할 수 있다.
메모리(140)는 제어부(130)의 제어에 따라 센서부(110), 통신부(120) 또는 사용자 인터페이스부(150)의 동작에 대응되게 입/출력되는 신호 또는 데이터 등을 저장할 수 있다. 또한, 메모리(140)는 제1 기기(100) 또는 제어부(130)의 제어를 위한 제어 프로그램 및 어플리케이션 등을 저장할 수 있다.
메모리(140)는 제어부(130)내 롬, 램 또는 제1 기기(100)에 장착되는 메모리 카드(일례로, SD 카드, 메모리 스틱 등) 등을 포함할 수 있다. 메모리(140)는 비휘발성 메모리, 휘발성 메모리, 하드 디스크 드라이브(HDD)또는 솔리드 스테이트 드라이브(SSD)를 포함할 수 있다.
메모리(140)는 통신 서비스를 수행하거나 제공하는 어플리케이션뿐만 아니라, 네비게이션, 게임 등과 같은 다양한 기능들의 애플리케이션들과 이와 관련된 그래픽 사용자 인터페이스(graphical user interface: GUI)를 제공하기 위한 이미지들, 사용자 정보, 문서, 터치 입력을 처리하는 방법과 관련된 데이터베이스들 또는 데이터, 제1 기기(100)를 구동하는데 필요한 배경 이미지들(메뉴 화면, 대기 화면 등) 또는 운영 프로그램들, 센서부(110)에 의해 획득된 데이터 등을 저장할 수 있다.
또한, 메모리(140)는 기계(예를 들어, 컴퓨터)로 읽을 수 있는 매체를 포함할 수 있다. 메모리(140)는 제어부(130)의 제어에 따라 기계로 읽을 수 있는 매체로부터 정보를 액세스하고, 액세스된 정보를 저장할 수 있다. 기계로 읽을 수 있는 매체는 기계가 특정 기능을 수행할 수 있도록 기계로 데이터를 제공하는 매체일 수 있다. 예를 들어, 기계로 읽을 수 있는 매체는 저장 매체일 수 있다. 기계로 읽을 수 있는 매체는, 플로피 디스크(floppy disk), 플렉서블 디스크(flexible disk), 하드 디스크, 자기 테이프, 시디롬(compact disc read-only memory: CD-ROM), 광학 디스크, 펀치 카드(punch card), 페이퍼 테이프(paper tape), 램, 피롬(Programmable Read-Only Memory: PROM), 이피롬(Erasable PROM: EPROM) 및 플래시-이피롬(FLASH-EPROM) 중의 적어도 하나를 포함하며, 이에 한정되지 않는다.
사용자 인터페이스부(150)는 디스플레이 모듈(151), 터치 패널(152), 진동 모듈(153), 스피커(154) 또는 버튼(155) 등을 포함할 수 있다.
디스플레이 모듈(151)은 액정 디스플레이(Liquid Crystal Display: LCD), 박막 트랜지스터 액정 디스플레이(thin film transistor-liquid crystal display), 유기 발광 다이오드(organic light-emitting diode), 플렉시블 디스플레이(flexible display), 3차원 디스플레이(3D display), 전기영동 디스플레이(electrophoretic display) 중에서 적어도 하나를 포함할 수 있다.
터치 패널(152)은 저항막(resistive) 방식, 정전용량(capacitive) 방식, 전자기 유도 방식, EMR(Electronic Magnetic Resonance) 방식, 적외선(infrared) 방식 또는 초음파(acoustic wave) 방식 등으로 구현될 수 있다.
디스플레이 모듈(151)과 터치 패널(152)이 결합하여 터치스크린으로 동작될 수 있다. 이 때, 사용자 인터페이스부(150)는 터치스크린 컨트롤러를 더 포함할 수 있다. 터치스크린은 사용자의 신체(예, 엄지를 포함하는 손가락) 또는 터치 가능한 입력 유닛을 통해 적어도 하나의 터치를 입력받을 수 있다. 또한, 터치스크린은 스타일러스 펜 또는 전자펜과 같은 펜을 통한 입력을 인식할 수 있는 펜 인식 패널을 포함할 수 있다. 또한, 터치스크린은 핑거 또는 입력 유닛을 통한 입력을 유도 기전력의 변화를 통해 감지하는 패널, 디스플레이 패널, 및 터치스크린에 핑거 또는 입력 유닛을 저항 변화 또는 정전용량의 변화를 통해 접촉을 감지하는 패널이 서로 밀착되거나 또는 일부 이격되어 차례로 적층된 구조로 형성될 수도 있다. 터치스크린 컨트롤러는 터치스크린에서 수신된 아날로그 신호를 디지털 신호(예, X와 Y좌표)로 변환하여 제어부(130)로 전송한다. 제어부(130)는 터치스크린 컨트롤러로부터 수신된 디지털 신호를 이용하여 터치스크린을 제어할 수 있다. 또한, 터치스크린 컨트롤러는 제어부(130)에 포함될 수도 있다.
진동 모듈(153)은 사용자에게 햅틱 효과 등의 촉각적 피드백을 제공할 수 있다. 진동 모듈(153)은 햅틱 신호에 따른 전기 에너지를 운동 에너지로 변환하는 리니어 모터, 로터리 모터 또는 전기활성 폴리머(electro active polymer) 등의 액추에이터를 포함할 수 있다.
스피커(154)는 전기 에너지를 음향 신호로 변환할 수 있다. 스피커(154)는 사용자에게 청각적 피드백을 제공할 수 있다.
버튼(155)은 제1 기기(100)의 제어를 위해 사용자로부터 버튼(또는 키) 입력을 수신할 수 있다. 버튼(155)은 제1 기기(100)에 형성되는 물리적인 버튼(또는 키), 터치스크린에 표시되는 가상의 버튼 또는 가상의 키패드를 포함한다. 제1 기기(100)에 형성되는 물리적인 키패드는 제1 기기(100)의 구조에 따라 제외될 수 있다.
전원 공급부(160)는 제어부(130)의 제어에 따라 제1 기기(100)의 하우징에 배치되는 적어도 하나의 배터리(미도시), 전원 공급 회로, 또는 배터리 충전 회로 등을 포함할 수 있다. 전원 공급부(160)는 제1 기기(100)에 전원을 공급할 수 있다. 또한, 전원 공급부(160)는 커넥터와 연결된 유선 케이블을 통해 외부의 전원소스(미도시)로부터 입력되는 전원을 제1 기기(100)의 구성 모듈들 또는 배터리로 공급되도록 할 수 있다. 또한, 전원 공급부(160)는 무선 충전 기술을 통해 외부의 전원소스로부터 무선으로 입력되는 전원을 제1 기기(100)의 구성 모듈들로 공급하거나, 배터리가 충전되도록 제어할 수도 있다.
도 9는 본 발명의 일 면에 따른 통신 서비스를 수행하는 기기를 나타내는 다른 예시도이다. 앞서 도 4를 통해 설명된 블록 또는 도 4의 블록과 유사한 기능을 갖는 도 9의 블록에 대해서는 상세한 설명이 생략된다.
예를 들어, 제1 기기(100)는 통신부(120), 제어부(130), 메모리(140), 사용자 인터페이스부(150) 또는 전원 공급부(160)를 포함할 수 있다. 도 4에서 설명된 참조번호를 인용하면, 제2 기기(200)는 통신부(220), 제어부(230), 메모리(240), 사용자 인터페이스부(250) 또는 전원 공급부(260)를 포함할 수 있다.
제1 액세서리(180)는 제1 기기(100)의 사용자 신체에 착용되거나, 사용자에 의해 파지될 수 있다. 제1 액세서리(180)는 제1 기기 또는 제1 기기의 사용자의 움직임(또는 자세)에 따라 제1 모션을 감지할 수 있다.
제1 액세서리(180)는 센서부(181), 액세서리 통신부(182), 액세서리 제어부(183) 또는 전원공급부(186)를 포함할 수 있다. 또한, 제1 액세서리(180)는 사용자 인터페이스부(185)를 더 포함할 수 있다.
센서부(181)는 근전도 센서, 광학 센서, 가속도 센서 또는 자이로 센서 등을 포함할 수 있다. 센서부(181)는 제1 사용자 또는 제1 사용자의 움직임에 따른 제1 액세서리(180)에 대한 제1 모션을 감지할 수 있다. 예를 들어, 감지되는 제1 모션은 제1 사용자의 신체 일부의 제1 형상 정보(일 례로, 손 또는 손가락의 모양), 제1 액세서리(180)에 대한 제1 가속도 정보, 또는 제1 액세서리(180)의 움직임 방향을 나타내는 제1 방향 정보일 수 있다.
액세서리 제어부(183)는 감지된 제1 모션을 미리 설정된 시간 주기(일례로, 1초) 또는 미리 설정된 이벤트 기반으로, 제1 모션에 대한 정보가 제1 기기(100)로 전송되도록 제어할 수 있다. 여기서, 미리 설정된 이벤트는 제1 모션의 시간에 따른 변화량이 일정 기준량보다 큰 경우, 해당 모션에 대한 정보를 전송하게 하는 것일 수 있다. 또한, 제1 액세서리(180)는 모션에 대한 정보를 일정 시간동안 저장할 수 있는 메모리를 더 포함할 수 있다.
또한, 액세서리 제어부(183)는 감지된 제1 모션으로부터 제1 제스처를 식별할 수도 있다. 액세서리 제어부(183)는 식별된 제1 제스처에 대한 정보를 제1 기기(100)로 전송되도록 제어할 수 있다. 이 경우, 제1 기기(100)는 획득된 모션으로부터 제스처를 식별하는 동작이 생략될 수 있다.
액세서리 통신부(182)는 액세서리 제어부(183)의 제어에 따라 제1 모션에 대한 정보를 제1 기기(100)로 전송할 수 있다. 액세서리 통신부(182)는 와이파이 모듈, 블루투스 모듈, 지그비, 적외선 통신, RF-ID, NFC 또는 음파 통신 모듈 등의 근거리 통신 방식을 포함할 수 있다. 예를 들어, 제1 액세서리(180)와 제1 기기(100)간에는 블루투스 통신 방식으로 통신 링크가 형성되고, 제1 기기(100) 및 제2 기기(200)간에는 와이파이 다이렉트 통신 방식으로 통신 링크가 형성될 수 있다. 상기 통신 링크들을 이루는 통신 방식들은 예시와 같이 서로 다를 수도 있고, 동일할 수도 있다. 또한, 제1 액세서리(180)와 제1 기기(100)는 제1 모션에 대한 정보를 송수신하기 이전에 미리 통신 링크가 형성될 수 있다.
제1 기기(100)의 통신부(120)는 제1 기기의 액세서리 통신부(182)로부터 전송된 제1 모션에 대한 정보를 수신할 수 있다. 제1 기기(100)는 획득된 제1 모션으로부터 제1 제스처를 식별하고, 앞서 설명된 통신 서비스를 수행하기 위한 동작들이 진행될 수 있다.
또한, 통신 서비스를 수행하는 기기에는, 제2 기기(200)로 제2 모션에 대한 정보를 전송하는 제2 액세서리가 더 포함될 수 있다. 제2 액세서리는 제1 액세서리(180)과 동일하거나 유사한 블록으로 구성될 수 있으므로, 상세한 설명이 생략된다.
또한, 제1 액세서리(180)는 제1 기기(100)와 별도로 구성되는 기기일 수도 있고, 제1 기기(100)는 제1 액세서리(180)를 포함하는 세트 기기일 수도 있다. 제2 액세서리 및 제2 기기(200)도 상술된 바와 같은 관계를 가질 수 있다.
도 10은 본 발명의 일 면에 따른 제1 기기에서 통신 서비스를 수행하는 방법을 나타내는 순서도이다.
제1 기기(100)는 단계(1005)이전에, 미리 설정된 제스처 그룹에 속하는 제1 제스처 및 제2 제스처를 포함하는 복수의 제스처들에 대한 적어도 하나의 조합을 메모리에 유지할 수 있다. 적어도 하나의 조합 각각은 서로 다른 적어도 둘의 기기들에서 발생되는 종속 제스처들로 구성되고, 종속 제스처들이 함께 발생되는 경우 상응하는 이벤트가 수행되도록 하는 것일 수 있다.
또한, 제1 기기(100)는 하나의 기기에서 발생되고, 상기 하나의 기기의 사용자 인터페이스에 대한 입력 이벤트에 대응하는 적어도 하나의 독립 제스처를 적어도 하나의 조합과 별도로 메모리에 더 유지할 수 있다.
단계(1005)에서, 제1 기기(100)는 제1 모션을 감지할 수 있다.
제1 모션은 제1 기기(100)의 제1 사용자 신체 일부의 제1 형상 정보, 제1 기기(100)에 대한 제1 가속도 정보 및 제1 기기(100)의 움직임 방향을 나타내는 제1 방향 정보 중 적어도 하나를 포함할 수 있다. 즉, 제1 모션을 감지하는 동작은 제1 기기(100)의 제1 사용자 신체 일부의 제1 형상 정보, 제1 기기(100)에 대한 제1 가속도 정보 및 제1 기기(100)의 움직임 방향을 나타내는 제1 방향 정보 중 적어도 하나를 감지하는 것일 수 있다.
단계(1010)에서, 제1 기기(100)는 제1 모션이 미리 설정된 제스처 그룹에 속하는 제1 제스처에 대응하면, 제1 기기(100)의 주변에 위치한 제2 기기(200)로부터 제2 모션에 대한 정보를 수신할 수 있다.
또한, 제1 기기(100)는 제2 모션에 대한 정보를 수신하기 이전에, 주변에 위치한 적어도 하나의 기기와 통신 링크를 형성하기 위한 동작을 수행할 수 있다. 예를 들어, 도 3A 및 도 3B에서 설명된 바와 같이, 무선상에서 SSID를 검색하고, SSID가 검색되지 않으면 SSID를 브로드캐스트할 수 있다.
여기서, 제2 모션은 제2 기기(200)의 제2 사용자 신체 일부의 제2 형상 정보, 제2 기기(200)에 대한 제2 가속도 정보 및 제2 기기(200)의 움직임 방향을 나타내는 제2 방향 정보 중 적어도 하나를 포함할 수 있다. 제1 형상 정보 및 제2 형상 정보 각각은 제1 기기(100) 및 제2 기기(200) 각각에서 광학 센서 또는 근전도 센서 등을 통해 감지되는 것일 수 있다.
단계(1015)에서, 제1 기기(100)는 수신된 제2 모션에 대한 정보가 미리 설정된 제스처 그룹에 속하는 제2 제스처에 대응하면, 제1 제스처 및 제2 제스처의 조합에 대응하는 이벤트를 수행할 수 있다. 또한, 상기 이벤트를 수행하기 위한 조건은, 수신된 제2 모션에 대한 정보가 제2 제스처에 대응하는 것과, 제1 제스처에 대응하는 제1 모션의 감지 시점 및 제2 제스처에 대응하는 제2 모션의 감지 시점간의 차가 미리 설정된 시간보다 작은 것을 포함할 수 있다.
또한, 제1 제스처 및 제2 제스처의 조합은 제1 제스처 및 제2 제스처가 실질적으로 동일한 것을 포함할 수 있다. 또한, 제1 제스처 및 제2 제스처의 조합은 제1 제스처 및 제2 제스처의 궤적 형상이 실질적으로 동일하고, 움직임의 방향이 서로 반대 방향인 것을 포함할 수 있다. 제스처 또는 제스처들의 조합에 대한 일 실시예가 후술되므로 여기서는 상세한 설명이 생략된다.
도 11은 본 발명의 일 면에 따른 제2 기기에서 통신 서비스를 수행하는 방법을 나타내는 순서도이다.
제2 기기(200)는 미리 설정된 제스처 그룹에 속하는 제1 제스처 및 제2 제스처를 포함하는 복수의 제스처들에 대한 적어도 하나의 조합을 메모리에 유지할 수 있다. 또한, 제2 기기(200)는 적어도 하나의 독립 제스처를 메모리에 더 유지할 수 있다.
단계(1105)에서, 제2 기기(200)는 제2 모션을 감지할 수 있다. 제2 모션은 제2 기기(200)의 제2 사용자 신체 일부의 제2 형상 정보, 제2 기기(200)에 대한 제2 가속도 정보 및 제2 기기(200)의 움직임 방향을 나타내는 제2 방향 정보 중 적어도 하나를 포함할 수 있다.
단계(1110)에서, 제2 기기(200)는 제2 모션이 미리 설정된 제스처 그룹에 속하는 제2 제스처에 대응하면, 제2 기기(200)의 주변에 위치한 제1 기기(100)로 제2 모션에 대한 정보를 전송할 수 있다.
단계(1115)에서, 제2 기기(200)는 제2 모션의 감지 시점 전 또는 후로부터 미리 설정된 시간이내에 제1 기기(100)에서 미리 설정된 제스처 그룹에 속하는 제1 제스처에 대응하는 제1 모션이 감지되면, 제1 제스처 및 제2 제스처의 조합에 대응하는 이벤트를 수행할 수 있다.
도 12는 본 발명의 일 면에 따른 제1 기기 및 제2 기기간 통신 서비스를 수행하는 절차를 나타내는 예시도이다. 여기서, 도 3A에 도시된 바와 같이, 제1 기기(100)에서의 제1 제스처 및 제2 기기(200)에서의 제2 제스처가 실질적으로 동시에 발생되는 경우가 예시된다. 또한, 실질적으로 동시에 제스처들이 발생되는 것은, 제1 제스처에 대응하는 제1 모션의 감지 시점 및 제2 제스처에 대응하는 제2 모션의 감지 시점간의 차가 미리 설정된 시간보다 작은 것일 수 있다.
단계(1205)에서, 제1 기기(100)는 제1 모션을 감지할 수 있다. 또한, 단계(1210)에서, 제2 기기(100)는 제2 모션을 감지할 수 있다.
단계(1215)에서, 제1 기기(100)는 제1 모션이 미리 설정된 제스처 그룹에 속하는 제스처(일례로, 제1 제스처)에 대응하는지 여부를 판단할 수 있다. 단계(1215)의 조건이 만족되지 않으면 제1 기기(100)는 통신 서비스를 수행하는 절차를 종료할 수 있다.
단계(1215)의 조건이 만족되면, 단계(1225)에서 제1 기기(100)는 기기간 연결의 초기화가 필요한지 여부를 판단할 수 있다. 예를 들어, 즉, 기기간 연결의 초기화가 불필요한 경우로서, 제1 기기(100)의 주변에 위치한 적어도 하나의 기기(일례로, 제2 기기(200))와 이미 통신 링크가 형성되어 있으면, 단계(1255)에서 제1 기기(100)는 통신 링크를 통해 제2 기기(200)로부터 제2 모션에 대한 정보를 수신할 수 있다.
또한, 기기간 연결의 초기화가 필요하면, 단계(1235)에서 제1 기기(100)는 통신부(120)(일례로, 와이파이 모듈(121))를 활성화하고, 주변 기기를 검색할 수 있다. 예를 들어, 주변 기기로부터 브로드캐스트되는 SSID를 검색할 수 있다. 무선상에서 SSID가 검색되지 않으면, 단계(1245)에서 제1 기기(100)는 와이파이 다이렉트 통신 방식에서 마스터로서 SSID를 브로드캐스트할 수 있다.
또한, 단계(1220)에서, 제2 기기(200)는 제2 모션이 미리 설정된 제스처 그룹에 속하는 제스처(일례로, 제2 제스처)에 대응하는지 여부를 판단할 수 있다. 단계(1220)의 조건이 만족되지 않으면 제2 기기(200)는 통신 서비스를 수행하는 절차를 종료할 수 있다.
단계(1220)의 조건이 만족되면, 단계(1230)에서 제2 기기(200)는 기기간 연결의 초기화가 필요한지 여부를 판단할 수 있다. 예를 들어, 제2 기기(200)의 주변에 위치한 적어도 하나의 기기(일례로, 제1 기기(100))와 이미 통신 링크가 형성되어 있어서, 기기간 연결의 초기화가 불필요한 경우, 단계(1255)에서 제2 기기(200)는 통신 링크를 통해 제2 모션에 대한 정보를 제1 기기(100)로 전송할 수 있다.
또한, 기기간 연결의 초기화가 필요하면, 단계(1240)에서 제2 기기(200)는 통신부(220)(일례로, 와이파이 모듈)를 활성화하고, 주변 기기로부터 브로드캐스트되는 SSID를 검색할 수 있다. 단계(1245)에서, 제2 기기(200)는 제1 기기(100)로부터 브로트캐스트되는 SSID를 수신할 수 있다.
단계(1250)에서, 제2 기기(200)는 제1 기기(100)로 통신 연결 요청을 전송하는 동작, 제1 기기(100) 및 제2 기기(200)간 페어링 절차 등을 통해, 보안된 데이터 채널이 사용될 수 있는 통신 링크가 형성될 수 있다.
또한, 기기들간에는 미리 설정된 암호, 암호화 시퀀스(또는 암호화된 채널들)에 대응하는 패스워드 또는 해시(hash) 테이블을 이용하여, 통신 링크에 대한 보안이 유지될 수 있다. 또한, 단계(1250)에는 제2 기기(200)에서 마스터인 제1 기기(100)의 사용자에의해 지정된 암호에 대한 제2 기기(200)의 사용자 입력을 수신하는 절차가 포함될 수도 있다. 또한, 단계(1250)에서 페어링 절차가 생략될 수도 있다.
단계(1255)에서, 제2 기기(200)는 통신 링크를 통해 제2 모션에 대한 정보를 제1 기기(100)로 전송할 수 있다. 또한, 제2 기기(200)는 제2 모션에 대한 정보를 전송하는 시점에서 타이머를 구동시킬 수 있다.
단계(1260)에서, 제1 기기(100)는 제2 모션이 미리 설정된 제스처 그룹에 속하는 제스처(일례로, 제2 제스처)에 대응하고, 제1 모션의 감지 시점 및 제2 모션의 감지 시점간의 차가 미리 설정된 시간보다 작은지 여부를 판단할 수 있다.
단계(1260)의 조건이 만족되지 않으면, 단계(1265)에서 제1 기기(100)는 조건 불만족 응답을 제2 기기(200)로 전송하고, 통신 서비스를 수행하는 절차를 종료할 수 있다. 단계(1265)에서 제2 기기(200)는 제1 기기(100)로부터 조건 불만족 응답을 수신하고, 통신 서비스를 수행하는 절차를 종료할 수 있다.
또한, 단계(1260)의 조건이 만족되지 않는 경우, 단계(1265)는 생략될 수 있다. 제2 기기(200)는 단계(1255)에서 구동된 타이머가 미리 설정된 시간이 지나서 만료되는 경우, 통신 서비스를 수행하기 위한 조건이 불만족된 것으로 판단하고, 통신 서비스를 수행하는 절차를 종료할 수 있다.
단계(1260)의 조건이 만족되면, 단계(1270)에서 제1 기기(100)는 조건 만족 응답을 제2 기기(200)로 전송할 수 있다.
단계(1275)에서, 제2 기기(200)는 조건 만족 응답을 수신하였는지 여부를 판단할 수 있다. 상술된 바와 같이, 조건 불만족 응답이 수신되거나, 타이머가 만료된 경우, 제2 기기(200)는 통신 서비스를 수행하는 절차를 종료할 수 있다.
조건 만족 응답이 수신되면, 단계(1280)에서 제1 기기(100) 및 제2 기기(200)는 제1 제스처 및 제2 제스처의 조합에 대응하는 이벤트를 수행할 수 있다. 예를 들어, 이벤트는 제1 기기(100) 및 제2 기기(200)에서 각각 지정된 데이터가 서로 교환되는 것일 수 있다.
도 13은 본 발명의 일 면에 따른 제1 기기 및 제2 기기간 통신 서비스를 수행하는 절차를 나타내는 다른 예시도이다. 도 3A에 도시된 바와 같이, 제1 사용자의 손목에 제1 액세서리(180)가 착용되고, 제2 사용자의 손목에 제2 액세서리(280)가 착용된 상태이고, 제1 모션의 감지 시점 및 제2 모션의 감지 시점간의 차가 미리 설정된 시간보다 작은 경우가 예시된다.
제1 액세서리(180)와 제1 기기(100)간, 또는 제2 액세서리(280)와 제2 기기(200)간에는 와이파이 또는 블루투스 등의 근거리 통신 방식으로 통신 링크가 형성될 수 있다. 이때, 제1 액세서리(180)와 제1 기기(100), 또는 제2 액세서리(280)와 제2 기기(200)는 서로 기기들간 통신이 가능한 거리내에 위치한 상태일 수 있다.
단계(1305)에서, 제1 액세서리(180)는 제1 모션을 감지할 수 있다. 제1 모션은 제1 사용자의 신체 일부의 제1 형상 정보(일 례로, 손 또는 손가락의 모양), 제1 액세서리(180)에 대한 제1 가속도 정보, 또는 제1 액세서리(180)의 움직임 방향을 나타내는 제1 방향 정보일 수 있다.
단계(1315)에서, 제1 액세서리(180)는 제1 모션에 대한 정보를 제1 기기(100)로 전송할 수 있다. 또한, 제1 기기(100)는 제1 액세서리(180)로부터 제1 모션에 대한 정보를 수신할 수 있다. 제1 기기(100)는 도 12의 단계(1215)로 진입하여 통신 서비스 수행을 위한 동작을 진행할 수 있다.
단계(1310)에서, 제2 액세서리(280)는 제2 모션을 감지할 수 있다. 제2 모션은 제2 사용자의 신체 일부의 제2 형상 정보(일 례로, 손 또는 손가락의 모양), 제2 액세서리(280)에 대한 제2 가속도 정보, 또는 제2 액세서리(280)의 움직임 방향을 나타내는 제2 방향 정보일 수 있다.
단계(1320)에서, 제2 액세서리(280)는 제2 모션에 대한 정보를 제2 기기(200)로 전송할 수 있다. 또한, 제2 기기(200)는 제2 액세서리(280)로부터 제2 모션에 대한 정보를 수신할 수 있다. 제2 기기(200)는 도 12의 단계(1220)로 진입하여 통신 서비스 수행을 위한 동작을 진행할 수 있다.
도 12에서 제1 기기(100)에 대한 단계(1215) 내지 단계(1280) 또는 제2 기기에 대한 단계(1220) 내지 단계(1280)가 진행될 수 있다.
도 13에서 단계(1280)에서 제1 제스처 및 제2 제스처의 조합에 대응하는 이벤트가 수행됨에 따라, 단계(1325)에서 제1 기기(100)는 수행되는 이벤트에 대응하는 피드백 정보(또는 이벤트의 결과에 따른 피드백 정보)를 제1 액세서리(180)로 전송할 수 있다. 제1 액세서리(180)는 제1 기기(100)로부터 피드백 정보를 수신할 수 있다.
단계(1335)에서, 제1 액세서리(180)는 피드백 정보에 따라 사운드 피드백, 비주얼 패드백 및 택타일 피드백 중 적어도 하나를 사용자에게 제공할 수 있다.
또한, 단계(1330)에서 제2 기기(200)는 수행되는 이벤트에 대응하는 피드백 정보를 제2 액세서리(280)로 전송할 수 있다. 제2 액세서리(280)는 제2 기기(200)로부터 피드백 정보를 수신할 수 있다.
단계(1340)에서, 제2 액세서리(280)는 피드백 정보에 따라 사운드 피드백, 비주얼 패드백 및 택타일 피드백 중 적어도 하나를 사용자에게 제공할 수 있다.
또한, 단계(1325) 및 단계(1335), 또는 단계(1330) 및 단계(1340)는 생략될 수 있다.
도 14는 본 발명의 타의 면에 따른 제1 기기에서 통신 서비스를 수행하는 방법을 나타내는 순서도이다.
단계(1405)에서, 제1 기기(100)는 순차적인 이벤트들에 대응하는 복수의 제스처들을 포함하는 미리 설정된 제스처 그룹을 저장(또는 유지)할 수 있다.
단계(1410)에서, 제1 기기(100)는 사용자의 신체(또는 그 일부) 또는 제1 기기(100)에 대한 모션을 감지할 수 있다.
단계(1415)에서, 제1 기기(100)는 감지된 모션으로부터 상기 복수의 제스처들 중에서 제1 이벤트에 대응하는 제1 제스처가 식별되면, 제1 이벤트로서 제1 기기(100)의 주변에 위치한 제2 기기(200)로 요청 정보를 전송할 수 있다. 여기서, 제1 기기(100) 및 제2 기기간에는 단계(1415)에 앞서서 통신 링크가 형성되어 있을 수 있다.
요청 정보는 제1 제스처에 매핑된 정보 또는 이벤트 등을 포함할 수 있다. 예를 들어, 요청 정보는 제1 기기(100)와 통신 링크가 형성된 적어도 하나의 주변 기기에게 미리 설정된 서비스에 대한 “예”, “아니오” 등의 답변을 요구하는 것일 수 있다. 요청 정보는 제1 기기(100)에 지정된 소셜 네트워크 서비스에 대한 참여 요청을 포함할 수 있다.
단계(1420)에서, 제1 기기(100)는 복수의 제스처들 중에서 제1 이벤트에 뒤따르는 제2 이벤트에 대응하는 제2 제스처가 제2 기기(100)에서 발생되면, 제2 이벤트로서 제2 기기(200)로부터 전송되는 응답 정보를 수신할 수 있다.
예를 들어, 응답 정보는 지정된 소셜 네트워크 서비스의 참여 요청에 대한 수락 또는 거절 등의 답변을 포함할 수 있다.
도 15는 본 발명의 타의 면에 따른 제2 기기에서 통신 서비스를 수행하는 방법을 나타내는 순서도이다.
단계(1505)에서, 제2 기기(200)는 순차적인 이벤트들에 대응하는 복수의 제스처들을 포함하는 미리 설정된 제스처 그룹을 저장할 수 있다.
단계(1510)에서, 제2 기기(200)는 제2 기기(200)의 주변에 위치한 제1 기기(100)에서 상기 복수의 제스처들 중에서 제1 이벤트에 대응하는 제1 제스처가 발생되면, 제1 이벤트로서 제1 기기(100)로부터 전송된 요청 정보를 수신할 수 있다. 예를 들어, 요청 정보는 제1 기기(100)에 지정된 소셜 네트워크 서비스에 대한 참여 요청을 포함할 수 있다.
단계(1515)에서, 제2 기기(200)는 사용자의 신체(또는 그 일부) 또는 제2 기기(200)에 대한 모션을 감지할 수 있다.
단계(1520)에서, 제2 기기(200)는 감지된 모션으로부터 상기 복수의 제스처들 중에서 상기 제1 이벤트에 뒤따르는 제2 이벤트에 대응하는 제2 제스처가 식별되면, 제2 이벤트로서 요청 정보에 상응하는 응답 정보를 제1 기기(100)로 전송할 수 있다.
예를 들어, 요청 정보가 지정된 소셜 네트워크 서비스에 대한 참여 요청을 포함하는 경우, 제2 제스처는 수락 또는 거절 중 하나를 나타내는 제스처일 수 있다. 그 외의 제스처가 발생된 경우에는 제2 이벤트가 수행되지 않고 무시될 수 있다. 제2 제스처가 식별되면, 제2 기기(200)는 수락 또는 거절 중 하나를 나타내는 응답 정보를 제1 기기(100)로 전송할 수 있다.
도 16은 본 발명의 타의 면에 따른 제1 기기 및 제2 기기간 통신 서비스를 수행하는 절차를 나타내는 예시도이다.
단계(1605)에서, 제1 기기(100)는 순차적인 이벤트들에 대응하는 복수의 제스처들을 포함하는 미리 설정된 제스처 그룹을 저장할 수 있다. 또한, 단계(1610)에서, 제1 기기(100)의 단계(1605)와 동일하게 제2 기기(200)는 미리 설정된 제스처 그룹을 저장할 수 있다.
단계(1615)에서, 제1 기기(100) 및 제2 기기(200)는 지정된 통신 방식의 연결 절차에 따라 통신 링크를 형성할 수 있다.
단계(1620)에서, 제1 기기(100)는 제1 사용자의 신체(또는 그 일부) 또는 제1 기기(100)에 대한 제1 모션을 감지할 수 있다.
단계(1625)에서, 제1 기기(100)는 제1 모션으로부터 제1 이벤트에 대응하는 제1 제스처가 식별되는지 여부를 판단할 수 있다. 단계(1625)의 조건이 만족되지 않으면, 통신 서비스를 수행하는 절차가 종료될 수 있다.
제1 모션으로부터 제1 제스처가 식별되면, 단계(1630)에서 제1 기기(100)는 제2 기기(200)로 제1 이벤트로서 요청 정보를 전송할 수 있다. 제2 기기(200)는 제1 기기(100)로부터 요청 정보를 수신할 수 있다.
단계(1635)에서, 제2 기기(200)는 수신된 요청 정보를 비주얼 피드백, 사운드 피드백, 택타일 피드백 중 적어도 하나를 이용하여 사용자에게 알릴 수 있다. 또한, 다양한 실시예에 따라 단계(1635)는 생략될 수도 있다.
단계(1640)에서, 제2 기기(200)는 제2 사용자의 신체(또는 그 일부) 또는 제2 기기(200)에 대한 제2 모션을 감지할 수 있다.
단계(1645)에서, 제2 기기(200)는 제2 모션으로부터 제2 이벤트에 대응하는 제2 제스처가 식별되는지 여부를 판단할 수 있다. 단계(1645)의 조건이 만족되지 않으면, 통신 서비스를 수행하는 절차가 종료될 수 있다.
제2 모션으로부터 제2 제스처가 식별되면, 단계(1650)에서 제2 기기(200)는 제1 기기(100)로 제2 이벤트로서 응답 정보를 전송할 수 있다. 제1 기기(100)는 제2 기기(200)로부터 응답 정보를 수신할 수 있다.
단계(1655)에서, 제1 기기(100)는 수신된 응답 정보를 비주얼 피드백, 사운드 피드백, 택타일 피드백 중 적어도 하나를 이용하여 사용자에게 알릴 수 있다.
또한, 도 2, 도 9 및 도 13을 통해 설명된 바와 같이, 제1 기기(100) 및 제2 기기(200) 중 적어도 하나가 액세서리로부터 모션에 대한 정보를 수신하여 상술된 절차가 수행될 수도 있음은 통상의 지식인에 의해 이해될 수 있다.
이하에서, 도 17 및 도 27을 참고하여, 본 발명의 타의 면에 따른 제1 기기 및 제2 기기간 통신 서비스를 수행하는 절차 및 제스처에 대해 설명된다.
도 27에서, 제1 사용자(190)의 신체에는 제1 기기(100)가 착용되고, 제2 사용자(290)의 신체에는 제2 기기(200)가 착용되고, 제3 사용자(291)의 신체에는 제3 기기(201)가 착용될 수 있다.
제1 기기(100)가 요청 정보를 전송하는 제1 이벤트 및 제2 기기(200)가 응답 정보를 전송하는 제1 이벤트에 뒤따르는 제2 이벤트가 있을 수 있다. 예를 들어, 요청 정보는 지정된 소셜 네트워크 서비스에 대한 참여 요청일 수 있으며, 응답 정보는 지정된 소셜 네트워크 서비스의 참여 요청에 대한 수락 또는 거절 중 하나를 나타내는 답변일 수 있다.
단계(1705)에서, 제1 기기(100)는 제1 사용자(190)의 움직임 또는 제1 기기(100)에 대한 모션을 감지하고, 모션으로부터 제1 이벤트에 대응하는 제1 제스처(2710)를 식별할 수 있다. 제1 제스처(2710)는 제1 사용자가 손바닥을 펴고 손을 위로 향하여 움직이는 제스처일 수 있다.
단계(1710)에서, 제1 기기(100)는 기 형성된 통신 링크를 이용하여, 연결된 기기들로 제1 이벤트로서 요청 정보를 전송할 수 있다. 예를 들어, 단계(1711)에서 제1 기기(100)는 제3 기기(201)로 요청 정보를 전송할 수 있다. 또한, 단계(1713)에서 제1 기기(100)는 제2 기기(200)로 요청 정보를 전송할 수 있다.
단계(1715) 및 단계(1720)는 미리 설정된 시간이내에 발생되거나, 실질적으로 동시에 동작되는 것일 수 있다. 또한, 제1 이벤트에 뒤이어 제2 이벤트 또는 제3 이벤트 중 적어도 하나가 발생될 수 있다.
단계(1720)에서, 제2 기기(200)는 제2 사용자(290)의 움직임 또는 제2 기기(200)에 대한 모션을 감지하고, 모션으로부터 제2 이벤트에 대응하는 제2 제스처(2720)를 식별할 수 있다. 제2 제스처(2720)는 제2 사용자가 손바닥을 펴고 손을 앞으로 움직이는 제스처일 수 있다. 제2 제스처(2720)는 서비스의 참여 요청에 대한 수락을 나타내는 제스처일 수 있다.
단계(1730)에서, 제2 기기(200)는 제2 이벤트로서 제1 기기(100)로 응답 정보를 전송할 수 있다.
단계(1715)에서, 제3 기기(201)는 제3 사용자(291)의 움직임 또는 제3 기기(201)에 대한 모션을 감지하고, 모션으로부터 제3 이벤트에 대응하는 제3 제스처(2730)를 식별할 수 있다. 제3 제스처(2730)는 제3 사용자가 손바닥을 펴고 손을 옆으로 움직이는 제스처일 수 있다. 제3 제스처(2730)는 서비스의 참여 요청에 대한 거절을 나타내는 제스처일 수 있다.
단계(1725)에서, 제3 기기(201)는 제3 이벤트로서 제1 기기(100)로 응답 정보를 전송할 수 있다. 또한, 단계(1725)는 생략될 수 있다. 제1 기기(100)는 단계(1711)에서 타이머를 구동시키고, 미리 설정된 시간이 지나서 타이머가 만료될 때까지 제3 기기(201)로부터 응답 정보가 수신되지 않으면, 서비스의 참여 요청에 대해 거절한 것으로 판단할 수 있다.
이처럼, 본 발명의 타의 면에 따른 기기들을 통해, 사용자들은 대화를 할 때 움직이는 제스처 또는 수화 등의 제스처를 이용하여 자연스럽게 사용자의 의도에 따라 기기들간 이벤트가 발생될 수 있다.
도 18A 내지 도 26을 참조하여, 본 발명의 일 면에 따른 제스처 및 이벤트에 대해 상세히 설명된다.
제스처는 적어도 하나의 독립 제스처 및 복수의 종속 제스처들을 포함할 수 있다. 기기는 미리 설정된 제스처 그룹에 속하는 복수의 종속 제스처들에 대한 적어도 하나의 조합을 메모리에 유지할 수 있다. 적어도 둘의 종속 제스처들로 구성된 각 조합은 통신 서비스와 관련된 미리 설정된 이벤트에 대응되는 것일 수 있다. 또한, 기기는 복수의 종속 제스처들에 대한 적어도 하나의 조합과 별도로, 적어도 하나의 독립 제스처를 메모리에 더 유지할 수 있다.
이하에서, 적어도 둘의 기기들 각각에서 제스처가 실질적으로 동시에 발생되는 경우가 예시된다. 실질적으로 동시에 제스처들이 발생되는 것은, 제스처들에 대응하는 모션의 감지 시점들간의 차가 미리 설정된 시간(일례로, 500msec)보다 작은 것일 수 있다. 또한, 실질적으로 동시에 제스처들이 발생되는 것은, 제스처들에 대한 발생 시점들간의 차가 미리 설정된 시간보다 작은 것일 수 있다.
제스처들의 조합은 제스처들이 실질적으로 동일한 것을 포함할 수 있다. 예를 들어, 기기들에서 미리 설정된 동일한 제스처들이 발생되면, 제스처들의 조합에 대응하여 명함, 폰북(또는 컨택) 정보, 컨텐츠 등을 서로의 기기들이 공유하는 이벤트가 수행될 수 있다. 또한, 상기 이벤트의 수행과 함께, 각 기기들의 디스플레이 스크린에는 각 기기들의 사용자들간의 그룹화를 상징하는 그래픽이 표시되거나, 동일한 느낌의 진동 울림 등의 피드백 효과가 제공될 수 있다.
도 18A 및 도 18B를 참조하면, 제1 사용자(190)의 손목에는 제1 기기(100)이 착용되고, 제2 사용자(290)의 손목에는 제2 기기가 착용될 수 있다. 두 사용자들의 움직임에 따른 제스처(1810)는 악수 제스처를 나타내는 것일 수 있다. 제스처(1810)는 두 사용자들이 상대의 손을 잡은 상태에서 손을 위 아래로 이동하는 동작일 수 있다. 또한, 제스처(1810)는 손바닥을 펴고 손을 앞으로 내미는 동작과 상하로 두 기기가 움직이는 동작 또는 그 일부일 수 있다. 제1 기기(100) 및 제2 기기(200)는 근전도 센서(111) 또는 광학센서(112) 등을 이용하여, 사용자의 손의 형상 또는 형태가 변화하는 것을 감지할 수도 있고, 가속도 센서(113) 또는 자이로 센서(113) 등을 이용하여, 가속도 또는 방향을 감지할 수 있다.
또한, 제1 기기(100) 및 제2 기기(200)에서 감지된 모션으로부터 제스처(1810)가 식별되기 전까지, 제1 기기(100)의 디스플레이 스크린(156) 및 제2 기기(200)의 디스플레이 스크린(256)에는 각 기기에서 지정된 내용이 표시될 수 있다. 도 12에서 설명된 바와 같이, 제1 기기(100) 및 제2 기기(200)에서 식별된 제스처들이 통신 서비스를 수행하기 위한 조건을 만족하면, 제스처들(일례로, 악수 제스처들)의 조합에 대응하는 이벤트로서 제1 기기(100)의 디스플레이 스크린(156)에는 제2 사용자의 정보가 표시되고, 제2 기기(200)의 디스플레이 스크린(256)에는 제1 사용자의 정보가 표시될 수 있다.
도 19를 참조하면, 제1 기기(100)를 착용한 제1 사용자(190)와 제2 기기(200)를 착용한 제2 사용자(290)는 서로 동일한 손 모양을 만들어 미리 설정된 통신 서비스가 수행되도록 할 수 있다. 예를 들어, 기기는 사용자의 수화 동작을 인식하여 상대 기기와 통신 서비스가 수행되도록 할 수 있다. 제1 기기(100) 및 제2 기기(200)는 손 모양을 감지하기 위해서 근전도 신호를 포함하는 모션에 대한 정보를 획득할 수 있다.
또한, 도 20을 참조하면, 미리 설정된 제스처 그룹에 속하는 제스처가 식별되면, 제1 기기(100)의 디스플레이 스크린(156)에는 (a)에 도시된 바와 같이, 일례로, 뇌비우스의 띠의 일부분에 대한 비주얼 효과가 변경되어 표시될 수 있다. 또한, 제1 기기(100) 및 제2 기기(200)간 통신 링크를 형성하기 위한 절차를 수행하는 경우, (b)에 도시된 바와 같이 비주얼 효과가 표시될 수 있으며, 두 기기들간 통신 링크가 형성되면 (c)에 도시된 비주얼 효과가 표시될 수 있다. 또한, 제1 기기(100) 또는 제2 기기(200)는 악수를 통해 명함을 교환하는 통신 서비스를 수행한 이후, 상대 기기의 사용자에 대한 만남 횟수 등을 로그로 기록할 수 있다.
도 21을 참조하면, 제1 사용자(190), 제2 사용자(290), 제3 사용자(291), 제4 사용자(292)가 각각 제1 기기(100), 제2 기기(200), 제3 기기(201), 제4 기기(202)를 손목(또는 팔)에 착용한 상태일 수 있다.
제스처(2105)는 사용자들이 손을 펴고 손을 위로 향해 들어올리는 하이파이브(High five) 제스처일 수 있다. 하이파이브 제스처들의 조합에 대응하는 이벤트로서 기기들 또는 사용자들간 그룹이 형성되고, 그룹에는 동일한 정보가 공유될 수 있다. 예를 들어, 도 21의 (a)에 도시된 바와 같이 기기들간 통신 링크가 형성되거나, 제스처들의 조합에 대응하는 이벤트의 수행으로서, 제1 기기(100)의 디스플레이 스크린(156), 제2 기기(200)의 디스플레이 스크린(256), 제3 기기(201)의 디스플레이 스크린(266) 및 제4 기기(202)의 디스플레이 스크린(276)에는 동질성을 나타내도록 서로 연속적으로 연결되는 그래픽이 표시될 수 있다.
그룹에 속하는 기기들에서 (a) 내지 (c)에서 도시된 바와 같이 컨텐츠가 공유되거나, 지정된 서로 다른 이미지들이 분배될 수 있다. 예를 들어, 와이파이 다이렉트 방식의 통신 링크가 형성된 경우, 마스터 기기는 그룹내 기기들의 수에 맞게 컨텐츠들을 메모리로부터 액세스하여 준비하고, 마스터 기기를 제외한 나머지 슬레이브 기기들에게 임의 순서로 컨텐츠들을 전송할 수 있다. 또한, 마스터 기기는 하나의 컨텐츠에 대해 그 일부 또는 전체를 슬레이브 기기들로 전송하여, 서로 다른 일부의 컨텐츠가 표시되도록 제어할 수도 있다. 또한, 마스터 기기는 슬레이브 기기들과 모두 동일한 컨텐츠가 공유되도록 제어할 수도 있다.
제1 기기(100), 제2 기기(200), 제3 기기(201), 제4 기기(202)들간 그룹(2110)이 형성된 이후, (b)에 도시된 바와 같이, 기기들의 디스플레이 스크린에는 그룹 단체 응원 등을 위한 카드 섹션처럼 구호와 같은 텍스트, 이미지, 컨텐츠 등이 표시될 수 있다. 일례로, 텍스트로는 {“Go”, “!”, “Lions”, “!”}, {“We”, “will”, “be”, “back!”} 또는 {“Fighting”, “We”, “are”, “ONE”} 등이 있을 수 있다.
또한, (d)에 도시된 바와 같이, 그룹(2110)과 다른 기기들로 구성된 그룹(2120)에서는 다른 컨텐츠 또는 정보가 표시될 수 있다. 이에 따라, 본 발명의 일 면에 따른 제스처를 기반으로한 통신 서비스 수행하는 기능은 그룹별 게임 또는 그룹별 과제에 대한 정보 등을 표시하는데 용이하게 활용될 수 있다.
그룹으로 통신 링크가 형성된 이후, 기기들 각각에서 제스처(2115)가 식별될 수 있다. 제스처(2115)는 사용자들이 손을 펴고 손을 함께 내리는 로파이브(Low five) 제스처일 수 있다. 로파이브 제스처들의 조합에 대응하는 이벤트로서 형성된 그룹이 해제될 수 있다. (c)에 도시된 바와 같이, 그룹이 해제되는 이벤트에 따라 기기들 각각의 디스플레이 스크린에는 동질성을 나타내는 이미지가 표시될 수 있다.
또한, 제스처들의 조합은 제스처들의 궤적 형상(또는 가속도)가 서로 실질적으로 동일하고, 움직임의 방향이 서로 반대 방향인 것을 포함할 수 있다. 예를 들어, 기기들에서 형상이 서로 실질적으로 동일하고 움직임의 방향이 서로 반대 방향인 제스처들이 발생되면, 제스처들의 조합에 대응하여 제스처의 방향에 따라 일방적으로 한 기기에서 상대 기기로 컨텐츠가 전송되거나, 형성되었던 소셜 네트워크 서비스의 그룹에서 해제되거나, 컨텐츠의 전송을 취소하는 등의 이벤트가 수행될 수 있다. 또한, 상기 이벤트의 수행과 함께, 해당 이벤트의 감성에 상응하는 그래픽이 표시되거나, 택타일 피드백, 사운드 효과가 제공될 수 있다.
도 22A 내지 도 24를 참조하면, 제1 사용자(190) 및 제2 사용자(290)가 각각 제1 기기(100) 및 제2 기기(200)를 손목(또는 팔)에 착용한 상태일 수 있다.
도 22A에서, 제스처들(2210)은 제스처들의 궤적 형상(또는 가속도)가 서로 실질적으로 동일하고, 움직임의 방향이 서로 반대 방향인 제스처들의 조합에 대응하는 것으로서, 사용자들이 서로 손을 맞잡은 상태에서 손을 일 방향으로 회전하는 회전 제스처들, 좌우 중 어느 일 방향으로 손을 흔들거나 이동시키는 방향 제스처들, 또는 특정 사용자와 손이 가까워지도록(또는 멀어지도록) 당기는(또는 미는) 당김 제스처들 등을 포함할 수 있다. 일례로서, 도 22B는 제스처들의 조합에 대응하는 것으로서 당김 제스처들(2220)을 나타낸다. 제1 기기(100)는 제2 사용자(290) 방향으로 제1 기기(100)가 이동되는 모션을 감지하고, 감지된 모션으로부터 제1 당김 제스처를 식별할 수 있다. 제2 기기(200)는 제1 사용자(190) 방향으로 제2 기기(100)가 이동되는 모션을 감지하고, 감지된 모션으로부터 제2 당김 제스처를 식별할 수 있다. 이 경우, 제스처들의 조합에 대응하여, 제1 기기(100)에 지정된 컨텐츠가 제2 기기(200)로 전송되는 이벤트가 수행될 수 있다.
또한, 도 23에서 제1 사용자(190)에 의해 제1 기기(100)가 상측으로 움직이도록하는 제스처(2310)가 발생되고, 제2 사용자(290)에 의해 제2 기기(200)가 하측으로 움직이도록하는 제스처(2320)가 제스처(2310)와 실질적으로 동시에 발생될 수 있다.
또한, 도 24에서 제1 사용자(190)의 손이 아래를 향하여 도시된 바와 같은 형상을 갖는 제1 제스처와, 제2 사용자(290)의 손이 위를 향하여 도시된 바와 같은 형상을 갖는 제2 제스처가 발생될 수 있다. 이때, 제1 기기(100) 및 제2 기기(200) 각각은 모션에 대한 정보로서, 근전도 센서 또는 광센서를 이용하여 손의 형상, 자이로 센서 또는 가속도 센서 등을 이용하여 손의 방향, 고도 센서를 이용하여 기기가 위치한 고도 정보 또는 상대 기기와의 상대적 수직 방향에서의 위치 비교 등을 감지하고, 감지된 정보로부터 제스처를 식별할 수 있다.
예를 들어, 도 24에 도시된 제1 제스처와 제2 제스처가 발생되는 경우, 제1 기기(100)는 통신 네트워크의 마스터 기기로 동작되고, 제2 기기(200)는 슬레이브 기기로 동작될 수 있다. 제1 기기(100)는 지정된 컨텐츠(2410)를 제2 기기(200)에게 일방(one way)으로 전송할 수 있다. 또한, 기기들간의 연결은 1대 1 뿐만아니라 1대 N 등으로 그룹을 형성하여 통신 서비스가 수행될 수 있음은 앞서 설명 등을 통해 이해될 수 있다.
또한, 제스처들의 조합은 제스처들의 궤적 형상이 서로 다른 것을 포함할 수 있다. 미리 설정된 제스처 그룹에 속하는 서로 다른 형상의 제스처들이 기기들에서 발생된 경우, 해당 제스처들의 조합에 상응하는 이벤트가 수행될 수 있다. 예를 들어, 이벤트는 다수 사용자가 함께 플레이하는 게임의 제어, 다수 사용자들 각각의 제스처에 따라 음악의 비트로 생성, 작곡 또는 연주하는 기능 등을 포함할 수 있다.
도 25를 참조하면, 제스처들의 조합은, 일례로, 제1 기기(100)를 착용한 제1 사용자(190)가 아래에서 위로 곡선을 그리며 손을 올리는 제스처(2510) 및 제2 기기(200)를 착용한 제2 사용자(290)가 손을 위에서 아래로 내리거나, 뒤로 젖히는 제스처(2520)로 구성된 것일 수 있다.
또한, 일례로, 도 26에서 제1 기기(100)에서 발생되는 제스처들(2610) 및 제2 기기(200)에서 발생되는 제스처들(2620)의 적어도 하나의 조합을 이용하여, 각 조합에 대응하는 가위 바위 보 게임이 수행될 수 있다. 제1 기기(100) 또는 제2 기기(200)는 모션에 대한 정보로서 손의 형상을 감지하고, 감지된 손의 형상으로부터 제스처를 식별할 수 있다. 앞서 도 3B에서 설명된 바와 같이, 기기들 각각에는 제스처들의 조합에 따라 발생되는 이벤트로서 각 사용자에게 제스처들의 조합에 대응하는 결과(일례로, 승리, 패배, 또는 무승부)가 서로 다르게 피드백될 수 있다.
도 28은 본 발명의 일 면에 따른 다양한 제스처를 이용한 서비스를 나타내는 예시도이다. 종속 제스처들의 조합 또는 독립 제스처에 따른 통신 서비스를 수행하는 일 실시예가 설명된다.
제1 기기(100)는 제1 사용자(190)의 신체에 착용되고, 제2 기기(2000는 제2 사용자(290)의 신체에 착용될 수 있다.
예를 들어, 미리 설정된 제스처 그룹에 속하는 종속 제스처들(2810)은 실질적으로 서로 동일할 수 있다. 종속 제스처들(2810)은 두 사용자가 동일한 형상의 손모양을 갖거나, 서로 주먹이 마주보는 방향으로 부딪히는 범프(bump) 제스처들일 수 있다. 범프 제스처들의 조합에 대응하는 이벤트로서, 제1 기기(100) 및 제2 기기(200)는 지정된 데이터 또는 폴더가 동기화되는 모드에 진입할 수 있다. 이때, 도 28의 (a)에 도시된 바와 같이, 제1 기기(100)의 디스플레이 스크린(156) 및 제2 기기(200)의 디스플레이 스크린(256)에는 두 기기들간 연결됨을 나타내는 그래픽 효과가 표시될 수 있다.
임의로, 제1 기기(100)가 컨텐츠를 전송하고, 제2 기기(200)가 컨텐츠를 수신하는 역할을 수행하는 것으로 예시된다. 또한, 두 기기들이 서로 지정된 컨텐츠를 전송하는 역할을 수행하는 것도 가능하다.
도 28의 (b)에 도시된 바와 같이 제1 기기(100)에서 전송할 컨텐츠를 선택하는 사용자 인터페이스가 디스플레이 스크린(156)에 표시될 수 있다. 제1 사용자(190)의 움직임에 따라 제1 기기(100)에서 독립 제스처(2820)가 발생될 수 있다. 독립 제스처(2820)는 손을 틀어서 제1 기기(100)의 배치 방향이 바뀌는 제스처일 수 있다. 독립 제스처(2820)에 대응하는 이벤트로서, 제1 기기(100)의 디스플레이 스크린(156)에 표시된 사용자 인터페이스가 제어될 수 있다. 일례로, 독립 제스처(2820)의 회전 방향에 따라 파일, 카메라 이미지 또는 일정 정보 등의 컨텐츠들에 대한 사용자의 선택(또는 지정)이 변경될 수 있다.
또한, 미리 설정된 제스처 그룹에 속하는 종속 제스처들(2830)은 손의 형상이 서로 실질적으로 동일하고, 배치 방향이 서로 다른 것일 수 있다. 예를 들어, 종속 제스처들(2830)은 기기들(또는 각 사용자들의 주먹들)의 배치 방향이 서로 다르면서, 두 사용자가 함께 주먹을 쥐고 서로 부딪히는 제스처들일 수 있다. 종속 제스처들(2830)의 조합에 대응하는 이벤트로서, 제1 기기(100)에서 지정되거나 선택된 컨텐츠가 제2 기기(200)로 전송될 수 있다. 이때, 도 28의 (c)에 도시된 바와 같이, 기기들에는 데이터 전송 방향, 데이터의 종류 또는 상호 교환에 대한 이벤트 등에 대하여 사용자가 인지 가능하도록, 해당 이벤트에 상응하는 그래픽이 표시될 수 있다.
상술된 제스처들은 예시된 것뿐만 아니라, 사용 목적 또는 편리에 따라 다양한 제스처들이 기기에 지정되거나, 저장될 수 있다. 예를 들어, 제조자 또는 서비스 제공자에 의해 제스처들이 정해질 수 있고, 기기에 미리 저장될 수 있다. 또한, 기기에는 사용자가 임의로 제스처를 설정하거나, 미리 설정된 제스처를 편집하여 사용할 수 있도록 사용자 인터페이스가 제공될 수도 있다.
또한, 도 10 내지 도 17을 통해 통신 서비스를 수행하는 절차 또는 방법으로 설명된 동작들은 그 순서가 임의로 변경되거나 동작들 중 일부가 생략될 수도 있다. 또한, 동작들은 앞서 상술된 실시예들의 일부가 복합적으로 결합하여 실시될 수도 있다. 또한, 동작의 변경 또는 생략 등에 따라 사용자 인터페이스가 다양한 형태로 변형될 수도 있음은 통상의 지식인에 의해 이해될 수 있다.
또한, 도 10 내지 도 17에서 설명된 일 실시예에 대한 프로그램은 소프트웨어, 하드웨어 또는 소프트웨어와 하드웨어의 조합으로 구성될 수 있다는 것은 통상의 지식인에 의해 이해될 수 있다. 또한, 일 실시예에 대한 프로그램은 기록 매체에 기록될 수 있으며, 통신망을 통해 서버 또는 컴퓨터로부터 기기 또는 액세서리로 다운로드될 수도 있다.
100: 제1 기기 110: 센서부
111: 근전도 센서 112: 광학 센서
113: 가속도 센서 114: 자이로 센서
115: 고도 센서 116: 마이크
120: 통신부 121: 와이파이 모듈
122: 블루투스 모듈 130: 제어부
140: 메모리 150: 사용자 인터페이스부
151: 디스플레이 모듈 152: 터치 패널
153: 진동 모듈 154: 스피커
155: 버튼 156: 디스플레이 스크린
160: 전원 공급부 180: 제1 액세서리
200: 제2 기기

Claims (28)

  1. 제1 기기에서 제2 기기와 통신 서비스를 수행하는 방법에 있어서,
    제1 모션을 감지하는 단계;
    상기 제1 모션이 미리 설정된 제스처 그룹에 속하는 제1 제스처에 대응하면, 상기 제1 기기의 주변에 위치한 제2 기기로부터 제2 모션에 대한 정보를 수신하는 단계; 및
    상기 수신된 정보가 상기 미리 설정된 제스처 그룹에 속하는 제2 제스처에 대응하면, 상기 제1 제스처 및 상기 제2 제스처의 조합에 대응하는 이벤트를 수행하는 단계를 포함하는 것을 특징으로 하는 통신 서비스 수행 방법.
  2. 제1항에 있이서,
    상기 제1 모션은
    상기 제1 기기의 제1 사용자 신체 일부의 제1 형상 정보, 상기 제1 기기에 대한 제1 가속도 정보 및 상기 제1 기기의 움직임 방향을 나타내는 제1 방향 정보 중 적어도 하나를 포함하고,
    상기 제2 모션은
    상기 제2 기기의 제2 사용자 신체 일부의 제2 형상 정보, 상기 제2 기기에 대한 제2 가속도 정보 및 상기 제2 기기의 움직임 방향을 나타내는 제2 방향 정보 중 적어도 하나를 포함하는 것을 특징으로 하는 통신 서비스 수행 방법.
  3. 제2항에 있이서,
    상기 제1 형상 정보 및 상기 제2 형상 정보 각각은
    상기 제1 기기 및 제2 기기 각각에서 광학 센서 및 근전도(electromyogram) 센서 중 적어도 하나를 통해 감지되는 것을 특징으로 하는 통신 서비스 수행 방법.
  4. 제1항에 있이서,
    상기 제1 모션을 감지하는 단계는
    상기 제1 기기의 제1 사용자 신체 일부의 제1 형상 정보, 상기 제1 기기에 대한 제1 가속도 정보 및 상기 제1 기기의 움직임 방향을 나타내는 제1 방향 정보 중 적어도 하나를 감지하는 단계인 것을 특징으로 하는 통신 서비스 수행 방법.
  5. 제1항에 있어서,
    상기 제1 기기 및 상기 제2 기기는
    밴드 형태, 손목 시계 형태 및 팔찌 형태 중 적어도 하나의 형태를 갖는 것을 특징으로 하는 통신 서비스 수행 방법.
  6. 제1항에 있어서,
    상기 이벤트를 수행하는 단계는
    상기 수신된 정보가 상기 제2 제스처에 대응하고, 상기 제1 제스처에 대응하는 상기 제1 모션의 감지 시점 및 상기 제2 제스처에 대응하는 상기 제2 모션의 감지 시점간의 차가 미리 설정된 시간보다 작으면, 상기 이벤트를 수행하는 것을 특징으로 하는 통신 서비스 수행 방법.
  7. 제1항에 있어서,
    상기 제2 모션에 대한 정보를 수신하는 단계는
    서비스 세트 식별자(Service Set Identifier, 이하 ‘SSID’)를 검색하는 단계; 및
    상기 SSID가 검색되지 않으면, 상기 SSID를 브로드캐스트하는 단계를 포함하는 것을 특징으로 하는 통신 서비스 수행 방법.
  8. 제1항에 있어서,
    상기 제1 제스처 및 상기 제2 제스처의 조합은
    상기 제1 제스처 및 상기 제2 제스처가 실질적으로 동일한 것을 포함하는 것을 특징으로 하는 통신 서비스 수행 방법.
  9. 제1항에 있어서,
    상기 제1 제스처 및 상기 제2 제스처의 조합은
    상기 제1 제스처 및 상기 제2 제스처의 궤적 형상이 실질적으로 동일하고, 움직임의 방향이 서로 반대 방향인 것을 포함하는 것을 특징으로 하는 통신 서비스 수행 방법.
  10. 제1항에 있어서,
    상기 제1 모션을 감지하기 이전에, 상기 미리 설정된 제스처 그룹에 속하는 상기 제1 제스처 및 상기 제2 제스처를 포함하는 복수의 제스처들에 대한 적어도 하나의 조합을 메모리에 유지하는 단계를 더 포함하는 것을 특징으로 하는 통신 서비스 수행 방법.
  11. 제10항에 있어서,
    상기 적어도 하나의 조합 각각은
    서로 다른 적어도 둘의 기기들에서 발생되는 종속 제스처들로 구성되고, 상기 종속 제스처들이 함께 발생되는 경우 상응하는 이벤트가 수행되도록 하는 것임을 특징으로 하는 통신 서비스 수행 방법.
  12. 제10항에 있어서,
    하나의 기기에서 발생되고, 상기 하나의 기기의 사용자 인터페이스에 대한 입력 이벤트에 대응하는 적어도 하나의 독립 제스처를 상기 적어도 하나의 조합과 별도로 상기 메모리에 더 유지하는 단계를 더 포함하는 것을 특징으로 하는 통신 서비스 수행 방법.
  13. 제2 기기와 통신 서비스를 수행하는 제1 기기에 있어서,
    제1 모션을 감지하는 센서부;
    상기 제1 모션이 미리 설정된 제스처 그룹에 속하는 제1 제스처에 대응하면, 상기 제1 기기의 주변에 위치한 제2 기기로부터 제2 모션에 대한 정보를 수신하는 통신부; 및
    상기 수신된 정보가 상기 미리 설정된 제스처 그룹에 속하는 제2 제스처에 대응하면, 상기 제1 제스처 및 상기 제2 제스처의 조합에 대응하는 이벤트가 수행되도록 제어하는 제어부;를 포함하는 것을 특징으로 하는 제1 기기.
  14. 제13항에 있이서,
    상기 제1 모션은
    상기 제1 기기의 제1 사용자 신체 일부의 제1 형상 정보, 상기 제1 기기에 대한 제1 가속도 정보 및 상기 제1 기기의 움직임 방향을 나타내는 제1 방향 정보 중 적어도 하나를 포함하고,
    상기 제2 모션은
    상기 제2 기기의 제2 사용자 신체 일부의 제2 형상 정보, 상기 제2 기기에 대한 제2 가속도 정보 및 상기 제2 기기의 움직임 방향을 나타내는 제2 방향 정보 중 적어도 하나를 포함하는 것을 특징으로 하는 제1 기기.
  15. 제14항에 있이서,
    상기 센서부는
    광학 센서 및 근전도 센서 중 적어도 하나를 포함하고,
    상기 제1 형상 정보 및 상기 제2 형상 정보 각각은
    상기 제1 기기 및 제2 기기 각각에서 상기 광학 센서 및 상기 근전도 센서 중 적어도 하나를 통해 감지되는 것을 특징으로 하는 제1 기기.
  16. 제13항에 있이서,
    상기 센서부는
    상기 제1 기기의 제1 사용자 신체 일부의 제1 형상 정보, 상기 제1 기기에 대한 제1 가속도 정보 및 상기 제1 기기의 움직임 방향을 나타내는 제1 방향 정보 중 적어도 하나를 감지함으로써 상기 제1 모션을 감지하는 것을 특징으로 하는 제1 기기.
  17. 제13항에 있어서,
    상기 제1 기기 및 상기 제2 기기는
    밴드 형태, 손목 시계 형태 및 팔찌 형태 중 적어도 하나의 형태를 갖는 것을 특징으로 하는 제1 기기.
  18. 제13항에 있어서,
    상기 제어부는
    상기 수신된 정보가 상기 제2 제스처에 대응하고, 상기 제1 제스처에 대응하는 상기 제1 모션의 감지 시점 및 상기 제2 제스처에 대응하는 상기 제2 모션의 감지 시점간의 차가 미리 설정된 시간보다 작으면, 상기 이벤트가 수행되도록 제어하는 것을 특징으로 하는 제1 기기.
  19. 제13항에 있어서,
    상기 통신부는
    상기 제2 모션에 대한 정보를 수신하기 이전에, 서비스 세트 식별자(Service Set Identifier, 이하 ‘SSID’)를 검색하고, 상기 SSID가 검색되지 않으면 상기 SSID를 브로드캐스트하는 것을 특징으로 하는 제1 기기.
  20. 제13항에 있어서,
    상기 제1 제스처 및 상기 제2 제스처의 조합은
    상기 제1 제스처 및 상기 제2 제스처가 실질적으로 동일한 것을 포함하는 것을 특징으로 하는 제1 기기.
  21. 제13항에 있어서,
    상기 제1 제스처 및 상기 제2 제스처의 조합은
    상기 제1 제스처 및 상기 제2 제스처의 궤적 형상이 실질적으로 동일하고, 움직임의 방향이 서로 반대 방향인 것을 포함하는 것을 특징으로 하는 제1 기기.
  22. 제13항에 있어서,
    상기 제1 모션을 감지하기 이전에, 상기 미리 설정된 제스처 그룹에 속하는 상기 제1 제스처 및 상기 제2 제스처를 포함하는 복수의 제스처들에 대한 적어도 하나의 조합을 유지하는 메모리를 더 포함하는 것을 특징으로 하는 제1 기기.
  23. 제22항에 있어서,
    상기 적어도 하나의 조합 각각은
    서로 다른 적어도 둘의 기기들에서 발생되는 종속 제스처들로 구성되고, 상기 종속 제스처들이 함께 발생되는 경우 상응하는 이벤트가 수행되도록 하는 것임을 특징으로 하는 제1 기기.
  24. 제22항에 있어서,
    상기 메모리는
    하나의 기기에서 발생되고, 상기 하나의 기기의 사용자 인터페이스에 대한 입력 이벤트에 대응하는 적어도 하나의 독립 제스처를 상기 적어도 하나의 조합과 별도로 더 유지하는 것을 특징으로 하는 제1 기기.
  25. 제1 기기에서 제2 기기와 통신 서비스를 수행하는 방법에 있어서,
    순차적인 이벤트들에 대응하는 복수의 제스처들을 포함하는 미리 설정된 제스처 그룹을 저장하는 단계;
    모션을 감지하는 단계;
    상기 감지된 모션으로부터 상기 복수의 제스처들 중에서 제1 이벤트에 대응하는 제1 제스처가 식별되면, 상기 제1 이벤트로서 상기 제1 기기의 주변에 위치한 상기 제2 기기로 요청 정보를 전송하는 단계; 및
    상기 복수의 제스처들 중에서 상기 제1 이벤트에 뒤따르는 제2 이벤트에 대응하는 제2 제스처가 상기 제2 기기에서 발생되면, 상기 제2 이벤트로서 상기 제2 기기로부터 전송되는 응답 정보를 수신하는 단계를 포함하는 것을 특징으로 하는 통신 서비스 수행 방법.
  26. 제2 기기와 통신 서비스를 수행하는 제1 기기에 있어서,
    순차적인 이벤트들에 대응하는 복수의 제스처들을 포함하는 미리 설정된 제스처 그룹을 저장하는 메모리;
    모션을 감지하는 센서부;
    상기 감지된 모션으로부터 상기 복수의 제스처들 중에서 제1 이벤트에 대응하는 제1 제스처가 식별되면, 상기 제1 이벤트로서 상기 제1 기기의 주변에 위치한 상기 제2 기기로 요청 정보가 전송되도록 제어하는 제어부; 및
    상기 복수의 제스처들 중에서 상기 제1 이벤트에 뒤따르는 제2 이벤트에 대응하는 제2 제스처가 상기 제2 기기에서 발생되면, 상기 제2 이벤트로서 상기 제2 기기로부터 전송되는 응답 정보를 수신하는 통신부;를 포함하는 것을 특징으로 하는 제1 기기.
  27. 제2 기기에서 제1 기기와 통신 서비스를 수행하는 방법에 있어서,
    제2 모션을 감지하는 단계;
    상기 제2 모션이 미리 설정된 제스처 그룹에 속하는 제2 제스처에 대응하면, 상기 제2 기기의 주변에 위치한 제1 기기로 상기 제2 모션에 대한 정보를 전송하는 단계; 및
    상기 제2 모션의 감지 시점 전 또는 후로부터 미리 설정된 시간이내에 상기 제1 기기에서 상기 미리 설정된 제스처 그룹에 속하는 제1 제스처에 대응하는 제1 모션이 감지되면, 상기 제1 제스처 및 상기 제2 제스처의 조합에 대응하는 이벤트를 수행하는 단계를 포함하는 통신 서비스 수행 방법.
  28. 제1 기기와 통신 서비스를 수행하는 제2 기기에 있어서,
    제2 모션을 감지하는 센서부;
    상기 제2 모션이 미리 설정된 제스처 그룹에 속하는 제2 제스처에 대응하면, 상기 제2 기기의 주변에 위치한 제1 기기로 상기 제2 모션에 대한 정보를 전송하는 통신부; 및
    상기 제2 모션의 감지 시점 전 또는 후로부터 미리 설정된 시간이내에 상기 제1 기기에서 상기 미리 설정된 제스처 그룹에 속하는 제1 제스처에 대응하는 제1 모션이 감지되면, 상기 제1 제스처 및 상기 제2 제스처의 조합에 대응하는 이벤트가 수행되도록 제어하는 제어부;를 포함하는 제2 기기.
KR1020130066264A 2013-06-11 2013-06-11 제스처 기반 통신 서비스 수행 방법 및 장치 KR101824921B1 (ko)

Priority Applications (3)

Application Number Priority Date Filing Date Title
KR1020130066264A KR101824921B1 (ko) 2013-06-11 2013-06-11 제스처 기반 통신 서비스 수행 방법 및 장치
EP14170920.4A EP2813921B1 (en) 2013-06-11 2014-06-03 Method and apparatus for performing communication service based on gesture
US14/295,387 US10019067B2 (en) 2013-06-11 2014-06-04 Method and apparatus for performing communication service based on gesture

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020130066264A KR101824921B1 (ko) 2013-06-11 2013-06-11 제스처 기반 통신 서비스 수행 방법 및 장치

Publications (2)

Publication Number Publication Date
KR20140144412A true KR20140144412A (ko) 2014-12-19
KR101824921B1 KR101824921B1 (ko) 2018-02-05

Family

ID=51032905

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020130066264A KR101824921B1 (ko) 2013-06-11 2013-06-11 제스처 기반 통신 서비스 수행 방법 및 장치

Country Status (3)

Country Link
US (1) US10019067B2 (ko)
EP (1) EP2813921B1 (ko)
KR (1) KR101824921B1 (ko)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017039057A1 (ko) * 2015-08-28 2017-03-09 엘지전자 주식회사 와치 타입 이동 단말기 및 그의 동작 방법
WO2017065380A1 (ko) * 2015-10-13 2017-04-20 삼성전자(주) 전자장치, 디스플레이장치 및 그 제어방법
WO2020050636A1 (ko) * 2018-09-07 2020-03-12 삼성전자 주식회사 사용자 의도 기반 제스처 인식 방법 및 장치

Families Citing this family (31)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101824921B1 (ko) * 2013-06-11 2018-02-05 삼성전자주식회사 제스처 기반 통신 서비스 수행 방법 및 장치
US9374841B2 (en) * 2013-07-22 2016-06-21 Htc Corporation Communicative connection method among multiple devices
WO2015094220A1 (en) * 2013-12-18 2015-06-25 Apple Inc. Gesture-based information exchange between devices in proximity
DE102014201794A1 (de) * 2014-01-31 2015-08-06 Siemens Aktiengesellschaft Generieren eines Eingabebefehls
WO2015185962A1 (en) * 2014-06-03 2015-12-10 Sony Corporation Lifelog camera and method of controlling in association with an intrapersonal area network
KR102271434B1 (ko) * 2014-09-26 2021-07-01 엘지전자 주식회사 이동단말기 및 그 제어방법
USD773172S1 (en) * 2015-03-09 2016-12-06 Drymax Technologies, Inc. Sports band
USD785924S1 (en) * 2015-03-09 2017-05-09 Drymax Technologies, Inc. Wrist band
US11464265B2 (en) 2015-03-09 2022-10-11 Drymax Technologies, Inc. Sports band article
UA115083C2 (uk) * 2015-09-08 2017-09-11 Товариство З Обмеженою Відповідальністю "Маіко" Спосіб обміну даними між електронними пристроями за допомогою жестів
US20170083101A1 (en) * 2015-09-17 2017-03-23 International Business Machines Corporation Gesture recognition data transfer
US20170115737A1 (en) * 2015-10-26 2017-04-27 Lenovo (Singapore) Pte. Ltd. Gesture control using depth data
US10764356B2 (en) * 2016-01-25 2020-09-01 International Business Machines Corporation Automatic information exchange between personal electronic devices upon determination of a business setting
USD777163S1 (en) * 2016-03-07 2017-01-24 Apple Inc. Wearable device
USD781853S1 (en) * 2016-03-07 2017-03-21 Apple Inc. Wearable device
CN107396347A (zh) * 2016-05-16 2017-11-24 阿里巴巴集团控股有限公司 一种智能穿戴设备与智能终端配对的方法、系统及智能终端
US9977510B1 (en) * 2016-09-23 2018-05-22 Wayne A. Moffett Gesture-driven introduction system
JP1589589S (ko) * 2017-02-28 2017-10-30
US10684693B2 (en) 2017-03-02 2020-06-16 Samsung Electronics Co., Ltd. Method for recognizing a gesture and an electronic device thereof
CN110622105B (zh) * 2017-05-09 2022-06-07 三星电子株式会社 基于设备上下文执行至少一个操作的方法和装置
US10558278B2 (en) 2017-07-11 2020-02-11 Apple Inc. Interacting with an electronic device through physical movement
USD838716S1 (en) * 2017-08-23 2019-01-22 Lite-On Technology Corporation Smart watch
JP1612628S (ko) * 2017-12-19 2018-09-03
US10706396B2 (en) 2018-03-19 2020-07-07 Capital One Services, Llc Systems and methods for translating a gesture to initiate a financial transaction
KR20210017515A (ko) * 2019-08-08 2021-02-17 현대자동차주식회사 차량의 모션 인식 장치 및 방법
CN111131190B (zh) * 2019-12-09 2024-03-26 上海传英信息技术有限公司 网络热点分享方法、移动终端及计算机可读存储介质
US11809958B2 (en) * 2020-06-10 2023-11-07 Capital One Services, Llc Systems and methods for automatic decision-making with user-configured criteria using multi-channel data inputs
USD1006398S1 (en) 2020-11-09 2023-12-05 Drymax Technologies, Inc. Pocket band
US11974618B2 (en) 2020-11-09 2024-05-07 Drymax Technologies, Inc. Pocket band
US20220374085A1 (en) * 2021-05-19 2022-11-24 Apple Inc. Navigating user interfaces using hand gestures
EP4369153A1 (en) 2021-12-09 2024-05-15 Samsung Electronics Co., Ltd. Gesture recognition method using wearable device, and device therefor

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8391786B2 (en) * 2007-01-25 2013-03-05 Stephen Hodges Motion triggered data transfer
US8219028B1 (en) * 2008-03-31 2012-07-10 Google Inc. Passing information between mobile devices
EP2146490A1 (en) * 2008-07-18 2010-01-20 Alcatel, Lucent User device for gesture based exchange of information, methods for gesture based exchange of information between a plurality of user devices, and related devices and systems
US20100167646A1 (en) 2008-12-30 2010-07-01 Motorola, Inc. Method and apparatus for device pairing
US20130231088A1 (en) * 2009-03-03 2013-09-05 E3, Llc System and method for social profiling using wireless communication devices
DE102009027816A1 (de) * 2009-07-17 2011-01-20 Art+Com Ag System, Verfahren, Kommunikationsendgerät und Vermittlungseinheit
KR101105297B1 (ko) 2009-12-01 2012-01-17 한국과학기술원 팔찌형 개인정보 교환장치
JP2011198268A (ja) * 2010-03-23 2011-10-06 Sony Corp 情報処理装置および方法、並びにプログラム
US20120139907A1 (en) * 2010-12-06 2012-06-07 Samsung Electronics Co., Ltd. 3 dimensional (3d) display system of responding to user motion and user interface for the 3d display system
US20150019459A1 (en) * 2011-02-16 2015-01-15 Google Inc. Processing of gestures related to a wireless user device and a computing device
US8786680B2 (en) * 2011-06-21 2014-07-22 Disney Enterprises, Inc. Motion capture from body mounted cameras
JP2015505694A (ja) * 2011-12-07 2015-02-26 アクセス ビジネス グループ インターナショナル リミテッド ライアビリティ カンパニー 行動トラッキングおよび修正システム
TWI498016B (zh) * 2012-04-12 2015-08-21 國立臺灣大學 無線通訊系統及其方法
US9147057B2 (en) * 2012-06-28 2015-09-29 Intel Corporation Techniques for device connections using touch gestures
US9529439B2 (en) * 2012-11-27 2016-12-27 Qualcomm Incorporated Multi device pairing and sharing via gestures
US9442570B2 (en) * 2013-03-13 2016-09-13 Google Technology Holdings LLC Method and system for gesture recognition
US20140304663A1 (en) * 2013-04-05 2014-10-09 Prashant Mishra Gesture Interface
KR101824921B1 (ko) * 2013-06-11 2018-02-05 삼성전자주식회사 제스처 기반 통신 서비스 수행 방법 및 장치

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017039057A1 (ko) * 2015-08-28 2017-03-09 엘지전자 주식회사 와치 타입 이동 단말기 및 그의 동작 방법
WO2017065380A1 (ko) * 2015-10-13 2017-04-20 삼성전자(주) 전자장치, 디스플레이장치 및 그 제어방법
WO2020050636A1 (ko) * 2018-09-07 2020-03-12 삼성전자 주식회사 사용자 의도 기반 제스처 인식 방법 및 장치
US11416080B2 (en) 2018-09-07 2022-08-16 Samsung Electronics Co., Ltd. User intention-based gesture recognition method and apparatus

Also Published As

Publication number Publication date
EP2813921A1 (en) 2014-12-17
US10019067B2 (en) 2018-07-10
KR101824921B1 (ko) 2018-02-05
EP2813921B1 (en) 2016-07-27
US20140365979A1 (en) 2014-12-11

Similar Documents

Publication Publication Date Title
KR101824921B1 (ko) 제스처 기반 통신 서비스 수행 방법 및 장치
US11360558B2 (en) Computer systems with finger devices
US10942615B2 (en) Reconfigurable clip-on modules for mobile computing devices
US10838495B2 (en) Devices for controlling computers based on motions and positions of hands
US10974138B2 (en) Haptic surround functionality
JP6669069B2 (ja) 検出装置、検出方法、制御装置、および制御方法
KR102135586B1 (ko) 이동 단말기 및 이의 제어방법
US9529447B2 (en) Removable input module
KR20160145981A (ko) 인솔, 이동 단말기 및 그 제어 방법
EP3224693A1 (en) Charging device for removable input modules
US20210089131A1 (en) Finger-Mounted Input Devices
WO2015021764A1 (zh) 一种图像的处理方法、装置和终端设备
WO2017193998A1 (zh) 即时通信方法和装置
JP2024516475A (ja) リストバンドシステムのための分割アーキテクチャならびに関連するデバイスおよび方法
Kim et al. Tongue-operated assistive technology with access to common smartphone applications via Bluetooth link
KR102130801B1 (ko) 손목 스탭 검출 장치 및 그 방법
KR20120133347A (ko) 원격 협동 재활 훈련 시스템
CN117298590A (zh) 一种虚拟现实的交互方法、相关装置、设备以及存储介质
CN113495944A (zh) 信息处理方法、装置、存储介质及终端
KR20160053662A (ko) 이동 단말기 및 그 제어 방법

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right