KR20160025722A - 손목 근육들의 움직임들에 상응하는 사용자 입력을 처리할 수 있는 애플리케이션 프로세서와 이를 포함하는 장치들 - Google Patents

손목 근육들의 움직임들에 상응하는 사용자 입력을 처리할 수 있는 애플리케이션 프로세서와 이를 포함하는 장치들 Download PDF

Info

Publication number
KR20160025722A
KR20160025722A KR1020140112870A KR20140112870A KR20160025722A KR 20160025722 A KR20160025722 A KR 20160025722A KR 1020140112870 A KR1020140112870 A KR 1020140112870A KR 20140112870 A KR20140112870 A KR 20140112870A KR 20160025722 A KR20160025722 A KR 20160025722A
Authority
KR
South Korea
Prior art keywords
application program
controller
user
input value
sensors
Prior art date
Application number
KR1020140112870A
Other languages
English (en)
Other versions
KR102343657B1 (ko
Inventor
정홍석
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020140112870A priority Critical patent/KR102343657B1/ko
Priority to US14/731,034 priority patent/US9971313B2/en
Priority to TW104120405A priority patent/TWI681314B/zh
Priority to CN201510530571.0A priority patent/CN105388996B/zh
Publication of KR20160025722A publication Critical patent/KR20160025722A/ko
Application granted granted Critical
Publication of KR102343657B1 publication Critical patent/KR102343657B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G04HOROLOGY
    • G04GELECTRONIC TIME-PIECES
    • G04G21/00Input or output devices integrated in time-pieces
    • GPHYSICS
    • G04HOROLOGY
    • G04GELECTRONIC TIME-PIECES
    • G04G21/00Input or output devices integrated in time-pieces
    • G04G21/02Detectors of external physical values, e.g. temperature
    • G04G21/025Detectors of external physical values, e.g. temperature for measuring physiological data
    • GPHYSICS
    • G04HOROLOGY
    • G04GELECTRONIC TIME-PIECES
    • G04G21/00Input or output devices integrated in time-pieces
    • G04G21/08Touch switches specially adapted for time-pieces
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/163Wearable computers, e.g. on a belt
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/014Hand-worn input/output arrangements, e.g. data gloves
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/015Input arrangements based on nervous system activity detection, e.g. brain waves [EEG] detection, electromyograms [EMG] detection, electrodermal response detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Hardware Design (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Neurology (AREA)
  • Neurosurgery (AREA)
  • Dermatology (AREA)
  • Physiology (AREA)
  • Biophysics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • User Interface Of Digital Computer (AREA)
  • Electric Clocks (AREA)

Abstract

웨어러블 손목 시계는 손목 밴드와, 상기 손목 밴드에 형성되고, 사용자의 손목 근육들의 움직임들을 감지하고, 감지 신호들을 생성하는 센서들과, 상기 손목 밴드에 접속되고 디스플레이를 포함하는 장치 모듈을 포함한다. 상기 장치 모듈은 운영 체계와 애플리케이션 프로그램들을 저장하는 제1메모리와, 기준 입력 값들을 저장하는 제2메모리와, 상기 운영 체계와 상기 애플리케이션 프로그램들을 실행할 수 있는 컨트롤러를 포함하고, 상기 컨트롤러는 상기 애플리케이션 프로그램들 중에서 제1애플리케이션 프로그램을 실행하고, 상기 감지 신호들에 상응하는 현재 입력 값과 상기 기준 입력 값들 각각을 비교하고, 비교의 결과에 따라 상기 제1애플리케이션 프로그램의 기능들 중에서 어느 하나의 기능을 실행한다.

Description

손목 근육들의 움직임들에 상응하는 사용자 입력을 처리할 수 있는 애플리케이션 프로세서와 이를 포함하는 장치들{APPLICATION PROCESSOR FOR PROCESSING USER INPUT CORRESPONDING TO MOVEMENTS OF WRIST MUSCLES AND DEVICES INCLUDING SAME}
본 발명의 개념에 따른 실시 예는 집적 회로에 관한 것으로, 특히 손목 근육들의 움직임들에 상응하는 사용자 입력을 처리할 수 있는 애플리케이션 프로세서와 이를 포함하는 장치들에 관한 것이다.
스마트 시계(smart watch)는 디스플레이를 포함하는 시계 본체와, 상기 시계 본체를 고정하고 사용자의 손목에 상기 스마트 시계를 착용하기 위한 손목 밴드를 포함한다.
사용자가 디스플레이의 터치 스크린을 이용하여 사용자 입력을 시계 본체에 입력하면, 상기 시계 본체의 프로세서는 상기 사용자 입력에 따라 상기 스마트 시계를 제어하거나 작동시킬 수 있다.
사용자가 시계 본체의 디스플레이의 터치 스크린을 터치(또는 조작)하려면, 스마트 시계를 착용하지 않은 다른 손으로 상기 터치 스크린을 터치(또는 조작)해야 한다. 따라서, 사용자는 한 손으로 스마트 시계를 조작할 수 없다. 또한, 사용자가 스마트 시계를 착용하지 않은 다른 손을 다른 용도로 사용하고 있을 때, 상기 사용자는 상기 다른 손을 이용하여 즉각적으로 상기 스마트 시계를 조작하기 어렵다.
본 발명이 이루고자 하는 기술적인 과제는, 사용자가 스마트 시계를 착용하지 않은 다른 손을 이용하지 않고도 즉각적으로 상기 스마트 시계를 조작할 수 있도록, 손목 근육들의 움직임들에 상응하는 사용자 입력을 처리할 수 있는 애플리케이션 프로세서와 이를 포함하는 장치들을 제공하는 것이다.
본 발명의 실시 예에 따른 웨어러블 손목 시계는 손목 밴드와, 상기 손목 밴드에 형성되고, 사용자의 손목 근육들의 움직임들을 감지하고, 감지 신호들을 생성하는 센서들과, 상기 손목 밴드에 접속되고 디스플레이를 포함하는 장치 모듈을 포함하고, 상기 장치 모듈은 운영 체계와 애플리케이션 프로그램들을 저장하는 제1메모리와, 기준 입력 값들을 저장하는 제2메모리와, 상기 운영 체계와 상기 애플리케이션 프로그램들을 실행할 수 있는 컨트롤러를 포함하고, 상기 컨트롤러는 상기 애플리케이션 프로그램들 중에서 제1애플리케이션 프로그램을 실행하고, 상기 감지 신호들에 상응하는 현재 입력 값과 상기 기준 입력 값들 각각을 비교하고, 비교의 결과에 따라 상기 제1애플리케이션 프로그램의 기능들 중에서 어느 하나의 기능을 실행한다.
상기 장치 모듈은 모듈들을 더 포함하고, 상기 컨트롤러는 상기 모듈들 중에서 어느 하나로부터 출력된 인터럽트 신호에 응답하여 상기 제1애플리케이션 프로그램을 실행한다.
실시 예에 따라, 상기 컨트롤러는, 상기 인터럽트 신호에 응답하여, 백그라운드에서 실행 중인 상기 제1애플리케이션 프로그램을 포그라운드(foreground)로 실행한다.
다른 실시 예에 따라, 상기 컨트롤러는, 상기 애플리케이션 프로그램들 각각의 실행 빈도를 판단하고, 가장 높은 실행 빈도를 갖는 상기 제1애플리케이션 프로그램을 실행한다.
또 다른 실시 예에 따라, 상기 컨트롤러는 사용자에 의해 설정된 값에 따라 상기 제1애플리케이션 프로그램을 실행한다.
상기 컨트롤러는 상기 기준 입력 값들 중에서 사용 빈도가 가장 높은 기준 입력 값부터 상기 현재 입력 값과 비교한다.
상기 제1애플리케이션은 위치 기반 서비스를 제공하는 애플리케이션과 외부 장치와의 페어링을 수행하는 애플리케이션 중에서 어느 하나일 수 있다.
상기 제1애플리케이션은 상기 운영 체계일 수 있다.
상기 센서들은 EMG(electromyography) 센서들일 수 있다.
본 발명의 실시 예에 따른 애플리케이션 프로세서는 기준 입력 값들을 저장하는 메모리와, 운영 체계와 애플리케이션 프로그램들을 실행하는 컨트롤러를 포함하고, 상기 컨트롤러는 상기 애플리케이션 프로그램들 중에서 제1애플리케이션 프로그램을 실행하고, 센서들로부터 수신된 감지 신호들에 기초하여 현재 입력 값을 생성하고, 상기 현재 입력 값과 상기 기준 입력 값들 각각을 비교하고, 비교의 결과에 따라 상기 제1애플리케이션 프로그램의 기능들 중에서 어느 하나의 기능을 실행한다.
본 발명의 실시 예에 따른 시스템 온 칩(system on chip(SoC))은 운영 체계와 애플리케이션 프로그램들을 저장하는 제1메모리와, 기준 입력 값들을 저장하는 제2메모리와, 상기 운영 체계와 상기 애플리케이션 프로그램들을 실행하는 컨트롤러를 포함하고, 상기 컨트롤러는 상기 애플리케이션 프로그램들 중에서 제1애플리케이션 프로그램을 실행하고, 센서들로부터 수신된 감지 신호들에 기초하여 현재 입력 값을 생성하고, 상기 현재 입력 값과 상기 기준 입력 값들 각각을 비교하고, 비교의 결과에 따라 상기 제1애플리케이션 프로그램의 기능들 중에서 어느 하나의 기능을 실행한다.
본 발명의 실시 예에 따른 웨어러블 손목 시계의 작동 방법은 컨트롤러가 운영 체계와 애플리케이션 프로그램들을 백그라운드에서 실행하는 단계와, 상기 컨트롤러가 상기 애플리케이션 프로그램들 중에서 제1애플리케이션 프로그램을 포그라운드에서 실행하는 단계와, 상기 컨트롤러가 손목 밴드에 형성된 센서들로부터 출력된 사용자의 손목 근육들의 움직임에 상응하는 감지 신호들을 수신하는 단계와, 상기 컨트롤러가 상기 감지 신호들에 상응하는 현재 입력 값과 메모리로부터 수신된 기준 입력 값들 각각을 비교하고, 비교의 결과에 따라 상기 제1애플리케이션 프로그램의 기능들 중에서 어느 하나의 기능을 실행하는 단계를 포함한다.
상기 제1애플리케이션 프로그램을 포그라운드에서 실행하는 단계는 상기 컨트롤러가 상기 웨어러블 손목 시계에 구현된 모듈들 중에서 어느 하나로부터 출력된 인터럽트 신호를 수신하는 단계와, 상기 컨트롤러가 상기 인터럽트 신호에 응답하여 상기 제1애플리케이션 프로그램을 상기 포그라운드에서 실행하는 단계를 포함한다.
상기 제1애플리케이션 프로그램을 포그라운드에서 실행하는 단계는 상기 컨트롤러가 상기 애플리케이션 프로그램들 각각의 실행 빈도를 판단하고, 가장 높은 실행 빈도를 갖는 상기 제1애플리케이션 프로그램을 상기 포그라운드에서 실행하는 단계를 포함한다.
상기 컨트롤러는 사용자에 의해 설정된 값에 따라 상기 제1애플리케이션 프로그램을 상기 포그라운드에서 실행한다.
본 발명의 실시 예에 따른 웨어러블 손목 시계는 사용자가 상기 웨어러블 손목 시계를 착용하지 않은 다른 손을 이용하지 않고도 즉각적으로 상기 웨어러블 손목 시계를 조작할 수 있는 효과가 있다.
본 발명의 실시 예에 따른 웨어러블 손목 시계의 사용자는 애플리케이션 프로그램들 각각의 기능들 각각에 하나의 기준 입력 값을 설정(또는 할당)할 수 있으므로, 상기 웨어러블 손목 시계는 포그라운드로 실행되는 애플리케이션 프로그램, 사용 빈도가 가장 높은 애플리케이션 프로그램, 또는 사용자에 의해 디폴트로 설정된 애플리케이션 프로그램에 대한 현재 입력 값을 해석하고, 해석의 결과에 따라 원하는 애플리케이션 프로그램의 기능을 신속하게 실행할 수 있는 효과가 있다.
본 발명의 상세한 설명에서 인용되는 도면을 보다 충분히 이해하기 위하여 각 도면의 상세한 설명이 제공된다.
도 1은 본 발명의 실시 예에 따른 웨어러블 손목 시계를 손목에 착용한 모습을 나타낸다.
도 2는 도 1의 손목 밴드에 구현된 센서들을 나타낸다.
도 3은 본 발명의 실시 예에 따른 웨어러블 손목 시계를 손목에 착용했을 때의 센서들의 위치들을 나타낸다.
도 4a는 도 1에 도시된 장치 모듈의 블록도를 나타낸다.
도 4b는 도 1의 장치 모듈에서 실행되는 감지 애플리케이션 프로그램의 작동과 타켓 애플리케이션 프로그램의 작동을 설명하기 위한 개념도이다.
도 5는 사용자의 제1제스처와 제1감지 신호들의 파형을 나타낸다.
도 6은 사용자의 제2제스처와 제2감지 신호들의 파형을 나타낸다.
도 7은 사용자의 제3제스처와 제3감지 신호들의 파형을 나타낸다.
도 8은 제1사용자에 의해 정의된 기능들의 실시 예들을 나타낸다.
도 9는 제2사용자에 의해 정의된 기능들의 실시 예들을 나타낸다.
도 10은 각 애플리케이션 프로그램별로 정의되는 각 기능의 실시 예를 나타낸다.
도 11은 각 애플리케이션 프로그램별로 각 기능을 설정하는 방법을 설명하기 위한 플로우차트이다.
도 12는 도 1에 도시된 웨어러블 손목 시계의 작동을 설명하기 위한 개념도들이다.
도 13은 도 1에 도시된 웨어러블 손목 시계의 작동의 일 실시 예를 설명하기 위한 플로우차트이다.
도 14는 도 1에 도시된 웨어러블 손목 시계의 작동의 다른 실시 예를 설명하기 위한 플로우차트이다.
도 15는 도 1에 도시된 웨어러블 손목 시계의 작동의 또 다른 실시 예를 설명하기 위한 플로우차트이다.
도 16은 각 애플리케이션 프로그램별로 정의되는 각 기능의 사용 빈도를 포함하는 테이블의 일 실시 예를 나타낸다.
도 17은 사용자의 연속적인 제스처들에 대한 감지 신호들의 파형도를 나타낸다.
도 18은 기준 입력 값들 중에서 사용 빈도가 가장 높은 기준 입력 값부터 현재 입력 값과 비교하는 컨트롤러의 작동을 설명하기 위한 개념도이다.
본 명세서에 개시되어 있는 본 발명의 개념에 따른 실시 예들에 대해서 특정한 구조적 또는 기능적 설명은 단지 본 발명의 개념에 따른 실시 예들을 설명하기 위한 목적으로 예시된 것으로서, 본 발명의 개념에 따른 실시 예들은 다양한 형태들로 실시될 수 있으며 본 명세서에 설명된 실시 예들에 한정되지 않는다.
본 발명의 개념에 따른 실시 예들은 다양한 변경들을 가할 수 있고 여러 가지 형태들을 가질 수 있으므로 실시 예들을 도면에 예시하고 본 명세서에서 상세하게 설명하고자 한다. 그러나, 이는 본 발명의 개념에 따른 실시 예들을 특정한 개시 형태들에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물, 또는 대체물을 포함한다.
제1 또는 제2 등의 용어는 다양한 구성 요소들을 설명하는데 사용될 수 있지만, 상기 구성 요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성 요소를 다른 구성 요소로부터 구별하는 목적으로만, 예컨대 본 발명의 개념에 따른 권리 범위로부터 벗어나지 않은 채, 제1구성 요소는 제2구성 요소로 명명될 수 있고 유사하게 제2구성 요소는 제1구성 요소로도 명명될 수 있다.
어떤 구성 요소가 다른 구성 요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성 요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성 요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성 요소가 다른 구성 요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는 중간에 다른 구성 요소가 존재하지 않는 것으로 이해되어야 할 것이다. 구성 요소들 간의 관계를 설명하는 다른 표현들, 즉 "~사이에"와 "바로 ~사이에" 또는 "~에 이웃하는"과 "~에 직접 이웃하는" 등도 마찬가지로 해석되어야 한다.
본 명세서에서 사용한 용어는 단지 특정한 실시 예를 설명하기 위해 사용된 것으로서, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 명세서에서, "포함하다" 또는 "가지다" 등의 용어는 본 명세서에 기재된 특징, 숫자, 단계, 동작, 구성 요소, 부분품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성 요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 나타낸다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 의미를 갖는 것으로 해석되어야 하며, 본 명세서에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.
이하, 본 명세서에 첨부된 도면들을 참조하여 본 발명의 실시 예들을 상세히 설명한다.
도 1은 본 발명의 실시 예에 따른 웨어러블 손목 시계를 손목에 착용한 모습을 나타낸다.
도 1에서는 손목(10)에 착용한 웨어러블 손목 시계(100)가 도시되어 있다. 웨어러블 손목 시계(100)는 스마트 시계(smart watch)를 의미하는 것으로서, 본 발명의 실시 예에 따른 시스템과 방법은 다양한 스마트 장치에 적용될 수 있다.
웨어러블 손목 시계(100)는 손목 밴드(110)와 장치 모듈(120)을 포함한다. 손목 밴드(110)는, 웨어러블 손목 시계(100)를 사용자의 손목(10)에 착용하기 위한 것으로서, 시계 스트랩(watch strap) 또는 부착 밴드(attachment band)로 불릴 수 있다.
손목 밴드(110)는 하나 또는 그 이상의 조각들(pieces)을 포함하는 벨트 (belt) 또는 스트랩(strap)을 포함할 수 있고, 유연하거나(flexible) 신축성 (elastic)이 있는 물질로 구현될 수 있다.
손목 밴드(110)는 사용자의 손목 근육들(또는 힘줄들(tendons))의 움직임들을 감지하고, 감지 신호들을 생성하는 센서들을 포함할 수 있다. 상기 감지 신호들은 초기 설정 작동시에는 기준 입력 값으로 사용되고, 실제 사용시에는 현재 입력 값으로 사용될 수 있다. 상기 센서들은 근전도(electromyography(EMG)) 센서들, 근육들의 움직임들을 감지하는 센서들, 또는 손목 근육들의 움직임들에 따라 변하는 압력을 측정하는 압력 센서들로 구현될 수 있으나 이에 한정되는 것은 아니다.
장치 모듈(120)은 사각형, 타원, 또는 원형으로 구현될 수 있으나 이에 한정되는 것은 아니다. 장치 모듈(120)의 구조와 작동은 도 4a를 참조하여 상세히 설명될 것이다.
도 2는 도 1의 손목 밴드에 구현된 센서들을 나타낸다.
도 2의 (a)를 참조하면, 센서들 중에서 제1센서들(SA, SB, SC, 및 SD)은 장치 모듈(120)의 뒷면 또는 손목 밴드(110)에 구현될 수 있다. 실시 예들에 따라, 장치 모듈(120)은 손목 밴드(110)에 접속되거나 손목 밴드(110)의 제1표면에 부착될 수 있다. 이때, 제1센서들(SA, SB, SC, 및 SD)은 손목 밴드(110)의 제2표면에 부착될 수 있다.
도 2의 (b)를 참조하여, 상기 센서들 중에서 제2센서들(SE, SF, SG, 및 SH)은 제1센서들(SA, SB, SC, 및 SD)의 반대쪽에 구현될 수 있다.
도 3은 본 발명의 실시 예에 따른 웨어러블 손목 시계를 손목에 착용했을 때의 센서들의 위치들을 나타낸다.
도 3의 (a)에 도시된 바와 같이, 제1센서들(SA, SB, SC, 및 SD)은 손목(10)의 제1부분의 손목 근육들의 움직임들을 감지하고 감지 신호들을 생성한다. 도 3의 (b)에 도시된 바와 같이, 제2센서들(SE, SF, SG, 및 SH)은 손목(10)의 제2부분의 손목 근육들의 움직임들을 감지하고 감지 신호들을 생성한다.
도 2와 도 4a에서는 설명의 편의를 위해, 8개의 센서들(SA~SH)이 도시되어 있으나 본 발명의 기술적 사상이 센서들의 개수에 한정되는 것은 아니다.
도 4a는 도 1에 도시된 장치 모듈의 블록도를 나타낸다.
장치 모듈(120)은 바디(body) 또는 하우징(housing)으로 불릴 수 있다.
장치 모듈(120)은 시스템 온 칩(system on chip(SoC); 210)과 디스플레이 (220)를 포함한다. 도 4a에서는 설명의 편의를 위해 장치 모듈(120)과 복수의 센서들(SA~SH)을 함께 도시한다.
SoC(210)은 패키지로 패키징될 수 있다. SoC(210)는 마이크로폰(212), 제1메모리(214), 및 프로세서(230)를 포함한다.
마이크로폰(212)은 사용자의 음성을 사용자-입력 인터페이스(246)를 통해 프로세서(230)로 전송할 수 있다.
제1메모리(214)는 프로세서(230)에 접속되고, 운영 체계(operating system(OS)), 다양한 애플리케이션 프로그램들, 및 데이터를 저장할 수 있다. 제1메모리(214)는 휘발성 메모리 또는 불휘발성 메모리를 포함하고, 제1메모리(214)는 고정된(fixed) 메모리 또는 제거할 수 있는(removable) 메모리로 구현될 수 있다.
제1메모리(214)는 DRAM(dynamic random access memory), SRAM(static random access memory), ROM(read-only memory), EPROM(Erasable Programmable Read-Only Memory), 또는 EEPROM(Erasable Electric Programmable Read-Only Memory)으로 구현될 수 있다.
프로세서(230)는 CPU(232), 메모리 컨트롤러(234), 제2메모리(236), 하나 또는 그 이상의 모듈들(238, 240, 242, 및 244), 사용자-입력 인터페이스(246), 디스플레이 컨트롤러(248), 및 센서 인터페이스(250)를 포함할 수 있다.
프로세서(230)는 집적 회로(IC), SoC, 애플리케이션 프로세서(application processor(AP)), 또는 모바일 AP로 구현될 수 있다.
프로세서(230)는 마이크로폰(212)과 제1메모리(214)의 작동을 제어할 수 있다.
CPU(232)는 컨트롤러의 기능을 수행하고, 하나 또는 그 이상의 코어들 (cores)을 포함한다. CPU(232)는 제1메모리(214)로부터 출력된 OS와 다양한 애플리케이션 프로그램들을 실행할 수 있다. 상기 OS와 상기 애플리케이션 프로그램들 각각은 CPU(232)에 제어에 따라 백그라운드(background)로 또는 포드라운드 (foreground)로 실행될 수 있다.
CPU(232)는 메모리 컨트롤러(234)를 통해 제1메모리(214)로부터 OS와 애플리케이션 프로그램들을 리드하고 실행할 수 있다. 또한, CPU(232)는 메모리 컨트롤러 (234)를 통해 제1메모리(214)로 애플리케이션 프로그램 및/또는 데이터를 라이트할 수 있다.
CPU(232)는 본 발명의 실시 예에 따라 손목 근육들의 움직임들에 상응하는 사용자 입력을 처리할 수 있는 애플리케이션 프로그램(이하, '감지 애플리케이션 프로그램(SAPP)'이라 한다)을 제1메모리(214)에 저장하거나, 제1메모리(214)에 저장된 감지 애플리케이션 프로그램(SAPP)을 리드하고 실행할 수 있다.
실시 예들에 따라, 손목 근육들의 움직임들에 상응하는 사용자 입력을 애플리케이션별로 처리할 수 있는 방법은 하드웨어-기반의 CPU(232)에 의해 처리될 수도 있고, CPU(232)에 의해 실행되는 감지 애플리케이션 프로그램(SAPP)에 따라 소프트웨어-기반으로 처리될 수 있다.
제2메모리(236)는 기준 입력 값들을 저장할 수 있고, 상기 기준 입력 값들은 테이블(236-1)의 형태로 저장될 수 있다.
도 4b는 도 1의 장치 모듈에서 실행되는 감지 애플리케이션 프로그램의 작동과 타켓 애플리케이션 프로그램의 작동을 설명하기 위한 개념도이다.
도 4a와 도 4b를 참조하면, CPU(232)는 감지 애플리케이션 프로그램(SAPP)을 이용하여 기준 입력 값들을 메모리(214 또는 236)에 저장하거나, 감지 애플리케이션 프로그램(SAPP)을 이용하여 비교를 위해 메모리(214 또는 236)에 저장된 기준 입력 값들을 리드할 수 있다. 실시 예들에 따라, CPU(232)는 별도의 메모리 컨트롤러(미도시)를 통해 제2메모리(236)에 데이터(예컨대, 기준 입력 값들)를 저장하는 작동과 제2메모리(236)에 저장된 데이터(예컨대, 기준 입력 값들)를 리드하는 작동을 수행할 수 있다.
CPU(232)에 의해 실행되는 감지 애플리케이션 프로그램(SAPP)은 센서들 (SA~SH)로부터 전송된 감지 신호들에 상응하는 현재 입력 값을 생성할 수 있다 (S10).
감지 애플리케이션 프로그램(SAPP)은, 상기 감지 신호들에 응답하여, 기준 입력 값들을 제2메모리(236)로부터 읽어오고, 상기 현재 입력 값과 상기 기준 입력 값들 각각을 비교하고, 비교 결과에 따라 기능 실행 신호(FES)를 타겟 애플리케이션 프로그램(TAPP)로 출력할 수 있다(S12). 타겟 애플리케이션 프로그램(TAPP)은 기능 실행 신호(FES)에 상응하는 기능을 수행할 수 있다(S20).
제2메모리(236)는 휘발성 메모리 또는 불휘발성 메모리로 구현될 수 있다. 실시 예에 따라, 제2메모리(236)는 캐시(cache) 또는 SRAM으로 구현될 수 있다.
하나 또는 그 이상의 모듈들(238, 240, 242, 및 244)은 멀티미디어 모듈 (238), 무선 통신 모듈(240), 진동 모듈(242), 및 데이터 링크 모듈(244) 중에서 적어도 하나를 포함할 수 있다.
멀티미디어 모듈(238)은 코덱(codec) 또는 MFC(multi-function codec)과 같은 멀티미디어 플레이어를 포함할 수 있다.
무선 통신 모듈(240)은 이동 전화 송수신기(mobile/cellular transceiver) 및/또는 무선 네트워크 인터페이스를 포함할 수 있다. 상기 무선 네트워크 인터페이스는 무선 인터넷 인터페이스, 블루투스(bluetooth) 인터페이스, WiFi 인터페이스, 및/또는 NFC(near field communication) 인터페이스를 포함할 수 있다.
진동 모듈(242)은 CPU(232)의 제어에 따라 진동을 생성할 수 있다.
데이터 링크 모듈(244)은 USB 포트, 외장 메모리 포트, 또는 다른 적당한 포트를 포함할 수 있다.
사용자-입력 인터페이스(246)는 터치 스크린, 터치 패드, 또는 키패드를 포함할 수 있다.
디스플레이 컨트롤러(248)는, CPU(232)의 제어에 따라, 디스플레이 데이터 또는 UI(user interface)를 디스플레이(220)로 전송할 수 있다. 따라서, 디스플레이(220)는 상기 디스플레이 데이터 또는 상기 UI를 디스플레이할 수 있다.
사용자-입력 인터페이스(246)가 터치 스크린, 터치 스크린 패널, 또는 터치 패드로 구현될 때, 사용자는 사용자-입력 인터페이스(246) 또는 디스플레이(220)를 통해 OS, 다양한 애플리케이션 프로그램들, 및/또는 감지 애플리케이션 프로그램 (SAPP)를 실행시킬 수 있다. 실시 예에 따라, 사용자-입력 인터페이스(246)와 디스플레이(220)는 하나의 디스플레이 모듈로 구현될 수 있다. 디스플레이(220)는 TFT-LCD(Thin Film Transistor-Liquid Crystal Display), LED(light-emitting diode) 디스플레이, OLED(organic LED) 디스플레이, AMOLED(active-matrix OLED) 디스플레이, 또는 플렉시블 (flexible) 디스플레이로 구현될 수 있다.
센서 인터페이스(250)는 복수의 센서들(SA~SH)에 의해 감지된 감지 신호들에 상응하는 신호들(예컨대, 아날로그 신호들 또는 디지털 신호들)을 CPU(232)로 전송할 수 있다. 예컨대, 센서 인터페이스(250)는 감지된 신호들을 디지털 신호들로 변환하는 아날로그-디지털 변환을 수행할 수 있다.
본 명세서에서는 본 발명의 기술적 사상의 쉬운 이해를 위해, 감지 신호들이 아날로그 신호들의 형태로 도시되어 있으나, 상기 감지 신호들은 디지털 신호들의 형태들로 처리(예컨대, 저장 또는 비교)될 수 있다.
또한, 실시 예들에 따라, 프로세서(230)의 내부에 구현된 적어도 하나의 구성 요소(238, 240, 242, 및 244)는 프로세서(230)의 외부에 구현될 수 있다.
도 5는 사용자의 제1제스처와 제1감지 신호들의 파형을 나타낸다.
도 1부터 도 5를 참조하면, 도 5의 (a)에 도시된 사용자의 제1제스처 (GESTURE1), 예컨대 손가락들의 움직임들이 발생했을 때, 센서들(SA~SH)로부터 출력된 제1감지 신호들(SA1~SH1)의 파형도는 도 5의 (b)에 도시된 바와 같다. 도 5의 (b)의 파형들(SA1~SH1)은 현재 입력 값 또는 기준 입력 값을 생성(또는 정의)하는데 사용될 수 있다. CPU(232) 또는 감지 애플리케이션(SAPP)은 제1샘플링 구간(T1)의 신호들을 이용하여 현재 입력 값 또는 기준 입력 값을 생성(또는 정의)할 수 있다.
도 6은 사용자의 제2제스처와 제2감지 신호들의 파형을 나타낸다.
도 1부터 도 4b, 및 도 6을 참조하면, 도 6의 (a)에 도시된 사용자의 제2제스처(GESTURE2), 예컨대 손가락들의 움직임들이 발생했을 때, 센서들(SA~SH)로부터 출력된 제2감지 신호들(SA2~SH2)의 파형도는 도 6의 (b)에 도시된 바와 같다. 도 6의 (b)의 파형들(SA2~SH2)은 현재 입력 값 또는 기준 입력 값을 생성(또는 정의)하는데 사용될 수 있다. CPU(232) 또는 감지 애플리케이션(SAPP)은 제1샘플링 구간(T1)의 신호들을 이용하여 현재 입력 값 또는 기준 입력 값을 생성(또는 정의)할 수 있다.
도 7은 사용자의 제3제스처와 제3감지 신호들의 파형을 나타낸다.
도 1부터 도 4b, 및 도 7을 참조하면, 도 7의 (a)에 도시된 사용자의 제3제스처(GESTURE3), 예컨대 손가락들의 움직임들이 발생했을 때, 센서들(SA~SH)로부터 출력된 제3감지 신호들(SA3~SH3)의 파형도는 도 7의 (b)에 도시된 바와 같다. 도 7의 (b)의 파형들(SA3~SH3)은 현재 입력 값 또는 기준 입력 값을 생성(또는 정의)하는데 사용될 수 있다. CPU(232) 또는 감지 애플리케이션(SAPP)은 제1샘플링 구간(T1)의 신호들을 이용하여 현재 입력 값 또는 기준 입력 값을 생성(또는 정의)할 수 있다.
도 5부터 도 7에 도시된 바와 같이, 센서들(SA~SH)로부터 출력된 제1감지 신호들(SSA1~SSH1)에 관련된 신호들, 제2감지 신호들(SSA2~SSH2)에 관련된 신호들, 또는 제3감지 신호들(SSA3~SSH3)에 상응하는 신호들은 센서 인터페이스(250)를 통해 CPU(232)로 전송될 수 있다.
도 8은 제1사용자에 의해 정의된 기능들의 실시 예들을 나타낸다.
도 8을 참조하면, 제1사용자는, 도 8의 (a)에 도시된 제스처(예컨대, 손가락들의 움직임들)와 감지 애플리케이션 프로그램(SAPP)를 이용하여, 타겟 애플리케이션 프로그램(예컨대, 전화 애플리케이션 프로그램)의 제1기능(예컨대, 통화 수신)을 정의할 수 있다. 따라서, CPU(232)에 의해 포그라운드(foreground)로 실행되는 상기 타겟 애플리케이션 프로그램은 상기 제1기능을 수행할 수 있다.
또한, 제1사용자는, 도 8의 (b)에 도시된 제스처(예컨대, 손가락들의 움직임들)와 감지 애플리케이션 프로그램(SAPP)를 이용하여, 타겟 애플리케이션 프로그램 (예컨대, 전화 애플리케이션 프로그램)의 제2기능(예컨대, 통화 수신 거절)을 정의할 수 있다. 따라서, CPU(232)에 의해 포드라운드로 실행되는 상기 타겟 애플리케이션 프로그램은 상기 제2기능을 수행할 수 있다.
도 9는 제2사용자에 의해 정의된 기능들의 실시 예들을 나타낸다.
도 9를 참조하면, 제1사용자는, 도 9의 (a)에 도시된 제스처(예컨대, 손가락들의 움직임들)와 감지 애플리케이션 프로그램(SAPP)를 이용하여, 타겟 애플리케이션 프로그램(예컨대, 전화 애플리케이션 프로그램)의 제1기능(예컨대, 통화 수신)을 정의할 수 있다. 따라서, CPU(232)에 의해 포그라운드(foreground)로 실행되는 상기 타겟 애플리케이션 프로그램은 상기 제1기능을 수행할 수 있다.
또한, 제1사용자는, 도 9의 (b)에 도시된 제스처(예컨대, 손가락들의 움직임들)와 감지 애플리케이션 프로그램(SAPP)를 이용하여, 타겟 애플리케이션 프로그램 (예컨대, 전화 애플리케이션 프로그램)의 제2기능(예컨대, 통화 수신 거절)을 정의할 수 있다. 따라서, CPU(232)에 의해 포드라운드로 실행되는 상기 타겟 애플리케이션프로그램은 상기 제2기능을 수행할 수 있다.
도 8과 도 9에 도시된 바와 같이, 웨어러블 손목 시계(100)의 각 사용자는, 상기 각 사용자의 제스처(예컨대, 손가락들의 움직임들)와 CPU(232)에서 실행되는 감지 애플리케이션 프로그램(SAPP)를 이용하여, 타겟 애플리케이션 프로그램(예컨대, 전화 애플리케이션 프로그램)의 제1기능(예컨대, 통화 수신)과 제2기능(예컨대, 통화 수신 거절)을 정의하거나 실행할 수 있다.
도 10은 각 애플리케이션 프로그램별로 정의되는 각 기능의 실시 예들을 나타내고, 도 11은 각 애플리케이션 프로그램별로 각 기능을 정의하는 과정을 설명하기 위한 플로우차트이다.
도 1부터 도 11을 참조하면, 웨어러블 손목 시계(100)의 사용자는, 사용자 입력 인터페이스(246) 또는 디스플레이(220)를 이용하여, 감지 애플리케이션 프로그램(SAPP)을 실행한다(S110). 따라서, 감지 애플리케이션 프로그램(SAPP)은 각 기능에 각 제스처(또는 손목 근육들의 움직임들)를 할당(또는 정의)하는 과정을 시작한다.
도 10과 도 11에서는 설명의 편의를 위해, 사용자는 최대 3개의 기능들 각각에 제스처를 할당한다고 가정한다.
사용자는 제1제스처(GESTURE1)를 수행한다. 센서들(SA~SH)은 제1제스처 (GESTURE1)에 따라 움직이는 손목 근육들의 움직임들을 감지하고, 감지의 결과에 따라 제1감지 신호들(SA1~SH1)을 센서 인터페이스(250)로 전송한다. 센서 인터페이스(250)는 제1감지 신호들(SA1~SH1)에 상응하는 제1디지털 신호들을 CPU(232)로 전송한다.
사용자는, 감지 애플리케이션 프로그램(SAPP)을 이용하여, OS의 제1기능 (F61)에 제1제스처(GESTURE1)를 할당(또는 정의)한다(S112). 예컨대, 제1기능(F61)은 '업데이트 설치 시작'일 수 있다.
사용자는, 감지 애플리케이션 프로그램(SAPP)을 이용하여, 제1애플리케이션 프로그램(APP1)의 제1기능(F11)에 제1제스처(GESTURE1)를 할당(또는 정의)한다 (S112). 예컨대, 제1애플리케이션 프로그램(APP1)은 전화 애플리케이션 프로그램이고, 제1기능(F11)은 '통화 수신'일 수 있다.
사용자는, 감지 애플리케이션 프로그램(SAPP)을 이용하여, 제2애플리케이션 프로그램(APP2)의 제1기능(F21)에 제1제스처(GESTURE1)를 할당(또는 정의)한다 (S112). 예컨대, 제2애플리케이션 프로그램(APP2)은 'e-메일 애플리케이션 프로그램'이고, 제1기능(F21)은 '메일 보기'일 수 있다.
사용자는, 감지 애플리케이션 프로그램(SAPP)을 이용하여, 제3애플리케이션 프로그램(APP3)의 제1기능(F31)에 제1제스처(GESTURE1)를 할당(또는 정의)한다 (S112). 예컨대, 제3애플리케이션 프로그램(APP3)은 '웹브라우저 애플리케이션 프로그램'이고, 제1기능(F31)은 '실행 시작'일 수 있다.
사용자는, 감지 애플리케이션 프로그램(SAPP)을 이용하여, 제4애플리케이션 프로그램(APP4)의 제1기능(F41)에 제1제스처(GESTURE1)를 할당(또는 정의)하지 않을 수 있다.
사용자는, 감지 애플리케이션 프로그램(SAPP)을 이용하여, 제5애플리케이션 프로그램(APP5)의 제1기능(F51)에 제1제스처(GESTURE1)를 할당(또는 정의)한다 (S112). 예컨대, 제5애플리케이션 프로그램(APP5)은 '멀티미디어 플레이어 애플리케이션 프로그램'이고, 제1기능(F51)은 '실행 시작'일 수 있다.
CPU(232)는 제1제스처(GESTURE1)에 상응하는 제1디지털 신호들과, 각 애플리케이션 프로그램(APP1, APP2, APP3, 및 APP5)과 OS에 할당된 제1기능(F11, F21, F311, F51, 및 F61)을 서로 매핑하고, 매핑 결과를 메모리(214 또는 236)에 저장한다. 예컨대, 상기 제1디지털 신호들은 기준 입력 값으로 사용될 수 있다.
계속하여, 사용자는 제2제스처(GESTURE2)를 수행한다. 센서들(SA~SH)은 제2제스처(GESTURE2)에 따라 움직이는 손목 근육들의 움직임들을 감지하고, 감지의 결과에 따라 제2감지 신호들(SA2~SH2)을 센서 인터페이스(250)로 전송한다. 센서 인터페이스(250)는 제2감지 신호들(SA2~SH2)에 상응하는 제2디지털 신호들을 CPU (232)로 전송한다.
사용자는, 감지 애플리케이션 프로그램(SAPP)을 이용하여, OS의 제2기능 (F62)에 제2제스처(GESTURE2)를 할당한다(S114). 예컨대, 제2기능(F62)은 '업데이트 설치 중단'일 수 있다.
사용자는, 감지 애플리케이션 프로그램(SAPP)을 이용하여, 제1애플리케이션 프로그램(APP1)의 제2기능(F12)에 제2제스처(GESTURE2)를 할당한다(S114). 예컨대, 제1애플리케이션 프로그램(APP1)은 전화 애플리케이션 프로그램이고, 제2기능(F12)은 '통화 수신 거절'일 수 있다.
사용자는, 감지 애플리케이션 프로그램(SAPP)을 이용하여, 제2애플리케이션 프로그램(APP2)의 제2기능(F22)에 제2제스처(GESTURE2)를 할당하지 않는다.
사용자는, 감지 애플리케이션 프로그램(SAPP)을 이용하여, 제3애플리케이션 프로그램(APP3)의 제2기능(F32)에 제2제스처(GESTURE2)를 할당한다(S114). 예컨대, 제3애플리케이션 프로그램(APP3)은 '웹브라우저 애플리케이션 프로그램'이고, 제2기능(F32)은 '웹페이지 앞으로 이동'일 수 있다.
사용자는, 감지 애플리케이션 프로그램(SAPP)을 이용하여, 제4애플리케이션 프로그램(APP4)의 제2기능(F42)에 제2제스처(GESTURE2)를 할당한다(S114). 예컨대, 제4애플리케이션 프로그램(APP4)은 '카메라 애플리케이션 프로그램'이고, 제2기능(F42)은 '촬영 시작'일 수 있다.
사용자는, 감지 애플리케이션 프로그램(SAPP)을 이용하여, 제5애플리케이션 프로그램(APP5)의 제2기능(F52)에 제2제스처(GESTURE2)를 할당한다(S114). 예컨대, 제5애플리케이션 프로그램(APP5)은 '멀티미디어 플레이어 애플리케이션 프로그램'이고, 제2기능(F52)은 '잠시 멈춤(pause)'일 수 있다.
CPU(232)는 제2제스처(GESTURE2)에 상응하는 제2디지털 신호들과, 각 애플리케이션 프로그램(APP1, APP3, APP4, 및 APP5)과 OS에 할당된 제2기능(F12, F32, F42, F52, 및 F62)을 서로 매핑하고, 매핑 결과를 메모리(214 또는 236)에 저장한다. 예컨대, 상기 제2디지털 신호들은 기준 입력 값으로 사용될 수 있다.
계속하여, 사용자는 제3제스처(GESTURE3)를 수행한다. 센서들(SA~SH)은 제3제스처(GESTURE3)에 따라 움직이는 손목 근육들의 움직임들을 감지하고, 감지의 결과에 따라 제3감지 신호들(SA3~SH3)을 센서 인터페이스(250)로 전송한다. 센서 인터페이스(250)는 제3감지 신호들(SA3~SH3)에 상응하는 제3디지털 신호들을 CPU (232)로 전송한다.
사용자는, 감지 애플리케이션 프로그램(SAPP)을 이용하여, OS의 제3기능 (F63)에 제3제스처(GESTURE3)를 할당한다(S116). 예컨대, 제3기능(F63)은 '업데이트 설치 거부'일 수 있다.
사용자는, 감지 애플리케이션 프로그램(SAPP)을 이용하여, 제1애플리케이션 프로그램(APP1)의 제3기능에 제3제스처(GESTURE3)를 할당하지 않는다(S116).
사용자는, 감지 애플리케이션 프로그램(SAPP)을 이용하여, 제2애플리케이션 프로그램(APP2)의 제3기능(F23)에 제3제스처(GESTURE3)를 할당한다(S116). 예컨대, 제2애플리케이션 프로그램(APP2)은 'e-메일 애플리케이션 프로그램'이고, 제3기능(F23)은 '메일 새로 만들기'일 수 있다.
사용자는, 감지 애플리케이션 프로그램(SAPP)을 이용하여, 제3애플리케이션 프로그램(APP3)의 제3기능(F33)에 제3제스처(GESTURE3)를 할당한다(S116). 예컨대, 제3애플리케이션 프로그램(APP3)은 '웹브라우저 애플리케이션 프로그램'이고, 제3기능(F33)은 '웹페이지 뒤로 이동'일 수 있다.
사용자는, 감지 애플리케이션 프로그램(SAPP)을 이용하여, 제4애플리케이션 프로그램(APP4)의 제3기능(F43)에 제3제스처(GESTURE3)를 할당한다(S116). 예컨대, 제4애플리케이션 프로그램(APP4)은 '카메라 애플리케이션 프로그램'이고, 제3기능(F43)은 '촬영 종료'일 수 있다.
사용자는, 감지 애플리케이션 프로그램(SAPP)을 이용하여, 제5애플리케이션 프로그램(APP5)의 제3기능(F53)에 제3제스처(GESTURE3)를 할당한다(S116). 예컨대, 제5애플리케이션 프로그램(APP5)은 '멀티미디어 플레이어 애플리케이션 프로그램'이고, 제3기능(F53)은 '종료'일 수 있다.
CPU(232)는 제3제스처(GESTURE3)에 상응하는 제3디지털 신호들과, 각 애플리케이션 프로그램(APP2, APP3, APP4, 및 APP5)과 OS에 할당된 제3기능(F23, F33, F43, F53, 및 F63)을 서로 매핑하고, 매핑 결과를 메모리(214 또는 236)에 저장한다. 예컨대, 상기 제3디지털 신호들은 기준 입력 값으로 사용될 수 있다.
사용자는 마지막 애플리케이션 프로그램까지 각 기능을 할당하고(S118), 감지 애플리케이션 프로그램(SAPP)을 종료할 수 있다(S120).
단계들(S110~120)은 CPU(232)에 의해 실행될 수 있다.
도 12는 도 1에 도시된 웨어러블 손목 시계의 작동을 설명하기 위한 개념도들이고, 도 13은 도 1에 도시된 웨어러블 손목 시계의 작동의 일 실시 예를 설명하기 위한 플로우차트이다.
웨어러블 손목 시계(100)의 작동(예컨대, 전화 애플리케이션 프로그램이 타겟 애플리케이션 프로그램으로서 작동되는 경우)은 도 1부터 도 13을 참조하여 설명된다.
상기 전화 애플리케이션 프로그램을 포함하는 다양한 애플리케이션 프로그램들과 OS는 백그라운드로 작동하고 있다. 이 경우, 감지 애플리케이션 프로그램 (SAPP)은 백그라운드로 작동하고 있을 수 있다.
전화 콜(call)이 무선 통신 모듈(240)로 수신되면, 무선 통신 모듈(240)은 제2인터럽트 신호(INT2)를 CPU(232)로 출력한다. CPU(232) 또는 감지 애플리케이션 프로그램(SAPP)은 제2인터럽트 신호(INT2)를 수신한다(S210). 도 12의 (a)에 도시된 바와 같이, CPU(232) 또는 감지 애플리케이션 프로그램(SAPP)은 전화 애플리케이션 프로그램을 포그라운드에서 실행한다(S212).
도 12의 (b)에 도시된 바와 같이, 웨어러블 손목 시계(100)를 손목에 착용한 사용자는 통화 수신을 위해 제1제스처(GESTURE1)를 한다. 따라서, 제1제스처 (GESTURE1)에 의해 손목 근육들이 움직인다.
도 12의 (c)에 도시된 바와 같이, 센서들(SA~SH)은 상기 손목 근육들의 움직임들을 감지하고, 감지의 결과에 상응하는 감지 신호들(SA1~SH1)을 생성한다. 감지 인터페이스(250)는 감지 신호들(SA1~SH1)에 상응하는 디지털 신호들을 CPU(232)로 전송한다. 즉, CPU(232) 또는 감지 애플리케이션 프로그램(SAPP)은 감지 신호들 (SA1~SH1) 또는 감지 신호들(SA1~SH1)에 상응하는 제1디지털 신호들을 수신하고, 현재 입력 값(CIV)을 생성한다(S214).
CPU(232) 또는 감지 애플리케이션 프로그램(SAPP)은, 현재 입력 값(CIV)이 생성될 때, 기준 입력 값들을 저장하는 테이블(236-1)을 리드하고, 현재 입력 값 (CIV)과 테이블(236-1)에 저장된 기준 입력 값들(RIV1~RIVm) 각각을 비교한다 (S216).
비교 결과, 현재 입력 값(CIV)과 '통화 수신'으로 정의된 제2기준 입력 값 (RIV2)이 일치할 때, 도 12의 (e)에 도시된 바와 같이 CPU(232) 또는 감지 애플리케이션 프로그램(SAPP)은 포그라운드로 작동하는 전화 애플리케이션의 기능들 중에서 제1기능(F11)을 실행한다(S218). 즉, 사용자는 제1기능을 이용하여 타인과 전ㄹ화 통화를 수행할 수 있다.
예컨대, 현재 입력 값(CIV)과 '통화 수신'으로 정의된 제2기준 입력 값 (RIV2)이 일치할 때 발생하는 기능 실행 신호(FES)는 사용자가 제1기능(F11)을 직접 실행했을 때 생성되는 신호와 실질적으로 동일 또는 유사하다.
다른 실시 예에 따라 멀티미디어 모듈(238)이 실행될 때, 멀티미디어 모듈 (238)은 제1인터럽트 신호(INT1)를 생성할 수 있다. 따라서, CPU(232) 또는 감지 애플리케이션 프로그램(SAPP)은 멀티미디어 모듈(238)의 실행에 관련되고 백그라운드에서 실행되는 타겟 애플리케이션 프로그램(예컨대, 멀티미디어 플레이어 애플리케이션 프로그램)을 포그라운드로 실행시킬 수 있다.
또 다른 실시 예에 따라 진동 모듈(242)이 실행될 때, 진동 모듈(242)은 제3인터럽트 신호(INT3)를 생성할 수 있다. 따라서, CPU(232) 또는 감지 애플리케이션 프로그램(SAPP)은 진동 모듈(242)의 실행에 관련되고 백그라운드에서 실행되는 타겟 애플리케이션 프로그램(예컨대, 전화 애플리케이션 프로그램, 문자 메시지 서비스 애플리케이션 프로그램, 알람 애플리케이션 프로그램, 또는 SNS 애플리케이션 프로그램, 등)을 포그라운드에서 실행시킬 수 있다.
또 다른 실시 예에 따라 데이터 링크 모듈(244)이 실행될 때, 데이터 링크 모듈(244)은 제4인터럽트 신호(INT4)를 생성할 수 있다. 따라서, CPU(232) 또는 감지 애플리케이션 프로그램(SAPP)은 데이터 링크 모듈(244)의 실행에 관련되고 백그라운드에서 실행되는 타겟 애플리케이션 프로그램을 포그라운드로 실행시킬 수 있다.
CPU(232) 또는 감지 애플리케이션 프로그램(SAPP)은 포그라운드로 실행되는 타겟 애플리케이션 프로그램의 기능들 중에서 현재 입력 값에 상응하는 기능을 수행할 수 있다.
또한, 사용자가 웹 브라우저 애플리케이션 프로그램을 이용하여 웹 서핑을 하는 도중에 제2인터럽트 신호(INT2)가 발행하면, 전화 애플리케이션 프로그램은 포드라운드로 실행된다. 따라서, CPU(232) 또는 감지 애플리케이션 프로그램(SAPP)은 S214부터 S218을 수행할 수 있다.
도 14는 도 1에 도시된 웨어러블 손목 시계의 작동의 다른 실시 예를 설명하기 위한 플로우차트이다.
테이블(236-1)은 각 애플리케이션의 실행 빈도를 저장하고 있다고 가정한다.
웨어러블 손목 시계(100)가 아이들(idle) 상태일 때, 사용자는 특정한 제스처를 한다. 따라서, 상기 특정한 제스처에 의해 손목 근육들이 움직인다.
센서들(SA~SH)은 상기 손목 근육들의 움직임들을 감지하고, 감지의 결과에 상응하는 감지 신호들을 생성한다. 감지 인터페이스(250)는 상기 감지 신호들에 상응하는 디지털 신호들을 CPU(232)로 전송한다. 즉, CPU(232) 또는 감지 애플리케이션 프로그램(SAPP)은 상기 감지 신호들 또는 상기 감지 신호들에 상응하는 디지털 신호들을 수신하고, 현재 입력 값을 생성한다(S310).
CPU(232) 또는 감지 애플리케이션 프로그램(SAPP)은, 상기 현재 입력 값이 생성될 때, 기준 입력 값들과 애플리케이션들의 실행 빈도들을 저장하는 테이블 (236-1)을 리드하고, 상기 애플리케이션 프로그램들 각각의 실행 빈도를 판단하고 (S312), 상기 애플리케이션 프로그램들 중에서 실행 빈도가 가장 높은 애플리케이션 프로그램을 타겟 애플리케이션 프로그램으로 선택하고, 선택된 타겟 애플리케이션 프로그램을 포그라운드로 실행한다(S314).
CPU(232) 또는 감지 애플리케이션 프로그램(SAPP)은, 상기 현재 입력 값과 테이블(236-1)에 저장된 기준 입력 값들 각각을 비교한다(S316).
비교 결과, 상기 현재 입력 값과 일치하는 기준 입력 값이 선택되면, CPU (232) 또는 감지 애플리케이션 프로그램(SAPP)은 포그라운드로 작동하는 타겟 애플리케이션 프로그램의 기능들 중에서 상기 입력 값에 상응하는 기능을 실행시킨다 (S318).
도 15는 도 1에 도시된 웨어러블 손목 시계의 작동의 또 다른 실시 예를 설명하기 위한 플로우차트이다.
테이블(236-1)은, 웨어러블 손목 시계(100)가 아이들(idle) 상태일 때, 디폴트로 실행될 타겟 애플리케이션 프로그램(예컨대, 전화 애플리케이션 프로그램)에 대한 정보를 저장하고 있다고 가정한다.
웨어러블 손목 시계(100)가 아이들 상태일 때, 사용자는 특정한 제스처를 한다. 따라서, 상기 특정한 제스처에 의해 손목 근육들이 움직인다.
센서들(SA~SH)은 상기 손목 근육들의 움직임들을 감지하고, 감지의 결과에 상응하는 감지 신호들을 생성한다. 감지 인터페이스(250)는 상기 감지 신호들에 상응하는 디지털 신호들을 CPU(232)로 전송한다. 즉, CPU(232) 또는 감지 애플리케이션 프로그램(SAPP)은 상기 감지 신호들 또는 상기 감지 신호들에 상응하는 디지털 신호들을 수신하고, 현재 입력 값을 생성한다(S410).
CPU(232) 또는 감지 애플리케이션 프로그램(SAPP)은, 상기 현재 입력 값이 생성될 때, 기준 입력 값들과 디폴트로 실행될 타겟 애플리케이션 프로그램에 대한 정보를 저장하는 테이블(236-1)을 리드하고, 테이블(236-1)에 저장된 상기 정보에 따라 애플리케이션 프로그램들 중에서 상기 타겟 애플리케이션 프로그램(예컨대, 전화 애플리케이션 프로그램)을 포그라운드로 실행한다(S412).
CPU(232) 또는 감지 애플리케이션 프로그램(SAPP)은, 상기 현재 입력 값과 테이블(236-1)에 저장된 기준 입력 값들 각각을 비교한다(S414).
비교 결과, 상기 현재 입력 값과 일치하는 기준 입력 값이 선택되면, CPU (232) 또는 감지 애플리케이션 프로그램(SAPP)은 포그라운드로 작동하는 타겟 애플리케이션 프로그램(예컨대, 전화 애플리케이션 프로그램)의 기능들 중에서 상기 입력 값에 상응하는 기능(예컨대, 전화 다이얼 디스플레이)을 실행시킨다(S416).
도 16은 각 애플리케이션별로 정의되는 각 기능의 사용 빈도를 포함하는 테이블의 일 실시 예를 나타낸다.
도 16을 참조하면, 테이블(236-1)은 각 애플리케이션 프로그램의 각 기능별로 사용 빈도(N11~N63)를 저장한다.
CPU(232) 또는 감지 애플리케이션 프로그램(SAPP)은, 현재 입력 값과 테이블 (236-1)에 저장된 기준 입력 값들 각각을 비교할 때, 사용 빈도가 자장 높은 기준 입력 값부터 상기 현재 입력 값을 비교한다.
예컨대, OS의 경우, 제3기능(F63)의 사용 빈도(N63)가 가장 높고, 제2기능 (NF2)의 사용 빈도(N62)가 가장 낮을 때, CPU(232) 또는 감지 애플리케이션 프로그램(SAPP)은 제3기능(F63)에 해당하는 기준 입력 값과 현재 입력 값을 가장 먼저 비교하고, 제2기능(F62)에 해당하는 기준 입력 값과 현재 입력 값을 가장 나중에 비교할 수 있다. 이에 따라 비교 시간은 단축될 수 있다.
사용자가 특정한 애플리케이션 프로그램을 사용하는 경우, CPU(232) 또는 감지 애플리케이션 프로그램(SAPP)은 사용 빈도가 가장 높은 기준 입력 값부터 현재 입력 값을 비교할 수 있다. 상기 특정한 애플리케이션 프로그램은 위치 기반 서비스를 제공하는 애플리케이션 프로그램(예컨대, GPS-기반 애플리케이션 프로그램) 또는 특정 장치(예컨대, 도어락 또는 자동차)와 페어링(pairing)되어 있는 애플리케이션 프로그램일 수 있다.
도 17은 사용자의 연속적인 제스처들에 대한 감지 신호들의 파형도를 나타낸다. 도 17을 참조하면, 사용자는 연속적인 제스처들을 이용하여 각 애플리케이션 프로그램의 각 기능을 정의할 수 있다.
각 입력 값은 제1샘플링 구간(T1)과 제2샘플링 구간(T2)에서 샘플링된다.
도 18은 기준 입력 값들 중에서 사용 빈도가 가장 높은 기준 입력 값부터 현재 입력 값과 비교하는 컨트롤러의 작동을 설명하기 위한 개념도이다.
도 16부터 도 18을 참조하면, 사용자가 연속적인 제스처들을 이용하여 각 애플리케이션 프로그램의 각 기능을 정의할 때, 웨어러블 손목 시계(100)에 대한 보안 기능이 강화될 수 있다.
사용자가 연속적인 제스처들을 이용하여 각 애플리케이션 프로그램의 각 기능을 정의하면, 기준 입력 값들의 개수는 증가할 수 있다. CPU(232) 또는 감지 애플리케이션 프로그램(SAPP)은 각 애플리케이션 프로그램의 각 기능별로 사용 빈도를 테이블(236-1)에 저장할 수 있다.
도 18에 도시된 바와 같이, 기준 입력 값(RIV3)에 해당하는 기능의 사용 빈도가 가장 높을 때, CPU(232) 또는 감지 애플리케이션 프로그램(SAPP)은 기준 입력 값(RIV3)과 현재 입력 값(CIV)을 가장 먼저 비교하고, 기준 입력 값(RIV1)과 현재 입력 값(CIV)을 두 번째로 비교하고, 기준 입력 값(RIV2)과 현재 입력 값(CIV)을 가장 나중에 비교할 수 있다. 이에 따라 기준 입력 값들의 개수가 연속적인 제스처들에 따라 증가하더라도, 비교 시간은 단축될 수 있다.
본 발명의 실시 예에 따른 웨어러블 손목 시계의 작동 방법을 실행할 수 있는 컴퓨터 프로그램, 예컨대, 감지 애플리케이션 프로그램은 메모리(214)에 저장될 수 있다.
본 발명은 도면에 도시된 실시 예를 참고로 설명되었으나 이는 예시적인 것에 불과하며, 본 기술 분야의 통상의 지식을 가진 자라면 이로부터 다양한 변형 및 균등한 타 실시 예가 가능하다는 점을 이해할 것이다. 따라서, 본 발명의 진정한 기술적 보호 범위는 첨부된 등록청구범위의 기술적 사상에 의해 정해져야 할 것이다.
100; 웨어러블 손목 시계
110; 손목 밴드
120; 장치 모듈
SA~SH; 센서들
210; 시스템 온 칩
212; 마이크로폰
214; 제1메모리
230; 프로세서
232; CPU
234; 메모리 컨트롤러
236; 제2메모리
236-1; 테이블
SAPP; 감지 애플리케이션
TAPP; 타겟 애플리케이션

Claims (20)

  1. 손목 밴드;
    상기 손목 밴드에 형성되고, 사용자의 손목 근육들의 움직임들을 감지하고, 감지 신호들을 생성하는 센서들; 및
    상기 손목 밴드에 접속되고 디스플레이를 포함하는 장치 모듈을 포함하고,
    상기 장치 모듈은,
    운영 체계와 애플리케이션 프로그램들을 저장하는 제1메모리;
    기준 입력 값들을 저장하는 제2메모리; 및
    상기 운영 체계와 상기 애플리케이션 프로그램들을 실행할 수 있는 컨트롤러를 포함하고,
    상기 컨트롤러는 상기 애플리케이션 프로그램들 중에서 제1애플리케이션 프로그램을 실행하고, 상기 감지 신호들에 상응하는 현재 입력 값과 상기 기준 입력 값들 각각을 비교하고, 비교의 결과에 따라 상기 제1애플리케이션 프로그램의 기능들 중에서 어느 하나의 기능을 실행하는 웨어러블 손목 시계.
  2. 제1항에 있어서,
    상기 센서들 중에서 제1센서들과 상기 센서들 중에서 제2센서들은 서로 반대 편에 위치하는 웨어러블 손목 시계.
  3. 제1항에 있어서, 상기 장치 모듈은 모듈들을 더 포함하고,
    상기 컨트롤러는 상기 모듈들 중에서 어느 하나로부터 출력된 인터럽트 신호에 응답하여 상기 제1애플리케이션 프로그램을 실행하고,
    상기 모듈은 멀티미디어 모듈, 무선 통신 모듈, 진동 모듈, 마이크로폰, 및 데이터 링크 모듈 중에서 적어도 2개를 포함하는 웨어러블 손목 시계.
  4. 제3항에 있어서,
    상기 컨트롤러는, 상기 인터럽트 신호에 응답하여, 백그라운드에서 실행 중인 상기 제1애플리케이션 프로그램을 포그라운드(foreground)로 실행하는 웨어러블 손목 시계.
  5. 제1항에 있어서,
    상기 컨트롤러는 상기 애플리케이션 프로그램들 각각의 실행 빈도를 판단하고, 가장 높은 실행 빈도를 갖는 상기 제1애플리케이션 프로그램을 실행하는 웨어러블 손목 시계.
  6. 제1항에 있어서,
    상기 컨트롤러는 사용자에 의해 설정된 값에 따라 상기 제1애플리케이션 프로그램을 실행하는 웨어러블 손목 시계.
  7. 제1항에 있어서,
    상기 컨트롤러는 상기 기준 입력 값들 중에서 사용 빈도가 가장 높은 기준 입력 값부터 상기 현재 입력 값과 비교하는 웨어러블 손목 시계.
  8. 제7에 있어서,
    상기 제1애플리케이션은 위치 기반 서비스를 제공하는 애플리케이션과 외부 장치와의 페어링을 수행하는 애플리케이션 중에서 어느 하나인 웨어러블 손목 시계.
  9. 제1항에 있어서,
    상기 제1애플리케이션은 상기 운영 체계인 웨어러블 손목 시계.
  10. 제1항에 있어서,
    상기 센서들은 EMG(electromyography) 센서들인 웨어러블 손목 시계.
  11. 기준 입력 값들을 저장하는 메모리; 및
    운영 체계와 애플리케이션 프로그램들을 실행하는 컨트롤러를 포함하고,
    상기 컨트롤러는 상기 애플리케이션 프로그램들 중에서 제1애플리케이션 프로그램을 실행하고, 센서들로부터 수신된 감지 신호들에 기초하여 현재 입력 값을 생성하고, 상기 현재 입력 값과 상기 기준 입력 값들 각각을 비교하고, 비교의 결과에 따라 상기 제1애플리케이션 프로그램의 기능들 중에서 어느 하나의 기능을 실행하는 애플리케이션 프로세서.
  12. 제11항에 있어서,
    상기 애플리케이션 프로세서는 모듈들을 더 포함하고,
    상기 컨트롤러는 상기 모듈들 중에서 어느 하나로부터 출력된 인터럽트 신호에 상응하는 상기 제1애플리케이션 프로그램을 실행하는 애플리케이션 프로세서.
  13. 제12항에 있어서,
    상기 컨트롤러는, 상기 인터럽트 신호에 응답하여, 백그라운드에서 실행 중인 상기 제1애플리케이션 프로그램을 포그라운드(foreground)로 실행하는 애플리케이션 프로세서.
  14. 제11항에 있어서,
    상기 컨트롤러는 상기 애플리케이션 프로그램들 각각의 실행 빈도를 판단하고, 가장 높은 실행 빈도를 갖는 상기 제1애플리케이션 프로그램을 실행하는 애플리케이션 프로세서.
  15. 제11항에 있어서,
    상기 컨트롤러는 사용자에 의해 설정된 값에 따라 상기 제1애플리케이션 프로그램을 실행하는 애플리케이션 프로세서.
  16. 운영 체계와 애플리케이션 프로그램들을 저장하는 제1메모리;
    기준 입력 값들을 저장하는 제2메모리; 및
    상기 운영 체계와 상기 애플리케이션 프로그램들을 실행하는 컨트롤러를 포함하고,
    상기 컨트롤러는 상기 애플리케이션 프로그램들 중에서 제1애플리케이션 프로그램을 실행하고, 센서들로부터 수신된 감지 신호들에 기초하여 현재 입력 값을 생성하고, 상기 현재 입력 값과 상기 기준 입력 값들 각각을 비교하고, 비교의 결과에 따라 상기 제1애플리케이션 프로그램의 기능들 중에서 어느 하나의 기능을 실행하는 시스템 온 칩(system on chip(SoC))
  17. 제16항에 있어서,
    상기 SoC는 모듈들을 더 포함하고,
    상기 컨트롤러는 상기 모듈들 중에서 어느 하나로부터 출력된 인터럽트 신호에 상응하는 상기 제1애플리케이션 프로그램을 실행하는 SoC.
  18. 제17항에 있어서,
    상기 컨트롤러는, 상기 인터럽트 신호에 응답하여, 백그라운드에서 실행 중인 상기 제1애플리케이션 프로그램을 포그라운드(foreground)로 실행하는 SoC.
  19. 제16항에 있어서,
    상기 컨트롤러는 상기 애플리케이션 프로그램들 각각의 실행 빈도를 판단하고, 가장 높은 실행 빈도를 갖는 상기 제1애플리케이션 프로그램을 실행하는 SoC.
  20. 제16항에 있어서,
    상기 컨트롤러는 사용자에 의해 설정된 값에 따라 상기 제1애플리케이션 프로그램을 실행하는 SoC.
KR1020140112870A 2014-08-28 2014-08-28 손목 근육들의 움직임들에 상응하는 사용자 입력을 처리할 수 있는 애플리케이션 프로세서와 이를 포함하는 장치들 KR102343657B1 (ko)

Priority Applications (4)

Application Number Priority Date Filing Date Title
KR1020140112870A KR102343657B1 (ko) 2014-08-28 2014-08-28 손목 근육들의 움직임들에 상응하는 사용자 입력을 처리할 수 있는 애플리케이션 프로세서와 이를 포함하는 장치들
US14/731,034 US9971313B2 (en) 2014-08-28 2015-06-04 Processor processing sensor signal corresponding to wrist muscle movement and devices including same
TW104120405A TWI681314B (zh) 2014-08-28 2015-06-25 腕錶、處理器以及操作該腕錶的方法
CN201510530571.0A CN105388996B (zh) 2014-08-28 2015-08-26 腕表、包括在腕表中的处理器以及操作腕表的方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020140112870A KR102343657B1 (ko) 2014-08-28 2014-08-28 손목 근육들의 움직임들에 상응하는 사용자 입력을 처리할 수 있는 애플리케이션 프로세서와 이를 포함하는 장치들

Publications (2)

Publication Number Publication Date
KR20160025722A true KR20160025722A (ko) 2016-03-09
KR102343657B1 KR102343657B1 (ko) 2021-12-24

Family

ID=55402380

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020140112870A KR102343657B1 (ko) 2014-08-28 2014-08-28 손목 근육들의 움직임들에 상응하는 사용자 입력을 처리할 수 있는 애플리케이션 프로세서와 이를 포함하는 장치들

Country Status (4)

Country Link
US (1) US9971313B2 (ko)
KR (1) KR102343657B1 (ko)
CN (1) CN105388996B (ko)
TW (1) TWI681314B (ko)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20180078164A (ko) * 2016-12-29 2018-07-09 주식회사 인바디 착용형 단말기 및 그 동작 방법
US10120455B2 (en) 2016-12-28 2018-11-06 Industrial Technology Research Institute Control device and control method
KR102196962B1 (ko) * 2020-03-05 2020-12-31 강윤 매트릭스 압력 센서를 이용한 인체의 움직임 인식 및 이를 통한 인체 동작 예측 시스템
US11216062B2 (en) 2016-12-29 2022-01-04 InBody Co., Ltd. Wearable terminal and method for operating same
KR102595257B1 (ko) * 2023-03-17 2023-11-01 강윤 제스처 인식에 기반한 모바일 로봇의 인간추종 및 상호작용 시스템 및 방법
US12099647B2 (en) 2022-12-13 2024-09-24 Samsung Electronics Co., Ltd. Electronic device for controlling a user interface via a biometric sensor and control method using the same

Families Citing this family (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016041190A1 (zh) * 2014-09-19 2016-03-24 华为技术有限公司 一种运行应用程序的方法及装置
WO2017014330A1 (ko) * 2015-07-17 2017-01-26 전자부품연구원 웨어러블 장치 및 이를 이용한 정보 입력 방법
US10285627B2 (en) * 2015-04-15 2019-05-14 Pixart Imaging Inc. Action recognition system and method thereof
WO2017111972A1 (en) * 2015-12-22 2017-06-29 Intel Corporation System and method to collect gesture input through wrist tendon and muscle sensing
US10013069B2 (en) 2016-09-13 2018-07-03 Intel Corporation Methods and apparatus to detect vibration inducing hand gestures
KR102302640B1 (ko) 2016-12-02 2021-09-15 피손 테크놀로지, 인크. 신체 조직 전기 신호의 검출 및 사용
US10684693B2 (en) 2017-03-02 2020-06-16 Samsung Electronics Co., Ltd. Method for recognizing a gesture and an electronic device thereof
US10745103B2 (en) 2017-05-31 2020-08-18 The Boeing Company Aircraft, aircraft wings and associated shear ties
USD838716S1 (en) * 2017-08-23 2019-01-22 Lite-On Technology Corporation Smart watch
RU2678494C1 (ru) 2017-08-24 2019-01-29 Самсунг Электроникс Ко., Лтд. Устройство и способ для биометрической идентификации пользователя с использованием рч (радиочастотного) радара
USD829330S1 (en) * 2017-09-26 2018-09-25 Shenzhen Lookcare Industry Co., Ltd. Sports bracelet
CN108563333B (zh) * 2018-04-12 2022-02-01 京东方科技集团股份有限公司 一种穿戴设备及其控制方法
CN109947245A (zh) * 2019-03-12 2019-06-28 合肥工业大学 用于操作腕表式设备的手指动作指令集及其生成方法
TWI689859B (zh) 2019-03-19 2020-04-01 國立臺灣科技大學 由手腕偵測肌動訊號識別使用者手勢之系統及方法
US11243614B2 (en) * 2019-10-09 2022-02-08 Bose Corporation Modified force sensitive resistors
CN112817443A (zh) * 2021-01-22 2021-05-18 歌尔科技有限公司 基于手势的显示界面控制方法、装置、设备及存储介质
US12111974B1 (en) * 2021-03-16 2024-10-08 Zeit Technologies Corporation Wearable gesture detector
FR3144345A1 (fr) * 2022-12-22 2024-06-28 Commissariat A L'energie Atomique Et Aux Energies Alternatives Gant a retour haptique pour la communication entre personnes

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20110022520A (ko) * 2009-08-27 2011-03-07 한국전자통신연구원 손가락 움직임 검출 장치 및 그 방법
KR20140013845A (ko) * 2012-07-27 2014-02-05 엘지전자 주식회사 이동 단말기 및 그것의 제어방법

Family Cites Families (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1999025152A2 (en) * 1997-11-07 1999-05-20 Via, Inc. Interactive devices and methods
AU2002230814A1 (en) * 2000-11-02 2002-05-15 Essential Reality, Llc Electronic user worn interface device
KR100486739B1 (ko) * 2003-06-27 2005-05-03 삼성전자주식회사 착용형 휴대폰 및 그 사용방법
KR20050047329A (ko) 2003-11-17 2005-05-20 한국전자통신연구원 손가락 움직임을 이용한 정보 입력장치 및 방법
CN201199730Y (zh) * 2007-09-24 2009-02-25 郑大鹏 腕表型移动电话装置
EP2212762A4 (en) * 2007-11-19 2011-06-29 Cirque Corp TOUCH PANEL COMBINED ON SCREEN AND HAVING PROXIMITY AND TOUCH SENSING CAPABILITIES
US8112281B2 (en) 2007-12-19 2012-02-07 Enbiomedic Accelerometer-based control of wearable audio recorders
CN101581990B (zh) * 2008-05-13 2011-12-07 联想(北京)有限公司 电子设备和应用于电子设备的可穿戴式指点装置、方法
KR20100074461A (ko) 2008-12-24 2010-07-02 삼성전자주식회사 동작 감지를 이용하여 제어하는 3차원 마우스 장치 및 방법
JP2010282575A (ja) 2009-06-08 2010-12-16 Brother Ind Ltd 入力装置及び入力装置用プログラム
JP4988016B2 (ja) * 2009-08-27 2012-08-01 韓國電子通信研究院 指の動き検出装置およびその方法
US8717291B2 (en) * 2009-10-07 2014-05-06 AFA Micro Co. Motion sensitive gesture device
PL2590696T3 (pl) * 2010-07-05 2017-08-31 Gambro Lundia Ab Ambulatoryjne urządzenie do ultrafiltracji, powiązane sposoby i produkt w postaci programu komputerowego
KR20130061777A (ko) 2011-12-02 2013-06-12 박세훈 손가락 움직임에 의한 신호 입력 장치
TW201336474A (zh) * 2011-12-07 2013-09-16 通路實業集團國際公司 行為追蹤及修正系統
EP2698686B1 (en) * 2012-07-27 2018-10-10 LG Electronics Inc. Wrist-wearable terminal and control method thereof
US20140045463A1 (en) 2012-08-10 2014-02-13 Silverplus, Inc. Wearable Communication Device
CN105027030B (zh) 2012-11-01 2018-10-23 艾卡姆有限公司 用于三维成像、映射、建网和界面连接的无线腕式计算和控制设备和方法
US10423214B2 (en) * 2012-11-20 2019-09-24 Samsung Electronics Company, Ltd Delegating processing from wearable electronic device
US20150124566A1 (en) * 2013-10-04 2015-05-07 Thalmic Labs Inc. Systems, articles and methods for wearable electronic devices employing contact sensors
KR102034587B1 (ko) * 2013-08-29 2019-10-21 엘지전자 주식회사 이동 단말기 및 이의 제어 방법
US9372535B2 (en) * 2013-09-06 2016-06-21 Thalmic Labs Inc. Systems, articles, and methods for electromyography-based human-electronics interfaces
US9483123B2 (en) * 2013-09-23 2016-11-01 Thalmic Labs Inc. Systems, articles, and methods for gesture identification in wearable electromyography devices
KR102109407B1 (ko) * 2013-09-25 2020-05-12 엘지전자 주식회사 스마트 와치 및 제어 방법
US20150185838A1 (en) * 2013-12-27 2015-07-02 Jose R. Camacho-Perez Wrist based wearable virtual keyboard
CA2847645C (en) * 2014-03-27 2016-05-17 Peter Mankowski Electronic timepiece
US20150301606A1 (en) * 2014-04-18 2015-10-22 Valentin Andrei Techniques for improved wearable computing device gesture based interactions
US10136857B2 (en) * 2014-05-23 2018-11-27 Samsung Electronics Co., Ltd. Adjustable wearable system having a modular sensor platform
KR20160009323A (ko) * 2014-07-16 2016-01-26 삼성전자주식회사 사용자 인터페이스를 활성화하는 방법 및 이를 제공하는 전자 장치

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20110022520A (ko) * 2009-08-27 2011-03-07 한국전자통신연구원 손가락 움직임 검출 장치 및 그 방법
KR20140013845A (ko) * 2012-07-27 2014-02-05 엘지전자 주식회사 이동 단말기 및 그것의 제어방법

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10120455B2 (en) 2016-12-28 2018-11-06 Industrial Technology Research Institute Control device and control method
KR20180078164A (ko) * 2016-12-29 2018-07-09 주식회사 인바디 착용형 단말기 및 그 동작 방법
US11216062B2 (en) 2016-12-29 2022-01-04 InBody Co., Ltd. Wearable terminal and method for operating same
KR102196962B1 (ko) * 2020-03-05 2020-12-31 강윤 매트릭스 압력 센서를 이용한 인체의 움직임 인식 및 이를 통한 인체 동작 예측 시스템
US12099647B2 (en) 2022-12-13 2024-09-24 Samsung Electronics Co., Ltd. Electronic device for controlling a user interface via a biometric sensor and control method using the same
KR102595257B1 (ko) * 2023-03-17 2023-11-01 강윤 제스처 인식에 기반한 모바일 로봇의 인간추종 및 상호작용 시스템 및 방법

Also Published As

Publication number Publication date
US9971313B2 (en) 2018-05-15
KR102343657B1 (ko) 2021-12-24
CN105388996A (zh) 2016-03-09
TW201608418A (zh) 2016-03-01
CN105388996B (zh) 2020-06-12
TWI681314B (zh) 2020-01-01
US20160062320A1 (en) 2016-03-03

Similar Documents

Publication Publication Date Title
KR102343657B1 (ko) 손목 근육들의 움직임들에 상응하는 사용자 입력을 처리할 수 있는 애플리케이션 프로세서와 이를 포함하는 장치들
US10216274B2 (en) Systems, articles, and methods for wearable human-electronics interface devices
US9772684B2 (en) Electronic system with wearable interface mechanism and method of operation thereof
US20160299570A1 (en) Wristband device input using wrist movement
KR101549353B1 (ko) 생체 음원 인식 기능을 갖는 스마트 와치
US20150242120A1 (en) Data input peripherals and methods
US20150035743A1 (en) Wrist Worn Platform for Sensors
US9560186B2 (en) Wrist wearable apparatus with transformable substrate
KR102194788B1 (ko) 동작 방법 및 그 방법을 처리하는 전자 장치
CN107209560A (zh) 检测手指移动
JP2015531527A (ja) 入力装置
US10691180B2 (en) Wearable electronic devices having a multi-use single switch and methods of use thereof
EP2875420B1 (en) An apparatus, method and computer program for enabling user input
JP6170973B2 (ja) 携帯情報端末、情報処理方法、及び、プログラム
KR101497829B1 (ko) 모션 입력을 이용하는 손목시계형 장치
CN106679691B (zh) 一种计步器数据的调整方法、装置及移动终端
CN106933342A (zh) 体感系统、体感控制设备以及智能电子设备
CN106525067B (zh) 一种计步器的控制方法、装置及移动终端
US11262850B2 (en) No-handed smartwatch interaction techniques
US20170199578A1 (en) Gesture control method for interacting with a mobile or wearable device
US10075816B2 (en) Mobile device position determining method and determining apparatus, and mobile device
KR20230094099A (ko) 전자 장치의 착용을 감지하는 방법 및 전자 장치
CN113079434B (zh) 音频播放设备的控制方法、装置、存储介质及系统
KR20140072004A (ko) 터치 화면을 이용하는 스마트기기의 터치펜
AU2016100962A4 (en) Wristband device input using wrist movement

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E90F Notification of reason for final refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant