KR102033077B1 - 제스처 인식 및 전력 관리를 갖는 손목 착용 운동 디바이스 - Google Patents

제스처 인식 및 전력 관리를 갖는 손목 착용 운동 디바이스 Download PDF

Info

Publication number
KR102033077B1
KR102033077B1 KR1020167006048A KR20167006048A KR102033077B1 KR 102033077 B1 KR102033077 B1 KR 102033077B1 KR 1020167006048 A KR1020167006048 A KR 1020167006048A KR 20167006048 A KR20167006048 A KR 20167006048A KR 102033077 B1 KR102033077 B1 KR 102033077B1
Authority
KR
South Korea
Prior art keywords
sensor
user
data
gesture
processor
Prior art date
Application number
KR1020167006048A
Other languages
English (en)
Other versions
KR20160042025A (ko
Inventor
마난 고엘
캐슬린 커밍스
피터 레이가
데이빗 스윗저
세바스찬 임레이
마이클 래핀스키
Original Assignee
나이키 이노베이트 씨.브이.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 나이키 이노베이트 씨.브이. filed Critical 나이키 이노베이트 씨.브이.
Publication of KR20160042025A publication Critical patent/KR20160042025A/ko
Application granted granted Critical
Publication of KR102033077B1 publication Critical patent/KR102033077B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/163Wearable computers, e.g. on a belt
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/26Power supply means, e.g. regulation thereof
    • G06F1/32Means for saving power
    • G06F1/3203Power management, i.e. event-based initiation of a power-saving mode
    • G06F1/3206Monitoring of events, devices or parameters that trigger a change in power modality
    • G06F1/3231Monitoring the presence, absence or movement of users
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/26Power supply means, e.g. regulation thereof
    • G06F1/32Means for saving power
    • G06F1/3203Power management, i.e. event-based initiation of a power-saving mode
    • G06F1/3234Power saving characterised by the action undertaken
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/26Power supply means, e.g. regulation thereof
    • G06F1/32Means for saving power
    • G06F1/3203Power management, i.e. event-based initiation of a power-saving mode
    • G06F1/3234Power saving characterised by the action undertaken
    • G06F1/329Power saving characterised by the action undertaken by task scheduling
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/014Hand-worn input/output arrangements, e.g. data gloves
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • G06K9/00342
    • G06K9/209
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • G06V10/12Details of acquisition arrangements; Constructional details thereof
    • G06V10/14Optical characteristics of the device performing the acquisition or on the illumination arrangements
    • G06V10/147Details of sensors, e.g. sensor lenses
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/23Recognition of whole body movements, e.g. for sport training
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B19/00Teaching not covered by other main groups of this subclass
    • G09B19/003Repetitive work cycles; Sequence of movements
    • G09B19/0038Sports
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H20/00ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance
    • G16H20/30ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance relating to physical therapies or activities, e.g. physiotherapy, acupressure or exercising
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D10/00Energy efficient computing, e.g. low power processors, power management or thermal management
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D30/00Reducing energy consumption in communication networks
    • Y02D30/50Reducing energy consumption in communication networks in wire-line communication networks, e.g. low power modes or reduced link rate

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Business, Economics & Management (AREA)
  • Computer Hardware Design (AREA)
  • Multimedia (AREA)
  • Educational Administration (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Educational Technology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biophysics (AREA)
  • Physical Education & Sports Medicine (AREA)
  • Epidemiology (AREA)
  • Medical Informatics (AREA)
  • Primary Health Care (AREA)
  • Public Health (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Vascular Medicine (AREA)
  • User Interface Of Digital Computer (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Abstract

제스처 인식 프로세스들을 실행하도록 구성된 제스처 인식 프로세서를 포함하는, 손목 착용 운동 기능 모니터링 시스템. 운동 기능 모니터링 시스템과의 상호작용은 사용자에 의해 수행된 제스처들에 적어도 부분적으로 기초할 수 있고, 운동 활동들을 수행하면서 번거로울 수 있고/있거나 불편할 수 있는, 물리적 버튼들을 사용하여 기능 모니터링 시스템에 대한 선택을 하는 것에 대한 대안을 제공할 수 있다. 부가적으로, 인식된 제스처들은 전력 소비의 감소가 달성될 수 있도록 운동 기능 모니터링 시스템들에 대한 하나 이상의 동작 모드를 선택하는 데 사용될 수 있다.

Description

제스처 인식 및 전력 관리를 갖는 손목 착용 운동 디바이스{WRIST-WORN ATHLETIC DEVICE WITH GESTURE RECOGNITION AND POWER MANAGEMENT}
연관 출원에 대한 상호 참조
본 출원은 2013년 8월 7일자 출원된 "GESTURE RECOGNITION"이라고 하는 미국 가 특허 출원 61/863,249의 우선권을 주장한다. 그 내용은 어떤 및 모든 비제한적인 목적들을 위해 전체적으로 본 명세서에서 참고로 도입된다.
현대 기술은 사용자들이 서로 터치하여, 즐기고, 정보를 알리는 광범위한 다양한 다른 전자 디바이스들 및/또는 통신 디바이스들을 개발하게 되었다. 광범위한 다양한 휴대용 전자 디바이스들은 셀룰러 전화; 개인 휴대용 단말기("PDA"); 페이저; 무선 호출기; MP3 또는 다른 오디오 재생 디바이스; 라디오, 휴대용 텔레비전, DVD 플레이어, 또는 다른 비디오 재생 디바이스; 손목 시계; GPS 시스템 등과 같은 이들 목적을 위해 가용하다. 많은 사람들은 그들이 예를 들어, 다른 사람들과 계속 연락하고(예를 들어, 혹독한 날씨, 부상; 또는 비상의 경우에 코치들 또는 트레이너들과 연락하고), 그들이 즐기고, 정보(시간, 방향, 위치 등)를 제공하기 위해 운동 이벤트들에서 훈련하거나 참가할 때 이들 타입의 디바이스들 중 하나 이상을 소지하기를 원한다.
운동 기능 모니터링 시스템들은 또한 전자 디바이스 및 디지털 기술에서의 최근의 진보로부터 혜택을 받는다. 전자 기능 모니터링 디바이스들은 예를 들어, 속도 및 거리 데이터, 고도 데이터, GPS 데이터, 심박, 맥박, 혈압 데이터, 체온 등을 포함하는, 훈련 또는 다른 운동 기능과 연관된 많은 신체적 또는 생리적 특성들의 모니터링을 가능하게 한다. 구체적으로, 이들 운동 기능 모니터링 시스템들은 점점 더 복잡해지는 계산들 및 프로세스들이 계속 소형화되는 마이크로프로세서들에 의해 실행되게 하는, 마이크로프로세서 디자인에서의 최근의 진보로부터 혜택을 받아 왔다. 이들 최신의 마이크로프로세서들은 활동 인식 프로세스들의 실행을 위해 사용되어, 운동 선수에 의해 수행된 스포츠 또는 활동이 인식될 수 있고, 그 스포츠 또는 활동에 연관된 정보가 분석 및/또는 저장될 수 있다. 그러나, 어떤 예들에서는, 이들 기능 모니터링 시스템들과의 상호작용이 번거로울 수 있고, 운동 선수가 통상적인 컴퓨터 시스템 또는 휴대용 전자 디바이스의 전형적인 버튼들의 어레이를 사용하여 온-디바이스 선택들을 해야 한다. 운동 활동을 수행하는 운동 선수에게는, 기능 모니터링 시스템과 상호작용하고, 종래의 방식으로 시스템의 기능성과 연관하여 선택을 한다는 것은 혼란을 주거나, 편하지 않게 하거나, 수행하기 어렵게 할 수 있다. 부가적으로, 이들 시스템은 재충전 배터리들과 같은 제한된 전원들에 의해 가동되어, 디바이스는 휴대용 활동 모니터링 및 인식을 가능하게 하기 위해 운동 선수가 착용할 수 있다. 운동 기능 모니터일 시스템들에 의해 수행된 계산들이 점점 더 복잡해짐에 따라, 계산들을 수행하는 일체형 마이크로프로세서들의 전력 소비가 상당히 증가하고 있다. 결과적으로, 배터리 충전들 간의 사용가능한 시간은 감소한다. 따라서, 운동 기능 모니터링 디바이스와 상호작용하고, 운동 기능 모니터링 시스템들의 배터리 수명을 연장하기 위한 보다 효율적인 시스템들 및 방법들이 필요하게 되었다.
본 개시의 양태들은 이들 결점들 중 하나 이상을 다루는 신규한 시스템들 및 방법에 관한 것이다. 추가 양태들은 본 기술에서의 다른 단점들을 최소화하는 것에 관한 것이다.
다음은 본 발명의 일부 양태들의 기본적 이해를 제공하기 위해 본 개시의 간단화된 요약을 제시한다. 이 요약은 본 발명의 확장된 개관은 아니다. 본 발명의 주요하고 중요한 요소들을 확인하거나 본 발명의 범위를 제한하려는 것은 아니다. 다음의 요약은 단지 아래에 제공되는 보다 상세한 설명의 전제부로서 간단화된 형태로 본 발명의 일부 개념들을 제시한다.
여기에 설명된 시스템들 및 방법들의 양태들은 가속도 데이터를 디바이스 내의 제스처 인식 프로세서 내로 수신하기 위한 컴퓨터 실행가능 명령어들을 갖는 비일시적인 컴퓨터 판독가능 매체에 관한 것이다. 디바이스는 사용자의 신체 부분에 배치될 수 있고, 제1 동작 모드에 따라 동작한다. 수신된 가속도 데이터는 사용자의 신체 부분의 움직임을 나타낼 수 있고, 제스처로서 분류될 수 있다. 분류 시에, 디바이스는 제2 동작 모드에 따라 동작될 수 있고, 제2 동작 모드는 분류된 제스처에 기초하여 선택된다.
다른 양태에서, 본 개시는 가속도 데이터를 캡처하도록 구성된 센서, 제스처 인식 프로세서, 및 활동 프로세서를 포함하는, 사용자의 신체 부분에 착용하도록 구성된 장치에 관한 것이다. 장치는 캡처된 가속도 데이터를 제스처로서 분류하고, 분류된 제스처에 기초하여 활동 프로세서에 대한 동작 모드를 선택하기 위한 컴퓨터 실행가능 명령어들을 포함하는 비일시적 컴퓨터 판독가능 매체를 더 포함한다.
또 다른 양태에서, 본 개시는 프로세서에 의해 실행될 때 디바이스 상의 센서로부터 움직임 데이터를 수신하고, 데이터로부터 제스처를 식별 또는 선택하고, 식별된 제스처에 기초하여 디바이스의 동작 모드를 조정하도록 구성된 컴퓨터 판독가능 명령어들을 갖는 비일시적인 컴퓨터 판독가능 매체에 관한 것이다.
본 요약은 상세한 설명에서 아래에 더 설명되는 간단화된 형태로 개념들의 선택을 도입하기 위해 제공된다. 요약은 청구된 주제의 주요 특징들 또는 본질적인 특징들을 확인하려는 것도 아니고, 청구된 주제의 범위를 제한하려는 것도 아니다.
도 1은 예의 실시예들에 따라 개인 트레이닝을 제공하고/하거나 사용자의 신체적 움직임으로부터 데이터를 얻도록 구성될 수 있는 예의 시스템을 도시하고;
도 2는 도 1의 시스템의 일부이거나 그와 통신할 수 있는 예의 컴퓨터 디바이스를 도시하고;
도 3은 예의 실시예들에 따라 사용자가 착용할 수 있는 예시적인 센서 어셈블리를 도시하고;
도 4는 예의 실시예들에 따라 사용자가 착용할 수 있는 또 하나의 예의 센서 어셈블리를 도시하고;
도 5는 사용자의 옷 위/안에 위치할 수 있고/있거나 사용자의 2개의 움직이는 신체 부분들 간의 관계들의 식별에 기초할 수 있는 물리적 센서들을 포함할 수 있는 센서 입력을 위한 예시적인 위치들을 도시하고;
도 6은 제스처 인식용으로 이용될 수 있는 예시적인 센서 디바이스(600)의 개략 블럭도이고;
도 7은 제스처 인식 트레이닝 프로세스의 개략 블럭도이고;
도 8은 제스처 인식 프로세스의 개략 블럭도이고;
도 9는 동작 모드 선택 프로세서의 개략 블럭도이다.
본 개시의 양태들은 운동 기능 모니터링 디바이스에 연관된 소정의 기능들을 불러내기 위해 운동 선수에 의해 수행된 제스처들의 인식을 포함한다. 제스처들은 제스처 정보 외에, 운동 선수/사용자에 의해 수행된 하나 이상의 운동 활동을 나타내는 운동 데이터를 포함하는 운동 데이터로부터 인식될 수 있다. 운동 데이터는 하나 이상의 비일시적인 저장 매체에서 능동적으로 또는 수동적으로 감지 및/또는 저장되고, 안내, 및/또는 다른 정보를 제공하기 위해 예를 들어, 계산된 운동 속성들, 피드백 신호들과 같은 출력을 발생하는 데 사용될 수 있다. 이들, 및 다른 양태들은 개인 트레이닝 시스템의 다음의 예시적인 예들의 문맥에서 논의될 것이다.
다양한 실시예들의 다음의 설명에서, 그 일부를 형성하고, 본 개시의 양태들이 실시될 수 있는 예시의 다양한 실시예들에 의해 도시된 첨부 도면을 참조한다. 다른 실시예들이 이용될 수 있고 구조적 및 기능적 수정들이 본 개시의 범위 및 취지에서 벗어나지 않고서 이루어질 수 있다는 것을 이해하여야 한다. 또한, 본 개시의 서두는 개시의 양태들을 제한하는 것으로 고려되지 않고 예의 실시예들은 예의 서두에 제한되지 않는다.
Ⅰ. 예의 개인 트레이닝 시스템
A. 예시적인 네트워크들
본 개시의 양태들은 복수의 네트워크를 통해 이용될 수 있는 시스템들 및 방법들에 관한 것이다. 이와 연관하여, 소정의 실시예들은 동적 네트워크 환경들에 적응하도록 구성될 수 있다. 추가 실시예들은 분리된 네트워크 환경들을 달리 하여 동작될 수 있다. 도 1은 예의 실시예들에 따른 개인 트레이닝 시스템(100)의 예를 도시한다. 예의 시스템(100)은 예시적인 신체 영역 네트워크(BAN)(102), 근거리 네트워크(LAN)(104), 및 광역 네트워크(WAN)(106)와 같은 하나 이상의 상호접속된 네트워크를 포함할 수 있다. 도 1에 도시한 바와 같이(그리고 본 개시의 전체에 걸쳐 설명된 바와 같이), 하나 이상의 네트워크(예를 들어, BAN(102), LAN(104), 및/또는 WAN(106))는 중첩할 수 있거나 그렇지 않으면 서로 포함될 수 있다. 본 기술의 통상의 기술자는 예시적인 네트워크들(102-106)은 하나 이상의 서로 다른 통신 프로토콜 및 통신 아키텍처들을 각각 포함할 수 있고 또한 서로 또는 다른 네트워크에의 게이트웨이들을 갖도록 구성될 수 있는 논리적 네트워크들이다. 예를 들어, BAN(102), LAN(104) 및/또는 WAN(106) 각각은 셀룰러 네트워크 아키텍처(108) 및/또는 WAN 아키텍처(110)와 같은 동일한 물리적 네트워크에 동작 접속될 수 있다. 예를 들어, BAN(102)과 LAN(104) 둘 다의 소자로 고려될 수 있는 휴대용 전자 디바이스(112)는 아키텍처들(108 및/또는 110) 중 하나 이상을 통해 송신 제어 프로토콜(TCP), 인터넷 프로토콜(IP), 및 사용자 데이터그램 프로토콜(UDP)과 같은 하나 이상의 통신 프로토콜에 따라 네트워크 메시지들로부터의 데이터 및 제어 데이터를 변환하도록 구성된 네트워크 어댑터 또는 네트워크 인터페이스 카드(NIC)를 포함할 수 있다. 이들 프로토콜은 본 기술에 공지되어 있고, 그러므로 여기서 더 상세히 논의되지 않는다.
네트워크 아키텍처들(108 및 110)은 예를 들어, 케이블, 파이버, 위성, 전화, 셀룰러, 무선 등과 같은 어떤 타입(들) 또는 토폴로지(들)를 단독 또는 조합으로의 하나 이상의 정보 분배 네트워크(들)를 포함할 수 있고, 이와 같이, 하나 이상의 유선 또는 무선 통신 채널(WiFi®, Bluetooth®, 근거리 통신(NFC) 및/또는 ANT 기술들을 포함하지만 이들로 제한되지 않음)을 갖는 것과 같이 다양하게 구성될 수 있다. 그러므로, (여기에 설명된 휴대용 전자 디바이스(112) 또는 기타 디바이스와 같은), 도 1의 네트워크 내의 어떤 디바이스는 서로 다른 논리적 네트워크들(102-106) 중 하나 이상에 포함하는 것으로 고려된다. 상기를 감안하여, 예시적인 BAN 및 LAN(WAN(106)에 결합될 수 있음)의 예의 소자들이 설명된다.
1. 예의 근거리 네트워크
LAN(104)은 예를 들어, 컴퓨터 디바이스(114)와 같은 하나 이상의 전자 디바이스를 포함할 수 있다. 컴퓨터 디바이스(114), 또는 시스템(100)의 기타 소자는 전화기, 뮤직 플레이어, 태블릿, 네트워크 또는 임의의 휴대용 디바이스와 같은 이동 단말기를 포함할 수 있다. 다른 실시예들에서, 컴퓨터 디바이스(114)는 미디어 플레이어 또는 레코더, 데스크 컴퓨터, 서버(들), 예를 들어, Microsoft® XBOX, Sony® Playstation, 및/또는 Nintendo® Wii 게이밍 콘솔들과 같은 게이밍 콘솔을 포함할 수 있다. 본 기술의 기술자들은 이들은 단지 설명의 목적을 위한 예의 디바이스들이고 본 개시는 어떤 콘솔 또는 컴퓨팅 디바이스에 제한되지 않는다는 것을 알 것이다.
본 기술의 기술자들은 컴퓨터 디바이스(114)의 디자인 및 구조는 그것의 의도된 목적과 같은, 여러 인자들에 따라 변화할 수 있다는 것을 알 것이다. 컴퓨터 디바이스(114)의 한 예의 구현은 컴퓨팅 디바이스(200)의 블럭도를 도시한 도 2에 제공된다. 본 기술의 기술자들은 도 2의 개시는 여기에 개시된 어떤 디바이스에 적용가능할 수 있다는 것을 알 것이다. 디바이스(200)는 프로세서(202-1 및 202-2)(일반적으로 여기서 "프로세서들(202)" 또는 "프로세서(202)라고 함)와 같은 하나 이상의 프로세서를 포함할 수 있다. 프로세서들(202)은 상호접속 네트워크 또는 버스(204)를 통해 서로 또는 다른 소자들과 통신할 수 있다. 프로세서(202)는 단일 집적 회로(IC) 칩 상에 구현될 수 있는, 코어들(206-1 및 206-2)(여기서 "코어들(206)" 또는 보다 일반적으로 "코어(206)"라고 함)과 같은 하나 이상의 프로세싱 코어를 포함할 수 있다.
코어들(206)은 공유 캐시(208) 및/또는 개인 캐시(예를 들어, 각각, 캐시들(210-1 및 210-2))를 포함할 수 있다. 하나 이상의 캐시(208/210)는 프로세서(202)의 소자들에 의해 더 빠르게 액세스하기 위해, 메모리(212)와 같은, 시스템 메모리 내에 저장된 데이터를 국부적으로 캐시할 수 있다. 메모리(212)는 칩셋(216)을 통해 프로세서들과 통신할 수 있다. 캐시(208)는 소정의 실시예들에서 시스템 메모리(212)의 일부일 수 있다. 메모리(212)는 랜덤 액세스 메모리(RAM), 리드 온리 메모리(ROM)를 포함할 수 있지만, 이들로 제한되지 않고, 고체 상태 메모리, 광학 또는 자기 스토리지, 및/또는 전자 정보를 저장하는 데 사용될 수 있는 기타 매체 중 하나 이상을 포함한다. 또 다른 실시예는 시스템 메모리(212)를 생략할 수 있다.
시스템(200)은 하나 이상의 I/O 디바이스(예를 들어, 각각 일반적으로 I/O 디바이스(214)라고 하는 I/O 디바이스들(214-1 내지 214-3))을 포함할 수 있다. 하나 이상의 I/O 디바이스들(214)로부터의 I/O 데이터는 하나 이상의 캐시(208, 210) 및/또는 시스템 메모리(212)에 저장될 수 있다. I/O 디바이스들(214) 각각은 어떤 물리적 또는 무선 통신 프로토콜을 사용하여 시스템(100)의 소자와 동작 통신하도록 영구적으로 또는 일시적으로 구성될 수 있다.
도 1을 참조하면, 4개의 예의 I/O 디바이스들(요소들(116-122)로 도시함)은 컴퓨터 디바이스(114)와 통신하는 것으로 도시된다. 본 기술의 기술자들은 디바이스들(116-122) 중 하나 이상은 스탠드 얼론 디바이스일 수 있거나 컴퓨터 디바이스(114) 이외의 다른 디바이스들과 연관될 수 있다는 것을 알 것이다. 예를 들어, 하나 이상의 I/O 디바이스는 BAN(102) 및/또는 WAN(106)의 소자와 연관되거나 상호작용할 수 있다. I/O 디바이스들(116-122)은 예를 들어, 센서들과 같은 운동 데이터 획득 유닛들을 포함할 수 있지만, 이들로 제한되지 않는다. 하나 이상의 I/O 디바이스는 사용자(124)와 같은 사용자로부터 운동 파라미터를 감지, 검출, 및/또는 측정하도록 구성될 수 있다. 예들은 다른 것들 중에서 가속도계, 자이로스코프, 위치 결정 디바이스(예를 들어, GPS), 광(비가시 광을 포함) 센서, 온도 센서(주위 온도 및/또는 체온을 포함), 수면 패턴 센서, 심박 모니터, 영상 캡처링 센서, 습기 센서, 힘 센서, 나침반, 각속도 센서, 및/또는 이들의 조합을 포함하지만, 이들로 제한되지 않는다.
추가 실시예들에서, I/O 디바이스들(116-122)은 출력(가청, 시각, 또는 촉각 큐)을 제공하고/하거나 운동 선수(124)로부터의 사용자 입력과 같은 입력을 수신하는 데 사용될 수 있다. 이들 예시적인 I/O 디바이스들을 위한 예의 사용들이 아래에 제공되지만, 본 기술의 통상의 기술자는 이러한 논의들은 단지 본 개시의 범위 내의 많은 옵션들 중 일부를 단지 설명한 것이라는 것을 알 것이다. 또한, 어떤 데이터 획득 유닛, I/O 디바이스, 또는 센서들에 대한 참조는 여기에 개시되거나 본 기술에 공지된 (개별적으로 또는 조합으로) 하나 이상의 I/O 디바이스, 데이터 획득 유닛, 및/또는 센서를 가질 수 있는 실시예들 개시하는 것으로서 해석되어야 한다.
(하나 이상의 네트워크를 통한) 하나 이상의 디바이스들로부터의 정보는 속도, 가속도, 거리, 취해진 스텝들, 방향, 소정의 신체 부분들의 상대적 움직임 또는 다른들에 대한 물체들, 또는 각속도, 직선 속도 또는 이들의 조합들로서 표현될 수 있는 다른 움직임 파라미터들과 같은 움직임 파라미터들, 또는 움직임 데이터, 칼로리, 심박, 땀 검출, 노력, 소모된 산소, 산소 운동 역학과 같은 생리적 파라미터들, 및 압력, 충격력과 같은 하나 이상의 부류 내에 들 수 있는 다른 메트릭들, 키, 몸무게, 나이, 인구통계학적 정보 및 이들의 조합과 같은 운동 선수에 관한 정보를 포함하지만, 이들로 제한되지 않는 다양한 다른 파라미터로 사용될 수 있거나 (그 형성에서 사용될 수 있다).
시스템(100)은 시스템(100) 내에서 수집되거나 그렇지 않은 경우에 시스템(100)에 제공되는 파라미터들, 메트릭들, 또는 생리학적 특성들을 포함하는 운동 데이터를 송신 및/또는 수신하도록 구성될 수 있다. 한 예로서, WAN(106)은 서버(111)를 포함할 수 있다. 서버(111)는 도 2의 시스템(200)의 하나 이상의 소자를 가질 수 있다. 한 실시예에서, 서버(111)는 프로세서(206) 및 메모리(212)와 같은 프로세서 및 메모리를 적어도 포함한다. 서버(111)는 비일시적인 컴퓨터 판독가능 매체 상에 컴퓨터 실행가능 명령어들을 저장하도록 구성될 수 있다. 명령어들은 시스템(100) 내에 수집된 원래 그대로의 또는 처리된 데이터와 같은 운동 데이터를 포함할 수 있다. 시스템(100)은 에너지 소모 점들과 같은 데이터를 소셜 네트워킹 웹사이트에 송신하거나 이러한 사이트를 호스트하도록 구성될 수 있다. 서버(111)는 한명 이상의 사용자가 운동 데이터에 액세스하고/하거나 비교하게 하는 데 이용될 수 있다. 이와 같이, 서버(111)는 운동 데이터 또는 다른 정보에 기초하여 통지들을 송신 및/또는 수신하도록 구성될 수 있다.
LAN(104)으로 돌아가면, 컴퓨터 디바이스(114)는 예의 실시예들을 참조하여 차례로 아래에 논의되는, 표시 디바이스(116), 영상 캡처링 디바이스(118), 센서(120) 및 운동 기구(122)와 동작 통신하는 것으로 도시된다. 한 실시예에서, 표시 디바이스(116)는 특정한 운동 움직임을 수행하기 위해 운동 선수(123)에 가청-시각 큐들을 제공할 수 있다. 가청-시각 큐들은 컴퓨터 디바이스(114) 또는 BAN(102) 및/또는 WAN의 디바이스를 포함하는, 기타 디바이스 상에서 실행되는 컴퓨터 실행가능 명령어에 응답하여 제공될 수 있다. 표시 디바이스(116)는 터치스크린일 수 있거나 그렇지 않으면 사용자 입력을 수신하도록 구성될 수 있다.
한 실시예에서, 데이터는 영상 캡처링 디바이스(118) 및/또는 단독으로 또는 다른 디바이스들과 조합하여, 운동 파라미터들, 또는 저장된 정보를 검출(및/또는 측정)하는 데 사용될 수 있는 센서(120)와 같은 다른 센서들로부터 얻어질 수 있다. 영상 캡처링 디바이스(118) 및/또는 센서(120)는 송수신기 디바이스를 포함할 수 있다. 한 실시예에서, 센서(128)는 적외선(IR), 전자기(EM) 또는 음향 송수신기를 포함할 수 있다. 예를 들어, 영상 캡처링 디바이스(118), 및/또는 센서(120)는 운동 선수(124)의 방향 쪽을 포함하는, 환경으로 파형들을 송신하고 "반사" 또는 그렇지 않으면 그들 빠져 나온 파형들의 변경들을 검출할 수 있다. 본 기술의 통상의 기술자는 다수의 상이한 데이터 스펙트럼들에 대응하는 신호들이 다양한 실시예들에 따라 이용될 수 있다는 것을 쉽게 알 것이다. 이와 연관하여, 디바이스들(118 및/또는 120)은 외부 소스들(예를 들어, 시스템(100)은 아님)로부터 방출된 파형들을 검출할 수 있다. 예를 들어, 디바이스들(118 및/또는 120)은 사용자(124) 및/또는 주위 환경으로부터 방출된 열을 검출할 수 있다. 그러므로, 영상 캡처링 디바이스(126) 및/또는 센서(128)는 하나 이상의 열적 촬상 디바이스를 포함할 수 있다. 한 실시예에서, 영상 캡처링 디바이스(126) 및/또는 센서(128)는 범위 현상학을 수행하도록 구성된 IR 디바이스를 포함할 수 있다.
한 실시예에서, 운동 기구(122)는 운동 선수(124)가 예를 들어, 트레드밀, 스텝 머신 등과 같은, 신체적 움직임을 수행하는 것을 허용하거나 가능하게 하도록 구성가능한 어떤 디바이스일 수 있다. 이 기구는 고정되어야 한다는 요건은 없다. 이와 연관하여, 무선 기술은 휴대용 디바이스들이 이용되게 하므로, 자전거 또는 다른 이동하는 운동 기구가 소정의 실시예들에 따라 이용될 수 있다. 본 기술의 기술자들은 기구(122)는 컴퓨터 디바이스(114)로부터 원격으로 수행된 운동 데이터를 포함하는 전자 디바이스를 수용하는 인터페이스일 수 있거나 이를 포함할 수 있다는 것을 알 것이다. 예를 들어, 사용자는 스포팅 디바이스(BAN(102)과 연관하여 아래에 설명됨)를 사용할 수 있고 홈 또는 장비(122)의 위치로 복귀할 때, 요소(122) 또는 시스템(100)의 기타 디바이스 내로 운동 데이터를 다운로드할 수 있다. 여기에 개시된 어떤 I/O 디바이스는 활동 데이터를 수신하도록 구성될 수 있다.
2. 신체 영역 네트워크
BAN(102)은 (수동 디바이스들을 포함하는) 운동 데이터의 수집을 수신, 송신, 또는 그렇지 않으면 용이하게 하도록 구성된 2개 이상의 디바이스들을 포함할 수 있다. 예시적인 디바이스들은 I/O 디바이스들(116-122)을 포함하지만, 이들로 제한되지 않는, 본 기술에 공지되거나 여기에 개시된 하나 이상의 획득 유닛, 센서, 또는 디바이스를 포함할 수 있다. BAN(102)의 2개 이상의 소자들은 직접 통신할 수 있고, 다른 실시예들에서 역시, 통신은 BAN(102), LAN(104), 및/또는 WAN(106)의 일부일 수 있는 제3 디바이스를 통해 수행될 수 있다. LAN(104) 또는 WAN(106)의 하나 이상의 소자는 BAN(102)의 일부를 형성할 수 있다. 소정의 구현들에서, 휴대용 디바이스(112)와 같은 디바이스가 BAN(102), LAN(104), 및/또는 WAN(106)의 일부인지는 이동 셀룰러 네트워크 아키텍처(108) 및/또는 WAN 아키텍처(110)와의 통신을 허용하는 액세스 포인트들에 운동 선수가 근접하는 것에 의존할 수 있다. 사용자 활동 및/또는 선호도는 또한 하나 이상의 소자가 BAN(102)의 일부로서 이용될 수 있는지에 영향을 줄 수 있다. 예의 실시예들이 아래에 제공된다.
사용자(124)는 휴대용 디바이스(112), 신발 장착 디바이스(126), 손목 착용 디바이스(128) 및/또는 정보를 수집하는 데 사용될 수 있는 물리적 디바이스 또는 위치를 포함할 수 있는, 감지 위치(130)와 같은 감지 위치와 같은 임의 수의 디바이스들과 연관(예를 들어, 소지, 보유, 착용, 및/또는 상호작용)될 수 있다. 하나 이상의 디바이스(112, 126, 128, 및/또는 130)는 휘트니스 또는 운동 목적들을 위해 특별히 설계될 수 없다. 실제로, 본 개시의 양태들은 운동 데이터를 수집, 검출, 및/또는 측정하기 위해 그 일부가 휘트니스 디바이스들이 아닌 복수의 디바이스로부터의 데이터를 이용하는 것에 관한 것이다. 소정의 실시예들에서, BAN(102)(또는 기타 네트워크)의 하나 이상의 디바이스는 특정한 스포츠 사용을 위해 특별히 설계된 휘트니스 또는 스포츠 기구를 포함할 수 있다. 여기에 사용된 바와 같이, 용어 "스포츠 기구"는 특정 스포츠 또는 휘트니스 활동 동안에 사용될 수 있거나 연관될 수 있는 어떤 물리적 물체를 포함한다. 예시적인 스포츠 기구들은 골프 공, 농구 공, 야구공, 축구공, 풋볼, 파워볼, 하키 퍽, 웨이트, 배트, 클럽, 스틱, 패들, 매트, 및 이들의 조합을 포함할 수 있지만, 이들로 제한되지 않는다. 추가 실시예들에서, 예시적인 휘트니스 디바이스는 골 넷, 후프, 백보드와 같은 환경 자체, 중간선, 외부 경계 마커, 베이스, 및 이들의 조합들과 같은 필드의 부분들을 포함하는, 특정한 스포츠가 행해지는 스포츠 환경 내의 물체들을 포함할 수 있다.
이와 연관하여, 본 기술의 통상의 기술자는 하나 이상의 스포츠 기구는 또한 구조의 일부(또는 형태)일 수 있고 반대도 가능하고, 구조는 하나 이상의 스포츠 기구를 포함할 수 있거나 스포츠 기구와 상호작용하도록 구성될 수 있다는 것을 알 것이다. 예를 들어, 제1 구조는 제거가능하거나 골 포스트와 교체될 수 있는 농구 공 링 및 백보드를 포함할 수 있다. 이와 연관하여, 하나 이상의 스포츠 기구는 하나 이상의 구조와 연관된 하나 이상의 센서와 같은, 다른 센서들과 독립적으로 또는 이들과 함께, 이용되는 정보를 제공할 수 있는, 도 1-3과 연관하여 위에 논의된 센서들 중 하나 이상과 같은, 하나 이상의 센서를 포함할 수 있다. 예를 들어, 백보드는 농구 공이 백보드를 침으로써 생기는 힘과 이 힘의 방향을 측정하도록 구성된 제1 센서들을 포함할 수 있고, 링은 힘을 검출하기 위한 제2 센서를 포함할 수 있다. 유사하게, 골프 클럽은 샤프트 상의 그립 속성들을 검출하도록 구성된 제1 센서 및 골프 공과의 충돌을 측정하도록 구성된 제2 센서를 포함할 수 있다.
예시적인 휴대용 디바이스(112)를 보면, 이것은 캘리포니아주 쿠페티노 소재의 Apple, Inc.로부터 입수가능한 IPOD®, IPAD®, 또는 iPhone®, 브랜드 디바이스들 또는 워싱턴주 레드몬드의 Microsoft로부터 입수가능한 Zune® 또는 Microsoft® Windows 디바이스들을 포함하는 전화기 또는 디지털 뮤직 플레이어를 예를 들어, 포함하는 다목적 전자 디바이스일 수 있다. 본 기술에 공지된 바와 같이, 디지털 미디어 플레이어들은 컴퓨터를 위한 출력 디바이스, 입력 디바이스, 및/또는 저장 디바이스로서 기능할 수 있다. 디바이스(112)는 BAN(102), LAN(104), 또는 WAN(106) 내의 하나 이상의 디바이스로부터 수집된 원래 그대로의 또는 처리된 데이터를 수신하기 위한 입력 디바이스로서 구성될 수 있다. 하나 이상의 실시예에서, 휴대용 디바이스(112)는 컴퓨터 디바이스(114)의 하나 이상의 소자를 포함할 수 있다. 예를 들어, 휴대용 디바이스(112)는 이동 단말기를 포함하도록, 추가 소자들이 있거나 없이, 위에 논의된 I/O 디바이스들(116-122) 중 어떤 것과 같은, 디스플레이(116), 영상 캡처링 디바이스(118), 및/또는 하나 이상의 데이터 획득 디바이스를 포함할 수 있다.
a. 예시적인 의복/악세사리 센서들
소정의 실시예들에서, I/O 디바이스들을 손목 시계, 암밴드, 손목밴드, 목걸이, 셔츠, 신발 등을 포함하는, 사용자(124)의 의복 또는 악세사리 내에 또는 그렇지 않으면 그와 연관되어 형성될 수 있다. 이들 디바이스는 사용자의 운동 움직임들을 모니터하도록 구성될 수 있다. 그들은 사용자(124)가 컴퓨터 디바이스(114)와 상호작용하는 동안 운동 움직임을 검출할 수 있고/있거나 컴퓨터 디바이스(114)(또는 여기에 개시된 기타 디바이스)와 독립적으로 동작할 수 있다는 것을 이해하여야 한다. 예를 들어, BAN(102) 내의 하나 이상의 디바이스는 컴퓨터 디바이스(114)와의 사용자의 근접성 또는 상호작용에 관계없이 활동을 측정하는 온종일 활동 모니터로서 기능하도록 구성될 수 있다. 각각이 다음의 문장들에서 설명되는, 도 3에 도시된 센서 시스템(302) 및 도 4에 도시된 디바이스 어셈블리(400)는 단지 예시적인 예들이다는 것을 또한 이해하여야 한다.
i. 신발 장착 디바이스
소정의 실시예들에서, 도 1에 도시한 디바이스(126)는 여기에 개시되고/되거나 본 기술에 공지된 것들을 포함하지만, 이들에 제한되지 않는 하나 이상의 센서를 포함할 수 있는 신발을 포함할 수 있다. 도 3은 하나 이상의 센서 어셈블리(304)를 제공하는 센서 시스템(302)의 한 예의 실시예를 도시한다. 어셈블리(304)는 예를 들어, 가속도계, 자이로스코프, 위치 결정 소자들, 힘 센서들 및/또는 여기에 개시되거나 본 기술에 공지된 기타 센서들과 같은 하나 이상의 센서를 포함할 수 있다. 예시된 실시예에서, 어셈블리(304)는 힘 감지 저항기(FSR) 센서들(306)을 포함할 수 있는 복수의 센서를 통합하지만; 다른 센서(들)가 이용될 수 있다. 포트(308)는 신발의 밑창 구조(309) 내에 배치될 수 있고, 하나 이상의 전자 디바이스들과 통신하기 위해 일반적으로 구성된다. 포트(308)는 전자 모듈(310)과 통신하도록 선택적으로 제공될 수 있고, 밑창 구조(309)는 모듈(310)을 수용하기 위해 하우징(311) 또는 다른 구조를 포함할 수 있다. 센서 시스템(302)은 또한 포트(308)를 통해 모듈(310) 및/또는 또 하나의 전자 디바이스와 통신을 가능하게 하기 위해, FSR 센서들(306)을 포트(308)에 접속하는 복수의 리드를 포함할 수 있다. 모듈(310)은 신발의 밑창 구조 내의 웰 또는 캐비티 안에 포함될 수 있고, 하우징(311)은 웰 또는 캐비티 내에 배치될 수 있다. 한 실시예에서, 적어도 하나의 자이로스코프 및 적어도 하나의 가속도계는 모듈(310) 및/또는 하우징(311)과 같은 단일 하우징 내에 제공될 수 있다. 적어도 하나의 추가 실시예에서, 동작할 때 지향 방향 및 각속도 데이터를 제공하도록 구성된 하나 이상의 센서가 제공된다. 포트(308) 및 모듈(310)은 접속 및 통신하기 위해 상보적 인터페이스들(314, 326)을 포함한다.
소정의 실시예들에서, 도 3에 도시한 적어도 하나의 힘 감지 저항기(306)는 제1 및 제2 전극들 또는 전기 접점들(318, 320) 및 전극들(318, 320)을 함께 전기적으로 접속하기 위해 전극들(318, 320) 사이에 배치된 힘 감지 재료(322)를 포함할 수 있다. 압력이 힘 감지 재료(322)에 가해질 때, 힘 감지 재료(322)의 저항률 및/또는 도전율이 변화하여, 전극들(313, 320) 사이의 전위를 변화시킨다. 저항의 변화는 센서(316) 상에 가해진 힘을 검출하기 위해 센서 시스템(302)에 의해 검출될 수 있다. 힘 감지 저항 재료(322)는 다양한 방식으로 압력 하에서 그것의 저항을 변화시킬 수 있다. 예를 들어, 힘 감지 재료(322)는 재료가 압축될 때 감소하는 내부 저항을 가질 수 있다. 추가 실시예들은 "스마트 재료들"을 통해 구현될 수 있는, 측정될 수 있는 "체적 기반 저항"을 이용할 수 있다. 또 하나의 예로서, 재료(322)는 힘 감지 재료(322)의 2개의 피스들 사이 또는 힘 감지 재료(322)와 하나 또는 둘 다의 전극들(318, 320) 사이와 같은 표면 대 표면 접촉의 정도를 변화시킴으로써 저항을 변화시킬 수 있다. 일부 상황에서, 이러한 타입의 힘 감지 저항 작용(force-sensitive resistive behavior)을 "접촉-기반 저항"이라고 할 수 있다.
ii. 손목 착용 디바이스
도 4에 도시한 바와 같이, 디바이스(400)(도 1에 도시한 센서 디바이스(128)와 유사하거나 이를 포함할 수 있음)는 손목, 팔, 발목, 목 등 주위와 같이, 사용자(124)가 착용하도록 구성될 수 있다. 디바이스(400)는 디바이스(400)의 동작 중에 사용되도록 구성된 누를 수 있는 입력 버튼(402)과 같은 입력 메커니즘을 포함할 수 있다. 입력 버튼(402)은 도 1에 도시한 컴퓨터 디바이스(114)와 연관하여 논의된 요소들 중 하나 이상과 같이, 제어기(404) 및/또는 기타 전자 소자들에 동작 접속될 수 있다. 제어기(104)는 하우징(406)에 내장될 수 있거나 그렇지 않으면 그 일부일 수 있다. 하우징(406)은 탄성 소자들을 포함하는, 하나 이상의 재료로 형성될 수 있고 디스플레이(408)와 같은 하나 이상의 디스플레이를 포함할 수 있다. 디스플레이는 디바이스(400)의 조명가능한 부분으로 고려될 수 있다. 디스플레이(408)는 LED 등들(410)과 같은 일련의 조명 소자들 또는 등 부재들을 포함할 수 있다. 등들은 어레이 내에 형성될 수 있고 제어기(404)에 동작 접속될 수 있다. 디바이스(400)는 전체 디스플레이(408)의 부분 또는 소자로 또한 고려될 수 있는, 표시기 시스템(412)을 포함할 수 있다. 표시기 시스템(412)은 (화소 부재(414)를 가질 수 있는) 디스플레이(408)와 함께 동작하고 조명할 수 있거나 디스플레이(408)로부터 완전히 분리될 수 있다. 표시기 시스템(412)은 또한 예시적인 실시예에서 LED 등들의 형태를 또한 취할 수 있는, 복수의 추가 조명 소자 또는 등 부재들을 포함할 수 있다. 소정의 실시예들에서, 표시기 시스템은 하나 이상의 목표를 향한 달성을 나타내기 위해 표시시 시스템(412)의 조명 부재들의 일부를 조명함으로써와 같이, 목표들의 시각적 표시를 제공할 수 있다. 디바이스(400)는 디스플레이(408) 및/또는 표시시 시스템(412)을 통해, 활동 점들에 대해 표현되거나 사용자의 활동에 기초하여 사용자가 벌은 통화를 표시하도록 구성될 수 있다.
고정 기구(416)는 계합 해제될 수 있고 디바이스(400)는 사용자(124)의 손목 주위에 배치될 수 있고 고정 기구(416)는 계합된 위치에서 후속하여 배치할 수 있다. 한 실시예에서, 고정 기구(416)는 컴퓨터 디바이스(114) 및/또는 디바이스들(120 및/또는 112)과 같은 디바이스들과 동작 상호작용하기 위한 USB 포트를 포함하지만, 이로 제한되지 않는 인터페이스를 포함할 수 있다. 소정의 실시예들에서, 고정 부재는 하나 이상의 자석을 포함할 수 있다. 한 실시예에서, 고정 부재는 이동 부분들이 없을 수 있고 전체적으로 자기력에 의존할 수 있다.
소정의 실시예들에서, 디바이스(400)는 센서 어셈블리(도 4에 도시 안됨)를 포함할 수 있다. 센서 어셈블리는 여기에 개시되고/되거나 본 기술에 공지된 것들을 포함하는, 복수의 센서를 포함할 수 있다. 예의 실시예에서, 센서 어셈블리는 여기에 개시되거나 본 기술에 공지된 어떤 센서를 포함하거나 그와의 동작 접속을 가능하게 할 수 있다. 디바이스(400) 및 또는 그것의 센서 어셈블리는 하나 이상의 외부 센서로부터 얻어진 데이터를 수신하도록 구성될 수 있다.
iii. 의복 및/또는 신체 위치 감지
도 1의 요소(130)는 센서, 데이터 획득 유닛, 또는 다른 디바이스와 같은 물리적 장치와 연관될 수 있는 예의 센서 위치를 도시한다. 또 다른 실시예들에서, 이것은 영상 캡처링 디바이스(예를 들어, 영상 캡처링 디바이스(118))를 통해서와 같이, 모니터되는 신체 부분 또는 부위의 특정 부분일 수 있다. 소정의 실시예들에서, 요소(130)는 센서를 포함할 수 있게 되어, 요소들(130a 및 130b)은 운동복과 같은 의복 내로 통합된 센서들일 수 있다. 이러한 센서들은 사용자(124)의 신체의 어떤 원하는 위치에 배치될 수 있다. 센서들(130a/b)은 BAN(102), LAN(104), 및/또는 WAN(106)의 하나 이상의 디바이스(다른 센서들을 포함)와 (예를 들어, 무선으로) 통신할 수 있다. 소정의 실시예들에서, 수동 감지 표면들은 영상 캡처링 디바이스(118) 및/또는 센서(120)에 의해 방출된 적외선 광과 같은 파형들을 반사시킬 수 있다. 한 실시예에서, 사용자(124)의 의복 상에 배치된 수동 센서들은 유리 또는 파형을 반사시킬 수 있는 다른 투명 또는 반투명 표면들로 이루어진 구형 구조들을 일반적으로 포함할 수 있다. 다른 부류의 의복이 이용될 수 있는데 주어진 부류의 의복은 적절히 착용할 때 사용자(124)의 신체의 특정 부분에 근접하여 위치하도록 구성된 특정한 센서들을 갖는다. 예를 들어, 골프복은 제1 구성에서 의복 상에 배치된 하나 이상의 센서를 포함할 수 있고 또 다른 축구복은 제2 구성에서 의복 상에 배치된 하나 이상의 센서를 포함할 수 있다.
도 5는 센서 입력에 대한 예시적인 위치들(예를 들어, 센서 위치들(130a-130o) 참조)을 도시한다. 이와 연관하여, 센서들은 사용자의 옷 위에/안에 배치된 물리적 센서들일 수 있고, 또 다른 실시예들에서, 센서 위치들(130a-130o)은 2개의 움직이는 신체 부분들 간의 관계의 식별에 기초할 수 있다. 예를 들어, 센서 위치(130a)는 영상 캡처링 디바이스(118)와 같은, 영상 캡처링 디바이스로 사용자(124)의 움직임을 식별함으로써 결정될 수 있다. 그러므로, 소정의 실시예들에서, 센서는 (센서 위치들(130a-130o) 중 하나 이상과 같은) 특정한 위치에 물리적으로 배치될 수 없지만, 영상 캡처링 디바이스(118) 또는 다른 위치로부터 모여진 다른 센서 데이터로와 같이, 그 위치의 특성들을 감지하도록 구성될 수 있다. 이와 연관하여, 사용자 몸의 전체 모양 또는 부분은 소정의 신체 부분들의 식별을 가능하게 할 수 있다. 영상 캡처링 디바이스가 이용되는지 및/또는 사용자(124) 상에 위치한 물리적 센서, 및/또는 (센서 시스템(302)과 같은) 다른 디바이스로부터의 데이터를 사용하고, 데이터 어셈블리(400) 및/또는 여기에 개시되거나 본 기술에 공지된 기타 디바이스 또는 센서가 이용되는지에 상관없이, 센서들은 신체 부분의 현재 위치를 감지 및/또는 신체 부분의 움직임을 추적할 수 있다. 한 실시예에서, 위치(130m)에 연관한 센서 데이터는 사용자의 중력 중심(별칭으로, 질량의 중심)의 결정에 이용될 수 있다. 예를 들어, 위치(들)(130m-130o) 중 하나 이상과 연관하여 위치(130a)와 위치(들)(130f/130l) 간의 관계들은 사용자의 중력 중심이 (점프 동안에서와 같이) 수직 축을 따라 상승되었는지 또는 사용자가 그의 무릎을 구부리거나 휨으로써 점프를 "하는 것처럼" 시도하는지를 결정하는 데 이용될 수 있다. 한 실시예에서, 센서 위치(130n)는 사용자(124)의 흉골 주위에 위치할 수 있다. 마찬가지로, 센서 위치(130o)는 배꼽에 근접하여 위치할 수 있다. 소정의 실시예들에서, 센서 위치들(130m-130o)로부터의 데이터는 사용자(124)에 대한 중력의 중심을 결정하기 위해 (단독으로 또는 다른 데이터와 조합하여) 이용될 수 있다. 추가 실시예들에서, 센서들(130m-130o)과 같은, 다중의 여러 센서 위치들 간의 관계들은 사용자(124)의 몸통을 트위스트하는 것과 같이, 사용자(124)의 배향들 및/또는 회전력들을 결정하는 데 이용될 수 있다. 또한, 위치(들)와 같은 하나 이상의 위치는 모멘트 위치의 중심으로서 이용될 수 있다. 예를 들어, 한 실시예에서, 위치(들)(130m-130o)) 중 하나 이상은 사용자(124)의 모멘트 위치의 중심에 대한 점의 역할을 할 수 있다. 또 하나의 실시예에서, 하나 이상의 위치는 특정한 신체 부분들 또는 부위들의 모멘트의 중심의 역할을 할 수 있다.
도 6은 소정의 실시예들에 따라 하나 이상의 제스처를 인식하도록 구성된 센서 디바이스(600)의 개략 블럭도를 도시한다. 도시한 바와 같이, 센서 디바이스(600)는 센서 디바이스(600)에 의해 수신/출력된 센서 데이터로부터 하나 이상의 제스처를 인식하도록 구성가능한 요소로 (및/또는 그와 동작 통신하여) 실시될 수 있다. 한 실시예에 따라, 인식된 제스처는 하나 이상의 일체로 된 소자들에 의한 전력 소비의 감소를 일으키는 것 이외에, 센서 디바이스(600)의 하나 이상의 동작 모드에 따라 하나 이상의 프로세스를 실행할 수 있다. 예시적인 센서 디바이스(600)는 센서(602), 필터(604), 활동 프로세서(606), 제스처 인식 프로세서(608), 메모리(610), 전원(612), 송수신기(614), 및 인터페이스(616)를 갖는 것으로 도시된다. 그러나, 본 기술의 통상의 기술자는 도 6은 센서 디바이스(600)의 단지 예시적 예이고, 센서 디바이스는 여기에 설명된 프로세스들 및 시스템들의 범위에서 벗어나지 않고서, 복수의 대체 구성들을 사용하여 구현될 수 있다는 것을 알 것이다. 예를 들어, 본 기술의 통상의 기술자에게는 활동 프로세서(606) 및 제스처 인식 프로세서(608)는 단일 프로세서로서 실시될 수 있거나, 다른 것들 중에서, 단일의 멀티 코어 프로세서의 하나 이상의 프로세싱 코어들로서 실시될 수 있다는 것이 쉽게 분명해질 것이다. 다른 실시예들에서, 프로세서들(606 및 608)은 전용 하드웨어, 또는 (공통 마더보드 상에, 공통 서버 내에서) 국부화될 수 있거나, (다중 네트워크 접속 서버들에 걸쳐) 분배될 수 있는 공유 하드웨어를 사용하여 실시될 수 있다.
부가적으로, 센서 디바이스(600)는 도 2의 컴퓨팅 시스템(200)의 하나 이상의 소자를 포함할 수 있고, 센서 디바이스(600)는 보다 큰 컴퓨터 디바이스의 일부일 수 있거나, 스탠드 얼론 컴퓨터 디바이스 자체일 수 있다. 따라서, 한 구현에서, 센서 디바이스(600)는 도 4로부터의 제어기(404)의 프로세스들을 부분적으로 또는 전체적으로 수행하도록 구성될 수 있다. 이러한 구현에서, 센서 디바이스(600)는 다른 것들 중에서, 손목 착용 디바이스(400)의 사용자에 의해 수행된 하나 이상의 제스처를 인식하도록 구성될 수 있다. 응답하여, 손목 착용 디바이스(400)는 다른 것들 중에서, 하나 이상의 동작 모드와 연관된 하나 이상의 데이터 분석 조건들 및 설정들을 조정하고, 사용자에 의해 수행된 하나 이상의 활동을 인식하고, 또는 손목 착용 디바이스(400)에 의한 전력 소비의 감소를 일으키고, 또는 이들의 조합을 하도록 하나 이상의 프로세스를 실행할 수 있다.
한 구현에서, 전원(612)은 배터리를 포함할 수 있다. 대안적으로, 전원(612)은 저장된 화학 에너지로부터부터 전력을 유도하는 단일 전지(보통 배터리라고 하는 이러한 전지들의 다중의 그룹)일 수 있거나, 센서 디바이스(600)가 배치될 수 있는 디바이스(400)의 움직임으로부터 얻어진 전기 에너지를 저장하도록 구성될 수 있는, 태양 전지, 캐패시터, "무선" 유도, 또는 유니버설 시리얼 버스(USB 1.0/1.1/2.0/3.0 등) 등과 같은 전력 콘센트로부터의 전기 에너지의 유선 공급에 의한 전기 에너지의 공급 등을 포함하는 다른 기술들의 조합의 하나 이상을 사용하여 구현될 수 있다. 통상의 기술자는 여기에 설명된 시스템들 및 방법들은 설명의 범위에서 벗어나지 않고서, 이들, 및 다른 전원(612) 실시예들로부터 전력 소비를 줄이는 것에 맞을 수 있다는 것을 쉽게 이해할 것이다.
한 구현에서, 센서 디바이스(600)의 센서(602)는 다른 것들 중에서, 하나 이상의 가속도계, 자이로스코프, 위치 결정 디바이스(GPS), 광 센서, 온도 센서, 심박 모니터, 영상 캡처링 센서, 마이크로폰, 습기 센서, 힘 센서, 나침반, 각속도 센서, 및/또는 이들의 조합들을 포함할 수 있다. 가속도계를 포함하는 한 예의 실시예로서, 센서(602)는 단일 집적 회로, 또는 "칩"으로서 구현된 3축(x, y, 및 z축) 가속도계일 수 있고, 3개의 축들 중 하나 이상에서의 가속도가 마이크로전기기계적 시스템(MEMS) 디바이스의 실리콘 구조 양단의 캐패시턴스의 변화로서 검출된다. 따라서, 3축 가속도계는 3차원 공간의 어느 방향에서의 가속도를 해상하는 데 사용될 수 있다. 한 특정한 실시예에서, 센서(602)는 STMicroelectronics LIS3DH 3축 가속도계 패키지를 포함할 수 있고, 가속도계가 정렬된 3개의 축들 중 하나 이상의 축 내의 가속도의 크기에 대응하는 디지털 신호를 출력한다. 통상의 기술자는 센서(602)는 가속도의 크기에 대응하는, 디지털, 또는 펄스 폭 변조 신호를 출력할 수 있다는 것을 이해할 것이다. 예를 들어 가속도계를 결합한 것과 같은, 센서(602)의 디지털 출력은 시변 주파수 신호로서 수신될 수 있고, 출력 신호의 주파수는 센서(602)가 감지하는 3개의 축들 중 하나 이상의 축 내의 가속도의 크기에 대응한다. 대안적 구현들에서, 센서(602)는 센서(602)가 감지하는 3개의 축들 중하나 이상의 축 내의 가속도의 크기에 대응하는 시변 전압으로서 아날로그 신호를 출력할 수 있다. 또한, 센서(602)는 여기에 설명된 실시예들의 범위에서 벗어나지 않고서, 단일 축, 또는 2축 가속도계일 수 있다는 것을 이해할 것이다. 또 다른 구현들에서, 센서(602)는 센서(602)가 응답하는 물리적 현상/입력에 대응하는 아날로그 또는 디지털 신호를 출력하는 하나 이상의 센서를 나타낼 수 있다.
선택적으로, 센서 디바이스(600)는 필터(604)를 포함할 수 있고, 필터(604)는 센서(602)로부터 출력 신호의 소정의 주파수들을 선택적으로 제거하도록 구성될 수 있다. 한 구현에서, 필터(604)는 저역 통과, 고역 통과, 또는 대역 통과의 특성들을 갖는 아날로그 필터이고, 또는 필터(604)는 디지털 필터, 및/또는 이들의 조합들이다. 센서(602)의 출력은 필터(604)로 송신될 수 있고, 한 구현에서, 아날로그 센서(602)의 출력은 변화하는 주파수 및 진폭에 따라 연속하는, 시변 전압 신호의 형태로 될 것이다. 한 구현에서, 전압 신호의 진폭은 가속도의 크기에 대응하고, 출력 신호의 주파수는 단위 시간 당 가속도의 변화들의 수에 대응한다. 그러나, 센서(602)의 출력은 대안적으로 하나 이상의 상이한 센서 타입에 대응하는 시변 전압 신호일 수 있다. 또한, 센서(602)의 출력은 다른 것들 중에서, 전기적 전류, 광 신호, 및 음향 신호, 또는 이들의 조합들에 의해 나타나는 아날로그 또는 디지털 신호일 수 있다.
필터(604)는 디바이스(400)와 같은, 제스처 모니터링 디바이스에 의한 제스처 인식, 및/또는 활동 인식에 대한 관심의 범위의 외부의 주파수들에 대응하는 그들 신호들을 제거하도록 구성될 수 있다. 예를 들어, 필터(604)는 사람의 능력 이상의 주파수에서 센서(602)의 움직임을 나타내는, 예를 들어, 100㎐에 걸치는 고주파수 신호들을 선택적으로 제거하는 데 사용될 수 있다. 또 하나의 구현에서, 필터(604)는 사용자 제스처에 연관된 것들보다 낮은 주파수들을 갖는 신호들이 센서 디바이스(600)에 의해 더 처리되지 않도록 센서(602)의 출력으로부터 저주파수 신호들을 제거하는 데 사용될 수 있다.
필터(604)는 "전치 필터"라고 할 수 있고, 필터(604)는 활동 프로세서(606)가 사용자에 의해 수행된 제스처 또는 활동을 나타내지 않는 데이터를 처리하는 전기 에너지를 소모하지 않도록 센서(602)의 신호 출력으로부터 하나 이상의 주파수를 제거할 수 있다. 이 방식으로, 전치 필터(604)는 센서 디바이스(600) 또는 센서 디바이스(600)가 그 일부인 시스템에 의한 전체적인 전력 소비를 줄일 수 있다.
한 구현에서, 필터(604)의 출력은 활동 프로세서(606) 및 제스처 인식 프로세서(608) 둘 다에 송신된다. 센서 디바이스(600)가 제1 상태에서 전력 온되고 전기 에너지가 전원(612)으로부터 공급될 때, 활동 프로세서(606) 및 제스처 인식 프로세서(608) 둘 다는 센서(602)로부터 연속-시간 출력 신호를 수신할 수 있고, 출력 신호는 활동 프로세서(600) 및 제스처 인식 프로세서(608)에 의해 수신되기 전에 필터(604)에 의해 필터링될 수 있다. 또 하나의 구현에서, 제스처 인식 프로세서(608)에 의해 수신된 센서 데이터는 필터(604)에 의해 필터링되지 않는 반면 활동 프로세서(606)에 의해 수신된 센서 데이터는 필터(604)에 의해 필터링되었다. 또 다른 구현에서, 센서 디바이스(600)가 제2 상태에서 전력 온될 때, 활동 프로세서(606) 및 제스처 인식 프로세서(608)는 센서(602)로부터 단속적인 신호를 수신한다. 본 기술의 통상의 기술자는 또한 하나 이상의 프로세서(예를 들어, 프로세서(606 및/또는 608))는 센서(602) 이외의 센서로부터 얻어진 데이터를 분석할 수 있다는 것을 알 것이다.
도 2로부터의 시스템 메모리(212)와 유사할 수 있는 메모리(610)는 활동 프로세서(606) 및/또는 제스처 인식 프로세서(608)에 의해 실행된 하나 이상의 프로세스를 실행하기 위한 컴퓨터 실행가능 명령어들을 저장하는 데 사용될 수 있다. 메모리(610)는 랜덤 액세스 메모리(RAM), 리드 온리 메모리(ROM)를 포함할 수 있지만, 이들로 제한되지 않고, 고체 상태 메모리, 광학 또는 자기 스토리지, 및/또는 전자 정보를 저장하는 데 사용될 수 있는 기타 매체를 포함할 수 있다. 메모리(610)는 도 6에서 단일 및 분리된 블럭으로서 도시되지만, 메모리(610)는 동일하거나, 서로 다를 수 있는, 하나 이상의 메모리 타입을 나타낼 수 있다는 것을 이해할 것이다. 부가적으로, 메모리(610)는 실행된 명령어들이 활동 프로세서(606) 및 제스처 인식 프로세서(608) 중 하나 이상과 동일한 집적 회로 상에 저장되도록 센서 디바이스(600)로부터 생략될 수 있다.
제스처 인식 프로세서(608)는 한 구현에서, 도 2로부터의 프로세서(202)와 유사한 구조를 가질 수 있게 되어, 제스처 인식 프로세서(608)는 공유 집적 회로, 또는 마이크로프로세서 디바이스의 일부로서 구현될 수 있다. 또 하나의 구현에서, 제스처 인식 프로세서(608)는 다른 프로세스들과 공유할 수 있거나, 제스처 인식 프로세서(608) 만의 전용일 수 있는 주문형 집적 회로(ASIC)로서 구성될 수 있다. 또한, 기술자들은 제스처 인식 프로세서(608)는 도 6에 도시된 구현의 취지에서 벗어나지 않고서, 분리된 아날로그 및/또는 디지털 전자 소자들을 사용하는 것과 같은 다양한 다른 구성들을 사용하여 구현될 수 있고, 여기에 설명된 것과 동일한 프로세스들을 실행하도록 구성될 수 있다. 유사하게, 활동 프로세서(606)는 도 2로부터의 ASIC, 또는 범용 프로세서(202)로서 구성될 수 있어서, 활동 프로세서(606) 및 제스처 인식 프로세서(608)는 물리적으로 분리된 하드웨어, 또는 그들의 하드웨어의 일부 또는 모두를 공유한 것을 사용하여 구현될 수 있다.
활동 프로세서(606)는 사용자에 의해 수행된 하나 이상의 활동을 인식하고, 하나 이상의 활동을 하나 이상의 활동 부류로 분류하기 위한 프로세서들을 실행하도록 구성될 수 있다. 한 구현에서, 활동 인식은 움직임 데이터에서 팔 스윙 피크들 및 바운스 피크들을 검출함으로써와 같이, 움직임 데이터에 기초하여 사용자에 의해 취해진 스텝들을 정량화하는 것을 포함할 수 있다. 정량화는 예를 들어, 손목에 근접하는 것과 같은, 사용자의 팔에 착용한 단일 디바이스로부터 수집된 데이터에 전적으로 기초하여 이루어질 수 있다. 한 실시예에서, 움직임 데이터는 가속도계로부터 얻어질 수 있다. 가속도계 크기 벡터들은 프레임이 계산될 수 있는 시간 동안의 크기 벡터들로부터의 평균 값과 같은, 시간 프레임 및 값들에 대해 얻어질 수 있다. 평균 값(또는 기타 값)은 시간 프레임에 대한 크기 벡터들이 각각의 시간 프레임에 대한 스텝 카운트들을 계산하는 데 사용하기 위해 적합하게 하기 위해 가속 임계값에 맞는지를 결정하는 데 이용될 수 있다. 임계값에 맞는 가속도 데이터는 분석 버퍼 내에 놓여질 수 있다. 예상된 활동들에 연관된 가속 주파수들의 서치 범위가 확립될 수 있다. 서치 범위 내의 가속도 데이터의 주파수들은 바운스 피크 및 팔 스윙 피크와 같은, 하나 이상의 피크를 식별하기 위해 소정의 구현들에서 분석될 수 있다. 한 실시예에서, 제1 주파수 피크는 그것이 평가된 팔 스윙 범위 내에 있고 나아가 팔 스윙 피크 임계값에 맞는 경우에 팔 스윙 피크로서 식별될 수 있다. 유사하게, 제2 주파수 피크는 그것이 평가된 바운스 범위 내에 있고 나아가 바운스 피크 임계값에 맞는 경우에 바운스 피크라고 결정될 수 있다.
또한, 시스템들 및 방법들은 스텝들 또는 다른 움직임들을 정량화하기 위해 팔 스윙 데이터, 바운스 데이터, 및/또는 다른 데이터 또는 데이터의 부분들을 이용할지를 결정할 수 있다. 팔 스윙 피크들 및/또는 바운스 피크들과 같은 피크들의 수는 어떤 데이터를 이용할지를 결정하는 데 사용될 수 있다. 한 실시예에서, 시스템들 및 방법들은 스텝들을 정량화하는 스텝 주파수 및 스텝 크기를 선택하기 위해 피크들의 수 (및 피크들의 타입들)을 사용할 수 있다. 또 다른 실시에들에서, 움직임 데이터의 적어도 일부는 스텝들의 정량화에 기초하여 활동 부류로 분류될 수 있다.
한 실시에에서, 센서 신호들(가속도계 주파수들 등) 및 센서 신호들(예를 들어, 스텝들의 양)에 기초한 계산들은 예를 들어, 걷기 또는 달리기와 같은 활동 부류의 분류에 이용될 수 있다. 소정의 실시예들에서, 데이터가 제1 부류(예를 들어, 걷기) 또는 부류들의 그룹(예를 들어, 걷기와 달리기) 내에서 분류될 수 없는 경우에, 제1 방법은 수집된 데이터를 분류할 수 있다. 예를 들어, 한 실시예에서, 검출된 파라미터들이 분류될 수 없다면, 유클리디언 놈 방정식(Euclidean norm equation)이 추가 분석을 위해 이용될 수 있다. 한 실시예에서, 얻어진 값들의 평균 크기 벡터 놈(제곱들의 합의 제곱근)이 이용될 수 있다. 또 다른 실시예에서, 다른 방법이 제1 부류 또는 부류들의 그룹들 내에서 분류를 따르는 데이터의 적어도 일부를 분석할 수 있다. 한 실시예에서, 스텝 알고리즘이 이용될 수 있다. 분류되고 분류되지 않은 데이터는 소정의 실시예들에서 에너지 소모 값을 계산하는 데 이용될 수 있다.
하나 이상의 할동을 인식하도록 구현될 수 있는 예시적인 시스템들 및 방법들은 그 전체가 임의의 및 모든 제한되지 않는 목적들을 위해 여기에 전체적으로 참고로 도입된, 2013년 1월 17일자 출원된 미국 특허 출원 번호 13/744,103에 개시되어 있다. 소정의 실시예들에서, 활동 프로세서(606)는 '103 출원에서 설명된 것들을 포함하는 여기에 설명된 하나 이상의 프로세스 중 하나를 실행하는 데 이용될 수 있다.
사용자의 활동을 분류하는 데 사용된 프로세스들은 센서(602)로부터 수신 데이터를 특정한 활동의 특성인 저장된 데이터 샘플과 비교할 수 있고, 하나 이상의 특성 데이터 샘플은 메모리(610) 내에 저장될 수 있다.
제스처 인식 프로세서(608)는 센서 디바이스(600)가 소자일 수 있는 디바이스(400)의 사용자와 같은, 사용자에 의해 수행된 하나 이상의 제스처를 인식, 또는 분류하기 위해 하나 이상의 프로세스를 실행하도록 구성될 수 있다. 이 방식으로, 사용자는 센서 디바이스(600)의 동작과 연관된 선택들을 하기 위해 하나 이상의 제스처를 수행할 수 있다. 따라서, 사용자는 신체 활동 중에 번거롭거나 비실용적일 수 있는, 하나 이상의 물리적 버튼을 통해 센서 디바이스(600)와 상호작용하는 것을 피할 수 있다.
제스처 인식 프로세서(608)는 센서(602)로부터 데이터를 수신할 수 있고, 이 수신된 데이터로부터, 다른 것들 중에서, 센서 디바이스(600)의 움직임 패턴, 센서 디바이스(600)의 터치들의 패턴, 센서 디바이스(600)의 배향, 및 센서 디바이스(600)의 비콘과의 근접성, 또는 이들의 조합들에 기초하여 하나 이상의 제스처를 인식할 수 있다. 예를 들어, 제스처 인식 프로세서(608)는 센서(602)로부터 가속도 데이터를 수신할 수 있고, 센서(602)는 가속도계로서 실시된다. 이 가속도 데이터의 수신에 응답하여, 제스처 인식 프로세서(608)는 수신된 데이터를 움직임 패턴들의 데이터베이스와 비교하기 위해 하나 이상의 프로세스를 실행할 수 있다. 움직임 패턴은 사용자에 의한 특정한 움직임을 나타내는 가속도 값들의 시퀀스일 수 있다. 수신된 센서 데이터에 대응하는 움직임 패턴을 찾는 것에 응답하여, 제스처 인식 프로세서(608)는 활동 프로세서(606)의 동작 모드를 제1 동작 모드로부터 제2 동작 모드로 변화시키기 위해 하나 이상의 프로세스를 실행할 수 있다. 동작 모드는 센서 디바이스(600)가 동작하는 방식을 일반적으로 정의하는 하나 이상의 프로세스의 그룹일 수 있다. 예를 들어, 동작 모드들은 다른 것들 중에서, 활동 프로세서(606)의 하이버네이션(hibernation) 모드, 활동 프로세서(606)의 활동 인식 모드, 및 제스처 인식 프로세서(608)의 센서 선택 모드, 또는 이들의 조합들을 포함할 수 있다. 또한, 움직임 패턴은 가속도계들 이외의 센서 타입들에 대응하는 값들의 시퀀스일 수 있다는 것을 쉽게 이해할 것이다. 예를 들어, 움직인 패턴은 다른 것들 중에서, 자이로스코프 값들, 힘 값들, 광 세기 값들, 음향 볼륨/피치/톤 값들, 또는 위치 값들, 또는 이들의 조합들의 시퀀스일 수 있다.
가속도계로서의 센서(602)의 예시적인 실시예에 대해, 움직임 패턴은 다른 것들 중에서, 제스처를 나타내는 의도적인 방식으로 사용자의 팔의 움직임과 연관될 수 있다. 예를 들어, 제스처는 사용자에게 랩 타임을 표시하기 위해, 센서 디바이스(600)에 의해, 하나 이상의 프로세스의 실행을 일으킬 수 있다. 사용자는 손목 착용 디바이스(400)를 그의 좌측 손목에 착용할 수 있고, 손목 착용 디바이스(400)는 그의 좌측 손목 위에 배치될 수 있고 디스플레이(408)는 손목의 상부에 배치된다. 따라서, "랩 타임 제스처"는 사용자의 좌측 손목을 약 90°의 각을 통해 "플릭하거나", 흔들어서 초기 위치로 되돌아가는 것을 포함할 수 있다. 제스처 인식 프로세서(608)는 랩 타임 제스처로서 이 플릭킹 움직임을 인식할 수 있고, 이에 응답하여, 디스플레이(408) 상에서 사용자에게 랩 타임을 표시할 수 있다. 랩 타임 제스처와 연관된 예시적인 움직임 패턴은 다른 것들 중에서 제1 가속 임계값 아래의 연관된 가속도 값을 갖는 제1 가속 주기, 사용자가 초기 위치로부터 그의 손목을 플릭킹하기 시작함에 따라 가속도의 갑작스런 증가에 대응하는 제2 가속 주기, 및 사용자가 초기 위치로부터 약 90°각도로부터의 그의 손목이 돌아옴에 따른 가속도의 갑작스런 증가에 대응하는 제2 가속 주기를 포함할 수 있다. 기술자는 움직임 패턴들이 많은 이산 "주기들" 및 제스처와 연관된 센서 값들의 변화를 포함할 수 있다는 것을 쉽게 알 것이다. 또한, 움직임 패턴은 동일하거나 다른 타입들의 다중 센서들로부터의 값들을 포함할 수 있다.
센서(602)로부터의 데이터를 하나 이상의 움직임 패턴과 연관시키기 위해서, 제스처 인식 프로세서(608)는 절대 센서 값들, 또는 센서 값들의 변화를 하나 이상의 움직임 패턴과 연관된 저장된 센서 값들과 비교하기 위해 하나 이상의 프로세스를 실행할 수 있다. 또한, 제스처 인식 프로세서(608)는 수신된 센서 데이터 내의 하나 이상의 센서 값이 하나 이상의 저장된 센서 값들의 허용가능한 범위 내에서, 하나 이상의 임계값 위/아래인 경우에 센서(602)로부터의 센서 데이터의 시퀀스가 하나 이상의 움직임 패턴에 대응하거나, 하나 이상의 저장된 센서 값들과 동일하거나, 이들의 조합들이라는 것을 결정할 수 있다.
기술자들은 움직임 패턴들이 센서 디바이스(600)에 의해 실행될 많은 다른 타입들의 프로세스로 사용자에 의해 수행된 제스처들을 연관시키는 데 사용될 수 있다는 것을 쉽게 알 것이다. 예를 들어, 제스처는 사용자의 좌우측 손을 "T자 형으로 하고 양손을 소정의 시간 기간 동안 이 위치에 유지하는 움직임을 포함할 수 있다. 제스처 인식 프로세서(608)는 이 제스처와 연관된 센서 데이터를 수신할 수 있고, 수신된 센서 데이터를 하나 이상의 저장된 움직임 패턴과 비교하기 위해 하나 이상의 프로세스를 실행할 수 있다. 제스처 인식 프로세서(608)는 수신된 센서 데이터가 "타임아웃" 움직임 패턴에 대응한다고 결정할 수 있다. 응답하여, 제스처 인식 프로세서(608)는 활동 프로세서(606)에 "타임아웃" 동작 모드와 연관된 하나 이상의 프로세스를 실행하라고 명령할 수 있다. 예를 들어, "타임아웃" 동작 모드는 활동 프로세서(606)가 센서(602)로부터 데이터를 수신하는 샘플링 레이트를 감소시킴으로써 활동 프로세서(606)에 의한 전력 소비를 감소시키는 것을 포함할 수 있다. 또 하나의 예에서, 제스처는 사용자의 팔이 운동이 끝난 후에 상체를 스트레칭하는 것을 나타내는 위치로 가는 움직임을 포함할 수 있다. 또한, 제스처 인식 프로세서(608)는 이 제스처와 연관된 센서 데이터를 수신할 수 있고, 이 수신된 데이터를 하나 이상의 저장된 움직임 패턴들과 비교하기 위해 하나 이상의 프로세스를 실행할 수 있다. 제스처 인식 프로세서(608)는 수신된 센서 데이터의 하나 이상의 저장된 움직임 패턴과의 비교 시에, 수신된 데이터가 "스트레칭" 움직임 패턴에 대응한다고 결정할 수 있다. 응답하여, 제스처 인식 프로세서(608)는 활동 프로세서(606)에 "스트레칭" 동작 모드에 연관된 하나 이상의 프로세스를 실행하라고 명령할 수 있다. 이 "스트레칭" 동작 모드는 스트레칭 제스처 전에 수행된 하나 이상의 운동 활동의 활동 인식을 그치게 하는 프로세스들을 포함할 수 있다.
한 구현에서, 제스처들은 제스처 인식 프로세서(608)에 의한 하나 이상의 "트레이닝 모드" 프로세스들의 실행 후에 제스처 인식 프로세서(608)에 의해 인식될 수 있다. 트레이닝 모드 중에, 제스처 인식 프로세서(608)는 하나 이상의 움직임 패턴에 대응하는 하나 이상의 데이터 세트를 저장할 수 있다. 특히, 제스처 인식 프로세서(608)는 사용자에게 소정 수의 반복들로 "트레이닝 제스처"를 수행하라고 명령할 수 있다. 반복마다, 제스처 인식 프로세서(608)는 각각의 트레이닝 제스처에 대해 수신된 센서 데이터를 비교할 수 있고, 여러 번의 제스처들에 공통인 하나 이상의 특성을 식별할 수 있다. 제스처 인식 프로세서(608)는, 각 트레이닝 제스처에 대하여 수신된 센서 데이터를 비교하고, 다수 제스처에 공통인 하나 이상의 특성을 식별할 수 있다. 이들 공통 특성은 센서 값 임계값들, 또는 움직임 패턴들의 하나 이상의 시퀀스로서 저장될 수 있다. 예를 들어, "텔 타임" 제스처가 분석될 트레이닝 모드 동안에, 제스처 인식 프로세서(608)는 사용자에게 특정한 움직임을 3번 수행하라고 명령할 수 있다. 특정한 움직임은 다른 것들 중에서, 사용자의 왼쪽 팔을 실질적으로 그 옆으로 하여 수직 배향에서, 왼쪽 팔을 사용자의 옆으로 실질적인 위치로부터 실질적으로 수평으로 움직이고, 사용자의 앞으로 정면으로 가리키고, 사용자의 왼쪽 팔을 팔꿈치에서 구부려서 사용자의 손목이 사용자의 빰 거의 앞에 있도록 하는 것을 포함할 수 있다. 제스처 인식 프로세서(608)는 트레이닝 모드 동안 사용자에 의해 수행된 3개의 "텔 타임" 트레이닝 제스처들에 공통인 센서 데이터를 식별하고, "텔 타임" 제스처와 연관된 움직임 패턴으로서 이들 공통 특성들을 저장하기 위해 하나 이상의 프로세스를 실행할 수 있다. 제스처 인식 프로세서(608)는 사용자에게 디스플레이(408) 상에 현재 시간을 표시하는 것을 포함할 수 있는, "텔 타임" 제스처의 인식 시에 수행될 하나 이상의 프로세스를 더 저장할 수 있다. 이 방식으로, 사용자의 움직임이 제스처 인식 프로세서(608)에 의해 결정된 바와 같이, 미래의 "텔 타임" 제스처에 대응한다면, 현재 시간이 사용자에 표시될 수 있다.
또 하나의 구현에서, 제스처 인식 프로세서(608)는 센서 디바이스(600)의 터치들의 패턴에 기초하여 센서 데이터로부터 제스처를 인식할 수 있다. 한 구현에서, 터치들의 패턴은 디바이스(400)의 외부 케이싱 상의 탭핑의 결과로서 사용자에 의해 발생될 수 있다. 이 탭핑 움직임은 하나 이상의 센서(602)에 의해 검출될 수 있다. 한 실시예에서, 탭핑은 가속도계로부터의 데이터 출력에서의 하나 이상의 스파이크로서 검출될 수 있다. 이 방식으로, 제스처 인식 프로세서(608)는 탭핑 패턴을 활동 프로세서(606)에 의해 실행될 하나 이상의 프로세스와 연관시킬 수 있다. 예를 들어, 제스처 인식 프로세서(608)는 디바이스(400)의 케이싱의 하나 이상의 탭을 나타내는 가속도계로부터 센서 데이터를 수신할 수 있다. 응답하여, 제스처 인식 프로세서(608)는 수신된 가속도계 데이터를 메모리(610) 내에 저장된 하나 이상의 탭핑 패턴과 비교할 수 있고, 탭핑 패턴은 하나 이상의 가속도 값 임계값을 포함할 수 있다. 제스처 인식 프로세서(608)는 예를 들어, 수신된 센서 데이터가 탭핑 패턴들로 저장된 그들에 대응하는 값들을 갖는 가속도 데이터 내에서, 그리고 서로의 소정의 시간 주기 내에서 다중의 "스파이크들", 또는 피크들을 포함하는 경우에 가속도계로부터의 수신된 데이터가 하나 이상의 탭핑 패턴들에 대응한다고 결정할 수 있다. 예를 들어, 제스처 인식 프로세서(608)는 수신된 센서 데이터가 2.0 g(g = 중력 가속도)의 임계값 위의 평균 값을 갖는 2개의 가속도 값 피크를 갖고, 서로 500ms 내에 있는 경우에 가속도계로부터 수신된 데이터는 탭핑 패턴에 대응한다고 결정할 수 있다.
또 하나의 구현에서, 터치들의 패턴은 센서 디바이스(600)와의 동작 통신에서 사용자가 하나 이상의 용량성 센서를 스위핑하는 것에 의해 발생될 수 있다. 이 방식으로, 터치들의 패턴은 하나 이상의 용량성 센서를 가로지르는 소정의 패턴에 따라 사용자의 손가락들 중 하나 이상의 이동으로 구성될 수 있다.
또 다른 구현에서, 제스처 인식 프로세서(608)는 디바이스(400) 내의 센서 디바이스(600)의 배향에 기초하여 제스처를 인식할 수 있다. 센서 디바이스(600)의 배향은 다른 것들 중에서, 가속도계, 자이로스코프, 또는 자계 센서, 또는 이들의 조합들로서 실시된 센서(602)로부터 수신될 수 있다. 이 방식으로, 제스처 인식 프로세서(608)는 센서 디바이스(600)의 배향을 나타내는 데이터를 센서(602)로부터 수신할 수 있고, 이 센서 데이터를 배향 제스처에 연관시킬 수 있다. 결국, 이 배향 제스처는 제스처 인식 프로세서(608)가 활동 프로세서(606)에 대한 동작 모드를 선택하기 위해 하나 이상의 프로세스를 실행하게 할 수 있다. 한 예에서, 디바이스(400)는 사용자의 손목 위에 배치될 수 있다. 디바이스(400)는 디스플레이(408)가 사용자의 손목의 상부에 배치되도록 배향될 수 있다. 이 예에서, 사용자의 손목의 "상부"는 사용자의 손등과 실질적으로 동일한 평면 내의 사용자의 손목의 측면으로서 정의될 수 있다. 이 예에서, 배향 제스처는 사용자가 그의 손목, 및 그에 따라 디바이스(400)를 회전하는 것과 연관될 수 있게 되어, 디스플레이(408)가 실질적으로 아래로 향한다. 이 배향 제스처의 인식에 응답하여, 제스처 인식 프로세서(608)는 다른 것들 중에서, 왕성한 활동의 기간에 대비하여 활동 프로세서(606)의 샘플링 레이트를 증가시키기 위해 하나 이상의 프로세스를 실행할 수 있다. 또 하나의 예에서, 배향 제스처는 로드 자전거의 핸들 상의 사용자의 손들의 배향과 연관될 수 있고, 제2 그립 배향 제스처는 로드 자전거 상에 있으면서 스프린팅하는 것과 연관될 수 있고, 제2 그립 배향 제스처는 로드 자전거 상에서 언덕을 올라가는 것과 연관될 수 있다. 또한, 통상의 기술자는 더 적거나 많은 배향 제스처들이 여기에 설명된 개시의 취지에서 벗어나지 않고서 정의될 수 있다는 것을 쉽게 알 것이다.
또 하나의 실시예에서, 제스처 인식 프로세서(608)는 센서 디바이스(600)의 비콘과의 근접성과 연관된 제스처를 인식할 수 있다. 비콘은 센서 디바이스(600)의 소정의 범위 내에 있을 때 검출가능한 송수신기와 같은 전자 디바이스일 수 있다. 비콘은 비콘과 연관된 정보의 하나 이상의 피스를 식별하는 정보를 포함하는 단거리 신호를 방출할 수 있고, 비콘은 예를 들어, 마라톤/달리기 경주의 시작점, 마라톤의 거리를 따르는 마커, 또는 마라톤의 종료점을 나타낼 수 있다. 비콘과 연관된 신호는 다른 것들 중에서, 와이파이, 블루투스, 또는 셀룰러 네트워크, 또는 이들의 조합들을 포함하는 무선 기술/프로토콜을 사용하여 송신될 수 있다. 비콘으로부터 방출된 신호는 센서 디바이스(600)의 송수신기(614)에 의해 수신될 수 있다. 비콘 신호의 수신 시에, 송수신기(614)는 데이터를 제스처 인식 프로세서(608)에 전달할 수 있다. 응답하여, 제스처 인식 프로세서(608)는 수신된 데이터를 근접 제스처로서 식별할 수 있다. 이 예에서, 식별된 근접 제스처는 사용자의 마라톤 달리기와 연관된 진행 시간을 업데이트하도록 구성된 하나 이상의 프로세스와 연관될 수 있다.
또 다른 실시예에서, 근접 제스처는 다른 것들 중에서, 다른 사용자, 또는 물체에 센서 디바이스(600)가 근접하여 가까워지는 것과 연관될 수 있다. 이 방식으로, 근접 제스처는 스포츠 팀의 부분으로서 경쟁하는 다수의 개개인에 기초하여, 또는 달리기 트랙 상의 비콘이 디바이스된 시작 블럭 등에 주자가 근접하여 가까워지는 것에 기초하여 하나 이상의 프로세스를 예를 들어, 실행하는 데 사용될 수 있다.
도 7은 제스처 인식 트레이닝 프로세스(700)의 개략 블럭도이다. 이 제스처 인식 트레이닝 프로세스(700)는 다른 것들 중에서, 제스처 인식 프로세서(608)에 의해 "트레이닝 모드" 로서 실행될 수 있다. 특히, 프로세스(700)는 블럭 702에서 시작하고, 트레이닝 모드는 제스처 인식 프로세서(608)에 의해 개시된다. 트레이닝 모드는 처음에 센서 디바이스(600)의 초기화, 또는 새로운 제스처 패턴들을 메모리(610) 내에 세이브하기 위해, 센서 디바이스(600)의 사용 중 어느 시간에 개시될 수 있다. 따라서, 이들 세이브된 제스처 패턴은 디바이스(600)의 "정상" 동작 동안에 제스처 인식 프로세서(608)에 의해 인식될 수 있고 디바이스(600)의 정상 동작은 디바이스(600)가 전력 온되고 트레이닝 프로세스(700)를 실행하지 않는 어떤 시간으로서 정의될 수 있다.
제스처 인식 트레이닝 프로세스(700) 동안에, 제스처 인식 프로세서(608)는 사용자에게 트레이닝 제스처의 다중의 연속하는 반복들을 수행하라고 명령할 수 있다. 한 실시예에서, 제스처와 연관된 움직임들은 사용자에 의해 정의될 수 있지만, 또 하나의 실시예에서, 움직임들은 사용자에 의해 수행될 제스처 인식 프로세서(608)에 의해 규정될 수 있다. 프로세스(700)의 블럭 704는 다른 것들 중에서, 사용자가 트레이닝 제스처의 다중의 연속하는 반복들을 수행하는 것을 포함할 수 있다. 한 구현에서, 트레이닝 제스처의 연속하는 반복들의 횟수는 1 내지 10의 범위에 있을 수 있지만, 기술자들은 트레이닝 제스처의 임의의 반복 횟수가 트레이닝 프로세스(700) 동안에 이용될 수 있다는 것을 쉽게 알 것이다.
제스처 인식 프로세서(608)는 메모리(610) 내에 수행된 트레이닝 제스처의 하나 이상의 샘플을 저장할 수 있다. 트레이닝 제스처들 중 하나 이상에 공통인 특성들은 프로세스(700)의 블럭 708에서 제스처 인식 프로세서(608)에 의해 식별될 수 있다. 구체적으로, 블럭 708은 수행된 트레이닝 제스처들을 특성화하는 센서 데이터 점들을 식별하기 위해 제스처 인식 프로세서(608)에 의해 실행된 하나 이상의 프로세스를 나타낸다. 이들 특성은 다른 것들 중에서, 가속도 데이터의 피크들, 또는 임계값 위의 자이로스코프 데이터 점들의 변화 등일 수 있다. 블럭 708은 또한 상이한 샘플링 레이트들에서 샘플된 하나 이상의 트레이닝 제스처의 비교를 포함할 수 있다. 이 방식으로, 그리고, 주어진 트레이닝 제스처에 대해, 제스처 인식 프로세서(608)는 활동 프로세서(606)와 연관된 상부 샘플링 레이트 아래에 있는 샘플링 레이트를 식별할 수 있다. 이 하부 샘플링 레이트에서, 트레이닝 제스처는 센서(602)로부터의 데이터가 상부 샘플링 레이트에서 샘플링된 것처럼 여전히 인식될 수 있다. 제스처 인식 프로세서(608)는 제스처 샘플과 조합하여 하부 샘플링 레이트를 저장할 수 있다. 후속하여, 그리고 인식 시에, 센서 디바이스(600)의 정상 동작 동안에 수신된 센서 데이터로부터의 제스처의 제스처 인식 프로세서(608)에 의해, 제스처 인식 프로세서(608)는 활동 프로세서(606)에 하부 샘플링 레이트에서 데이터를 샘플링하라고 명령할 수 있어서, 활동 프로세서(606)에 의한 전력 소모를 줄일 수 있다.
블럭 710은 메모리(610) 내의 하나 이상의 제스처 샘플의 저장을 나타낸다. 제스처 인식 프로세서(608)는 센서 디바이스(600)의 정상 동작 동안에 센서(602)로부터의 데이터의 수신 시에 저장된 제스처 샘플들의 데이터베이스를 폴할 수 있다. 제스처 샘플은 하나 이상의 센서 타입과 연관된 하나 이상의 센서 값에 대응하는 데이터 점들의 시퀀스로서 저장될 수 있다. 부가적으로, 제스처 샘플은 하나 이상의 프로세스와 연관될 수 있어서, 수신된 센서 데이터로부터의 제스처의 제스처 인식프로세서(608)에 의해, 데이터 인식 프로세서(608)는 활동 프로세서(606)에 하나 이상의 연관된 프로세스를 실행하라고 명령할 수 있다. 이들 연관된 프로세스들은 다른 것들 중에서, 센서 디바이스(600)를 제1 동작 모드로부터 제2 동작 모드로 전이하기 위한 프로세스들을 포함할 수 있다.
도 8은 제스처 인식 프로세스(800)의 개략 블럭도이다. 제스처 인식 프로세스(800)는 한 구현에서 제스처 인식 프로세서(608)에 의해 수행될 수 있다. 프로세스(800)는 제스처 인식 프로세서(608)에 의해 그리고 센서(602)로부터의 데이터의 수신에 응답하여 실행된다. 센서 데이터의 이 수신은 블럭 802에 의해 나타내진다. 앞서 개시된 바와 같이, 센서(602)로부터의 데이터 출력은 아날로그 또는 디지털일 수 있다. 또한, 센서(602)로부터의 데이터 출력은 데이터 스트림의 형태로 될 수 있어서, 데이터 출력은 연속적이거나, 데이터 출력은 단속적일 수 있다. 센서(602)로부터의 데이터 출력은 하나 이상의 데이터 점으로 구성될 수 있고, 데이터 점은 다른 것들 중에서, 그로부터 발생된 센서 타입의 식별, 및 센서 타입으로부터의 판독과 연관된 하나 이상의 값을 포함할 수 있다.
프로세스(800)는 센서(602)로부터 수신된 하나 이상의 데이터 점의 버퍼링을 포함할 수 있다. 이것은 블럭 804에 의해 표시되고, 버퍼 회로, 또는 하나 이상의 버퍼 프로세스는 하나 이상의 수신된 데이터 점을 일시적으로 저장하는 데 사용될 수 있다. 이 방식으로, 제스처 인식 프로세서(608), 또는 활동 프로세서(606)는 센서(602)로부터 수신된 데이터를 저장하기 위해 버퍼를 폴할 수 있다.
한 구현에서, 제스처 인식 프로세서(608)는 센서(602)로부터 수신된 데이터를 하나 이상의 저장된 움직임 패턴과 비교한다. 이것은 프로세스(800)의 블럭 806에 의해 나타내진다. 한 실시예에서, 제스처 인식 프로세서(608)는 그로부터 데이터가 수신된 센서 타입을 식별한다. 응답하여, 제스처 인식 프로세서(608)는 식별된 센서 타입과 연관된 저장된 움직임 패턴들에 대해 메모리(610)를 폴한다, 식별된 센서 타입과 연관된 그들 하나 이상의 저장된 움직임 패턴의 폴된 메모리(610)으로부터의 응답 시에, 제스처 인식 프로세서(608)는 수신된 데이터에 대응하는 센서 값들의 시퀀스에 대한 저장된 움직인 패턴들을 통해 반복적으로 서치할 수 있다. 제스처 인식 프로세서(608)는 다른 것들 중에서, 수신된 데이터가 센서 값들의 저장된 시퀀스의 범위 내에 있는 경우에, 수신된 데이터가 움직임 패턴과 연관된 센서 값들의 저장된 시퀀스에 대응한다고 결정할 수 있다. 또 하나의 실시예에서, 제스처 인식 프로세서(608)는 식별된 센서 타입과 연관된 움직임 패턴들에 대한 메모리(610)를 폴하지 않고, 대신에 수신된 센서 데이터에 대응하는 저장된 움직임 패턴들에 대해 반복적 서치를 수행할 수 있다.
또 하나의 구현에서, 제스처 인식 프로세서(608)는 센서(602)로부터 수신된 데이터를 하나 이상의 저장된 터치 패턴과 비교하기 위해 하나 이상의 프로세스를 실행할 수 있다. 이것은 프로세스(800)의 블럭 808에 의해 나타내진다. 하나 이상의 저장된 터치 패턴은 다른 것들 중에서, 센서 디바이스(600)가 소자인 디바이스(400)의 외부 케이싱의 탭들의 시퀀스와 연관될 수 있다. 이들 터치 패턴은 메모리(610) 내의 데이터베이스 내에 저장될 수 있어서, 제스처 인식 프로세서(608)는 센서(602)로부터의 센서 데이터의 수신 시에 이 터치 패턴 데이터베이스를 폴할 수 있다. 한 실시예에서, 제스처 인식 프로세서(608)는 센서(602)로부터의 데이터 출력에서 하나 이상의 피크를 식별할 수 있고, 데이터 출력 내의 하나 이상의 피크는 센서 디바이스(600)의 하나 이상의 각각의 "탭들"을 나타낼 수 있다. 응답하여, 제스처 인식 프로세서(608)는 센서(602)로부터의 수신된 출력 데이터에 대응하는 하나 이상의 피크를 갖는 하나 이상의 터치 패턴에 대해 메모리(610)를 폴할 수 있다.
또 하나의 구현에서, 및 프로세스(800)의 블럭 810에서, 제스처 인식 프로세서(608)는 센서 디바이스(600)의 배향에 기초하여 제스처를 인식할 수 있다. 제스처 인식 프로세서(608)는 센서(602)로부터 수신된 데이터에 기초하여 센서 디바이스(600)의 배향을 검출할 수 있고, 배향은 다른 것들 중에서, 가속도계, 자이로스코프, 또는 자계 센서, 또는 이들의 조합들로서 실시된 센서(602)로부터 수신된 데이터로부터 명시될 수 있다.
또 다른 구현에서, 제스처 인식 프로세서(608)는 센서 디바이스(600)의 비콘과의 검출된 근접성에 기초하여 제스처를 인식할 수 있다. 이것은 프로세스(800)의 블럭 812에 의해 나타내진다. 한 실시예에서, 센서(602)는 송수신기(614)를 통해 센서 디바이스(600)의 비콘과의 근접성을 나타내는 신호를 수신할 수 있다.
제스처 인식 프로세서(608)는 센서 디바이스(600)의 동작 모드 및 구체적으로, 활동 프로세서(606)를 선택하기 위해 하나 이상의 프로세스를 실행할 수 있다. 동작 모드의 이 선택은 프로세스(800)의 블럭 816에 의해 나타내진다. 또한, 동작 모드의 선택은 제스처의 점화에 응답하여 될 수 있고, 제스처는 블럭들 806, 808, 810, 및 812와 연관된 하나 이상의 프로세스에 기초하여 제스처 인식 프로세서(608)에 의해 인식될 수 있다. 한 실시예에서, 활동 프로세서(606)는 센서 디바이스(600)의 초기화 시에 제1 동작 모드에 연관된 하나 이상의 프로세스를 실행할 수 있다. 또 하나의 실시예에서, 제1 동작 모드는 제스처 인식 프로세서(608)에 의해 디폴트 동작 모드로서 활동 프로세서(606)에 전달될 수 있다. 제스처의 인식 시에, 제스처 인식 프로세서(608)는 활동 프로세서(606)에 제2 동작 모드와 연관된 하나 이상의 프로세스를 실행하라고 명령할 수 있다. 통상의 기술자는 동작 모드가 센서 디바이스(600)의 하나 이상의 소자에 의해 실행될 많은 다른 타입들의 프로세스를 포함할 수 있다는 것을 인식할 것이다. 한 예에서, 동작 모드는 활동 프로세서(606)에 하나 이상의 부가적/대체 센서들로부터 데이터를 수신하라고 명령하기 위한 하나 이상의 프로세스를 포함할 수 있다. 이 방식으로, 제스처의 인식 시에, 활동 프로세서(606)는 하나 이상의 활동을 인식하기 위해 데이터를 수신할 어떤 것으로부터 센서들의 수, 또는 타입을 변화하라는 명령을 받을 수 있다. 동작 모드는 또한 활동 프로세서(606)가 다른 것들 중에서, 센서(602)로부터 데이터를 샘플링하는 샘플링 레이트를 명시하기 위한 하나 이상의 프로세스를 포함할 수 있다. 이 방식으로, 제스처 인식 프로세서(608)에 의한 제스처의 인식 시에, 활동 프로세서(606)는 제2 동작 모드와 연관된 샘플링 레이트로 데이터를 샘플링하라는 명령을 받을 수 있다. 이 샘플링 레이트는 활동 프로세서(606)에 대해 가능한 상부 샘플링 레이트보다 낮을 수 있어서, 하부 샘플링 레이트가 활동 프로세서(606)에 의한 더 낮은 전력 소비와 연관될 수 있다.
프로세스(800)의 블럭 814는 센서(602)로부터 수신된 데이터를 필터링하는 하나 이상의 프로세스를 나타낸다. 데이터는 필터(604)에 의해 필터링될 수 있고, 필터(604)는 "전치 필터"로서 기능할 수 있다. 전치 필터링에 의해, 필터(604)는 활동 프로세서(606)가 수신된 데이터가 임계값 위일 때까지 복귀 상태, 또는 저 전력 상태에 남게 할 수 있다. 따라서, 필터(604)는 임계값 이상에 대응하는 데이터의 수신 시에 활동 프로세서(606)에 "웨이크" 신호를 전달할 수 있다.
동작 모드의 선택 시에, 활동 프로세서(606)는 센서(602)로부터 수신된 데이터를 분석할 수 있다. 이 분석은 블럭 818에 의해 나타내지고, 활동 프로세서(606)는 사용자에 의해 수행된 하나 이상의 활동을 인식하기 위해 하나 이상의 프로세스를 실행할 수 있다. 부가적으로, 센서(602)로부터 분석 프로세서(606)에 의해 수신된 데이터는 블럭 814 내지 블럭 818의 병렬 처리 포트에 의해 나타난 바와 같이, 제스처 인식 프로세서(608)에 의해 동시에 수신될 수 있다.
도 9는 동작 모드 선택 프로세스(900)의 개략 블럭도이다. 블럭 902는 센서(602)로부터의 데이터의 수신을 나타낸다. 한 구현에서, 제스처 인식 프로세서(608)는 블럭 904에 의해 설명된 바와 같이, 수신된 데이터를 버퍼할 수 있다. 후속하여, 제스처 인식 프로세서(608)는 블럭 908에 의해 표시된 바와 같이, 그리고 도 8로부터의 프로세스(800)와 연관하여 논의된 바와 같이, 수신된 데이터에 연관된 하나 이상의 제스처를 인식하기 위해 하나 이상의 프로세스를 실행할 수 있다.
블럭 902에서 수신된 데이터는 동시에 활동 프로세서(606)에 전달될 수 있고, 수신된 데이터는 블럭 910에서 활동 프로세서(606)에 보내기 전에, 블럭 906에서 필터링될 수 있다. 활동 프로세서(606)는 블럭 910에서 수신된 센서 데이터로부터 하나 이상의 활동을 인식하기 위해 하나 이상의 프로세스를 실행할 수 있고, 이 활동 인식은 제스처 인식 프로세서(608)의 제스처 인식과 병렬로 수행된다.
프로세스(900)의 블럭 912는 제스처 인식 프로세서(608)에 의한, 동작 모드의 선택을 나타낸다. 동작 모드의 선택은 블럭 908로부터의 하나 이상의 인식된 제스처에 기초할 수 있고, 프로세스(800)로부터의 블럭 816과 연관하여 설명된 자와 같지만, 부가적으로 블럭 910으로부터 하나 이상의 인식된 활동을 고려한다. 이 방식으로, 제2 동작 모드는 하나 이상의 인식된 제스처에 기초하여 선택될 수 있고, 부가적으로, 센서 디바이스(600)의 사용자에 의해 수행된 하나 이상의 인식된 활동에 맞는다.
예시적인 실시예들은 사용자가, 특정한 제스처를 수행함으로써, 사용자의 신체 부분 주위에 착용되도록 구성된 장치와 같은 센서 디바이스에서의 동작 모드를 빠르고 쉽게 변화하게 한다. 이것은 예를 들어, 손목을 플릭킹하고, 디바이스를 탭핑하고, 디바이스를 특정한 방식으로 배향하고, 또는 이들의 조합들을 하는 것일 수 있다. 일부 실시예들에서, 동작 모드는 절전 모드, 또는 특정한 데이터가 표시되거나 출력되는 모드일 수 있다. 이것은 버튼의 조합을 누르거나, 예를 들어 터치 화면을 조작하는 것이 어렵고, 위험하거나, 그렇지 않으면 바람직하지 않은 신체적 활동에 참여하고 있는 사용자에게는 특히 이점이 될 수 있다. 예를 들어, 사용자가 마라톤 달리기를 하기 시작한다면, 시작 버튼 등을 누르기 보다는, 제스처를 수행함으로써 보다 높은 샘플링 레이트로 동작 모드에 들어갈 수 있다는 장점이 있다. 또한, 동작 모드들이 사용자가 제스처를 수행하는 것에 의해 변화될 수 있기 때문에, 센서 디바이스에 넓은 어레이의 버튼 또는 복잡한 터치 화면 디스플레이를 제공할 필요가 없다. 이것은 디바이스의 복잡성 및/또는 비용 및/또는 신뢰성 및 내구성 및/또는 전력 소비를 줄인다.
또한, 일부 실시예들에서, 센서 디바이스는 신체적 활동이 시작되고 끝나는 것을 인식할 수 있다. 이것은 제스처 및/또는 활동 인식에 의해 인식될 수 있다. 이 자동 인식은 응답하여 동작 모드가 변화되게 결과를 가져다 줄 수 있다. 예를 들어, 센서 디바이스가 신체적 활동이 끝났다는 것을 인식하거나 결정하면, 전력 소비가 감소되는 동작 모드에 들어갈 수 있다. 이것은 휴대용 및 웨어러블 디바이스에 특히 중요할 수 있는 개선된 배터리 수명을 가져 다 줄 수 있다.
센서 디바이스(600)는 캡처된 가속도 데이터를 복수의 제스처 중 하나로서 분류하도록 구성된 분류 모듈을 포함할 수 있다. 이 센서 디바이스(600)는 또한 적어도 분류된 제스처에 기초하여 프로세서에 대한 동작 모드를 선택하도록 구성된 동작 모드 선택 모듈을 포함할 수 있다. 이들 모듈은 제스처 인식 프로세서(608)의 일부를 형성할 수 있다.
센서 디바이스(600)는 가속도 데이터에 기초하여 활동을 인식하도록 구성된 활동 인식 모듈을 포함할 수 있다. 이 모듈은 활동 프로세서(606)의 일부를 형성할 수 있다.
상기 양태들 중 어느 것에서, 다양한 특징들은 하드웨어에서, 또는 하나 이상의 프로세서를 실행하는 소프트웨어 모듈들로서 구현될 수 있다. 한 양태의 특징들은 다른 양태들 중 어느 것에 적용될 수 있다.
여기에 설명된 방법들 중 어느 것을 실행하는 컴퓨터 프로그램 또는 컴퓨터 프로그램 제품, 및 여기에 설명된 방법들 중 어느 것을 수행하는 프로그램이 그 위에 저장된 컴퓨터 판독가능 매체가 또한 제공될 수 있다. 컴퓨터 프로그램은 컴퓨터 판독가능 매체 상에 저장될 수 있거나, 예를 들어, 인터넷 웹사이트로부터 제공된 다운로드가능한 데이터 신호와 같은 신호의 형태일 수 있고, 또는 이것은 기타 형태로 될 수 있다.
추가 실시예들이 예시적인 조항들로서 아래에 제공된다.
조항 1. 디바이스를 동작하는 컴퓨터 구현 방법으로서,
(a) 제1 동작 모드에서 동작하고 사람이 착용하도록 구성된 디바이스 내에 포함된 프로세서에서 사용자의 신체 부분의 움직임을 나타내는 가속도 데이터를 수신하는 단계;
(b) 프로세서에서 (a)에서 수신된 상기 가속도 데이터를 복수의 제스처 중 하나로서 분류하는 단계;
(c) 상기 분류된 제스처에 적어도 기초하여, 상기 디바이스의 제2 동작 모드에 들어가는 단계;
(d) 상기 제2 동작 모드에서 동작하는 상기 디바이스에 포함된 프로세서에서 사용자의 신체 부분의 움직임을 나타내는 가속도 데이터를 수신하는 단계; 및
(e) 프로세서에서 (d)에서 수신된 상기 가속도 데이터를 복수의 제스처 중 하나로서 분류하는 단계
를 포함하는 컴퓨터 구현 방법.
조항 2. 조항 1에 있어서, (a)에서의 상기 프로세서, (b)에서의 상기 프로세서, (d)에서의 상기 프로세서 및 (e)에서의 상기 프로세서는 공통 프로세서인 컴퓨터 구현 방법.
조항 3. 조항 1에 있어서, 상기 제스처는 상기 디바이스의 움직임 패턴에 기초하여 분류되는 컴퓨터 구현 방법.
조항 4. 조항 1에 있어서, 상기 제스처는 상기 사용자에 의한 상기 디바이스의 터치들의 패턴에 기초하여 분류되는 컴퓨터 구현 방법.
조항 5. 조항 4에 있어서, 터치들의 상기 패턴은 상기 사용자에 의한 상기 디바이스의 일련의 탭들인 컴퓨터 구현 방법.
조항 6. 조항 1에 있어서, 상기 제스처는 상기 디바이스의 배향에 기초하여 분류되는 컴퓨터 구현 방법.
조항 7. 조항 1에 있어서, 상기 제스처는 상기 디바이스의 비콘에의 근접성에 기초하여 분류되는 컴퓨터 구현 방법.
조항 8. 조항 7에 있어서, 상기 디바이스는 제1 센서 디바이스이고, 상기 비콘은 제2 사용자 상의 제2 디바이스와 연관되는 컴퓨터 구현 방법.
조항 9. 조항 7에 있어서, 상기 비콘은 위치와 연관되고, 상기 디바이스는 상기 디바이스의 상기 비콘에의 근접성에 기초한 위치에 등록되는 컴퓨터 구현 방법.
조항 10. 조항 1에 있어서,
상기 가속도계로부터 얻어진 가속도 데이터의 제1 값을 복수의 임계값과 비교하는 단계;
가속도 데이터의 상기 제1 값이 상기 복수의 임계값 내의 제1 임계값에 대응한다고 결정하는 단계를 더 포함하고;
제스처로서의 상기 가속도 데이터의 상기 분류는 가속도 데이터의 상기 제1 값의 상기 제1 임계값과의 대응에 기초하는 컴퓨터 구현 방법.
조항 11. 사용자의 신체 부분 주위에 착용하도록 구성된 단일 장치로서,
상기 사용자의 상기 신체 부분으로부터 가속도 데이터를 캡처하도록 구성된 센서;
프로세서;
상기 프로세서에 의해 실행될 때 적어도,
상기 프로세서에서 상기 캡처된 데이터를 수신하고;
상기 프로세서에 의해, 상기 캡처된 가속도 데이터를 복수의 제스처 중 하나로서 분류하고;
상기 분류된 제스처에 기초하여 상기 프로세서 - 상기 프로세서는 상기 동작 모드에 기초하여 상기 가속도계로부터의 데이터를 샘플링함 -에 대한 동작 모드를 선택하는 것을 수행하는 컴퓨터 실행가능 명령어들을 포함하는 비일시적인 컴퓨터 판독가능 매체
를 포함하는 단일 장치.
조항 12. 조항 11에 있어서, 상기 프로세서는 데이터가 상기 분류된 제스처에 기초하여 상기 가속도계로부터 샘플링되는 샘플링 레이트를 선택하는 단일 장치.
조항 13. 조항 11에 있어서, 상기 동작 모드는 상기 프로세서가 저 전력 레벨을 사용하도록 하는 하이버네이션 모드인 단일 장치.
조항 14. 조항 11에 있어서, 상기 동작 모드는 상기 프로세서에 의해 인식된 활동에 기초하여 더 선택되는 단일 장치.
조항 15. 조항 11에 있어서, 상기 프로세서는 상기 분류된 제스처에 기초하여 사용자 움직임 데이터를 수신할 제2 센서를 선택하는 단일 장치.
조항 16. 프로세서에 의해 실행될 때 적어도,
a) 디바이스의 센서로부터, 사용자의 움직임 데이터를 수신하고;
b) 상기 수신된 움직임 데이터로부터 제스처를 식별하고;
c) b)에서 식별된 상기 제스처에 기초하여 상기 디바이스의 동작 모드를 조정하는 것을 수행하도록 구성된 컴퓨터 실행가능 명령어들을 포함하는 비일시적인 컴퓨터 판독가능 매체.
조항 17. 조항 16에 있어서, 상기 센서는 가속도계, 자이로스코프, 힘 센서, 자계 센서, 위성 위치 확인 시스템 센서, 및 용량 센서를 포함하는 그룹으로 선택된 하나인 비일시적인 컴퓨터 판독가능 매체.
조항 18. 조항 16에 있어서, 상기 제스처는 상기 센서 디바이스의 움직임 패턴에 기초하여 식별되는 비일시적인 컴퓨터 판독가능 매체.
조항 19. 조항 16에 있어서, 상기 제스처는 상기 사용자에 의한 상기 센서 디바이스의 터치들의 패턴에 기초하여 식별되는 비일시적인 컴퓨터 판독가능 매체.
조항 20. 조항 16에 있어서, 상기 제스처는 상기 센서 디바이스의 배향에 기초하여 식별되는 비일시적인 컴퓨터 판독가능 매체.

Claims (24)

  1. 사용자에 의해 착용되도록 구성되고 가속도계를 포함하는 디바이스를 동작시키는 컴퓨터 구현 방법에 있어서,
    사용자로 하여금 트레이닝 제스처의 연속적인 반복들을 수행하도록 지시하는 단계;
    제1 샘플링 레이트로 가속도계 데이터를 샘플링하는 단계;
    샘플링된 사용자 가속도계 데이터로부터, 상기 트레이닝 제스처의 반복들 중 하나 이상의 반복에 공통되는 하나 이상의 특성을 식별하는 단계;
    제1 샘플링 레이트보다 낮으면서 상기 하나 이상의 특성이 인식가능한 제2 샘플링 레이트를 식별하는 단계;
    상기 하나 이상의 특성을 상기 제2 샘플링 레이트와 결합하여 저장하는 단계;
    상기 디바이스를 제1 동작 모드로 동작시키는 단계;
    사용자의 신체 부분의 움직임을 나타내는 가속도계 데이터를 획득하는 단계;
    상기 획득된 가속도계 데이터로부터, 상기 저장된 하나 이상의 특성을 식별하는 단계;
    상기 획득된 가속도계 데이터를 복수의 제스처 중 하나의 제스처로서 분류하는(classifying) 단계;
    적어도 상기 분류된 제스처에 기초하여 제2 동작 모드에 들어가는 단계;
    를 포함하는, 사용자에 의해 착용되도록 구성되고 가속도계를 포함하는 디바이스를 동작시키는 컴퓨터 구현 방법.
  2. 제1항에 있어서,
    상기 제스처는 상기 디바이스의 움직임 패턴에 기초하여 분류되는 것인, 사용자에 의해 착용되도록 구성되고 가속도계를 포함하는 디바이스를 동작시키는 컴퓨터 구현 방법.
  3. 제1항 또는 제2항에 있어서,
    상기 제스처는 상기 사용자에 의한 상기 디바이스의 터치들의 패턴에 기초하여 분류되는 것인, 사용자에 의해 착용되도록 구성되고 가속도계를 포함하는 디바이스를 동작시키는 컴퓨터 구현 방법.
  4. 제3항에 있어서,
    상기 터치들의 패턴은 상기 사용자에 의한 상기 디바이스의 일련의 탭(tap)들인 것인, 사용자에 의해 착용되도록 구성되고 가속도계를 포함하는 디바이스를 동작시키는 컴퓨터 구현 방법.
  5. 제1항 또는 제2항에 있어서,
    상기 제스처는 상기 디바이스의 배향에 기초하여 분류되는 것인, 사용자에 의해 착용되도록 구성되고 가속도계를 포함하는 디바이스를 동작시키는 컴퓨터 구현 방법.
  6. 제1항 또는 제2항에 있어서,
    상기 제스처는 비콘(beacon)에 대한 상기 디바이스의 근접성에 기초하여 분류되는 것인, 사용자에 의해 착용되도록 구성되고 가속도계를 포함하는 디바이스를 동작시키는 컴퓨터 구현 방법.
  7. 제6항에 있어서,
    상기 디바이스는 제1 센서 디바이스이고, 상기 비콘은 제2 사용자 상의 제2 디바이스와 연관되는 것인, 사용자에 의해 착용되도록 구성되고 가속도계를 포함하는 디바이스를 동작시키는 컴퓨터 구현 방법.
  8. 제6항에 있어서,
    상기 비콘은 위치와 연관되고, 상기 디바이스는 상기 비콘에 대한 상기 디바이스의 근접성에 기초하여 상기 위치에 등록되는 것인, 사용자에 의해 착용되도록 구성되고 가속도계를 포함하는 디바이스를 동작시키는 컴퓨터 구현 방법.
  9. 실행될 때 컴퓨터 디바이스로 하여금 제1항 또는 제2항에 따른 방법을 수행하게 하는 실행가능한 명령어들을 포함한 비일시적인 컴퓨터 판독가능 저장 매체.
  10. 사용자에 의해 착용되도록 구성된 단일 장치에 있어서,
    상기 사용자의 신체 부분으로부터 가속도 데이터를 캡처하도록 구성된 가속도계 센서;
    상기 캡처된 가속도 데이터를 수신하도록 구성된 프로세서;
    컴퓨터 실행가능 명령어들을 포함한 비일시적인 컴퓨터 판독가능 저장 매체를 포함하고, 상기 컴퓨터 실행가능 명령어들은, 상기 프로세서에 의해 실행될 때, 적어도:
    사용자로 하여금 트레이닝 제스처의 연속적인 반복들을 수행하도록 지시하는 동작;
    상기 트레이닝 제스처의 연속적인 반복들 동안, 제1 샘플링 레이트로 사용자 가속도 데이터를 샘플링하는 동작;
    상기 샘플링된 사용자 가속도 데이터로부터, 상기 트레이닝 제스처의 반복들 중 하나 이상의 반복에 공통되는 하나 이상의 특성을 식별하는 동작;
    제1 샘플링 레이트보다 낮으면서 상기 하나 이상의 특성이 인식가능한 제2 샘플링 레이트를 식별하는 동작;
    상기 하나 이상의 특성을 상기 제2 샘플링 레이트와 결합하여 저장하는 동작;
    상기 프로세서를 제1 동작 모드로 동작시키는 동작;
    상기 캡처된 가속도 데이터로부터, 상기 하나 이상의 저장된 특성을 식별하는 동작;
    상기 캡처된 가속도 데이터를 복수의 제스처 중 하나의 제스처로서 분류하는 동작;
    적어도 상기 분류된 제스처에 기초하여 상기 프로세서 - 상기 프로세서는 동작 모드에 기초하여 상기 센서로부터의 데이터를 샘플링함 - 에 대한 제2 동작 모드에 들어가는 동작을 수행하는 것인,
    사용자에 의해 착용되도록 구성된 단일 장치.
  11. 제10항에 있어서,
    상기 비일시적인 컴퓨터 판독가능 저장 매체는, 상기 프로세서에 의해 실행될 때, 데이터가 상기 분류된 제스처에 기초하여 상기 센서로부터 샘플링되는 상기 제2 샘플링 레이트를 선택하는 동작을 수행하는 컴퓨터 실행가능 명령어들을 더 포함하는 것인, 사용자에 의해 착용되도록 구성된 단일 장치.
  12. 제10항 또는 제11항에 있어서,
    상기 제1 동작 모드 및 제2 동작 모드 중 하나의 동작 모드는, 상기 프로세서가 저 전력 레벨을 사용하도록 하는 하이버네이션(hibernation) 모드인 것인, 사용자에 의해 착용되도록 구성된 단일 장치.
  13. 제10항 또는 제11항에 있어서,
    상기 사용자로부터 움직임 데이터를 캡처하도록 구성된 제2 센서를 더 포함하고,
    상기 프로세서는, 상기 분류된 제스처에 기초하여 제2 센서 데이터로부터 움직임 데이터를 수신하도록 선택하는 것인, 사용자에 의해 착용되도록 구성된 단일 장치.
  14. 제13항에 있어서,
    상기 제2 센서는 자이로스코프, 힘 센서, 자계 센서, 위성 위치 확인 시스템 센서, 및 용량 센서를 포함하는 그룹으로부터 선택된 것인, 사용자에 의해 착용되도록 구성된 단일 장치.
  15. 제10항 또는 제11항에 있어서,
    상기 단일 장치는 손목밴드인 것인, 사용자에 의해 착용되도록 구성된 단일 장치.
  16. 삭제
  17. 삭제
  18. 삭제
  19. 삭제
  20. 삭제
  21. 삭제
  22. 삭제
  23. 삭제
  24. 삭제
KR1020167006048A 2013-08-07 2014-08-07 제스처 인식 및 전력 관리를 갖는 손목 착용 운동 디바이스 KR102033077B1 (ko)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201361863249P 2013-08-07 2013-08-07
US61/863,249 2013-08-07
PCT/US2014/050044 WO2015021223A1 (en) 2013-08-07 2014-08-07 Wrist-worn athletic device with gesture recognition and power management

Publications (2)

Publication Number Publication Date
KR20160042025A KR20160042025A (ko) 2016-04-18
KR102033077B1 true KR102033077B1 (ko) 2019-10-16

Family

ID=51422142

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020167006048A KR102033077B1 (ko) 2013-08-07 2014-08-07 제스처 인식 및 전력 관리를 갖는 손목 착용 운동 디바이스

Country Status (6)

Country Link
US (4) US11243611B2 (ko)
EP (1) EP3030952B1 (ko)
JP (1) JP6539272B2 (ko)
KR (1) KR102033077B1 (ko)
CN (2) CN105612475B (ko)
WO (1) WO2015021223A1 (ko)

Families Citing this family (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20150255005A1 (en) * 2012-09-12 2015-09-10 National Institute Of Advanced Industrial Science And Technology Movement evaluation device and program therefor
JP6372077B2 (ja) * 2013-12-25 2018-08-15 セイコーエプソン株式会社 生体情報測定装置及び生体情報測定装置の制御方法
US9405377B2 (en) * 2014-03-15 2016-08-02 Microsoft Technology Licensing, Llc Trainable sensor-based gesture recognition
US20160091965A1 (en) * 2014-09-30 2016-03-31 Microsoft Corporation Natural motion-based control via wearable and mobile devices
US20160098160A1 (en) * 2014-10-04 2016-04-07 Erik Groset Sensor-based input system for mobile devices
WO2016196106A1 (en) 2015-05-29 2016-12-08 Nike, Inc. Athletic activity data device firmware update
US10045195B2 (en) 2015-05-29 2018-08-07 Nike, Inc. Athletic data aggregation and display system
US10306687B2 (en) 2015-05-29 2019-05-28 Nike, Inc. Transmitting athletic data using non-connected state of discovery signal
TWI621968B (zh) * 2016-02-05 2018-04-21 財團法人工業技術研究院 控制電子設備之方法及穿戴裝置
WO2017171858A1 (en) * 2016-04-01 2017-10-05 Intel Corporation Gesture capture
JP6789668B2 (ja) * 2016-05-18 2020-11-25 ソニーモバイルコミュニケーションズ株式会社 情報処理装置、情報処理システム、情報処理方法
CN106073703A (zh) * 2016-05-27 2016-11-09 重庆大学 一种基于LoRa技术的运动员生命体征监测系统
CN106066780B (zh) * 2016-06-06 2020-01-21 杭州网易云音乐科技有限公司 一种跑步数据处理方法和装置
CN106075839A (zh) * 2016-06-08 2016-11-09 深圳市元征科技股份有限公司 健身数据监控方法、装置及系统
US20180082033A1 (en) * 2016-09-22 2018-03-22 At&T Intellectual Property I, L.P. Method and apparatus for controlling an artificial respiratory device via a network
US10187504B1 (en) * 2016-09-23 2019-01-22 Apple Inc. Echo control based on state of a device
CN107870681A (zh) * 2016-09-23 2018-04-03 上海葡萄纬度科技有限公司 实时识别动作的方法以及相应的手环与计算设备
CN107271723B (zh) * 2017-05-16 2020-01-03 温胜洁 一种用于运动检测的三轴加速度数据的柔性滤波方法
CN107091638B (zh) * 2017-05-16 2020-01-03 温胜洁 一种用于运动检测的三轴加速度数据的均值滤波方法
KR102406511B1 (ko) 2017-07-04 2022-06-10 현대자동차주식회사 차량 시스템 및 그 제어 방법
JP6498332B1 (ja) * 2017-11-02 2019-04-10 株式会社バンダイ 運動量測定システム、靴及びプログラム
CN108309232A (zh) * 2017-12-21 2018-07-24 北京城市系统工程研究中心 一种马甲式姿态稳定性快速检测装置及检测方法
CN108065469A (zh) * 2017-12-25 2018-05-25 珠海乐泰科技有限公司 一种智能篮球运动外衣及其使用方法
CN109325466B (zh) * 2018-10-17 2022-05-03 兰州交通大学 一种基于动作识别技术的智能运动指导系统及方法
IT201900019037A1 (it) * 2019-10-16 2021-04-16 St Microelectronics Srl Metodo perfezionato per rilevare un gesto di inclinazione del polso e unita' elettronica e dispositivo elettronico indossabile che implementano il medesimo
CN111854738A (zh) * 2020-06-22 2020-10-30 厦门亿联网络技术股份有限公司 一种基于三轴加速度计的人体运动状态检测方法及装置
TWI820347B (zh) * 2020-09-04 2023-11-01 仁寶電腦工業股份有限公司 行為識別方法、行為識別系統及手寫辨識系統
DE102021208686A1 (de) * 2020-09-23 2022-03-24 Robert Bosch Engineering And Business Solutions Private Limited Steuerung und verfahren zur gestenerkennung und gestenerkennungsvorrichtung
CN113426078B (zh) * 2021-07-27 2023-12-08 湖南大学 一种中风患者康复手环及系统
WO2024049986A1 (en) 2022-08-31 2024-03-07 Nike Innovate C.V. Electromechanical ambulatory assist device

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002171316A (ja) * 2000-11-30 2002-06-14 Toshiba Corp 移動通信端末
US20130194066A1 (en) * 2011-06-10 2013-08-01 Aliphcom Motion profile templates and movement languages for wearable devices

Family Cites Families (158)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8352400B2 (en) * 1991-12-23 2013-01-08 Hoffberg Steven M Adaptive pattern recognition based controller apparatus and method and human-factored interface therefore
US5903454A (en) * 1991-12-23 1999-05-11 Hoffberg; Linda Irene Human-factored interface corporating adaptive pattern recognition based controller apparatus
US6115482A (en) * 1996-02-13 2000-09-05 Ascent Technology, Inc. Voice-output reading system with gesture-based navigation
US5977957A (en) * 1997-05-22 1999-11-02 Ericsson Inc. Adaptive sampling of touch screen input
US6249606B1 (en) * 1998-02-19 2001-06-19 Mindmaker, Inc. Method and system for gesture category recognition and training using a feature vector
US6681031B2 (en) * 1998-08-10 2004-01-20 Cybernet Systems Corporation Gesture-controlled interfaces for self-service machines and other applications
US6244873B1 (en) * 1998-10-16 2001-06-12 At&T Corp. Wireless myoelectric control apparatus and methods
EP1837858B1 (en) * 2000-01-11 2013-07-10 Yamaha Corporation Apparatus and method for detecting performer´s motion to interactively control performance of music or the like
US6720984B1 (en) * 2000-06-13 2004-04-13 The United States Of America As Represented By The Administrator Of The National Aeronautics And Space Administration Characterization of bioelectric potentials
GB0106037D0 (en) * 2001-03-12 2001-05-02 Univ Strathclyde Activity monitor
US6990639B2 (en) * 2002-02-07 2006-01-24 Microsoft Corporation System and process for controlling electronic components in a ubiquitous computing environment using multimodal integration
GB2400667B (en) * 2003-04-15 2006-05-31 Hewlett Packard Development Co Attention detection
US6847313B2 (en) * 2003-06-30 2005-01-25 Intel Corporation Rational sample rate conversion
US7565295B1 (en) * 2003-08-28 2009-07-21 The George Washington University Method and apparatus for translating hand gestures
US7433327B2 (en) * 2003-10-09 2008-10-07 Hewlett-Packard Development Company, L.P. Method and system for coordinating communication devices to create an enhanced representation of an ongoing event
US20070164856A1 (en) * 2003-10-27 2007-07-19 Koninklijke Philips Electronics N.V.,A Corporation Processing gesture signals
FI117308B (fi) * 2004-02-06 2006-08-31 Nokia Corp Eleohjausjärjestelmä
EP1743277A4 (en) * 2004-04-15 2011-07-06 Gesturetek Inc MONITORING OF BI-MANUAL MOVEMENTS
US20060028429A1 (en) * 2004-08-09 2006-02-09 International Business Machines Corporation Controlling devices' behaviors via changes in their relative locations and positions
RO121497B1 (ro) * 2005-02-09 2007-06-29 Softwin S.R.L. Sistem informatic şi metodă pentru achiziţia, analiza şi autentificarea semnăturii olografe
US8147248B2 (en) * 2005-03-21 2012-04-03 Microsoft Corporation Gesture training
JP4604808B2 (ja) 2005-04-14 2011-01-05 パナソニック電工株式会社 活動量計
JP4867215B2 (ja) * 2005-06-28 2012-02-01 トヨタ自動車株式会社 生理・心理状態判定装置、生理・心理状態判定方法、リファレンスデータ生成装置、及びリファレンスデータ生成方法。
US7733224B2 (en) * 2006-06-30 2010-06-08 Bao Tran Mesh network personal emergency response appliance
US9060683B2 (en) * 2006-05-12 2015-06-23 Bao Tran Mobile wireless appliance
US8902154B1 (en) * 2006-07-11 2014-12-02 Dp Technologies, Inc. Method and apparatus for utilizing motion user interface
US7725547B2 (en) * 2006-09-06 2010-05-25 International Business Machines Corporation Informing a user of gestures made by others out of the user's line of sight
US8005257B2 (en) * 2006-10-05 2011-08-23 The United States Of America As Represented By The Secretary Of The Navy Gesture recognition apparatus and method
KR100783552B1 (ko) * 2006-10-11 2007-12-07 삼성전자주식회사 휴대 단말기의 입력 제어 방법 및 장치
US20080129694A1 (en) * 2006-11-30 2008-06-05 Liberty Reach Inc. Keyless user interface device
US8082122B2 (en) * 2006-12-12 2011-12-20 Samsung Electronics Co., Ltd. Mobile device having a motion detector
US7653508B1 (en) * 2006-12-22 2010-01-26 Dp Technologies, Inc. Human activity monitoring device
US9311528B2 (en) * 2007-01-03 2016-04-12 Apple Inc. Gesture learning
US20090265671A1 (en) * 2008-04-21 2009-10-22 Invensense Mobile devices with motion gesture recognition
US8952832B2 (en) * 2008-01-18 2015-02-10 Invensense, Inc. Interfacing application programs and motion sensors of a device
US7770136B2 (en) * 2007-01-24 2010-08-03 Microsoft Corporation Gesture recognition interactive feedback
US20100259285A1 (en) * 2007-03-05 2010-10-14 Nokia Corporation Providing feedback in an electronic circuit
US7753861B1 (en) * 2007-04-04 2010-07-13 Dp Technologies, Inc. Chest strap having human activity monitoring device
US7987070B2 (en) * 2007-04-23 2011-07-26 Dp Technologies, Inc. Eyewear having human activity monitoring device
WO2009016607A2 (en) * 2007-08-01 2009-02-05 Nokia Corporation Apparatus, methods, and computer program products providing context-dependent gesture recognition
US9149222B1 (en) * 2008-08-29 2015-10-06 Engineering Acoustics, Inc Enhanced system and method for assessment of disequilibrium, balance and motion disorders
US20120094814A1 (en) * 2007-09-01 2012-04-19 Balancesense Llc Method and apparatus for vibrotactile motional training employing cognitive spatial activity
JP5555164B2 (ja) 2007-09-19 2014-07-23 コーニンクレッカ フィリップス エヌ ヴェ 異常状態検出方法及び装置
US8225343B2 (en) * 2008-01-11 2012-07-17 Sony Computer Entertainment America Llc Gesture cataloging and recognition
US8064560B2 (en) * 2008-02-05 2011-11-22 Honeywell International Inc. Systems and methods for detecting a signal across multiple Nyquist bands
US8529457B2 (en) * 2008-02-22 2013-09-10 Koninklijke Philips N.V. System and kit for stress and relaxation management
US8555207B2 (en) * 2008-02-27 2013-10-08 Qualcomm Incorporated Enhanced input using recognized gestures
US9772689B2 (en) * 2008-03-04 2017-09-26 Qualcomm Incorporated Enhanced gesture-based image manipulation
JP5628144B2 (ja) * 2008-03-18 2014-11-19 エリプティック・ラボラトリーズ・アクシェルスカブElliptic Laboratories As 目的物及び動作検出
WO2009126279A1 (en) * 2008-04-09 2009-10-15 Eveready Battery Company, Inc. Device operation using a force sensor
US20090271004A1 (en) * 2008-04-28 2009-10-29 Reese Zecchin Method and apparatus for ranging detection of gestures
US8320578B2 (en) * 2008-04-30 2012-11-27 Dp Technologies, Inc. Headset
US8996332B2 (en) * 2008-06-24 2015-03-31 Dp Technologies, Inc. Program setting adjustments based on activity identification
US8447704B2 (en) * 2008-06-26 2013-05-21 Microsoft Corporation Recognizing gestures from forearm EMG signals
EP3216495B1 (en) * 2008-11-25 2019-04-24 Fox Factory, Inc. Methods and apparatus for virtual competition
GB2465824B (en) * 2008-12-03 2011-04-06 James Christopher Irlam Motion analysis device for sports
WO2010090867A2 (en) * 2009-01-21 2010-08-12 SwimSense, LLC Multi-state performance monitoring system
US20110054359A1 (en) 2009-02-20 2011-03-03 The Regents of the University of Colorado , a body corporate Footwear-based body weight monitor and postural allocation, physical activity classification, and energy expenditure calculator
US20100306716A1 (en) * 2009-05-29 2010-12-02 Microsoft Corporation Extending standard gestures
EP2452258B1 (en) * 2009-07-07 2019-01-23 Elliptic Laboratories AS Control using movements
US9024865B2 (en) * 2009-07-23 2015-05-05 Qualcomm Incorporated Method and apparatus for controlling mobile and consumer electronic devices
US8341558B2 (en) * 2009-09-16 2012-12-25 Google Inc. Gesture recognition on computing device correlating input to a template
FR2950713A1 (fr) * 2009-09-29 2011-04-01 Movea Sa Systeme et procede de reconnaissance de gestes
US9338274B2 (en) * 2009-10-02 2016-05-10 Blackberry Limited Method of interacting with electronic devices in a locked state and handheld electronic device configured to permit interaction when in a locked state
US9008973B2 (en) * 2009-11-09 2015-04-14 Barry French Wearable sensor system with gesture recognition for measuring physical performance
US9174123B2 (en) * 2009-11-09 2015-11-03 Invensense, Inc. Handheld computer systems and techniques for character and command recognition related to human movements
US8436821B1 (en) * 2009-11-20 2013-05-07 Adobe Systems Incorporated System and method for developing and classifying touch gestures
KR101688655B1 (ko) * 2009-12-03 2016-12-21 엘지전자 주식회사 사용자의 프레전스 검출에 의한 제스쳐 인식 장치의 전력 제어 방법
US8406085B2 (en) * 2009-12-21 2013-03-26 Masami Sakita Swim device
US8432368B2 (en) * 2010-01-06 2013-04-30 Qualcomm Incorporated User interface methods and systems for providing force-sensitive input
US8579834B2 (en) * 2010-01-08 2013-11-12 Medtronic, Inc. Display of detected patient posture state
US8811229B2 (en) 2010-02-08 2014-08-19 Telefonaktiebolaget L M Ericsson (Publ) Handling ICS enhanced and non enhanced MSC in a pool
US8499257B2 (en) * 2010-02-09 2013-07-30 Microsoft Corporation Handles interactions for human—computer interface
US20110199292A1 (en) * 2010-02-18 2011-08-18 Kilbride Paul E Wrist-Mounted Gesture Device
US20110214082A1 (en) * 2010-02-28 2011-09-01 Osterhout Group, Inc. Projection triggering through an external marker in an augmented reality eyepiece
US9075446B2 (en) * 2010-03-15 2015-07-07 Qualcomm Incorporated Method and apparatus for processing and reconstructing data
JP4785975B1 (ja) * 2010-03-26 2011-10-05 有限会社グーテック 動作判別装置、動作判別方法、及び動作判別コンピュータ・プログラム
CA2796451A1 (en) * 2010-04-16 2011-10-20 Nicholas J. Mastandrea Wearable motion sensing computing interface
US8760392B2 (en) * 2010-04-20 2014-06-24 Invensense, Inc. Wireless motion processing sensor systems suitable for mobile and battery operation
US8284847B2 (en) * 2010-05-03 2012-10-09 Microsoft Corporation Detecting motion for a multifunction sensor device
US20130120282A1 (en) * 2010-05-28 2013-05-16 Tim Kukulski System and Method for Evaluating Gesture Usability
US20120016641A1 (en) * 2010-07-13 2012-01-19 Giuseppe Raffa Efficient gesture processing
JP2012024394A (ja) * 2010-07-26 2012-02-09 Nagoya Institute Of Technology 感覚統合運動機能の計測装置
US9055925B2 (en) * 2010-07-27 2015-06-16 Carefusion 303, Inc. System and method for reducing false alarms associated with vital-signs monitoring
US20120034888A1 (en) * 2010-08-05 2012-02-09 Franco De Flaviis Method and System for Utilizing a Touchscreen Interface as an Antenna
US9076041B2 (en) * 2010-08-26 2015-07-07 Blast Motion Inc. Motion event recognition and video synchronization system and method
WO2012028884A1 (en) * 2010-09-02 2012-03-08 Elliptic Laboratories As Motion feedback
US8954291B2 (en) * 2010-09-30 2015-02-10 Fitbit, Inc. Alarm setting and interfacing with gesture contact interfacing controls
US10216893B2 (en) * 2010-09-30 2019-02-26 Fitbit, Inc. Multimode sensor devices
US8954290B2 (en) * 2010-09-30 2015-02-10 Fitbit, Inc. Motion-activated display of messages on an activity monitoring device
US9167991B2 (en) * 2010-09-30 2015-10-27 Fitbit, Inc. Portable monitoring devices and methods of operating same
US8768006B2 (en) * 2010-10-19 2014-07-01 Hewlett-Packard Development Company, L.P. Hand gesture recognition
US9011292B2 (en) * 2010-11-01 2015-04-21 Nike, Inc. Wearable device assembly having athletic functionality
US20120114181A1 (en) * 2010-11-01 2012-05-10 Borthwick James R Vehicle pose estimation and load profiling
US10271776B2 (en) * 2010-11-04 2019-04-30 Mordechai Shani Computer aided analysis and monitoring of mobility abnormalities in human patients
US20120131513A1 (en) * 2010-11-19 2012-05-24 Microsoft Corporation Gesture Recognition Training
US8786547B2 (en) * 2010-12-23 2014-07-22 Microsoft Corporation Effects of gravity on gestures
US9030405B2 (en) * 2011-02-04 2015-05-12 Invensense, Inc. High fidelity remote controller device for digital living room
US20120220233A1 (en) * 2011-02-28 2012-08-30 Qualcomm Incorporated Ranging with body motion capture
FI20115301A0 (fi) * 2011-03-30 2011-03-30 Polar Electro Oy Menetelmä harjoituslaitteen kalibroimiseksi
US20120259652A1 (en) * 2011-04-07 2012-10-11 Full Recovery, Inc. Systems and methods for remote monitoring, management and optimization of physical therapy treatment
US8352639B2 (en) * 2011-05-06 2013-01-08 Research In Motion Limited Method of device selection using sensory input and portable electronic device configured for same
US20120293404A1 (en) * 2011-05-19 2012-11-22 Panasonic Corporation Low Cost Embedded Touchless Gesture Sensor
US9110510B2 (en) * 2011-06-03 2015-08-18 Apple Inc. Motion pattern classification and gesture recognition
US20120316455A1 (en) * 2011-06-10 2012-12-13 Aliphcom Wearable device and platform for sensory input
US20130176142A1 (en) * 2011-06-10 2013-07-11 Aliphcom, Inc. Data-capable strapband
US9218058B2 (en) * 2011-06-16 2015-12-22 Daniel Bress Wearable digital input device for multipoint free space data collection and analysis
US9417754B2 (en) * 2011-08-05 2016-08-16 P4tents1, LLC User interface system, method, and computer program product
US8793118B2 (en) * 2011-11-01 2014-07-29 PES School of Engineering Adaptive multimodal communication assist system
US9575544B2 (en) * 2011-11-07 2017-02-21 Qualcomm Incorporated Ultrasound based mobile receivers in idle mode
US8958631B2 (en) * 2011-12-02 2015-02-17 Intel Corporation System and method for automatically defining and identifying a gesture
US20150119728A1 (en) * 2011-12-02 2015-04-30 Fitlinxx, Inc. Health monitor
US9734304B2 (en) * 2011-12-02 2017-08-15 Lumiradx Uk Ltd Versatile sensors with data fusion functionality
WO2013082436A1 (en) * 2011-12-02 2013-06-06 Fitlinxx, Inc. Intelligent activity monitoring
US9424397B2 (en) * 2011-12-22 2016-08-23 Adidas Ag Sports monitoring system using GPS with location beacon correction
US9014681B2 (en) * 2011-12-27 2015-04-21 Sony Corporation Establishing a communication connection between two devices based on device displacement information
CN107256329B (zh) 2012-01-19 2020-12-15 耐克创新有限合伙公司 用于检测用户的移动数据的整体式装置和非瞬时计算机可读介质
US9352207B2 (en) * 2012-01-19 2016-05-31 Nike, Inc. Action detection and activity classification
US8791913B2 (en) * 2012-01-26 2014-07-29 Honeywell International Inc. Adaptive gesture recognition system and method for unstable work environments
US9024958B2 (en) * 2012-01-30 2015-05-05 Lenovo (Singapore) Pte. Ltd. Buffering mechanism for camera-based gesturing
US8638190B1 (en) * 2012-02-02 2014-01-28 Google Inc. Gesture detection using an array of short-range communication devices
US9600169B2 (en) * 2012-02-27 2017-03-21 Yahoo! Inc. Customizable gestures for mobile devices
KR102000295B1 (ko) * 2012-04-11 2019-10-01 유니버시티 오브 써던 캘리포니아 모바일 애플리케이션에 의해 요청된 서비스를 위한 가장 에너지 효율적인 방법의 실시간 선택
US9599632B2 (en) * 2012-06-22 2017-03-21 Fitbit, Inc. Fitness monitoring device with altimeter
US9168419B2 (en) * 2012-06-22 2015-10-27 Fitbit, Inc. Use of gyroscopes in personal fitness tracking devices
US8954135B2 (en) * 2012-06-22 2015-02-10 Fitbit, Inc. Portable biometric monitoring devices and methods of operating same
US9726498B2 (en) * 2012-11-29 2017-08-08 Sensor Platforms, Inc. Combining monitoring sensor measurements and system signals to determine device context
US9689887B1 (en) * 2012-12-07 2017-06-27 Amazon Technologies, Inc. Fall event monitoring
EP2741176A3 (en) * 2012-12-10 2017-03-08 Samsung Electronics Co., Ltd Mobile device of bangle type, control method thereof, and UI display method
JP5737277B2 (ja) * 2012-12-13 2015-06-17 カシオ計算機株式会社 情報表示装置及びプログラム
US9746926B2 (en) * 2012-12-26 2017-08-29 Intel Corporation Techniques for gesture-based initiation of inter-device wireless connections
US9459697B2 (en) * 2013-01-15 2016-10-04 Leap Motion, Inc. Dynamic, free-space user interactions for machine control
US10250463B2 (en) * 2013-01-31 2019-04-02 General Electric Company Methods and systems for online monitoring using a variable data sampling rate
US9268434B2 (en) * 2013-02-14 2016-02-23 Dell Products L.P. Systems and methods for reducing power consumption in a touch sensor display
US20140236529A1 (en) * 2013-02-18 2014-08-21 Motorola Mobility Llc Method and Apparatus for Determining Displacement from Acceleration Data
CN104010125B (zh) * 2013-02-22 2017-11-28 联想(北京)有限公司 电子设备和方法
US9442570B2 (en) * 2013-03-13 2016-09-13 Google Technology Holdings LLC Method and system for gesture recognition
US20140288876A1 (en) * 2013-03-15 2014-09-25 Aliphcom Dynamic control of sampling rate of motion to modify power consumption
WO2014145942A2 (en) * 2013-03-15 2014-09-18 Smart Patents L.L.C. Wearable devices and associated systems
US9661221B2 (en) * 2013-03-15 2017-05-23 Qualcomm Incorporated Always-on camera sampling strategies
US20140278219A1 (en) * 2013-03-15 2014-09-18 Focus Ventures, Inc. System and Method For Monitoring Movements of a User
US9885734B2 (en) * 2013-05-08 2018-02-06 Cm Hk Limited Method of motion processing and related mobile device and microcontroller unit
US9342737B2 (en) * 2013-05-31 2016-05-17 Nike, Inc. Dynamic sampling in sports equipment
JP2017506376A (ja) * 2013-11-29 2017-03-02 モティヴ・インコーポレーテッドMotiv Inc. ウェアラブルコンピューティングデバイス
US9782104B2 (en) * 2014-03-26 2017-10-10 GestureLogic Inc. Systems, methods and devices for acquiring and processing physiological signals
US10575760B2 (en) * 2014-03-26 2020-03-03 GestureLogic Inc. Systems, methods and devices for activity recognition
US10222868B2 (en) * 2014-06-02 2019-03-05 Samsung Electronics Co., Ltd. Wearable device and control method using gestures
US9894009B2 (en) * 2014-08-29 2018-02-13 Microsoft Technology Licensing, Llc Client device and host device subscriptions
WO2016164485A1 (en) * 2015-04-08 2016-10-13 Amiigo, Inc. Dynamic adjustment of sampling rate based on a state of the user
US10859675B2 (en) * 2015-04-20 2020-12-08 Resmed Sensor Technologies Limited Gesture recognition with sensors
US9724562B2 (en) * 2015-05-28 2017-08-08 Nike, Inc. Wearable USB device assembly
US10416740B2 (en) * 2015-08-26 2019-09-17 Google Llc Upsampling sensors to auto-detect a fitness activity
US10338686B2 (en) * 2016-03-31 2019-07-02 Disney Enterprises, Inc. Control system using aesthetically guided gesture recognition
US9971960B2 (en) * 2016-05-26 2018-05-15 Xesto Inc. Method and system for providing gesture recognition services to user applications
KR102302640B1 (ko) * 2016-12-02 2021-09-15 피손 테크놀로지, 인크. 신체 조직 전기 신호의 검출 및 사용
US10955974B2 (en) * 2017-12-19 2021-03-23 Google Llc Wearable electronic devices having an inward facing input device and methods of use thereof
US11673024B2 (en) * 2018-01-22 2023-06-13 Pg Tech, Llc Method and system for human motion analysis and instruction
US10545558B1 (en) * 2019-01-25 2020-01-28 BioMech Sensor LLC Systems and methods for elastic delivery, processing, and storage for wearable devices based on system resources

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002171316A (ja) * 2000-11-30 2002-06-14 Toshiba Corp 移動通信端末
US20130194066A1 (en) * 2011-06-10 2013-08-01 Aliphcom Motion profile templates and movement languages for wearable devices

Also Published As

Publication number Publication date
US20220121291A1 (en) 2022-04-21
EP3030952A1 (en) 2016-06-15
US11861073B2 (en) 2024-01-02
US11243611B2 (en) 2022-02-08
US20240085988A1 (en) 2024-03-14
KR20160042025A (ko) 2016-04-18
JP6539272B2 (ja) 2019-07-03
WO2015021223A1 (en) 2015-02-12
CN111258378A (zh) 2020-06-09
US20230048187A1 (en) 2023-02-16
CN105612475A (zh) 2016-05-25
US20150046886A1 (en) 2015-02-12
EP3030952B1 (en) 2021-03-10
JP2016529980A (ja) 2016-09-29
CN105612475B (zh) 2020-02-11
US11513610B2 (en) 2022-11-29

Similar Documents

Publication Publication Date Title
US11861073B2 (en) Gesture recognition
KR101745684B1 (ko) 동적 샘플링
US10531277B2 (en) Wireless initialization of electronic devices for first time use
CN107667359B (zh) 可穿戴usb设备组件
US10789855B2 (en) Fitness device configured to provide goal motivation
WO2015021280A1 (en) Activity recognition with activity reminders
EP3058442A1 (en) Calculating pace and energy expenditure from athletic movement attributes
JPWO2015107737A1 (ja) 情報処理装置、情報処理方法、およびプログラム
EP3057506B1 (en) Fitness device configured to provide goal motivation

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E601 Decision to refuse application
J201 Request for trial against refusal decision
J301 Trial decision

Free format text: TRIAL NUMBER: 2018101000748; TRIAL DECISION FOR APPEAL AGAINST DECISION TO DECLINE REFUSAL REQUESTED 20180220

Effective date: 20190628

S901 Examination by remand of revocation
GRNO Decision to grant (after opposition)
GRNT Written decision to grant