JP2016529980A - 手首に装備されるジェスチャ認識と電力管理を行なうアスレチック装置 - Google Patents

手首に装備されるジェスチャ認識と電力管理を行なうアスレチック装置 Download PDF

Info

Publication number
JP2016529980A
JP2016529980A JP2016533423A JP2016533423A JP2016529980A JP 2016529980 A JP2016529980 A JP 2016529980A JP 2016533423 A JP2016533423 A JP 2016533423A JP 2016533423 A JP2016533423 A JP 2016533423A JP 2016529980 A JP2016529980 A JP 2016529980A
Authority
JP
Japan
Prior art keywords
sensor
computer
gesture
data
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016533423A
Other languages
English (en)
Other versions
JP6539272B2 (ja
Inventor
マナン ゴエル
マナン ゴエル
カスリーン カミングス
カスリーン カミングス
ペーター ライガー
ペーター ライガー
デヴィッド スウィッツァー
デヴィッド スウィッツァー
セバスティアン イムレイ
セバスティアン イムレイ
マイケル ラピンスキー
マイケル ラピンスキー
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nike Innovate CV USA
Original Assignee
Nike Innovate CV USA
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nike Innovate CV USA filed Critical Nike Innovate CV USA
Publication of JP2016529980A publication Critical patent/JP2016529980A/ja
Application granted granted Critical
Publication of JP6539272B2 publication Critical patent/JP6539272B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/163Wearable computers, e.g. on a belt
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/26Power supply means, e.g. regulation thereof
    • G06F1/32Means for saving power
    • G06F1/3203Power management, i.e. event-based initiation of a power-saving mode
    • G06F1/3206Monitoring of events, devices or parameters that trigger a change in power modality
    • G06F1/3231Monitoring the presence, absence or movement of users
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/26Power supply means, e.g. regulation thereof
    • G06F1/32Means for saving power
    • G06F1/3203Power management, i.e. event-based initiation of a power-saving mode
    • G06F1/3234Power saving characterised by the action undertaken
    • G06F1/329Power saving characterised by the action undertaken by task scheduling
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/014Hand-worn input/output arrangements, e.g. data gloves
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • G06V10/12Details of acquisition arrangements; Constructional details thereof
    • G06V10/14Optical characteristics of the device performing the acquisition or on the illumination arrangements
    • G06V10/147Details of sensors, e.g. sensor lenses
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/23Recognition of whole body movements, e.g. for sport training
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B19/00Teaching not covered by other main groups of this subclass
    • G09B19/003Repetitive work cycles; Sequence of movements
    • G09B19/0038Sports
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H20/00ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance
    • G16H20/30ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance relating to physical therapies or activities, e.g. physiotherapy, acupressure or exercising
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D10/00Energy efficient computing, e.g. low power processors, power management or thermal management
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D30/00Reducing energy consumption in communication networks
    • Y02D30/50Reducing energy consumption in communication networks in wire-line communication networks, e.g. low power modes or reduced link rate

Abstract

手首に装備されるアスレチックパフォーマンスモニタリングシステムは、ジェスチャ認識処理を実行するように構成されたジェスチャ認識プロセッサを備えている。パフォーマンスモニタリングシステムとのやり取りは、少なくともユーザにより行なわれるジェスチャに基づき、アスレチック活動中のユーザにとって面倒や不便でありうる物理的ボタンを使って選択を行なうパフォーマンスモニタリングシステムに代わるものを提案しうる。また、認識されたジェスチャは、アスレチックパフォーマンスモニタリングシステムの少なくとも一つの動作モードを選択するために使用されうる。これにより、電力消費の抑制がなされうる。【選択図】図1

Description

本出願は、「Gesture Recognition」を発明の名称とし、2013年8月7日に提出された米国仮出願61/863,249の優先権の利益を主張する。その内容の全ては、ここに参照として援用される。
近年の技術は、複数のユーザが相互に連絡を取り合い、楽しませ合い、情報を伝え合う非常に様々な電子装置や通信装置を登場させている。このような目的のために、非常に様々な携帯型電子装置が入手可能である。例えば、携帯電話、パーソナルデジタルアシスタンス(PDA)、ページャ、ビーパ、MP3などの音声再生装置、ラジオ、携帯型テレビ、DVDプレイヤなどの映像再生装置、時計、GPSシステムなどが挙げられる。多くの人々が、エクササイズをしたりアスレチックイベントに参加したりする際に、この種の装置の少なくとも一つを持ち運ぶことを好む。その目的の例としては、互いに連絡を取り合い(荒天、怪我、緊急事態などの場合)、互いに楽しませ合い、情報(時間、方角、場所など)を提供することが挙げられる。
アスレチックパフォーマンスモニタリングシステムもまた、近年の電子装置とデジタル技術の発展の恩恵を受けている。電子パフォーマンスモニタリング装置は、エクササイズなどのアスレチックパフォーマンスに関連付けられた多くの身体的あるいは生理学的特性のモニタリングを可能にする。当該特性の例としては、速度と距離データ、姿勢データ、GPSデータ、心拍数、脈拍、血圧データ、体温などが挙げられる。具体的には、これらのアスレチックパフォーマンスモニタリングシステムは、近年のマイクロプロセッサの性能向上の恩恵を受けており、複雑さを増す演算を可能にし、処理の実行に必要なマイクロプロセッサのサイズは徐々に小さくなっている。このような近年のマイクロプロセッサは、活動認識処理の実行に使用されうる。これにより、アスリートにより行なわれるスポーツなどの活動が認識されうる。そして、当該スポーツなどの活動に関連する情報の分析と保存の少なくとも一方が行なわれうる。しかしながら、これらのパフォーマンスモニタリングシステムとのやり取りは煩わしい場合がある。アスリートは、従来のコンピュータシステムや携帯型電子装置には一般的であるボタン列を用いて装置上での選択が求められる。アスレチック活動を行なうアスリートにとっては、注意を逸らされたり、不快であったり、パフォーマンスモニタリングシステムとのやり取りを行なってシステムの機能に係る選択を従来の手法で行なうことが不可能であったりする場合がある。加えて、上記のシステムは、限りのある電源(充電池など)により給電されていることが多い。これにより、活動のモニタリングと認識を可能にすべく装置がアスリートに装備されうる。アスレチックパフォーマンスモニタリングシステムにより遂行される演算が複雑さを増すにつれて、当該演算を遂行する集積マイクロプロセッサの消費電力は顕著に増大する。これに伴い、充電間の使用可能時間は短くなる。したがって、より効率的にアスレチックパフォーマンスモニタリングシステムとやり取りを行ない、アスレチックパフォーマンスモニタリングシステムの電池寿命を延ばすシステムと方法のニーズが存在する。
本開示における幾つかの態様は、上記の短所の少なくとも一つを解決する新規なシステムと方法に関連する。別の態様は、当該技術における他の欠点を最小化することに関連する。
以下の記載は、本発明の幾つかの態様についての基本的理解を提供するための簡潔なサマリである。当該サマリは、発明の範囲の全容を示すものではない。発明にとって肝要あるいは不可欠な要素を特定したり、発明の範囲を制限したりすることを意図してはいない。以降のサマリは、後に続く詳細な説明の前置きとして、発明の思想の幾つかを簡潔に示しているに過ぎない。
ここに記載されたシステムと方法の態様は、非一時的かつコンピュータが読取り可能な媒体に関連する。当該媒体は、コンピュータが実行可能な命令群を伴っている。当該命令群は、加速度データを装置内のジェスチャ認識プロセッサに受け付けるためのものである。当該装置は、ユーザの腕に配置され、第一動作モードに基づいて動作しうる。受け付けられた加速度データは、当該ユーザの腕の動きを表しうる。その動きは、ジェスチャとして分類されうる。分類に際し、当該装置は、第二動作モードに基づいて動作されうる。第二動作モードは、分類されたジェスチャに基づいて選択される。
別態様において、本開示は、ユーザの腕に装備されるように構成された装置に関連する。当該装置は、加速度データを取得するように構成されたセンサ、ジェスチャ認識プロセッサ、および活動プロセッサを備えている。当該装置は、非一時的かつコンピュータが読取り可能な媒体を備えている。当該媒体は、コンピュータが実行可能な命令群を含んでいる。当該命令群は、取得された加速度データをジェスチャとして分類し、分類されたジェスチャに基づいて活動プロセッサの動作モードを選択するためのものである。
さらに別態様において、本開示は、非一時的かつコンピュータが読取り可能な媒体に関連する。当該媒体は、コンピュータが実行可能な命令群を伴っている。当該命令群は、プロセッサにより実行されると、装置上のセンサから動作データを受け付け、当該データからジェスチャを特定または選択し、特定されたジェスチャに基づいて当該装置の動作モードを調節するように構成されている。
このサマリは、選ばれた幾つかの考え方を簡潔な形で導入するためのものであり、それらは以降の詳細な説明においてさらに説明される。このサマリは、特許請求の範囲に記載された事項において肝要あるいは不可欠な要素を特定したり、特許請求の範囲に記載された事項の範囲を制限したりすることを意図してはいない。
パーソナルトレーニングの提供とユーザの物理的動きからのデータ取得の少なくとも一方を行なうように構成されうる、実施形態例に係るシステムの一例を示す図である。 図1のシステムの一部でありうる、あるいは図1のシステムと通信しうるコンピュータ装置の一例を示す図である。 ユーザに装備されうる、実施形態例に係るセンサアセンブリの一例を示す図である。 ユーザに装備されうる、実施形態例に係るセンサアセンブリの別例を示す図である。 センサ入力の場所の例を示し、ユーザの衣服の上や中に配置された物理センサや、当該ユーザの二つの動く身体部分同士の関係を含みうる図である。 ジェスチャ認識に利用されうるセンサ装置の一例を模式的に示すブロック図である。 ジェスチャ認識トレーニングプロセスを模式的に示すブロック図である。 ジェスチャ認識プロセスを模式的に示すブロック図である。 動作モード選択プロセスを模式的に示すブロック図である。
本開示における幾つかの態様は、アスリートによりなされるジェスチャの認識を伴う。ジェスチャ認識は、アスレチックパフォーマンスモニタリング装置に関する特定の機能を起動するために行なわれる。ジェスチャは、アスレチックデータから認識されうる。アスレチックデータは、ジェスチャ情報に加え、アスリートやユーザによって行なわれている少なくとも一つのアスレチック活動を表すデータを含む。アスレチックデータは、能動的あるいは受動的に検知されうる。これに加えてあるいは代えて、アスレチックデータは、少なくとも一つの非一時的な記憶媒体に保存されうる。アスレチックデータは、出力を生成するために使用されうる。出力の例としては、計算されたアスレチック属性、ガイダンスなどの情報を提供するためのフィードバック信号が挙げられる。これらを含む態様が、以降に示されるパーソナルトレーニングの例に関連して説明される。
以降の様々な実施形態の説明において、開示の一部をなす添付の図面が参照される。当該図面においては、開示の態様が実施されうる様々な実施形態が例示される。本開示の趣旨から逸脱しない限りにおいて、他の実施形態が利用されうること、構造的および機能的な変更がなされうることは勿論である。また、本開示中に用いられている見出しが開示の態様を制限するものとみなされたり、実施形態例が見出しの例に制限されたりするべきではない。
I.パーソナルトレーニングシステムの例
A.ネットワークの例
本開示における幾つかの態様は、複数のネットワークにわたって利用されうるシステムおよび方法に関連する。そのため、特定の実施形態は、動的ネットワーク環境に適合するように構成されうる。別の実施形態は、複数の異なる離散ネットワーク環境において動作しうる。図1は、実施形態例に係るパーソナルトレーニングシステム100の一例を示している。例示のシステム100は、相互接続されたネットワークを含みうる。ネットワークの例としては、ボディエリアネットワーク(BAN)102、ローカルエリアネットワーク(LAN)104、およびワイドエリアネットワーク(WAN)106が挙げられる。図1に示されるように、ネットワーク同士(例えばBAN102、LAN104、WAN106の少なくとも一つ)は重複関係あるいは包含関係にありうる。開示全体を通じて当該事実を前提に記載する。例示のネットワーク102〜106は、各々が少なくとも一つの異なる通信プロトコルとネットワークアーキテクチャを備える論理ネットワークであり、相互あるいは他のネットワークへのゲートウェイを有するように構成されうることは、当業者であれば理解できるであろう。例えば、BAN102、LAN104、WAN106の少なくとも一つは、同じ物理ネットワークアーキテクチャと動作可能に接続されうる。物理ネットワークアーキテクチャの例としては、セルラネットワークアーキテクチャ108やWANアーキテクチャ110が挙げられる。例えば、BAN102とLAN104双方のコンポーネントと見なされうるポータブル電子装置112は、ネットワークアダプタまたはネットワークインターフェースカード(NIC)を備えうる。これらは、少なくとも一つのアーキテクチャ108と少なくとも一つのアーキテクチャ110の少なくとも一方を通じて、データと制御信号からネットワークメッセージへ、あるいはその逆へ、少なくとも一つの通信プロトコルに基づいて変換しうる。通信プロトコルの例としては、通信制御プロトコル(TCP)、インターネットプロトコル(IP)、ユーザデータグラムプロトコル(UDP)が挙げられる。これらのプロトコルは周知であるため、ここでは詳細に説明しない。
ネットワークアーキテクチャ108、110は、単体と組合せを問わず、任意の種別あるいは接続形態の情報分配ネットワークを少なくとも一つ含みうる。情報分配ネットワークの例としては、ケーブル、ファイバ、衛星、電話、携帯電話、無線などが挙げられる。情報分配ネットワークは、少なくとも一つの有線あるいは無線通信チャネルを有するように、様々に構成されうる。有線あるいは無線通信チャネルは、WiFi(登録商標)、ブルートゥース(登録商標)、近距離無線通信(NFC)、ANT技術の少なくとも一つを含むが、これに限られるものではない。よって、図1のネットワークにおけるあらゆる装置(ポータブル電子装置112など本開示に記載の装置)は、少なくとも一つの異なる論理ネットワーク102〜106に包含されるとみなされうる。上記を踏まえ、BANおよびLAN(WAN106と結合されうるもの)の例におけるコンポーネントの例について説明する。
1.ローカルエリアネットワークの例
LAN104は、少なくとも一つの電子装置(例えば演算装置114)を含みうる。演算装置114などのシステム100のコンポーネントは、モバイル端末を含みうる。モバイル端末の例としては、電話、音楽プレイヤ、タブレット、ネットブックなどのポータブル装置が挙げられる。別実施形態においては、演算装置114は、メディアプレイヤ/レコーダ、デスクトップコンピュータ、サーバ、ゲームコンソールが挙げられる。ゲームコンソールの例としては、マイクロソフトのXBOX(登録商標)、ソニーのプレイステーション(登録商標)、任天堂のWii(登録商標)が挙げられる。これらは説明を目的とした装置の例に過ぎず、本開示が特定のコンソールや演算装置に限定されないことは、当業者であれば理解できるであろう。
用途などの要因に応じて演算装置114の設計および構造が変化しうることは、当業者であれば理解できるであろう。演算装置114の一実施例を図2に示す。同図は、演算装置200のブロック図を示している。同図の記載が本開示に記載されたあらゆる装置に適用可能であることは、当業者であれば理解できるであろう。装置200は、少なくとも一つのプロセッサを含みうる。プロセッサの例としては、プロセッサ202−1とプロセッサ202−2が挙げられる。これらは、プロセッサ202あるいは複数のプロセッサ202として包括的に記載されうる。複数のプロセッサ202は、相互に、あるいは他のコンポーネントと、接続ネットワークやバス204を介して通信できる。プロセッサ202は、少なくとも一つの処理コアを備えている。処理コアの例としては、コア206−1とコア206−2が挙げられる。これらは、コア206あるいは複数のコア206として包括的に記載されうる。処理コアは、単一の集積回路(IC)チップ上に実現されうる。
コア206は、共有キャッシュ208とプライベートキャッシュ(キャッシュ210−1、210−2など)の少なくとも一方を備えうる。少なくとも一つのキャッシュ208、210は、システムメモリ(メモリ212など)に保存されたデータを、プロセッサ202のコンポーネントによるより高速なアクセスのためにローカルにキャッシュできる。メモリ212は、チップセット216を介してプロセッサ202と通信できる。特定の実施形態において、キャッシュ208は、システムメモリ212の一部でありうる。メモリ212は、ランダムアクセスメモリ(RAM)、読出し専用メモリ(ROM)、少なくとも一つの半導体メモリ、光学的ストレージ、磁気的ストレージなどの電子情報を保存するために使用されうる媒体の少なくとも一つを含みうるが、これらに限られるものではない。さらに別の実施形態においては、システムメモリ212が省略されうる。
システム200は、少なくとも一つのI/O装置(例えばI/O装置214−1〜214−3、これらは包括的にI/O装置214と表記されうる)を備えうる。少なくとも一つのI/O装置214からのI/Oデータは、少なくとも一つのキャッシュ208、210とシステムメモリ212の少なくとも一方に保存されうる。各I/O装置214は、システム100のコンポーネントと、物理的あるいは無線通信プロトコルを用いて永続的あるいは一時的に連絡するように構成されうる。
図1には、演算装置114と通信している四つのI/O装置の例(要素116〜122)が示されている。装置116〜122の少なくとも一つは、スタンドアロンの装置であってもよいし、演算装置114とは別の装置と関連付けられていてもよいことは、当業者であれば理解できるであろう。例えば、少なくとも一つのI/O装置は、BAN102とWAN106の少なくとも一方に関連付けられているか、やり取りを行ないうる。I/O装置116〜122は、アスレチックデータ取得ユニット(例えばセンサなど)を含みうるが、これに限られるものではない。少なくとも一つのI/O装置は、ユーザ(例えばユーザ124)よりアスレチックパラメータの検知、検出、および測定の少なくとも一つを行なうように構成されうる。センサの例としては、加速度計、ジャイロスコープ、位置特定装置(GPSなど)、光センサ(不可視光を含む)、温度センサ(気温と体温の少なくとも一方)、睡眠パターンセンサ、心拍数センサ、撮像センサ、湿度センサ、力センサ、コンパス、角速度センサ、これら少なくとも二つの組合せが挙げられるが、これらに限られるものではない。
別実施形態においては、I/O装置116〜122は、出力(音声、映像、触感など)の提供と入力(アスリート124からのユーザ入力など)の受付けの少なくとも一方を行なうように構成されうる。これら例示のI/O装置の使用例について以下説明するが、本開示の範囲内における多くの選択肢の幾つかを説明しているに過ぎないことは、当業者であれば理解できるであろう。また、データ取得ユニット、I/O装置、あるいはセンサを参照する場合、本開示に記載された、あるいは周知(単体と組合せを問わず)である少なくとも一つのI/O装置、データ取得ユニット、センサの少なくとも一つを備えうる実施形態を示していると解釈される。
少なくとも一つのネットワークにおける少なくとも一つの装置は、様々なパラメータ、メトリクス、生理学的特性を用いうる(あるいは、これらを形成するために利用されうる)。これらの例としては、動作パラメータや動作データ(速度、加速度、距離、歩数、方向、特定の身体部分などの対象物同士の相対変位など)や、角速度や直線移動度の少なくとも一方により表される動作パラメータ、生理学的パラメータ(カロリー、心拍数、発汗検出、エフォート、酸素消費量、酸素反応速度など)、圧力や慣性力などの少なくとも一つのカテゴリに属しうるメトリクス、アスリートに関する情報(身長、体重、年齢、人口統計学的情報、これら少なくとも二つの組合せなど)が挙げられるが、これらに限られるものではない。
システム100は、アスレチックデータの送信と受信の少なくとも一方を行なうように構成されうる。アスレチックデータは、パラメータ、メトリクス、あるいは生理学的特性を含んでいる。それらは、システム100内で収集された、あるいはシステム100に提供されたものである。一例として、WAN106は、サーバ111を備えている。サーバ111は、図2のシステム200におけるコンポーネントの少なくとも一つを有している。一実施形態において、サーバ111は、少なくともプロセッサとメモリ(例えばプロセッサ206とメモリ212)を備えている。サーバ111は、コンピュータが実行可能な命令群を非一時的かつコンピュータが読み取り可能な媒体に保存するように構成されうる。当該命令群は、アスレチックデータ(生データ、あるいはシステム100内で収集された処理済データ)を含んでいる。システム100は、データ(エネルギー消費ポイントなど)をソーシャルネットワーキングウェブサイトや当該サイトのホストへ送信するように構成されうる。サーバ111は、少なくとも一人のユーザにアスレチックデータのアクセスと比較の少なくとも一方を許容するために利用されうる。この場合、サーバ111は、アスレチックデータなどの情報に基づいて通知の送信と受信の少なくとも一方を行なうように構成されうる。
LAN104において、演算装置114が表示装置116、撮像装置118、センサ120、およびエクササイズ装置122と連絡している様子が示されている。これらについては、実施形態例を参照しつつ後述する。一実施形態において、表示装置116は、特定のアスレチック動作を行なうために視聴覚的キューをアスリート124に提供しうる。視聴覚的キューは、コンピュータが実行可能な命令群が演算装置114などの装置(BAN102とWANの少なくとも一方における装置を含む)上で実行されることに応答して提供されうる。表示装置116は、タッチスクリーン装置でありうる。あるいは、表示装置116は、ユーザ入力を受け付けるように構成されうる。
一実施形態において、データは、撮像装置118とセンサ(センサ120など)の少なくとも一方から取得されうる。当該データは、単体で、あるいは他の装置や保存された情報との組合せにより、アスレチックパラメータの検出(と測定の少なくとも一方を)行なうために使用されうる。撮像装置118とセンサ120の少なくとも一方は、送信装置を備えうる。一実施形態において、センサ128は、赤外線(IR)送受信装置、電磁的(EM)送受信装置、音響的送受信装置を備えうる。例えば、撮像装置118とセンサ120の少なくとも一方は、波形を外部(アスリート124の方向を含む)に送信し、「反射」の受信や送信された波形の変化の検出を行ないうる。多数のデータスペクトルに対応する信号が様々な実施形態に応じて利用されうることは、当業者であれば理解できるあろう。この場合、装置118と120の少なくとも一方は、外部ソース(例えばシステム100以外)から出射された波形を検出しうる。例えば、装置118と120の少なくとも一方は、ユーザ124と周辺環境の少なくとも一方から発せられた熱を検出しうる。よって、撮像装置126とセンサ128の少なくとも一方は、少なくとも一つの熱撮像装置を含みうる。一実施形態において、撮像装置126とセンサ128の少なくとも一方は、レンジフェノメノロジーを実行するように構成されたIR装置を含みうる。
一実施形態において、エクササイズ装置122は、アスリート124が身体動作を行なうことを許容あるいは促進するように構成されうる装置(トレッドミルやステップマシンなど)でありうる。当該装置が固定的である必要性はない。この場合、ポータブル装置の利用を無線技術が可能にする。よって、自転車などの移動エクササイズ装置が、幾つかの実施形態において利用されうる。設備122がインターフェースでありうること、あるいは設備122がインターフェースを備えうることは、当業者であれば理解できるであろう。当該インターフェースは、演算装置114から離れて動作する電子装置からアスレチックデータを受信する。例えば、ユーザは、スポーツ装置(BAN102との関係で後述する)を使用し、家や設備122の場所に戻ると、設備122やシステム100における他の装置にアスレチックデータをダウンロードしうる。本開示に記載のI/O装置は、活動データを受信するように構成されうる。
2.ボディエリアネットワーク
BAN102は、アスレチックデータの受信、送信、あるいは収集の促進を行なうように構成された複数の装置を含みうる(パッシブ装置を含む)。例示の装置は、少なくとも一つのデータ収集ユニット、センサ、あるいは装置を含みうる。例示の装置は、I/O装置116〜112を含むが、これらに限られない。BAN102における複数のコンポーネントは、相互に通信しうる。別の実施形態において、当該通信は、第三の装置を介して行なわれうる。当該第三の装置は、BAN102、LAN104、およびWAN106の一部でありうる。LAN104とWAN106における少なくとも一つのコンポーネントは、BAN102の一部を形成しうる。特定の実施例において、ポータブル装置112のような装置がBAN102、LAN104、およびWAN106の少なくとも一つの一部であるかは、携帯電話ネットワークアーキテクチャ108およびWANアーキテクチャ110の少なくとも一つとの通信を許容するアクセスポイントに対するアスリートの近さに依存しうる。ユーザの活動と好みの少なくとも一方は、少なくとも一つのコンポーネントがBAN102の一部として利用されるかに影響を与えうる。実施形態例は以下の通りである。
ユーザ124は、任意の数の装置と関連付けられうる(所有、運搬、装備、やり取りの少なくとも一つ)。当該装置の例としては、ポータブル装置112、靴搭載型装置126、手首装着型装置128、および検知ロケーション(検知ロケーション130など)の少なくとも一つが挙げられ、情報を収集するために使用される物理的デバイスまたはロケーションを含みうる。少なくとも一つの装置(112、126、128、および130)は、フィットネスあるいはアスレチック目的に特化した仕様である必要はない。実際、本開示における幾つかの態様は、アスレチックデータの収集、検出、および測定の少なくとも一つを行なうために複数の装置からのデータを利用することに関連する。当該複数の装置の幾つかは、フィットネス装置ではない。特定の実施形態において、BAN102(あるいは他のネットワーク)における少なくとも一つの装置は、フィットネス装置やスポーツ装置でありうる。ここで用いられている「スポーツ装置」という語は、特定のスポーツやフィットネス活動中に使用または関与されうる物体を含みうる。スポーツ装置の例は、ゴルフボール、バスケットボール、サッカーボール、フットボール、パワーボール、ホッケーパック、ウェイト、バット、クラブ、スティック、パドル、およびマットの少なくとも一つを含みうるが、これらに限られない。別実施形態において、フィットネス装置の例は、特定のスポーツが行なわれるスポーツ環境における物体を含みうる(環境それ自体を含む)。フィットネス装置の例としては、ゴールネット、フープ、バックボード、フィールドの一部(ミドルラインなど)、外側境界マーカ、およびベースの少なくとも一つが挙げられる。
この場合、少なくとも一つのスポーツ装置も構造の一部であり(あるいは一部を形成し)、逆にある構造は少なくとも一つのスポーツ装置を備えるかスポーツ装置とやり取りするように構成されうることは、当業者であれば理解できるであろう。例えば、第一構造は、バスケットボールフープとバックボードを備えうる。これらは、ゴールポストから取り外しおよび交換可能でありうる。この場合、少なくとも一つのスポーツ装置は、少なくとも一つのセンサ(例えば図1〜3に関連して上述した複数のセンサの少なくとも一つ)を備えうる。これらは、独立して、あるいは他のセンサと協働して、利用される情報を提供しうる。他のセンサの例としては、少なくとも一つの構造と関連付けられた少なくとも一つのセンサが挙げられる。例えば、バックボードは、第一センサを備えうる。第一センサは、バスケットボールがバックボードに当たった際の力とその向きを測定するように構成されている。フープは、力を検出するための第二センサを備えうる。同様に、ゴルフクラブは第一センサと第二センサを備えうる。第一センサは、シャフトのグリップ属性を検出するように構成されている。第二センサは、ゴルフボールとの衝突を測定するように構成されている。
例示のポータブル装置112は、電話やデジタル音楽プレイヤを含む多目的電子装置でありうる。それらの例としては、カリフォルニア州クパティーノのアップル社より入手可能なIPOD(登録商標)、IPAD(登録商標)、iPhone(登録商標)ブランドの装置、ワシントン州レドモンドのマイクロソフト社より入手可能なZune(登録商標)やマイクロソフトウインドウズ(登録商標)の装置が挙げられる。周知のように、デジタルメディアプレイヤは、コンピュータの出力装置、入力装置、および記憶装置の少なくとも一つとして振る舞いうる。装置112は、BAN102、LAN104、あるいはWAN106における少なくとも一つの装置から収集された生データあるいは処理済みデータを受け付ける入力装置として構成されうる。例えば、ポータブル装置112は、モバイル端末を備えるように、ディスプレイ116、撮像装置118、およびデータ取得装置(例えば、上述のI/O装置116〜122のいずれか)の少なくとも一つを含みうる(別コンポーネントの有無は問わない)。
2−a.衣料・アクセサリセンサの例
特定の実施形態において、I/O装置は、ユーザ124の衣料やアクセサリの内部に形成されうる。あるいは、I/O装置は、ユーザ124の衣料やアクセサリと関連付けられうる。衣料やアクセサリの例としては、時計、腕バンド、手首バンド、ネックレス、シャツ、靴などが挙げられる。これらの装置は、ユーザのアスレチック動作をモニタするように構成されうる。なお、これらの装置は、ユーザ124が演算装置14とやり取りをしている間のアスレチック動作を検出できてもよいし、演算装置114(あるいは本開示に記載された他の装置)とは独立して動作してもよい。例えば、BAN102における少なくとも一つの装置は、ユーザが演算装置114の付近にいることや、演算装置114とやり取りをしていることとは無関係に活動を測定する終日活動モニタとして機能するように構成されうる。また、図3に示されるセンサシステム302と図4に示される装置アセンブリ400(いずれも後述)は、例示に過ぎない。
2−a−i.靴搭載型装置
特定の実施形態において、図1に示される装置126は、少なくとも一つのセンサを備えた履物を含みうる。履物は、本開示に記載のものや周知のものが挙げられるが、これらに限られない。図3は、少なくとも一つのセンサアセンブリ304を提供するセンサシステム302の一実施形態例を示している。アセンブリ304は、少なくとも一つのセンサを備えうる。センサの例としては、加速度計、ジャイロスコープ、位置特定コンポーネント、力センサ、本開示に記載された他のセンサ、周知のセンサが挙げられる。例示の実施形態において、アセンブリ304は、力感知センサ(FSR)センサ306を含む複数のセンサを内蔵している。しかしながら、他のセンサも利用されうる。ポート308は、靴のソール構造309の内部に配置されうる。ポート308は、少なくとも一つの電子装置と通信可能に構成されることが一般的である。ポート308は、電子モジュール310と通信可能とされてもよい。ソール構造309は、モジュール310を受容するハウジング311などの構造を含んでもよい。モジュール310は、靴のソール構造内における凹部や空洞内に収容されうる。ハウジング311は、当該凹部や空洞内に配置されうる。一実施形態において、少なくとも一つのジャイロスコープと少なくとも一つの加速度計が、単一のハウジング(モジュール310やハウジング311)内に設けられうる。少なくとも別実施形態においては、動作時において方向情報角速度データを提供するように構成された少なくとも一つのセンサが提供される。ポート308とモジュール310は、接続と通信のための補助インターフェース314、316を備えている。
特定の実施形態において、図3に示される少なくとも一つの力感知レジスタ306は、第一電極あるいは電気接点318、第二電極あるいは電気接点320、および力感知抵抗材料322を備えている。力感知抵抗材料322は、電極318、320の間に配置されて両者を電気的に接続している。圧力が力感知材料322に加えられると、力感知材料322の抵抗と導電率の少なくとも一方が変化する。これにより、電極318、320間の電位が変化する。抵抗変化は、センサシステム302により検出されうる。これにより、センサ316に加えられた力が検出される。力感知抵抗材料322は、圧力下でその抵抗を様々な手法で変化させうる。例えば、力感知材料322は、圧縮されると減少する内部抵抗を有しうる。別実施形態は、「スマート材料」を通じて測定されうる「体積依存抵抗」を利用しうる。別例として、材料322は、二つの力感知材料322間、あるいは力感知材料322と両電極318、320間の面接触の程度を変化させることにより抵抗を変化させうる。場合によっては、この種の力感知抵抗の挙動は、「接触依存抵抗」と称されうる。
2−a−ii.手首装着型装置
図4に示されるように、装置400は、ユーザ124によって手首、腕、足首、首などの周囲に装備されるように構成されうる(図1に示されたセンサ装置128と類似しうる、あるいはセンサ装置128を備えうる)。装置400は、入力機構を備えうる。入力機構の例としては、装置400の動作中に使用されるように構成された押下可能な入力ボタン402が挙げられる。入力ボタン402は、コントローラ404と他の電子コンポーネント(図1に示された演算装置114との関連で説明した要素の少なくとも一つ)の少なくとも一方と動作可能に接続されている。コントローラ404は、ハウジング406に埋設されてもよいし、ハウジング406の一部でもよい。ハウジング406は、エラストマ要素を含む少なくとも一つの材料から形成されうる。ハウジング406は、少なくとも一つのディスプレイ(例えばディスプレイ408)を備えうる。当該ディスプレイは、装置400における発光可能な部分とみなされうる。ディスプレイ408は、一連の発光素子または光源部材(LED光源410など)。光源は、アレイ状に形成されうる。光源は、コントローラ404と動作可能に接続されうる。装置400は、標識システム412を備えうる。標識システム412もまた、ディスプレイ408全体の一部または要素とみなされうる。標識システム412は、ディスプレイ408と協働して発光動作可能である(画素部材414を有しうる)。標識システム412は、ディスプレイ408と完全に分離されていてもよい。実施形態例においては、標識システム412もまた、LED光源の形態をとりうる。特定の実施形態において、標識システムは、例えば標識システム412の発光部材の一部を発光させることにより、目標の視覚的標識を提供しうる。目標の視覚的標識は、少なくとも一つの目標の達成状況を表すためのものである。装置400は、ユーザにより行なわれた活動に基づいて獲得される活動ポイントや通貨の形で表されるデータを、ディスプレイ408と標識システム412の少なくとも一方を通じて表示するように構成されうる。
締結機構416は、係合解除可能である。これにより、装置400は、ユーザ124の手首や身体の一部の周囲に配置されうる。その後、締結機構416が係合状態とされうる。一実施形態において、締結機構416は、演算装置114と他の装置(装置112と120の少なくとも一方)の少なくとも一方とやり取りをするためのインターフェースを備えうる。当該インターフェースの例としては、USBポートが挙げられるが、これに限られない。特定の実施形態において、締結部材は、少なくとも一つの磁石を備えうる。一実施形態において、締結部材は、可動部材を備えず、磁力のみに依存しうる。
特定の実施形態において、装置400は、センサアセンブリ(図4においては不図示)を備えうる。当該センサアセンブリは、複数の異なるセンサ(本開示に記載されたものと周知のものの少なくとも一方)を備えうる。一実施形態例において、当該センサアセンブリは、本開示に記載されたセンサまたは周知のセンサとの動作可能な接続を許容あるいは装備しうる。装置400と上記センサアセンブリの少なくとも一方は、少なくとも一つの外部センサから取得されたデータを受け付けるように構成されうる。
2−a−iii.衣服と身体の少なくとも一方の位置検知
図1の要素130は、物理的装置(センサ、データ取得ユニットなどの装置)と対応付けられうる検知位置の例を示している。さらに別の実施形態において、当該位置は、撮像装置(撮像装置118など)を通じてモニタされる特定の身体部分あるいは領域でありうる。特定の実施形態において、要素130は、センサを備えうる。すなわち、要素130aと130bは、アスレチックウェアなどの衣服と一体化されたセンサでありうる。当該センサは、ユーザ124の身体における所望の箇所に配置されうる。センサ130a、130bは、BAN102、LAN104、およびWAN106の少なくとも一つにおける少なくとも一つの装置(他のセンサを含む)と通信しうる(例えば無線で)。特定の実施形態において、受動検知面は、撮像装置118とセンサ120の少なくとも一方から出射された波形(赤外光など)を反射しうる。一実施形態において、ユーザ124の衣服に設置された受動センサは、一般にガラスなどの透明あるいは半透明な表面からなり、当該波形を反射しうる球形構造を有しうる。様々な種類の衣服が利用されうる。ある種の衣服は、適切に装備されることによりユーザ124の身体の特定部位の近傍に配置されるように構成された特定のセンサを有する。例えば、ゴルフウェアは、第一の構成で配置された少なくとも一つのセンサを備えうる。他方、サッカーウェアは、第二の構成で配置された少なくとも一つのセンサを備えうる。
図5は、検知入力の位置を例示している(センサの位置130a〜130o)。この場合、センサは、ユーザの衣服の上や中に配置された身体センサでありうる。別の実施形態において、検知位置130a〜130oは、二つの身体部位同士の関係の特定に基づきうる。例えば、検知位置130aは、ユーザ124の動作を撮像装置(撮像装置118など)で特定することにより決定されうる。よって、特定の実施形態において、センサは、特定の位置(センサの位置130a〜130oの少なくとも一つなど)へ物理的に配置されなくともよく、例えば撮像装置118や他の位置から収集した他のセンサデータにより当該位置の特性を検知するように構成される。この場合、ユーザの身体全体あるいは一部の形状は、特定の身体部位の特定を許容しうる。撮像装置が利用されているか、身体センサがユーザ124に配置されているか、および他の装置(センサシステム302など)からのデータを使用するか、の少なくとも一つに依らず、装置アセンブリ400と他の装置またはセンサ(本開示に記載のものや周知のもの)の少なくとも一方が利用される。センサは、身体部位の現在位置の検知と、当該身体部位の動きの追跡の少なくとも一方を行ないうる。一実施形態において、位置130mに係る検知データは、ユーザの重心(あるいは質量中心)を判断するために利用されうる。例えば、位置130aと位置130fまたは130lの位置130m〜130oの少なくとも一つに対する関係は、ユーザの重心が鉛直軸に沿って上昇したか(例えばジャンプ動作中であるか)を判断するために、あるいはユーザが膝を曲げることによってジャンプの「ふり」をしようとしているかを判断するために利用されうる。一実施形態において、センサの位置130nは、ユーザ124の胸骨の辺りとされうる。同様に、センサの位置130oは、ユーザ124のへその辺りとされうる。特定の実施形態において、センサ位置130m〜130oからのデータは、ユーザ124の重心を判断するために(単体あるいは他のデータとの組合せで)利用されうる。別実施形態において、複数のセンサ位置(例えば130m〜130o)は、ユーザ124の姿勢と回転力(ユーザ124の胴のひねりなど)の少なくとも一方を判断するために利用されうる。さらに、少なくとも一つのセンサ位置がモーメント中心位置として利用されうる。例えば、一実施形態において、少なくとも一つのセンサ位置130m〜130oは、ユーザ124のモーメント中心位置として機能しうる。別実施形態においては、少なくとも一つのセンサ位置は、特定の身体部位や領域のモーメント中心として機能しうる。
図6は、センサ装置600を模式的に示すブロック図である。センサ装置600は、特定の実施形態に係る少なくとも一つのジェスチャを認識するように構成されている。図示のように、センサ装置600は、複数の要素を備えて(これに加えてあるいは代えて複数の要素と通信動作可能に)実現されうる。当該要素は、センサ装置600により受け付けあるいは出力されたセンサデータから少なくとも一つのジェスチャを認識するように構成可能である。一実施形態によれば、認識されたジェスチャは、少なくとも一つの集積コンポーネントによる電力消費の抑制を可能にすることに加え、センサ装置600の少なくとも一つの動作モードに基づいて少なくとも一つの処理を実行しうる。例示のセンサ装置600は、センサ602、フィルタ604、活動プロセッサ606、ジェスチャ認識608、メモリ610、電源612、送受信器614、およびインターフェース616を備えるものとして示されている。しかしながら、図6がセンサ装置600の一例示に過ぎず、本開示に記載された処理やシステムの範疇における複数の代替構成を用いてセンサ装置600が実現されうることは、当業者であれば容易に理解できるであろう。例えば、活動プロセッサ606とジェスチャ認識プロセッサ608は、特に単一のプロセッサとして、あるいは単一のマルチコアプロセッサにおける少なくとも一つの処理コアとして実現されうる。他の実施形態において、プロセッサ606とプロセッサ608は、専用のハードウェアや共有のハードウェア(共通のマザーボードやサーバ上にローカライズされたもの)を用いて実現されうる。あるいは、プロセッサ606とプロセッサ608は、複数のネットワーク接続されたサーバに跨るように分散配置されうる。
また、センサ装置600は、図2の演算システム200における少なくとも一つのコンポーネントを備えうる。すなわち、センサ装置600は、より大きな演算装置の一部とみなされうるし、自身がスタンドアロンの演算装置であってもよい。したがって、一実施例において、センサ装置600は、図4のコントローラ404による処理の少なくとも一部を行なうように構成されうる。当該実施例において、センサ装置600は、特に手首装着型装置400のユーザによりなされる少なくとも一つのジェスチャを認識するように構成されうる。これに応答して、手首装着型装置400は、少なくとも一つの処理、特に少なくとも一つのデータ分析条件や少なくとも一つの動作モードに対応付けられた設定の調整、当該ユーザにより行なわれている少なくとも一つの活動の認識、および手首装着型装置400による電力消費の抑制の少なくとも一つを実行しうる。
一実施例において、電源612は、電池を備えうる。あるいは、電源612は、蓄積された化学エネルギーから電力を取得する単一のセルであってもよいし(そのようなセルの集合体が一般に電池と称される)、太陽電池や蓄電池のような他の技術の組合せの少なくとも一つを用いて実現されてもよい。蓄電池は、センサ装置600が設けられうる装置400の動きから得た電気エネルギーを蓄積するように構成されうる。電気エネルギーは、「無線」誘導により供給されうる。あるいは、電気エネルギーは、ユニバーサルシリアルバス(USB1.0/1.1/2.0/3.0など)のポートなどの電力出力ポートから有線により供給されうる。本開示に記載されたシステムと方法が、本開示の範疇において電源612などの実施形態における電力消費の抑制に適したものであることは、当業者であれば容易に理解できるであろう。
一実施例において、センサ装置600のセンサ602は、特に少なくとも一つの加速度計、ジャイロスコープ、位置特定装置(GPS)、光センサ、温度センサ、心拍数モニタ、撮像センサ、マイク、湿気センサ、力センサ、コンパス、角速度センサの少なくとも一つを含みうる。加速度計を備える一実施形態例として、センサ602は、単一の集積回路あるいは「チップ」として実現された三軸(x軸、y軸、およびz軸)加速度計でありうる。この場合、三軸の少なくとも一つにおける加速度が、微小電気機械システム(MEMS)装置におけるシリコン構造の容量変化として検出される。したがって、三軸加速度計は、三次元空間における任意の方向の加速度を求めるために使用されうる。特定の実施形態において、センサ602は、STマイクロエレクトロニクス社のLIS3DH三軸加速度計パッケージを備え、加速度計が設定された三軸の少なくとも一つにおける加速度の大きさに対応するデジタル信号を出力しうる。加速度の大きさに対応するデジタル信号あるいはパルス幅変調信号をセンサ602が出力しうることは、当業者であれば理解できるであろう。例えば加速度計を内蔵するセンサ602のデジタル出力は、周波数が経時変化する信号として受け付けられうる。この場合、出力信号の周波数が、センサ602が感応する三軸の少なくとも一つにおける加速度の大きさに対応する。別実施例においては、センサ602は、当該センサ602が感応する三軸の少なくとも一つにおける加速度の大きさに対応して電圧が経時変化するアナログ信号を出力しうる。なお、センサ602は、本開示に記載された実施形態の範疇において、一軸あるいは二軸の加速度計でありうる。さらに別の実施例においては、センサ602は、当該センサ602が応答可能な物理現象や入力に対応するアナログ信号またはデジタル信号を出力する少なくとも一つのセンサでありうる。
センサ装置600は、フィルタ604を備えうる。フィルタ604は、センサ602の出力信号から特定の周波数を選択的に除去するように構成されうる。一実施例において、フィルタ604は、ローパス、ハイパス、あるいはバンドパスフィルタリング特性を有するアナログフィルタである。フィルタ604はデジタルフィルタでもよいし、アナログフィルタとデジタルフィルタの組合せでもよい。センサ602の出力は、フィルタ604に送信されうる。この場合、一実施例において、アナログセンサ602の出力は、電圧の振幅と周波数が連続的に経時変化する信号の形態をとる。一実施例において、電圧信号の振幅は、加速度の大きさに対応し、出力信号の周波数は、単位時間当たりに加速度が変化した回数に対応する。しかしながら、センサ602の出力は、少なくとも一つの異なるセンサ種別に対応する電圧が経時変化する信号とされうる。また、センサ602の出力は、特に電流、光信号、および音声信号の少なくとも一つによって表されるアナログまたはデジタル信号でありうる。
フィルタ604は、装置400のようなジェスチャモニタリング装置によるジェスチャ認識や活動認識の対象範囲外の周波数に対応する信号を除去するように構成されうる。例えば、フィルタ604は、例えば100Hzを超える高周波信号を選択的に除去するように使用されうる。当該周波数は、人間の能力を超える周波数のセンサ602の動きを表している。別実施例においては、フィルタ604は、センサ602の出力から低周波信号を除去するように使用されうる。これにより、ユーザのジェスチャに対応付けられた値を下回る周波数の信号は、センサ装置600によって処理されない。
フィルタ604は、「プレフィルタ」と称されうる。この場合、フィルタ604は、センサ602の出力から少なくとも一つの周波数を除去しうる。これにより、活動プロセッサ606は、ユーザによりなされたジェスチャや活動を表さないデータを処理するために電気エネルギーを消費しない。このようにして、プレフィルタ604は、センサ装置600あるいはセンサ装置600が一部をなすシステムによる総電力消費を抑制しうる。
一実施例において、フィルタ604の出力は、活動プロセッサ606とジェスチャ認識プロセッサ608の双方に送信される。第一状態においてセンサ装置600が起動されると、電気エネルギーが電源612から供給される。活動プロセッサ606とジェスチャ認識プロセッサ608の双方は、センサ602から時間連続的な出力信号を受信しうる。この場合、当該出力信号は、活動プロセッサ606とジェスチャ認識プロセッサ608によって受信される前に、フィルタ604によってフィルタされうる。別実施例においては、ジェスチャ認識プロセッサ608により受け付けられたセンサデータは、フィルタ604によってフィルタリングされたものではない。これに対し、活動プロセッサ606によって受け付けられたセンサデータは、フィルタ604によってフィルタリング済みである。さらに別の実施例においては、第二状態においてセンサ装置600が起動されると、活動プロセッサ606とジェスチャ認識プロセッサ608は、センサ602から断続的に信号を受信する。少なくとも一つのプロセッサ(例えばプロセッサ606と608の少なくとも一方)がセンサ602以外のセンサから取得されたデータを分析できることは、当業者であれば理解できるであろう。
図2のシステムメモリ212と類似しうるメモリ610は、コンピュータが実行可能な命令群を保存するために使用されうる。当該命令群は、活動プロセッサ606とジェスチャ認識プロセッサ608の少なくとも一方により実行される少なくとも一つの処理を遂行するためのものである。メモリ610は、ランダムアクセスメモリ(RAM)、読出し専用メモリ(ROM)を含みうるが、これらに限られない。メモリ610は、半導体メモリ、光学的あるいは磁気的ストレージなどの電子情報を保存するために使用可能な媒体の少なくとも一つを含みうる。メモリ610は、単一かつ独立したブロックとして図6に描かれているが、種別が同一あるいは相違する少なくとも一つのメモリでありうる。また、メモリ610は、センサ装置600から省略されうる。この場合、実行される命令群は、活動プロセッサ606とジェスチャ認識プロセッサ608の少なくとも一方と同じ集積回路上に保存される。
一実施例において、ジェスチャ認識プロセッサ608は、図2のプロセッサ202と同様の構造を有しうる。この場合、ジェスチャ認識プロセッサ608は、共有集積回路やマイクロプロセッサ装置の一部として実現されうる。別実施形態においては、ジェスチャ認識プロセッサ608は、特定用途向け集積回路(ASIC)として構成されうる。ASICは、他の処理と共有されてもよいし、ジェスチャ認識プロセッサ608専用であってもよい。また、ジェスチャ認識プロセッサ608が他の様々な構成(独立したアナログコンポーネントとデジタルコンポーネントの少なくとも一方)を用いて実現されうること、図6に示された実施例の範疇において記載された同じ処理を実行するように構成されうることは、当業者であれば容易に理解できるであろう。同様に、活動プロセッサ606は、ASICあるいは図2の汎用プロセッサ202として構成されうる。この場合、活動プロセッサ606とジェスチャ認識プロセッサ608の双方は、物理的に独立したハードウェアを用いて、あるいはハードウェアの少なくとも一部を共有することにより実現されうる。
活動プロセッサ606は、ユーザにより遂行されている少なくとも一つの活動を認識するための処理を実行し、当該少なくとも一つの活動を少なくとも一つのカテゴリに分類するように構成されうる。一実施例においては、活動認識は、動作データに基づいて(例えば動作データにおける腕振りのピークと跳動のピークを検出することにより)ユーザの歩みの数値化を含みうる。数値化は、ユーザの腕(手首付近など)に装備された単一の装置から収集されたデータのみに基づいてなされうる。一実施形態においては、動作データは加速度計から取得される。加速度の大きさベクトルが一定時間にわたって取得されうる。そして、当該時間の大きさベクトルから平均値などの値が計算されうる。平均値などの値は、各時間における歩数の計算に使用されるのに適した加速度閾値に当該時間の大きさベクトルが合致しているかを判断するために利用されうる。閾値に合致した加速度データは、分析バッファに送られうる。予期される活動に関連する加速度周波数のサーチ範囲が設定されうる。特定の実施例において、当該サーチ範囲内である加速度データの周波数は、少なくとも一つのピーク(跳動のピークと腕振りのピークなど)を特定するために分析されうる。一実施形態において、第一の周波数ピークが腕振りの推定範囲内にあり、かつ腕振りピークの閾値に合致している場合、当該第一の周波数ピークは、腕振りのピークとして特定されうる。同様に、第二の周波数ピークが跳動の推定範囲内にあり、かつ跳動ピークの閾値に合致している場合、当該第二の周波数ピークは、跳動のピークとして特定されうる。
また、システムと方法は、腕振りデータ、跳動データ、その他の歩みなどの動作を特定するためのデータの少なくとも一つを利用するかを判断しうる。腕振りのピークや跳動のピークなどの数は、どのデータを利用するかを判断するために使用されうる。一実施形態において、システムと方法は、歩みを数値化するにあたって歩みの周波数と大きさを選ぶために、ピークの数(およびピークの種別)を使用しうる。さらに別の実施形態においては、動作データの少なくとも一部は、数値化された歩みに基づいて活動カテゴリに分類されうる。
一実施形態において、センサ信号(加速度周波数など)と当該センサ信号に基づく計算結果(歩みに係る量など)は、例えば活動カテゴリの分類(ウォーキングやランニングなど)に利用されうる。特定の実施形態において、データが第一カテゴリ(ウォーキングなど)あるいカテゴリグループ(ウォーキングおよびランニングなど)に分類不可能な場合、第一の方法は、収集されたデータを分析しうる。例えば、一実施形態において、検出されたパラメータが分類不可能である場合、さらなる分析のためにユークリッドノルム方程式が利用されうる。一実施形態においては、取得された値の平均大きさベクトルノルム(二乗和の平方根)が利用されうる。さらに別の実施形態においては、別の方法が第一カテゴリあるいはカテゴリグループの分類に従うデータの少なくとも一部を分析しうる。一実施形態においては、ステップアルゴリズムが利用されうる。特定の実施形態において、分類されたデータと分類されなかったデータは、エネルギー消費値の計算に利用されうる。
例示されたシステムと方法は、2013年1月17日に提出された米国特許出願13/744,103に記載された少なくとも一つの活動を認識するように実現されうる。その内容の全ては、ここに参照として非限定的な目的で援用される。特定の実施形態において、活動プロセッサ606は、当該出願に記載されたものを含めて本開示に記載された処理の少なくとも一つを実行するために利用されうる。
ユーザの活動を分類するために使用される処理は、センサ602から受け付けたデータを保存されたデータサンプルと比較しうる。当該データサンプルは、特定の活動の特徴を示す。少なくとも一つのデータサンプルが、メモリ610に保存されうる。
ジェスチャ認識プロセッサ608は、ユーザ(例えばセンサ装置600をコンポーネントとして備えうる装置400のユーザ)によりなされた少なくとも一つのジェスチャを認識あるいは分類するための少なくとも一つの処理を実行するように構成されうる。したがって、ユーザは、身体活動中にしばしば煩わしかったり非現実的であったりする、少なくとも一つの物理的ボタンを通じたセンサ装置600とのやり取りを回避しうる。
ジェスチャ認識プロセッサ608は、センサ602からデータを受け付け、当該受け付けたデータから、特にセンサ装置600の動きパターン、センサ装置600のタッチパターン、センサ装置600の向き、およびセンサ装置600のビーコンへの近さの少なくとも一つに基づいて、少なくとも一つのジェスチャを認識しうる。例えば、ジェスチャ認識プロセッサ608は、加速度計として実現されうるセンサ602から加速度データを受け付けうる。加速度データの受け付けに応答して、ジェスチャ認識プロセッサ608は、受け付けたデータを動きパターンのデータベースと比較するための少なくとも一つの処理を実行しうる。動きパターンは、ユーザによる特定の動きを表す一連の加速度値でありうる。受け付けたセンサデータに対応する動きパターンの発見に応答して、ジェスチャ認識プロセッサ608は、活動プロセッサ606の動作モードを第一動作モードから第二動作モードに変更するための少なくとも一つの処理を実行しうる。動作モードは、センサ装置600が動作する方法を主に規定する処理のグループでありうる。例えば、動作モードは、活動プロセッサ606の休止モード、およびジェスチャ認識プロセッサ608のセンサ選択モードの少なくとも一つを特に含みうる。また、動きパターンは、加速度計以外のセンサの種別に対応する一連の値でありうることは、当業者であれば容易に理解できるであろう。例えば、動きパターンは、特にジャイロスコープ、力、光強度、音量、音ピッチ、音トーン、および位置の少なくとも一つを示す一連の値でありうる。
加速度計としてのセンサ602の実施形態例の場合、動きパターンは、特にジェスチャを表すユーザの意図的な腕の動きに対応付けられうる。例えば、ジェスチャは、ラップタイムをユーザに表示するための少なくとも一つの処理のセンサ装置600による実行を起動しうる。ユーザは、自身の左手首に手首装着型装置400を装備しうる。左手首に配置されうる手首装着型装置400は、手首の上に配置されたディスプレイ408を備えている。したがって、「ラップタイムジェスチャ」は、当該ユーザが左手首を約90度の角度に「フリック」あるいは振り、初期位置に戻すことを含みうる。ジェスチャ認識プロセッサ608は、このフリック動作をラップタイムジェスチャとして認識し、これに応答してユーザに対してラップタイムをディスプレイ408に表示しうる。当該ラップタイムジェスチャに対応付けられる動きパターンの例としては、第一加速度閾値を下回る加速度値を伴う第一加速期間、ユーザが手首を元の位置からフリックし始めることによる加速度の急上昇に対応する第二加速期間、およびユーザが手首を初期位置より90度の角度位置から戻すことによる加速度の急変化に対応する第三加速期間を特に含みうる。動きパターンが多くの離散的な「期間」を含みうること、あるいはジェスチャに対応してセンサの値が変化することは、当業者であれば容易に理解できるであろう。また、動きパターンは、種別を問わず複数のセンサからの値を含みうる。
センサ602からのデータを少なくとも一つの動きパターンに対応付けるために、ジェスチャ認識プロセッサ608は、絶対センサ値あるいはセンサ値の変化を少なくとも一つの動きパターンに対応する保存されたセンサ値と比較するための少なくとも一つの処理を実行しうる。また、ジェスチャ認識プロセッサ608は、受け付けたセンサデータ内の少なくとも一つのセンサ値が少なくとも一つの閾値を上回るか下回る場合、および保存された少なくとも一つのセンサ値と等しいか許容範囲内である場合の少なくとも一方であるとき、センサ602からの一連のセンサデータが少なくとも一つの動きパターンに対応すると判断しうる。
ユーザによりなされたジェスチャをセンサ装置600により実行される多くの異なる処理に対応付けるために動きパターンが使用されうることは、当業者であれば容易に理解できるであろう。例えば、ジェスチャは、ユーザの左手と右手が「T型」の位置関係とし、当該位置に両手を所定期間維持する動きを含みうる。ジェスチャ認識プロセッサ608は、このジェスチャに対応するセンサデータを受け付け、受け付けたセンサデータを保存された少なくとも一つの動きパターンと比較するための少なくとも一つの処理を実行しうる。ジェスチャ認識プロセッサ608は、受け付けたセンサデータが「タイムアウト」動きパターンに対応すると判断しうる。これに応答して、ジェスチャ認識プロセッサ608は、活動プロセッサ606に「タイムアウト」動作モードに対応付けられた少なくとも一つの処理を実行するように命令しうる。例えば、「タイムアウト」動作モードは、活動プロセッサ606による電力消費の抑制を含みうる。電力消費の抑制は、活動プロセッサ606がセンサ602からデータを受け取るサンプリングレートを低下させることにより行なわれる。別例においては、ジェスチャは、アスレチックワークアウト後に上体を伸ばす位置へユーザの腕を持っていく動きを含みうる。この場合においても、ジェスチャ認識プロセッサ608は、当該ジェスチャに対応するセンサデータを受け付け、当該受け付けたデータを保存された少なくとも一つの動きパターンと比較するための少なくとも一つの処理を実行しうる。ジェスチャ認識プロセッサ608は、受け付けたセンサデータを保存された少なくとも一つの動きパターンと比較するに際し、当該受け付けたセンサデータが「ストレッチ」動きパターンに対応すると判断しうる。これに応答して、ジェスチャ認識プロセッサ608は、「ストレッチ」動作モードに対応付けられた少なくとも一つの処理を実行するよう活動プロセッサ606に命令しうる。この「ストレッチ」動作モードは、ストレッチジェスチャの前に行なわれた少なくとも一つのアスレチック活動の認識を中止する処理を含みうる。
一実施例において、ジェスチャは、少なくとも一つの「トレーニングモード」処理の実行後に、ジェスチャ認識プロセッサ608により認識されうる。トレーニングモード中において、ジェスチャ認識プロセッサ608は、少なくとも一つの動きパターンに対応する少なくとも一つのデータセットを保存しうる。具体的には、ジェスチャ認識プロセッサ608は、「トレーニングジェスチャ」を所定回数だけ繰り返し行なうようユーザに命令しうる。繰り返しの度に、ジェスチャ認識プロセッサ608は、少なくとも一つのセンサ602からデータを受け取りうる。ジェスチャ認識プロセッサ608は、トレーニングジェスチャが行なわれる度に受け取ったセンサデータを比較し、複数回のジェスチャに共通する少なくとも一つの特性を特定しうる。当該共通の特性は、少なくとも一つのセンサ閾値の集合あるいは動きパターンとして保存されうる。例えば、「時計を見る」が分析されうるトレーニングモード中は、ジェスチャ認識プロセッサ608は、特定の動作を三回行なうようユーザに命令しうる。当該特定の動作は、ユーザの左腕を体側でほぼ鉛直方向に向け、左腕を当該体側位置からほぼ水平前向きに動かし、手首が顎のほぼ前方に位置するように左腕を肘から曲げる動作を特に含みうる。ジェスチャ認識プロセッサ608は、トレーニングモード中にユーザにより行なわれた三回の「時計を見る」トレーニングジェスチャに共通するセンサデータを特定するための少なくとも一つの処理を実行し、共通する特性を「時計を見る」ジェスチャに対応する動きパターンとして保存しうる。ジェスチャ認識プロセッサ608は、「時計を見る」ジェスチャの認識に際して遂行される少なくとも一つの処理をさらに保存しうる。当該処理は、ユーザに対して現在時刻をディスプレイ408に表示することを含みうる。これにより、以降の当該ユーザの動作が「時計を見る」ジェスチャに対応するとジェスチャ認識プロセッサ608により判断されると、現在時刻がユーザに対して表示されうる。
別実施例において、ジェスチャ認識プロセッサ608は、センサ装置600のタッチパターンに基づいて、センサデータからジェスチャを認識しうる。一実施例において、タッチパターンは、ユーザが装置400の外筐体をタッピングすることにより生成されうる。このタッピング動作は、少なくとも一つのセンサ602により検出されうる。一実施形態において、当該タッピングは、加速度計からのデータ出力における少なくとも一つのスパイクとして検出されうる。これにより、ジェスチャ認識プロセッサ608は、タッピングパターンを活動プロセッサ606により実行される少なくとも一つのパターンと対応付けうる。例えば、ジェスチャ認識プロセッサ608は、装置400の筐体に対する少なくとも一回のタップを表すセンサデータを加速度計から受け付けうる。これに応答して、ジェスチャ認識プロセッサ608は、受け付けた加速度計データを、メモリ610に保存された少なくとも一つのタッピングパターンと比較しうる。当該タッピングパターンは、少なくとも一つの加速度計閾値を含みうる。例えば受け付けたデータが複数の「スパイク」やピークを加速度計データに含み、それらの各継続時間が所定値以内であり、かつタッピングパターンとして保存されているものに対応する場合、ジェスチャ認識プロセッサ608は、加速度計から受け付けたデータが少なくとも一つのタッピングパターンに対応すると判断しうる。例えば、ジェスチャ認識プロセッサ608は、加速度計から受け付けたデータが二つの加速度計ピーク値を含み、それらの平均値が2.0G(Gは重力加速度)の閾値を上回り、かつ各継続時間が500ミリ秒以内である場合、当該データはタッピングパターンに対応すると判断しうる。
別実施例において、タッチパターンは、センサ装置600と動作可能に通信する少なくとも一つの容量センサをユーザがスワイプすることにより生成されうる。このように、タッチパターンは、少なくとも一つの容量センサを横切る所定のパターンに基づくユーザの指の少なくとも一本の動きから成りうる。
さらに別の実施例において、ジェスチャ認識プロセッサ608は、装置400内のセンサ装置600の向きに基づいてジェスチャを認識しうる。センサ装置600の向きは、特に加速度計、ジャイロスコープ、および磁気センサの少なくとも一つとして実現されたセンサ602から受け付けられうる。このように、ジェスチャ認識プロセッサ608は、センサ装置600の向きを表すデータをセンサ602から受け付け、当該センサデータをオリエンテーションジェスチャに対応付けうる。そして、当該オリエンテーションジェスチャは、ジェスチャ認識プロセッサ608を起動して活動プロセッサ606の動作モードを選択するための少なくとも一つの処理を実行させうる。一例において、装置400は、ユーザの手首に配置される。装置400は、ディスプレイ408が当該ユーザの手首の上側に来るように配置される。この場合、ユーザの手首の「上側」は、当該ユーザの手の甲とほぼ同一平面をなす手首の側として定義されうる。本例においては、オリエンテーションジェスチャは、ユーザが手首を回す(したがって、装置400のディスプレイ408が下方を向く)動作に対応付けられうる。オリエンテーションジェスチャの認識に応答して、ジェスチャ認識プロセッサ608は、特に活動プロセッサ606のサンプリングレートを上昇させるための少なくとも一つの処理を、精力的な活動期間に備えて実行しうる。別例においては、オリエンテーションジェスチャは、自転車のハンドルを握るユーザの手の向きに対応付けられうる。具体的には、特に第一グリップオリエンテーションジェスチャは、自転車でのスプリントに対応付けられ、第二グリップオリエンテーションジェスチャは、自転車でのヒルクライミングに対応付けられうる。また、本開示の範疇においてより多くのオリエンテーションジェスチャが定義されうることは、当業者であれば容易に理解できるであろう。
別実施形態において、ジェスチャ認識プロセッサ608は、センサ装置600がビーコンの近傍に位置することに対応するジェスチャを認識しうる。ビーコンは、センサ装置600が所定範囲内に位置することを検出可能であるトランシーバのような電子装置でありうる。ビーコンは、自身に対応付けられた少なくとも一つの情報を特定する情報を含む近距離信号を発しうる。この場合、ビーコンは、例えばマラソンやランニングレースのスタート地点、マラソンコースに沿って配置された距離マーカ、あるいはマラソンのゴール地点を表しうる。ビーコンに対応付けられた信号は、無線技術やプロトコルを用いて送信されうる。無線技術やプロトコルの例としては、特にWi−Fi、ブルートゥース、およびセルラネットワークの少なくとも一つが挙げられる。ビーコンから発せられた信号は、センサ装置600の送受信器614によって受信されうる。ビーコン信号が受信されると、送受信器614は、ジェスチャ認識プロセッサ608とデータ通信を行ないうる。これに応答して、ジェスチャ認識プロセッサ608は、受信されたデータを近傍ジェスチャとして特定しうる。本例においては、特定された近傍ジェスチャは、ユーザのマラソンランに係る経過時間を更新するように構成された少なくとも一つの処理と対応付けられうる。
さらに別の実施形態においては、近傍ジェスチャは、特に他のユーザや物体に接近するセンサ装置600に対応付けられうる。このように、近傍ジェスチャは、スポーツチームの一員として競い合う複数の個人に基づいて、あるいはランニングトラック上のビーコンを備えたスターティングブロックに近づくランナーなどに基づいて、例えば少なくとも一つの処理を実行するために使用されうる。
図7は、ジェスチャ認識トレーニング処理700を模式的に示すブロック図である。このジェスチャ認識トレーニング処理700は、特にジェスチャ認識プロセッサ608による「トレーニングモード」として実行されうる。具体的には、処理700は、ブロック702において始まり、ジェスチャ認識プロセッサ608によりトレーニングモードが開始される。トレーニングモードは、第一時点においてセンサ装置600が初期化されることに応答して、あるいはセンサ装置600の使用中における任意の時点で、新たなジェスチャパターンをメモリ610に保存するために開始されうる。したがって、これらの保存されたジェスチャパターンは、装置600の「通常」動作中にジェスチャ認識プロセッサ608により認識されうる。装置600の通常動作は、装置600の電源がオンされており、かつトレーニング処理700が実行されていない時点として定義されうる。
ジェスチャ認識トレーニング処理700の間、ジェスチャ認識プロセッサ608は、トレーニングジェスチャを連続的に複数回繰り返して行なうようユーザに指示しうる。一実施形態においては、ジェスチャに対応付けられた動きは、ユーザによって定義されうる。別実施形態においては、当該動きは、ユーザにより行なわれるものとしてジェスチャ認識プロセッサ608により事前設定されうる。処理700のブロック704は、ユーザがトレーニングジェスチャを連続的に複数回繰り返して行なうことを少なくとも含む。一実施例において、トレーニングジェスチャを連続的に繰り返す回数は、1回から10回の範囲でありうる。しかしながら、トレーニング処理700の間に行なわれるトレーニングジェスチャの繰り返し回数が任意であることは、当業者であれば容易に理解できるであろう。
ジェスチャ認識プロセッサ608は、行なわれたトレーニングジェスチャのサンプルを少なくとも一つメモリ610に保存しうる。処理700のブロック708において、少なくとも一つのトレーニングジェスチャに共通する特徴が、ジェスチャ認識プロセッサ608により特定されうる。具体的には、ブロック708は、行なわれたトレーニングジェスチャを特徴づけるセンサデータポイントを特定するためにジェスチャ認識プロセッサ608により実行される少なくとも一つの比較処理を表している。当該特徴は、少なくとも加速度データにおけるピークや、閾値を上回るジャイロスコープデータの変化などでありうる。ブロック708は、異なるレートでサンプリングされた少なくとも一つのトレーニングジェスチャ同士の比較も含みうる。このように、あるトレーニングジェスチャについて、ジェスチャ認識プロセッサ608は、活動プロセッサ606に関連付けられた高サンプリングレートを下回るサンプリングレートを特定しうる。このより低いサンプリングレートにおいても、あたかもセンサ602からのデータがより高いレートでサンプリングされたかのように、トレーニングジェスチャが認識されうる。ジェスチャ認識プロセッサ608は、より低いサンプリングレートをジェスチャサンプルとともに保存しうる。続いて、センサ装置600の通常動作中に受け付けられたセンサデータからのジェスチャ認識プロセッサ608によるジェスチャの認識に際し、ジェスチャ認識プロセッサ608は、データをより低いレートでサンプリングするよう活動プロセッサ606に命令しうる。これにより、活動プロセッサ606による電力消費が抑制される。
ブロック710は、少なくとも一つのジェスチャサンプルをメモリ610に保存することを表している。ジェスチャ認識プロセッサ608は、センサ装置600の通常動作中にセンサ602からデータを受け付けると、保存されたジェスチャサンプルのデータベースにポーリングしうる。ジェスチャサンプルは、少なくとも一つのセンサ種に関連付けられた少なくとも一つのセンサ値に対応する一連のデータポイントとして保存されうる。また、ジェスチャサンプルは、少なくとも一つの処理に対応付けられうる。これにより、受け付けられたセンサデータからのジェスチャ認識プロセッサ608によるジェスチャの認識に際し、ジェスチャ認識プロセッサ608は、少なくとも一つの関連する処理を実行するよう活動プロセッサ606に命令しうる。当該関連する処理は、センサ装置600を第一動作モードから第二動作モードへ遷移させる処理を少なくとも含みうる。
図8は、ジェスチャ認識処理800を模式的に示すブロック図である。一実施例において、ジェスチャ認識処理800は、ジェスチャ認識プロセッサ608により実行されうる。処理800は、センサ602からのデータの受け付けに応答して、ジェスチャ認識プロセッサ608により実行される。このセンサデータの受け付けは、ブロック802に示されている。前述のように、センサ602からのデータ出力は、デジタルまたはアナログでありうる。また、センサ602からのデータ出力は、連続的または断続的なデータストリームの形態でありうる。センサ602からのデータ出力は、少なくとも一つのデータポイントから成りうる。当該データポイントは、自身が生成されたセンサ種別の特定と、当該センサ種別の読み取りに対応する少なくとも一つの値を少なくとも含みうる。
処理800は、センサ602から受け付けた少なくとも一つのデータポイントのバッファリングを含みうる。これはブロック804に示されている。バッファ回路または少なくとも一つのバッファ処理が、受け付けた少なくとも一つのデータポイントを一時的に保存するために使用されうる。このように、ジェスチャ認識プロセッサ608または活動プロセッサ606は、センサ602から受け付けたデータを解析するために、バッファをポーリングしうる。
一実施例において、ジェスチャ認識プロセッサ608は、センサ602から受け付けたデータを、保存された少なくとも一つの動きパターンと比較する。これは処理800のブロック806に示されている。一実施形態においては、ジェスチャ認識プロセッサ608は、受け付けたデータからセンサ種別を特定する。これに応答して、ジェスチャ認識プロセッサ608は、特定されたセンサ種別に対応する保存された動きパターンについて、メモリ610をポーリングする。ポーリングされたメモリ610から当該特定されたセンサ種別に対応する保存された少なくとも一つの動きパターンの応答を得ると、ジェスチャ認識プロセッサ608は、当該保存された動きパターンにおいて上記の受け付けたデータに対応する一連のセンサ値を反復的に検索しうる。ジェスチャ認識プロセッサ608は、少なくとも当該受け付けたデータが保存された一連のセンサ値の範囲内にある場合、当該受け付けたデータが動きパターンに対応する保存された一連のセンサ値に対応していると判断しうる。別実施形態においては、ジェスチャ認識プロセッサ608は、特定されたセンサ種別に対応する動きパターンについてメモリ610をポーリングせず、受け付けたデータに対応している保存された動きパターンの反復的な検索を行なう。
別実施例において、ジェスチャ認識プロセッサ608は、センサ602から受け付けたデータを少なくとも一つの保存されたタッチパターンと比較するための少なくとも一つの処理を実行しうる。これは処理800のブロック808に示されている。少なくとも一つの保存されたタッチパターンは、センサ装置600をコンポーネントとして有する装置500の外筐体に対する一連のタップと少なくとも対応付けられうる。当該タッチパターンは、メモリ610のデータベースに保存されうる。これにより、ジェスチャ認識プロセッサ608は、センサ602からセンサデータを受け付けると、当該タッチパターンデータベースをポーリングしうる。一実施形態においては、ジェスチャ認識プロセッサ608は、センサ602からのデータ出力における少なくとも一つのピークを特定しうる。データ出力における少なくとも一つのピークは、センサ装置600に対する少なくとも一つの「タップ」を表しうる。これに応答して、ジェスチャ認識プロセッサ608は、センサ602から受け付けた出力データに対応する少なくとも一つのピークを有する少なくとも一つのタッチパターンについて、メモリ610をポーリングしうる。
別実施例においては、処理800のブロック810において、ジェスチャ認識プロセッサ608は、センサ装置600の向きに基づいてジェスチャを認識しうる。ジェスチャ認識プロセッサ608は、センサ602から受け付けたデータに基づいてセンサ装置600の向きを検出しうる。この場合、向きは、少なくとも加速度計、ジャイロスコープ、および磁気センサの少なくとも一つにより実現されるセンサ602から受け付けたデータから明らかでありうる。
さらに別の実施例においては、ジェスチャ認識プロセッサ608は、検出されたセンサ装置600とビーコンの近さに基づいてジェスチャを認識しうる。これは処理800のブロック812に示されている。一実施形態において、センサ602は、送受信器614を通じてセンサ装置600とビーコンの近さを表す信号を受信しうる。
ジェスチャ認識プロセッサ608は、センサ装置600(具体的には活動プロセッサ606)の動作モードを選択するための少なくとも一つの処理を実行しうる。動作モードの選択は、処理800のブロック816に示されている。また、動作モードの選択は、ジェスチャの開始に応答して行なわれうる。この場合、ジェスチャは、ブロック806、808、810、812に関連する少なくとも一つの処理に基づいて、ジェスチャ認識プロセッサ608によって認識されうる。一実施形態においては、活動プロセッサ606は、センサ装置600の初期化に際して、第一動作モードに関連付けられた少なくとも一つの処理を実行しうる。別実施形態においては、第一動作モードは、ジェスチャ認識プロセッサ608から活動プロセッサ606へ既定動作モードとして伝達されうる。ジェスチャの認識に際して、ジェスチャ認識プロセッサ608は、第二動作モードに関連付けられた少なくとも一つの処理を実行するよう活動プロセッサ606に命令しうる。センサ装置600における少なくとも一つのコンポーネントによって実行される多種の処理を動作モードが含みうることは、当業者であれば理解できるであろう。一例として、動作モードは、少なくとも一つの別センサからデータを受け付けるよう活動プロセッサ606に命令するための少なくとも一つの処理を含みうる。この場合、ジェスチャの認識に際して、活動プロセッサ606は、少なくとも一つの活動を認識するためにデータを受け付けるセンサの数や種別を変更するよう命令されうる。動作モードは、特に活動プロセッサ606がセンサ602からのデータをサンプリングするサンプリングレートを指定するための少なくとも一つの処理も含みうる。この場合、ジェスチャの認識に際して、ジェスチャ認識プロセッサ608により、活動プロセッサ606は、第二動作モードに関連付けられたサンプリングレートでデータをサンプリングするよう命令されうる。このサンプリングレートは、活動プロセッサ606による電力消費を抑制できるように、活動プロセッサ606のサンプリングレートの上限よりも低く設定されうる。
処理800のブロック814は、センサ602から受け付けたデータをフィルタリングするための少なくとも一つの処理を示している。データは、「プレフィルタ」として機能しうるフィルタ604によってフィルタリングされうる。プレフィルタリングにより、フィルタ604は、受け付けたデータが閾値を上回るまで活動プロセッサ606が休止状態または低電力状態でいることを許容しうる。したがって、フィルタ604は、閾値に対応する、あるいは閾値を上回るデータを受け付けると、「目覚まし」信号を活動プロセッサ606へ送りうる。
動作モードの選択に際して、活動プロセッサ606は、センサ602から受け付けたデータを分析しうる。この分析は、ブロック818に示されている。この場合、活動プロセッサ606は、ユーザにより行なわれている活動を認識するための少なくとも一つの処理を実行しうる。また、センサ602から活動プロセッサ606により受け付けられたデータは、ブロック814からブロック818への並行処理により示されるように、ジェスチャ認識プロセッサ608によって同時に受け付けられうる。
図9は、動作モード選択処理900を模式的に示すブロック図である。ブロック902は、センサ602からのデータの受け付けを示している。一実施例において、ジェスチャ認識プロセッサ608は、ブロック904に示されるように、受け付けたデータをバッファリングしうる。続いて、ジェスチャ認識プロセッサ608は、ブロック908に示されるように、また図8の処理800を参照して説明したように、受け付けたデータに対応するジェスチャを認識するための少なくとも一つの処理を実行しうる。
ブロック902において受け付けられたデータは、活動プロセッサ606に送られうる。当該受け付けられたデータは、ブロック910において活動プロセッサ606に送られる前に、ブロック906においてフィルタリングされうる。活動プロセッサ606は、ブロック910において、受け付けたデータから少なくとも一つの活動を認識するための少なくとも一つの処理を実行しうる。この活動認識は、ジェスチャ認識プロセッサ608によるジェスチャ認識と並行して遂行されうる。
処理900のブロック912は、ジェスチャ認識プロセッサ608による動作モードの選択を示している。動作モードの選択は、ブロック908において認識された少なくとも一つのジェスチャに基づきうるが、処理800のブロック816を参照して説明したように、ブロック910において認識された少なくとも一つの活動も考慮する。これにより、認識された少なくとも一つのジェスチャに基づいて第二動作モードが選択され、センサ装置600のユーザにより行なわれていると認識された少なくとも一つの活動に合わせて構成されうる。
例示の実施形態は、特定のジェスチャを行なうことでユーザが迅速かつ容易にセンサ装置(ユーザの腕に装備されるように構成された装置など)の動作モードを変更できるようにする。特定のジェスチャは、例えば、手首のフリック、装置のタップ、装置を特定の向きにすること、あるいはこれらの組合せでありうる。幾つかの実施形態において、動作モードは、省電力モードや、特定のデータを表示や出力するモードでありうる。これにより、身体活動に参加しているユーザは特に恩恵を受けうる。身体活動中においては、複数のボタン操作やタッチスクリーンの操作などは困難、危険、あるいは煩わしいものでありうるからである。例えば、ユーザがマラソンランを開始するとき、スタートボタンなどを押すのではなくジェスチャを行なうことによって高いサンプリングレートの動作モードに移行しうることは、有利である。また、ユーザがジェスチャを行なうことによって動作モードが変更されうるので、広範囲に並んだボタン群や複雑なタッチスクリーンディスプレイを備えるセンサ装置を提供する必要がない。これにより、装置の複雑性、コスト、電力消費の少なくとも一つが抑制されうる。
また、幾つかの実施形態において、センサ装置は、ジェスチャ認識と活動認識の少なくとも一方により、身体活動が開始されたことや終了されたことを認識しうる。この自動的認識に応答して、動作モードが変更されうる。例えば、身体活動が終了したとセンサ装置が認識あるいは判断したとき、電力消費が抑制される動作モードへ移行されうる。これにより、携帯型あるいは装備型の装置にとって特に重要である電池寿命が改善されうる。
センサ装置600は、取得した加速度データを複数のジェスチャの一つとして分類するように構成された分類モジュールを備えうる。センサ装置600は、分類された少なくとも一つのジェスチャに基づいてプロセッサの動作モードを選択するように構成された動作モード選択モジュールも備えうる。これらのモジュールは、ジェスチャ認識プロセッサ608の一部を形成しうる。
センサ装置600は、上記の加速度データに基づいて活動を認識するように構成された活動認識モジュールを備えうる。このモジュールは、活動プロセッサ606の一部を形成しうる。
上記の態様のいずれにおいても、様々な特徴は、ハードウェアとして実現されてもよいし、少なくとも一つのプロセッサ上で動作するソフトウェアモジュールとして実現されてもよい。ある態様における特徴は、他の態様にも適用されうる。
本開示に記載された方法を遂行するためのコンピュータプログラム、あるいはコンピュータプログラム製品、および開示に記載された方法を遂行するためのプログラムが記憶されたコンピュータが読み取り可能な媒体も提供されうる。コンピュータプログラムは、コンピュータが読み取り可能な媒体に記憶されてもよいし、例えばインターネットウェブサイトからダウンロード可能なデータ信号のような信号の形態であってもよいし、その他の形態であってもよい。
さらなる実施形態は、例示の項目を通じて以下に示される。
項目1
装置を動作させるためのコンピュータにより実現される方法であって、
(a)人に装備されるように構成されており、かつ第一動作モードで動作している前記装置に含まれるプロセッサにおいて、ユーザの腕の動きを表す加速度データを受け取り、
(b)プロセッサにおいて、前記(a)において受け付けた加速度データを複数のジェスチャの一つに分類し、
(c)分類されたジェスチャに基づいて、前記装置の第二動作モードに移行し、
(d)前記第二動作モードで動作している前記装置に含まれるプロセッサにおいて、ユーザの腕の動きを表す加速度データを受け取り、
(e)プロセッサにおいて、前記(d)において受け付けた加速度データを複数のジェスチャの一つに分類する、
コンピュータにより実現される方法。
項目2
前記(a)のプロセッサ、前記(b)のプロセッサ、前記(d)のプロセッサ、および前記(e)のプロセッサは、共通のプロセッサである、
項目1に記載のコンピュータにより実現される方法。
項目3
前記ジェスチャは、前記装置の動きパターンに基づいて分類される、
項目1に記載のコンピュータにより実現される方法。
項目4
前記ジェスチャは、前記ユーザによる前記装置に対するタッチパターンに基づいて分類される、
項目1に記載のコンピュータにより実現される方法。
項目5
前記タッチパターンは、前記ユーザによる前記装置に対する一連のタッピングである、
項目4に記載のコンピュータにより実現される方法。
項目6
前記ジェスチャは、前記装置の向きに基づいて分類される、
項目1に記載のコンピュータにより実現される方法。
項目7
前記ジェスチャは、ビーコンへの前記装置の近さに基づいて分類されうる、
項目1に記載のコンピュータにより実現される方法。
項目8
前記装置は、第一センサ装置であり、
前記ビーコンは、第二ユーザの第二装置に関連付けられている、
項目7に記載のコンピュータにより実現される方法。
項目9
前記ビーコンは、位置に関連付けられており、
前記装置は、前記ビーコンへの前記装置の近さに基づいて、前記位置に登録される、
項目7に記載のコンピュータにより実現される方法。
項目10
加速度計から取得された加速度データの第一の値を複数の閾値と比較し、
前記複数の閾値に含まれる第一の閾値に前記第一の値が対応すると判断し、
前記第一の値と前記第一の閾値の対応に基づいて、前記加速度データがジェスチャに分類される、
項目1に記載のコンピュータにより実現される方法。
項目11
ユーザの腕に装備されるように構成された単一装置であって、
プロセッサと、
コンピュータが実行可能な命令群を備えている非一時的かつコンピュータが読み取り可能な媒体と、
前記命令群が前記プロセッサにより実行されると、
前記プロセッサが取得された加速度データを受け付け、
前記プロセッサが前記加速度データを複数のジェスチャの一つに分類し、
分類されたジェスチャに基づいて前記プロセッサの動作モードを選択し、
前記プロセッサは、前記動作モードに基づいて加速度計からのデータをサンプリングする、
単一装置。
項目12
前記プロセッサは、前記分類されたジェスチャに基づいて、前記加速度計からのデータに対するサンプリングレートを選択する、
項目11に記載の単一装置。
項目13
前記動作モードは、前記プロセッサの電力消費レベルが低い休止モードである、
項目11に記載の単一装置。
項目14
前記動作モードは、前記プロセッサにより認識された活動に基づいて選択される、
項目11に記載の単一装置。
項目15
前記プロセッサは、前記分類されたジェスチャに基づいてユーザの動きデータを受け付ける第二センサを選択する、
項目11に記載の単一装置。
項目16
コンピュータが実行可能な命令群を備えている非一時的かつコンピュータが読み取り可能な媒体であって、
前記命令群がプロセッサに実行されると、
a)装置のセンサからユーザの動きデータを受け付け、
b)受け付けた動きデータからジェスチャを特定し、
c)前記b)において特定されたジェスチャに基づいて、前記装置の動作モードを調節する、
ように構成されている、
非一時的かつコンピュータが読み取り可能な媒体。
項目17
前記センサは、加速度計、ジャイロスコープ、力センサ、磁場センサ、GPSセンサ、および容量センサを含むグループから選ばれたものである、
項目16に記載の非一時的かつコンピュータが読み取り可能な媒体。
項目18
前記ジェスチャは、前記装置の動きパターンに基づいて特定される、
項目16に記載の非一時的かつコンピュータが読み取り可能な媒体。
項目19
前記ジェスチャは、前記ユーザによる前記装置に対するタッチパターンに基づいて特定される、
項目16に記載の非一時的かつコンピュータが読み取り可能な媒体。
項目20
前記ジェスチャは、前記装置の向きに基づいて特定される、
項目16に記載の非一時的かつコンピュータが読み取り可能な媒体。

Claims (24)

  1. ユーザに装備されるように構成されており、かつ加速度計を備えている装置を動作させるためのコンピュータにより実現される方法であって、
    (a)前記装置を第一動作モードで動作させ、
    (b)前記加速度計を用いて前記ユーザの腕の動きを表す加速度データを取得し、
    (c)前記(b)で取得された加速度データを複数のジェスチャの一つに分類し、
    (d)分類されたジェスチャに少なくとも基づいて第二動作モードに移行し、
    (e)前記加速度計を用いて前記ユーザの腕の動きを表す加速度データを取得し、
    (f)前記(b)で取得された加速度データを複数のジェスチャの一つに分類する、
    コンピュータにより実現される方法。
  2. 前記ジェスチャは、前記装置の動きパターンに基づいて分類される、
    請求項1に記載のコンピュータにより実現される方法。
  3. 前記ジェスチャは、前記ユーザによる前記装置に対するタッチパターンに基づいて分類される、
    請求項1または2に記載のコンピュータにより実現される方法。
  4. 前記タッチパターンは、前記ユーザによる前記装置に対する一連のタッピングである、
    請求項3に記載のコンピュータにより実現される方法。
  5. 前記ジェスチャは、前記装置の向きに基づいて分類される、
    請求項1から4のいずれか一項に記載のコンピュータにより実現される方法。
  6. 前記ジェスチャは、ビーコンへの前記装置の近さに基づいて分類されうる、
    請求項1から5のいずれか一項に記載のコンピュータにより実現される方法。
  7. 前記装置は、第一センサ装置であり、
    前記ビーコンは、第二ユーザの第二装置に関連付けられている、
    請求項6に記載のコンピュータにより実現される方法。
  8. 前記ビーコンは、位置に関連付けられており、
    前記装置は、前記ビーコンへの前記装置の近さに基づいて、前記位置に登録される、
    請求項6または7に記載のコンピュータにより実現される方法。
  9. 前記加速度計を用いて取得された加速度データの第一の値を複数の閾値と比較し、
    前記複数の閾値に含まれる第一の閾値に前記第一の値が対応すると判断し、
    前記第一の値と前記第一の閾値の対応に基づいて、前記加速度データがジェスチャに分類される、
    請求項1から8のいずれか一項に記載のコンピュータにより実現される方法。
  10. コンピュータが実行可能な命令群を備えている非一時的かつコンピュータが読み取り可能な媒体であって、
    前記命令群が実行されると、請求項1から9のいずれか一項に記載の方法を演算装置に実行させる、
    非一時的かつコンピュータが読み取り可能な媒体。
  11. ユーザの腕に装備されるように構成された単一装置であって、
    前記ユーザの腕から加速度データを取得するように構成されたセンサと、
    取得された前記加速度データを受け付けるように構成されたプロセッサと、
    取得された前記加速度データを複数のジェスチャの一つに分類するように構成された分類モジュールと、
    少なくとも分類されたジェスチャに基づいて前記プロセッサの動作モードを選択するように構成された動作モード選択モジュールと、
    を備えており、
    前記プロセッサは、前記動作モードに基づいて前記加速度計からのデータをサンプリングする、
    単一装置。
  12. 前記動作モード選択モジュールは、前記分類されたジェスチャに基づいて、前記加速度計からのデータに対するサンプリングレートを選択する、
    請求項11に記載の単一装置。
  13. 前記動作モードは、前記プロセッサの電力消費レベルが低い休止モードである、
    請求項11または12に記載の単一装置。
  14. 前記加速度データに基づいて活動を認識するように構成された活動認識モジュールを備えており、
    前記動作モード選択モジュールは、少なくとも認識された前記活動と前記分類されたジェスチャに基づいて動作モードを選択するように構成されている、
    請求項11または12に記載の単一装置。
  15. 前記ユーザから動きデータを取得するように構成された第二センサを備えており、
    前記プロセッサは、前記分類されたジェスチャに基づいて、前記第二センサから動きデータを受け付けることを選択する、
    請求項11から14のいずれか一項に記載の単一装置。
  16. 前記センサまたは前記第二センサは、加速度計、ジャイロスコープ、力センサ、磁場センサ、GPSセンサ、および容量センサを含むグループから選ばれたものである、
    請求項11から15のいずれか一項に記載の単一装置。
  17. リストバンドである、
    請求項11から16のいずれか一項に記載の単一装置。
  18. コンピュータが実行可能な命令群を備えている非一時的かつコンピュータが読み取り可能な媒体であって、
    前記命令群が実行されると、請求項11から17のいずれか一項に記載の単一装置として演算装置を機能させる、
    非一時的かつコンピュータが読み取り可能な媒体。
  19. センサを備えている装置を動作させるコンピュータにより実現される方法であって、
    前記センサからユーザの動きデータを受け付け、
    受け付けた前記動きデータからジェスチャを特定し、
    特定された前記ジェスチャに基づいて前記装置の動作モードを調節する、
    コンピュータにより実現される方法。
  20. 前記センサは、加速度計、ジャイロスコープ、力センサ、磁場センサ、GPSセンサ、および容量センサを含むグループから選ばれたものである、
    請求項19に記載のコンピュータにより実現される方法。
  21. 前記ジェスチャは、前記装置の動きパターンに基づいて分類される、
    請求項19または20に記載のコンピュータにより実現される方法。
  22. 前記ジェスチャは、前記ユーザによる前記装置に対するタッチパターンに基づいて分類される、
    請求項19から21のいずれか一項に記載のコンピュータにより実現される方法。
  23. 前記ジェスチャは、前記装置の向きに基づいて分類される、
    請求項19から22のいずれか一項に記載のコンピュータにより実現される方法。
  24. コンピュータが実行可能な命令群を備えている非一時的かつコンピュータが読み取り可能な媒体であって、
    前記命令群が実行されると、請求項19から23のいずれか一項に記載の方法を演算装置に実行させる、
    非一時的かつコンピュータが読み取り可能な媒体。
JP2016533423A 2013-08-07 2014-08-07 コンピュータにより実現される方法、非一時的かつコンピュータが読み取り可能な媒体、および単一装置 Active JP6539272B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201361863249P 2013-08-07 2013-08-07
US61/863,249 2013-08-07
PCT/US2014/050044 WO2015021223A1 (en) 2013-08-07 2014-08-07 Wrist-worn athletic device with gesture recognition and power management

Publications (2)

Publication Number Publication Date
JP2016529980A true JP2016529980A (ja) 2016-09-29
JP6539272B2 JP6539272B2 (ja) 2019-07-03

Family

ID=51422142

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016533423A Active JP6539272B2 (ja) 2013-08-07 2014-08-07 コンピュータにより実現される方法、非一時的かつコンピュータが読み取り可能な媒体、および単一装置

Country Status (6)

Country Link
US (4) US11243611B2 (ja)
EP (1) EP3030952B1 (ja)
JP (1) JP6539272B2 (ja)
KR (1) KR102033077B1 (ja)
CN (2) CN111258378A (ja)
WO (1) WO2015021223A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019130325A (ja) * 2017-11-02 2019-08-08 株式会社バンダイ 運動量測定システム、靴及びプログラム

Families Citing this family (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014042121A1 (ja) * 2012-09-12 2014-03-20 独立行政法人産業技術総合研究所 動作評価装置及びそのプログラム
JP6372077B2 (ja) * 2013-12-25 2018-08-15 セイコーエプソン株式会社 生体情報測定装置及び生体情報測定装置の制御方法
US9405377B2 (en) * 2014-03-15 2016-08-02 Microsoft Technology Licensing, Llc Trainable sensor-based gesture recognition
US20160091965A1 (en) * 2014-09-30 2016-03-31 Microsoft Corporation Natural motion-based control via wearable and mobile devices
US20160098160A1 (en) * 2014-10-04 2016-04-07 Erik Groset Sensor-based input system for mobile devices
US10310836B2 (en) 2015-05-29 2019-06-04 Nike, Inc. Athletic activity data device firmware update
US10045195B2 (en) 2015-05-29 2018-08-07 Nike, Inc. Athletic data aggregation and display system
EP3304953B1 (en) 2015-05-29 2021-05-12 Nike Innovate C.V. Transmitting athletic data using non-connected state of discovery signal
TWI621968B (zh) * 2016-02-05 2018-04-21 財團法人工業技術研究院 控制電子設備之方法及穿戴裝置
WO2017171858A1 (en) * 2016-04-01 2017-10-05 Intel Corporation Gesture capture
JP6789668B2 (ja) * 2016-05-18 2020-11-25 ソニーモバイルコミュニケーションズ株式会社 情報処理装置、情報処理システム、情報処理方法
CN106073703A (zh) * 2016-05-27 2016-11-09 重庆大学 一种基于LoRa技术的运动员生命体征监测系统
CN106066780B (zh) * 2016-06-06 2020-01-21 杭州网易云音乐科技有限公司 一种跑步数据处理方法和装置
CN106075839A (zh) * 2016-06-08 2016-11-09 深圳市元征科技股份有限公司 健身数据监控方法、装置及系统
US20180082033A1 (en) * 2016-09-22 2018-03-22 At&T Intellectual Property I, L.P. Method and apparatus for controlling an artificial respiratory device via a network
CN107870681A (zh) * 2016-09-23 2018-04-03 上海葡萄纬度科技有限公司 实时识别动作的方法以及相应的手环与计算设备
US10187504B1 (en) * 2016-09-23 2019-01-22 Apple Inc. Echo control based on state of a device
CN107271723B (zh) * 2017-05-16 2020-01-03 温胜洁 一种用于运动检测的三轴加速度数据的柔性滤波方法
CN107091638B (zh) * 2017-05-16 2020-01-03 温胜洁 一种用于运动检测的三轴加速度数据的均值滤波方法
KR102406511B1 (ko) 2017-07-04 2022-06-10 현대자동차주식회사 차량 시스템 및 그 제어 방법
CN108309232A (zh) * 2017-12-21 2018-07-24 北京城市系统工程研究中心 一种马甲式姿态稳定性快速检测装置及检测方法
CN108065469A (zh) * 2017-12-25 2018-05-25 珠海乐泰科技有限公司 一种智能篮球运动外衣及其使用方法
CN109325466B (zh) * 2018-10-17 2022-05-03 兰州交通大学 一种基于动作识别技术的智能运动指导系统及方法
IT201900019037A1 (it) * 2019-10-16 2021-04-16 St Microelectronics Srl Metodo perfezionato per rilevare un gesto di inclinazione del polso e unita' elettronica e dispositivo elettronico indossabile che implementano il medesimo
CN111854738A (zh) * 2020-06-22 2020-10-30 厦门亿联网络技术股份有限公司 一种基于三轴加速度计的人体运动状态检测方法及装置
TWI820347B (zh) * 2020-09-04 2023-11-01 仁寶電腦工業股份有限公司 行為識別方法、行為識別系統及手寫辨識系統
DE102021208686A1 (de) * 2020-09-23 2022-03-24 Robert Bosch Engineering And Business Solutions Private Limited Steuerung und verfahren zur gestenerkennung und gestenerkennungsvorrichtung
CN113426078B (zh) * 2021-07-27 2023-12-08 湖南大学 一种中风患者康复手环及系统
WO2024049986A1 (en) 2022-08-31 2024-03-07 Nike Innovate C.V. Electromechanical ambulatory assist device

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002171316A (ja) * 2000-11-30 2002-06-14 Toshiba Corp 移動通信端末
JP2006288970A (ja) * 2005-04-14 2006-10-26 Matsushita Electric Works Ltd 活動量計
JP2007006970A (ja) * 2005-06-28 2007-01-18 Toyota Motor Corp 生理・心理状態判定装置、生理・心理状態判定方法、リファレンスデータ生成装置、及びリファレンスデータ生成方法。
JP2010539617A (ja) * 2007-09-19 2010-12-16 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 異常状態検出方法及び装置
JP2011512222A (ja) * 2008-02-22 2011-04-21 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ ストレス及びリラクゼーション管理に関するシステム及びキット
JP2011200584A (ja) * 2010-03-26 2011-10-13 Gootech:Kk 動作判別装置、動作判別方法、及び動作判別コンピュータ・プログラム
JP2012024394A (ja) * 2010-07-26 2012-02-09 Nagoya Institute Of Technology 感覚統合運動機能の計測装置
US20130194066A1 (en) * 2011-06-10 2013-08-01 Aliphcom Motion profile templates and movement languages for wearable devices

Family Cites Families (152)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5903454A (en) * 1991-12-23 1999-05-11 Hoffberg; Linda Irene Human-factored interface corporating adaptive pattern recognition based controller apparatus
US8352400B2 (en) * 1991-12-23 2013-01-08 Hoffberg Steven M Adaptive pattern recognition based controller apparatus and method and human-factored interface therefore
US6115482A (en) * 1996-02-13 2000-09-05 Ascent Technology, Inc. Voice-output reading system with gesture-based navigation
US5977957A (en) * 1997-05-22 1999-11-02 Ericsson Inc. Adaptive sampling of touch screen input
US6249606B1 (en) * 1998-02-19 2001-06-19 Mindmaker, Inc. Method and system for gesture category recognition and training using a feature vector
US6681031B2 (en) * 1998-08-10 2004-01-20 Cybernet Systems Corporation Gesture-controlled interfaces for self-service machines and other applications
US6244873B1 (en) * 1998-10-16 2001-06-12 At&T Corp. Wireless myoelectric control apparatus and methods
US7183480B2 (en) * 2000-01-11 2007-02-27 Yamaha Corporation Apparatus and method for detecting performer's motion to interactively control performance of music or the like
US6720984B1 (en) * 2000-06-13 2004-04-13 The United States Of America As Represented By The Administrator Of The National Aeronautics And Space Administration Characterization of bioelectric potentials
GB0106037D0 (en) * 2001-03-12 2001-05-02 Univ Strathclyde Activity monitor
US6990639B2 (en) * 2002-02-07 2006-01-24 Microsoft Corporation System and process for controlling electronic components in a ubiquitous computing environment using multimodal integration
GB2400667B (en) * 2003-04-15 2006-05-31 Hewlett Packard Development Co Attention detection
US6847313B2 (en) * 2003-06-30 2005-01-25 Intel Corporation Rational sample rate conversion
US7565295B1 (en) * 2003-08-28 2009-07-21 The George Washington University Method and apparatus for translating hand gestures
US7433327B2 (en) * 2003-10-09 2008-10-07 Hewlett-Packard Development Company, L.P. Method and system for coordinating communication devices to create an enhanced representation of an ongoing event
KR20060099519A (ko) * 2003-10-27 2006-09-19 코닌클리즈케 필립스 일렉트로닉스 엔.브이. 제스처 신호 처리 장치 및 방법, 소프트웨어 프로그램,데이터 캐리어 및 핸드라이팅 인식 시스템
FI117308B (fi) * 2004-02-06 2006-08-31 Nokia Corp Eleohjausjärjestelmä
US7379563B2 (en) * 2004-04-15 2008-05-27 Gesturetek, Inc. Tracking bimanual movements
US20060028429A1 (en) * 2004-08-09 2006-02-09 International Business Machines Corporation Controlling devices' behaviors via changes in their relative locations and positions
RO121497B1 (ro) * 2005-02-09 2007-06-29 Softwin S.R.L. Sistem informatic şi metodă pentru achiziţia, analiza şi autentificarea semnăturii olografe
US8147248B2 (en) * 2005-03-21 2012-04-03 Microsoft Corporation Gesture training
US7733224B2 (en) * 2006-06-30 2010-06-08 Bao Tran Mesh network personal emergency response appliance
US9060683B2 (en) * 2006-05-12 2015-06-23 Bao Tran Mobile wireless appliance
US8902154B1 (en) * 2006-07-11 2014-12-02 Dp Technologies, Inc. Method and apparatus for utilizing motion user interface
US7725547B2 (en) * 2006-09-06 2010-05-25 International Business Machines Corporation Informing a user of gestures made by others out of the user's line of sight
US8005257B2 (en) * 2006-10-05 2011-08-23 The United States Of America As Represented By The Secretary Of The Navy Gesture recognition apparatus and method
KR100783552B1 (ko) * 2006-10-11 2007-12-07 삼성전자주식회사 휴대 단말기의 입력 제어 방법 및 장치
US20080129694A1 (en) * 2006-11-30 2008-06-05 Liberty Reach Inc. Keyless user interface device
US8082122B2 (en) * 2006-12-12 2011-12-20 Samsung Electronics Co., Ltd. Mobile device having a motion detector
US7653508B1 (en) * 2006-12-22 2010-01-26 Dp Technologies, Inc. Human activity monitoring device
US9311528B2 (en) * 2007-01-03 2016-04-12 Apple Inc. Gesture learning
US20090265671A1 (en) * 2008-04-21 2009-10-22 Invensense Mobile devices with motion gesture recognition
US8952832B2 (en) * 2008-01-18 2015-02-10 Invensense, Inc. Interfacing application programs and motion sensors of a device
US7770136B2 (en) * 2007-01-24 2010-08-03 Microsoft Corporation Gesture recognition interactive feedback
WO2008107737A1 (en) * 2007-03-05 2008-09-12 Nokia Corporation Providing feedback in an electronic circuit
US7753861B1 (en) * 2007-04-04 2010-07-13 Dp Technologies, Inc. Chest strap having human activity monitoring device
EP2149068B1 (en) * 2007-04-23 2021-06-09 Huawei Technologies Co., Ltd. Eyewear having human activity monitoring device
US8896529B2 (en) * 2007-08-01 2014-11-25 Nokia Corporation Apparatus, methods, and computer program products providing context-dependent gesture recognition
US9149222B1 (en) * 2008-08-29 2015-10-06 Engineering Acoustics, Inc Enhanced system and method for assessment of disequilibrium, balance and motion disorders
US20120094814A1 (en) * 2007-09-01 2012-04-19 Balancesense Llc Method and apparatus for vibrotactile motional training employing cognitive spatial activity
US8225343B2 (en) * 2008-01-11 2012-07-17 Sony Computer Entertainment America Llc Gesture cataloging and recognition
US8064560B2 (en) * 2008-02-05 2011-11-22 Honeywell International Inc. Systems and methods for detecting a signal across multiple Nyquist bands
US8555207B2 (en) * 2008-02-27 2013-10-08 Qualcomm Incorporated Enhanced input using recognized gestures
US9772689B2 (en) * 2008-03-04 2017-09-26 Qualcomm Incorporated Enhanced gesture-based image manipulation
WO2009115799A1 (en) * 2008-03-18 2009-09-24 Elliptic Laboratories As Object and movement detection
WO2009126279A1 (en) * 2008-04-09 2009-10-15 Eveready Battery Company, Inc. Device operation using a force sensor
US20090271004A1 (en) * 2008-04-28 2009-10-29 Reese Zecchin Method and apparatus for ranging detection of gestures
US8320578B2 (en) * 2008-04-30 2012-11-27 Dp Technologies, Inc. Headset
US8996332B2 (en) * 2008-06-24 2015-03-31 Dp Technologies, Inc. Program setting adjustments based on activity identification
US8447704B2 (en) * 2008-06-26 2013-05-21 Microsoft Corporation Recognizing gestures from forearm EMG signals
EP3666347B1 (en) * 2008-11-25 2021-10-20 Fox Factory, Inc. Computer usable storage medium for virtual competition
GB2465824B (en) * 2008-12-03 2011-04-06 James Christopher Irlam Motion analysis device for sports
WO2010090867A2 (en) * 2009-01-21 2010-08-12 SwimSense, LLC Multi-state performance monitoring system
EP2398383A4 (en) 2009-02-20 2013-07-03 Univ Colorado Regents ARTICLE BASED BODY WEIGHT MONITOR AND POSITIONING INSTRUCTION, CLASSIFICATION OF BODY ACTIVITIES AND ENERGY CONSUMPTION CALCULATOR
US20100306716A1 (en) * 2009-05-29 2010-12-02 Microsoft Corporation Extending standard gestures
EP2452258B1 (en) * 2009-07-07 2019-01-23 Elliptic Laboratories AS Control using movements
US9000887B2 (en) * 2009-07-23 2015-04-07 Qualcomm Incorporated Method and apparatus for communicating control information by a wearable device to control mobile and consumer electronic devices
US8341558B2 (en) * 2009-09-16 2012-12-25 Google Inc. Gesture recognition on computing device correlating input to a template
FR2950713A1 (fr) * 2009-09-29 2011-04-01 Movea Sa Systeme et procede de reconnaissance de gestes
US9338274B2 (en) * 2009-10-02 2016-05-10 Blackberry Limited Method of interacting with electronic devices in a locked state and handheld electronic device configured to permit interaction when in a locked state
US9174123B2 (en) * 2009-11-09 2015-11-03 Invensense, Inc. Handheld computer systems and techniques for character and command recognition related to human movements
US9008973B2 (en) * 2009-11-09 2015-04-14 Barry French Wearable sensor system with gesture recognition for measuring physical performance
US8436821B1 (en) * 2009-11-20 2013-05-07 Adobe Systems Incorporated System and method for developing and classifying touch gestures
KR101688655B1 (ko) * 2009-12-03 2016-12-21 엘지전자 주식회사 사용자의 프레전스 검출에 의한 제스쳐 인식 장치의 전력 제어 방법
US8406085B2 (en) * 2009-12-21 2013-03-26 Masami Sakita Swim device
US8432368B2 (en) * 2010-01-06 2013-04-30 Qualcomm Incorporated User interface methods and systems for providing force-sensitive input
US8579834B2 (en) * 2010-01-08 2013-11-12 Medtronic, Inc. Display of detected patient posture state
WO2011094900A1 (en) 2010-02-08 2011-08-11 Telefonaktiebolaget L M Ericsson (Publ) Handling ics enhanced and non enhanced msc in a pool
US8499257B2 (en) * 2010-02-09 2013-07-30 Microsoft Corporation Handles interactions for human—computer interface
US20110199292A1 (en) * 2010-02-18 2011-08-18 Kilbride Paul E Wrist-Mounted Gesture Device
US20110214082A1 (en) * 2010-02-28 2011-09-01 Osterhout Group, Inc. Projection triggering through an external marker in an augmented reality eyepiece
US9075446B2 (en) * 2010-03-15 2015-07-07 Qualcomm Incorporated Method and apparatus for processing and reconstructing data
CA2796451A1 (en) * 2010-04-16 2011-10-20 Nicholas J. Mastandrea Wearable motion sensing computing interface
US8760392B2 (en) * 2010-04-20 2014-06-24 Invensense, Inc. Wireless motion processing sensor systems suitable for mobile and battery operation
US8284847B2 (en) * 2010-05-03 2012-10-09 Microsoft Corporation Detecting motion for a multifunction sensor device
US20130120282A1 (en) * 2010-05-28 2013-05-16 Tim Kukulski System and Method for Evaluating Gesture Usability
US20120016641A1 (en) * 2010-07-13 2012-01-19 Giuseppe Raffa Efficient gesture processing
US9055925B2 (en) * 2010-07-27 2015-06-16 Carefusion 303, Inc. System and method for reducing false alarms associated with vital-signs monitoring
US20120034888A1 (en) * 2010-08-05 2012-02-09 Franco De Flaviis Method and System for Utilizing a Touchscreen Interface as an Antenna
US9076041B2 (en) * 2010-08-26 2015-07-07 Blast Motion Inc. Motion event recognition and video synchronization system and method
WO2012028884A1 (en) * 2010-09-02 2012-03-08 Elliptic Laboratories As Motion feedback
US8954291B2 (en) * 2010-09-30 2015-02-10 Fitbit, Inc. Alarm setting and interfacing with gesture contact interfacing controls
US8954290B2 (en) * 2010-09-30 2015-02-10 Fitbit, Inc. Motion-activated display of messages on an activity monitoring device
US10216893B2 (en) * 2010-09-30 2019-02-26 Fitbit, Inc. Multimode sensor devices
US9167991B2 (en) * 2010-09-30 2015-10-27 Fitbit, Inc. Portable monitoring devices and methods of operating same
US8768006B2 (en) * 2010-10-19 2014-07-01 Hewlett-Packard Development Company, L.P. Hand gesture recognition
US20120114181A1 (en) * 2010-11-01 2012-05-10 Borthwick James R Vehicle pose estimation and load profiling
US9011292B2 (en) * 2010-11-01 2015-04-21 Nike, Inc. Wearable device assembly having athletic functionality
AU2011324808A1 (en) * 2010-11-04 2013-06-27 Yoram Feldman Computer aided analysis and monitoring of mobility abnormalities in human patients
US20120131513A1 (en) * 2010-11-19 2012-05-24 Microsoft Corporation Gesture Recognition Training
US8786547B2 (en) * 2010-12-23 2014-07-22 Microsoft Corporation Effects of gravity on gestures
US9030405B2 (en) * 2011-02-04 2015-05-12 Invensense, Inc. High fidelity remote controller device for digital living room
US20120220233A1 (en) * 2011-02-28 2012-08-30 Qualcomm Incorporated Ranging with body motion capture
FI20115301A0 (fi) * 2011-03-30 2011-03-30 Polar Electro Oy Menetelmä harjoituslaitteen kalibroimiseksi
US20120259652A1 (en) * 2011-04-07 2012-10-11 Full Recovery, Inc. Systems and methods for remote monitoring, management and optimization of physical therapy treatment
US8352639B2 (en) * 2011-05-06 2013-01-08 Research In Motion Limited Method of device selection using sensory input and portable electronic device configured for same
US20120293404A1 (en) * 2011-05-19 2012-11-22 Panasonic Corporation Low Cost Embedded Touchless Gesture Sensor
US9110510B2 (en) * 2011-06-03 2015-08-18 Apple Inc. Motion pattern classification and gesture recognition
US20130176142A1 (en) 2011-06-10 2013-07-11 Aliphcom, Inc. Data-capable strapband
US20120316455A1 (en) * 2011-06-10 2012-12-13 Aliphcom Wearable device and platform for sensory input
US9218058B2 (en) * 2011-06-16 2015-12-22 Daniel Bress Wearable digital input device for multipoint free space data collection and analysis
US9417754B2 (en) * 2011-08-05 2016-08-16 P4tents1, LLC User interface system, method, and computer program product
US8793118B2 (en) * 2011-11-01 2014-07-29 PES School of Engineering Adaptive multimodal communication assist system
US9575544B2 (en) * 2011-11-07 2017-02-21 Qualcomm Incorporated Ultrasound based mobile receivers in idle mode
US8958631B2 (en) * 2011-12-02 2015-02-17 Intel Corporation System and method for automatically defining and identifying a gesture
US20130158686A1 (en) * 2011-12-02 2013-06-20 Fitlinxx, Inc. Intelligent activity monitor
US9734304B2 (en) * 2011-12-02 2017-08-15 Lumiradx Uk Ltd Versatile sensors with data fusion functionality
US20150119728A1 (en) * 2011-12-02 2015-04-30 Fitlinxx, Inc. Health monitor
US9424397B2 (en) * 2011-12-22 2016-08-23 Adidas Ag Sports monitoring system using GPS with location beacon correction
US9014681B2 (en) * 2011-12-27 2015-04-21 Sony Corporation Establishing a communication connection between two devices based on device displacement information
US9352207B2 (en) * 2012-01-19 2016-05-31 Nike, Inc. Action detection and activity classification
KR101789462B1 (ko) * 2012-01-19 2017-10-23 나이키 이노베이트 씨.브이. 에너지 소비
US8791913B2 (en) * 2012-01-26 2014-07-29 Honeywell International Inc. Adaptive gesture recognition system and method for unstable work environments
US9024958B2 (en) * 2012-01-30 2015-05-05 Lenovo (Singapore) Pte. Ltd. Buffering mechanism for camera-based gesturing
US8638190B1 (en) * 2012-02-02 2014-01-28 Google Inc. Gesture detection using an array of short-range communication devices
US9600169B2 (en) * 2012-02-27 2017-03-21 Yahoo! Inc. Customizable gestures for mobile devices
KR102000295B1 (ko) * 2012-04-11 2019-10-01 유니버시티 오브 써던 캘리포니아 모바일 애플리케이션에 의해 요청된 서비스를 위한 가장 에너지 효율적인 방법의 실시간 선택
US8954135B2 (en) * 2012-06-22 2015-02-10 Fitbit, Inc. Portable biometric monitoring devices and methods of operating same
US9168419B2 (en) * 2012-06-22 2015-10-27 Fitbit, Inc. Use of gyroscopes in personal fitness tracking devices
US9599632B2 (en) * 2012-06-22 2017-03-21 Fitbit, Inc. Fitness monitoring device with altimeter
US9726498B2 (en) * 2012-11-29 2017-08-08 Sensor Platforms, Inc. Combining monitoring sensor measurements and system signals to determine device context
US9689887B1 (en) * 2012-12-07 2017-06-27 Amazon Technologies, Inc. Fall event monitoring
WO2014092437A1 (en) * 2012-12-10 2014-06-19 Samsung Electronics Co., Ltd. Mobile device of bangle type, control method thereof, and ui display method
JP5737277B2 (ja) * 2012-12-13 2015-06-17 カシオ計算機株式会社 情報表示装置及びプログラム
US9746926B2 (en) * 2012-12-26 2017-08-29 Intel Corporation Techniques for gesture-based initiation of inter-device wireless connections
US9459697B2 (en) * 2013-01-15 2016-10-04 Leap Motion, Inc. Dynamic, free-space user interactions for machine control
US10250463B2 (en) * 2013-01-31 2019-04-02 General Electric Company Methods and systems for online monitoring using a variable data sampling rate
US9268434B2 (en) * 2013-02-14 2016-02-23 Dell Products L.P. Systems and methods for reducing power consumption in a touch sensor display
US20140236529A1 (en) * 2013-02-18 2014-08-21 Motorola Mobility Llc Method and Apparatus for Determining Displacement from Acceleration Data
CN104010125B (zh) * 2013-02-22 2017-11-28 联想(北京)有限公司 电子设备和方法
US9442570B2 (en) * 2013-03-13 2016-09-13 Google Technology Holdings LLC Method and system for gesture recognition
US20140288876A1 (en) * 2013-03-15 2014-09-25 Aliphcom Dynamic control of sampling rate of motion to modify power consumption
US9661221B2 (en) * 2013-03-15 2017-05-23 Qualcomm Incorporated Always-on camera sampling strategies
CN105473021B (zh) * 2013-03-15 2018-01-19 智能专利有限责任公司 可穿戴设备及相关系统
US20140278219A1 (en) * 2013-03-15 2014-09-18 Focus Ventures, Inc. System and Method For Monitoring Movements of a User
US9885734B2 (en) * 2013-05-08 2018-02-06 Cm Hk Limited Method of motion processing and related mobile device and microcontroller unit
US9342737B2 (en) 2013-05-31 2016-05-17 Nike, Inc. Dynamic sampling in sports equipment
US9582034B2 (en) * 2013-11-29 2017-02-28 Motiv, Inc. Wearable computing device
US9782104B2 (en) * 2014-03-26 2017-10-10 GestureLogic Inc. Systems, methods and devices for acquiring and processing physiological signals
US10575760B2 (en) * 2014-03-26 2020-03-03 GestureLogic Inc. Systems, methods and devices for activity recognition
US10222868B2 (en) * 2014-06-02 2019-03-05 Samsung Electronics Co., Ltd. Wearable device and control method using gestures
US9894009B2 (en) * 2014-08-29 2018-02-13 Microsoft Technology Licensing, Llc Client device and host device subscriptions
WO2016164485A1 (en) * 2015-04-08 2016-10-13 Amiigo, Inc. Dynamic adjustment of sampling rate based on a state of the user
US10859675B2 (en) * 2015-04-20 2020-12-08 Resmed Sensor Technologies Limited Gesture recognition with sensors
US9724562B2 (en) * 2015-05-28 2017-08-08 Nike, Inc. Wearable USB device assembly
US10416740B2 (en) * 2015-08-26 2019-09-17 Google Llc Upsampling sensors to auto-detect a fitness activity
US10338686B2 (en) * 2016-03-31 2019-07-02 Disney Enterprises, Inc. Control system using aesthetically guided gesture recognition
US9971960B2 (en) * 2016-05-26 2018-05-15 Xesto Inc. Method and system for providing gesture recognition services to user applications
EP3548994B1 (en) * 2016-12-02 2021-08-11 Pison Technology, Inc. Detecting and using body tissue electrical signals
US20190187834A1 (en) * 2017-12-19 2019-06-20 North Inc. Wearable electronic devices having an inward facing input device and methods of use thereof
US11673024B2 (en) * 2018-01-22 2023-06-13 Pg Tech, Llc Method and system for human motion analysis and instruction
US10545558B1 (en) * 2019-01-25 2020-01-28 BioMech Sensor LLC Systems and methods for elastic delivery, processing, and storage for wearable devices based on system resources

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002171316A (ja) * 2000-11-30 2002-06-14 Toshiba Corp 移動通信端末
JP2006288970A (ja) * 2005-04-14 2006-10-26 Matsushita Electric Works Ltd 活動量計
JP2007006970A (ja) * 2005-06-28 2007-01-18 Toyota Motor Corp 生理・心理状態判定装置、生理・心理状態判定方法、リファレンスデータ生成装置、及びリファレンスデータ生成方法。
JP2010539617A (ja) * 2007-09-19 2010-12-16 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 異常状態検出方法及び装置
JP2011512222A (ja) * 2008-02-22 2011-04-21 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ ストレス及びリラクゼーション管理に関するシステム及びキット
JP2011200584A (ja) * 2010-03-26 2011-10-13 Gootech:Kk 動作判別装置、動作判別方法、及び動作判別コンピュータ・プログラム
JP2012024394A (ja) * 2010-07-26 2012-02-09 Nagoya Institute Of Technology 感覚統合運動機能の計測装置
US20130194066A1 (en) * 2011-06-10 2013-08-01 Aliphcom Motion profile templates and movement languages for wearable devices

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019130325A (ja) * 2017-11-02 2019-08-08 株式会社バンダイ 運動量測定システム、靴及びプログラム
JP7086019B2 (ja) 2017-11-02 2022-06-17 株式会社バンダイ 運動量測定システム

Also Published As

Publication number Publication date
US11861073B2 (en) 2024-01-02
US20240085988A1 (en) 2024-03-14
JP6539272B2 (ja) 2019-07-03
EP3030952B1 (en) 2021-03-10
US11513610B2 (en) 2022-11-29
CN105612475B (zh) 2020-02-11
EP3030952A1 (en) 2016-06-15
US20150046886A1 (en) 2015-02-12
US20230048187A1 (en) 2023-02-16
WO2015021223A1 (en) 2015-02-12
US11243611B2 (en) 2022-02-08
KR102033077B1 (ko) 2019-10-16
US20220121291A1 (en) 2022-04-21
KR20160042025A (ko) 2016-04-18
CN111258378A (zh) 2020-06-09
CN105612475A (zh) 2016-05-25

Similar Documents

Publication Publication Date Title
US11861073B2 (en) Gesture recognition
JP6445539B2 (ja) 動的サンプリング
US10293208B2 (en) Wearable USB device assembly
KR101830558B1 (ko) 목표 동기부여를 제공하도록 구성되는 피트니스 디바이스
TWI638280B (zh) 自動配置感測器的方法、電子設備及記錄媒體
JP6508061B2 (ja) 情報処理装置、情報処理方法、およびプログラム
KR20170101996A (ko) 다수의 디바이스들로부터의 데이터를 이용한 에너지 소비량 계산
KR102070351B1 (ko) 다수의 디바이스들로부터의 데이터를 이용한 에너지 소비량 계산

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170228

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170314

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170614

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20171129

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20180223

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180423

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20181002

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190131

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20190208

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190423

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20190521

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190607

R150 Certificate of patent or registration of utility model

Ref document number: 6539272

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250