JP6308306B2 - ウエアラブルデバイスの着用状態の処理方法及び装置 - Google Patents

ウエアラブルデバイスの着用状態の処理方法及び装置 Download PDF

Info

Publication number
JP6308306B2
JP6308306B2 JP2016559259A JP2016559259A JP6308306B2 JP 6308306 B2 JP6308306 B2 JP 6308306B2 JP 2016559259 A JP2016559259 A JP 2016559259A JP 2016559259 A JP2016559259 A JP 2016559259A JP 6308306 B2 JP6308306 B2 JP 6308306B2
Authority
JP
Japan
Prior art keywords
wearable device
angle
wearing state
wearing
worn
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2016559259A
Other languages
English (en)
Other versions
JP2017513130A (ja
Inventor
ウ、リンシャオ
ヤン、ウェンウェン
Original Assignee
ベイジン ギャラクシー ライタイ テクノロジー カンパニー リミテッド
ベイジン ギャラクシー ライタイ テクノロジー カンパニー リミテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ベイジン ギャラクシー ライタイ テクノロジー カンパニー リミテッド, ベイジン ギャラクシー ライタイ テクノロジー カンパニー リミテッド filed Critical ベイジン ギャラクシー ライタイ テクノロジー カンパニー リミテッド
Publication of JP2017513130A publication Critical patent/JP2017513130A/ja
Application granted granted Critical
Publication of JP6308306B2 publication Critical patent/JP6308306B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/107Measuring physical dimensions, e.g. size of the entire body or parts thereof
    • A61B5/1071Measuring physical dimensions, e.g. size of the entire body or parts thereof measuring angles, e.g. using goniometers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/014Hand-worn input/output arrangements, e.g. data gloves
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/1116Determining posture transitions
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/68Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient
    • A61B5/6801Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient specially adapted to be attached to or worn on the body surface
    • A61B5/6802Sensor mounted on worn items
    • A61B5/681Wristwatch-type devices
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/70Means for positioning the patient in relation to the detecting, measuring or recording means
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C19/00Gyroscopes; Turn-sensitive devices using vibrating masses; Turn-sensitive devices without moving masses; Measuring angular rate using gyroscopic effects
    • G01C19/56Turn-sensitive devices using vibrating masses, e.g. vibratory angular rate sensors based on Coriolis forces
    • G01C19/5776Signal processing not specific to any of the devices covered by groups G01C19/5607 - G01C19/5719
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C25/00Manufacturing, calibrating, cleaning, or repairing instruments or devices referred to in the other groups of this subclass
    • GPHYSICS
    • G04HOROLOGY
    • G04CELECTROMECHANICAL CLOCKS OR WATCHES
    • G04C3/00Electromechanical clocks or watches independent of other time-pieces and in which the movement is maintained by electric means
    • G04C3/001Electromechanical switches for setting or display
    • G04C3/002Position, e.g. inclination dependent switches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/163Wearable computers, e.g. on a belt
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/038Control and interface arrangements therefor, e.g. drivers or device-embedded control circuitry
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H40/00ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices
    • G16H40/60ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices
    • G16H40/63ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices for local operation
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B2562/00Details of sensors; Constructional details of sensor housings or probes; Accessories for sensors
    • A61B2562/02Details of sensors specially adapted for in-vivo measurements
    • A61B2562/0219Inertial sensors, e.g. accelerometers, gyroscopes, tilt switches
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Biomedical Technology (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • Pathology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Human Computer Interaction (AREA)
  • Dentistry (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Computer Hardware Design (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Physiology (AREA)
  • Business, Economics & Management (AREA)
  • Primary Health Care (AREA)
  • General Business, Economics & Management (AREA)
  • Epidemiology (AREA)
  • Signal Processing (AREA)
  • Manufacturing & Machinery (AREA)
  • User Interface Of Digital Computer (AREA)
  • Automation & Control Theory (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Description

本出願は、出願日が2014年12月09日で、出願番号が201410750858.Xで、発明名称が「ウエアラブルデバイスの着用状態の処理方法及び装置」である中国特許出願の優先権を要求する。
本発明は、通信技術に関し、特にウエアラブルデバイスの着用状態の処理方法及び装置に関する。
ウエアラブルデバイスとは、直接に体に着る、またはユーザーの着物またはオーナメントに統合される携帯デバイスであり、例えば、スマートブレスレット、スマートウォッチ、スマートネックレス、スマート眼鏡、スマート指輪などがある。ウエアラブルデバイスは、ハードウェアデバイスだけではなく、さらにソフトウェアの支援及びデータエクスチェンジなどの技術によって強大な機能を実現し、人間の生活と認識に大きい変化を与えられる。
しかし、ユーザーのウエアラブルデバイスを着用する自由性によって、ウエアラブルデバイスの実際の着用状態が理想的な着用状態と一致していなく、ウエアラブルデバイスの作動要求、例えば人体の特定部位のデータを採集する要求などを満足できなく、ウエアラブルデバイスの信頼性を低減させる。そのため、ウエアラブルデバイスの着用状態を獲得し、ウエアラブルデバイスの実際の着用状態が理想的な着用状態と一致しているかを確定する方法を提供する必要がある。
本発明の複数の方面は、ウエアラブルデバイスの着用状態を獲得するためのウエアラブルデバイスの着用状態の処理方法及び装置を提供する。
本発明の一方面で提供するウエアラブルデバイスの着用状態の処理方法は、
ユーザーが着用したウエアラブルデバイスの空間四元数パラメータを獲得し、
前記空間四元数パラメータに基づいて、前記ウエアラブルデバイスの姿勢角度を獲得し、
前記ウエアラブルデバイスの姿勢角度に基づいて、前記ウエアラブルデバイスの測定着用状態を獲得することを含む。
前記の方面といずれの可能な実現方式は、さらに以下の実現方式を提供する。前記ユーザーが着用したウエアラブルデバイスの空間四元数パラメータを獲得するには、
第一センサー装置で、ユーザーが着用したウエアラブルデバイスの空間四元数パラメータを獲得すること、または、
第二センサー装置で、ユーザーが着用したウエアラブルデバイスのセンスデータを獲得すること、
及び前記センスデータに基づいて、前記空間四元数パラメータを獲得することを含む。
前記の方面といずれの可能な実現方式は、さらに以下の実現方式を提供する。前記ウエアラブルデバイスの姿勢角度はウエアラブルデバイスのロール角を含み、前記ウエアラブルデバイスの姿勢角度に基づいて、前記ウエアラブルデバイスの測定着用状態を獲得するには、
前記ウエアラブルデバイスが着用された体の部位で第一位置にある時のロール角に基づいて、前記ウエアラブルデバイスの着用角度を獲得することを含む。
前記の方面といずれの可能な実現方式は、さらに以下の実現方式を提供する。前記ウエアラブルデバイスの姿勢角度に基づいて、前記ウエアラブルデバイスの測定着用状態を獲得するには、
前記ウエアラブルデバイスが着用された体の部位で前記第一位置にある時のロール角と前記ウエアラブルデバイスが着用された体の部位で第二位置にある時のロール角に基づいて、前記ウエアラブルデバイスの回転変化量を獲得し、
前記ウエアラブルデバイスの回転変化量に基づいて、前記ウエアラブルデバイスの回転方向を獲得し、
前記ウエアラブルデバイスの回転方向に基づいて、前記ウエアラブルデバイスの着用部位を獲得することを含む。
前記の方面といずれの可能な実現方式は、さらに以下の実現方式を提供する。前記着用部位は左腕または右腕を含み、前記ウエアラブルデバイスが着用された体の部位で前記第一位置にある時のロール角と前記ウエアラブルデバイスが着用された体の部位で第二位置にある時のロール角に基づいて、前記ウエアラブルデバイスの回転変化量を獲得してから、さらに、
肘と手腕との間の距離、手腕が180°回転する時に肘が回転した角度と前記ウエアラブルデバイスの回転変化量に基づいて、前記ウエアラブルデバイスの前記着用部位の位置を獲得することを含む。
前記の方面といずれの可能な実現方式は、さらに以下の実現方式を提供する。前記ウエアラブルデバイスの姿勢角度に基づいて、前記ウエアラブルデバイスの測定着用状態を獲得してから、
前記ウエアラブルデバイスの基準着用状態を獲得し、
前記基準着用状態と前記測定着用状態に基づいて、着用調整指示を生成して、ユーザーに前記ウエアラブルデバイスを調整させ、また前記着用調整指示を出力させ、または
前記基準着用状態と前記測定着用状態に基づいて、データ調整指示を生成して、前記データ調整指示に基づいて、前記ウエアラブルデバイスが収集した測定データを調整させることを含む。
本発明の他の一方面で提供するウエアラブルデバイスの着用状態の処理装置は、
ユーザーが着用したウエアラブルデバイスの空間四元数パラメータを獲得する収集手段と、
前記空間四元数パラメータに基づいて、前記ウエアラブルデバイスの姿勢角度を獲得する転換手段と、
前記ウエアラブルデバイスの姿勢角度に基づいて、前記ウエアラブルデバイスの測定着用状態を獲得する処理手段とを含む。
前記の方面といずれの可能な実現方式は、さらに以下の実現方式を提供する。前記収集手段は、具体的に、
第一センサー装置で、ユーザーが着用したウエアラブルデバイスの空間四元数パラメータを獲得するために用いられ、または
第二センサー装置で、ユーザーが着用したウエアラブルデバイスのセンスデータを獲得するために、及び前記センスデータに基づいて、前記空間四元数パラメータを獲得するために用いられる。
前記の方面といずれの可能な実現方式は、さらに以下の実現方式を提供する。前記ウエアラブルデバイスの姿勢角度はウエアラブルデバイスのロール角を含み、前記処理手段は、具体的に、
前記ウエアラブルデバイスが着用された体の部位で第一位置にある時のロール角に基づいて、前記ウエアラブルデバイスの着用角度を獲得するために用いられる。
前記の方面といずれの可能な実現方式は、さらに以下の実現方式を提供する。前記処理手段は、さらに、
前記ウエアラブルデバイスが着用された体の部位で前記第一位置にある時のロール角と前記ウエアラブルデバイスが着用された体の部位で第二位置にある時のロール角に基づいて、前記ウエアラブルデバイスの回転変化量を獲得し、
前記ウエアラブルデバイスの回転変化量に基づいて、前記ウエアラブルデバイスの回転方向を獲得し、及び
前記ウエアラブルデバイスの回転方向に基づいて、前記ウエアラブルデバイスの着用部位を獲得するために用いられる。
前記の方面といずれの可能な実現方式は、さらに以下の実現方式を提供する。前記着用部位は左腕または右腕を含み、前記処理手段は、さらに、
肘と手腕との間の距離、手腕が180°回転する時に肘が回転した角度と前記ウエアラブルデバイスの回転変化量に基づいて、前記ウエアラブルデバイスの前記着用部位の位置を獲得するために用いられる。
前記の方面といずれの可能な実現方式は、さらに以下の実現方式を提供する。前記処理手段は、さらに、
前記ウエアラブルデバイスの基準着用状態を獲得し、
前記基準着用状態と前記測定着用状態に基づいて、着用調整指示を生成して、ユーザーに前記ウエアラブルデバイスを調整させ、また前記着用調整指示を出力させ、または、
前記基準着用状態と前記測定着用状態に基づいて、データ調整指示を生成して、前記データ調整指示に基づいて、前記ウエアラブルデバイスが収集した測定データを調整させるために用いられる。
上記技術案によると、本発明の実施例は、ユーザーが着用したウエアラブルデバイスの空間四元数パラメータを獲得し、さらに前記空間四元数パラメータに基づいて、前記ウエアラブルデバイスの姿勢角度を獲得し、前記ウエアラブルデバイスの姿勢角度に基づいて、前記ウエアラブルデバイスの測定着用状態を獲得するようにして、ウエアラブルデバイスの実際着用状態を獲得するとの目的を実現する。
また、本発明による技術案を利用して、ウエアラブルデバイスの測定着用状態を獲得してから、さらに前記ウエアラブルデバイスの基準着用状態を獲得し、さらに前記基準着用状態と前記測定着用状態に基づいて、着用調整指示を生成し出力して、ユーザーに前記ウエアラブルデバイスを調整することを指示し、これによって、ユーザーは着用調整指示に従って着用したウエアラブルデバイスを調整でき、従来技術でウエアラブルデバイスの実際着用状態と理想的な着用状態が一致していないことによって、ウエアラブルデバイスの動作要求を満足できなかった問題を回避でき、ウエアラブルデバイスの信頼性を有効に向上させることができる。
また、本発明による技術案を利用して、ウエアラブルデバイスの測定着用状態を獲得してから、さらに前記ウエアラブルデバイスの基準着用状態を獲得してから、前記基準着用状態と前記測定着用状態とに基づいて、データ調整指示を生成し、前記データ調整指示に従って、前記ウエアラブルデバイスが収集した測定データを調整するようにする。これによって、データ調整指示に従ってウエアラブルデバイスが収集した測定データを調整でき、従来技術でウエアラブルデバイスの実際着用状態と理想的な着用状態が一致していないことによって、ウエアラブルデバイスの動作要求を満足できなかった問題を回避でき、ウエアラブルデバイスの信頼性を有効に向上させることができる。
本発明の実施例における技術案をより明瞭に説明するために、以下では、実施例又は従来の技術の記載に必要な図面を簡単に紹介し、以下に記載した図面は本発明の一部の実施例で、本分野の当業者であれば、創造的な労働をしなく、これらの図面によって他の図面を得られる。
本発明の一実施例によるウエアラブルデバイスの着用状態の処理方法のフローチャートである。 本発明の他の一実施例によるウエアラブルデバイスの着用状態の処理装置の構造ブロック図である。 図1に対応する実施例におけるスマートブレスレットの着用概略図である。 図1に対応する実施例におけるウエアラブルデバイスの着用位置の算出概略図である。
本発明の実施例の目的、技術案及び利点をより明瞭にするために、以下では、本発明の実施例における図面を結合して、本発明の実施例における技術案を明瞭で、完全に記載し、ここで記載の実施例は本発明の一部の実施例で、全部の実施例ではないことは言うまでもない。本分野の当業者であれば、本発明の実施例に基づいて、創造的な労働をしなく得た全部の他の実施例は、何れも本願の保護しようとする範囲に属する。
ここで、本発明の実施例における端末は、携帯電話、パーソナルデジタルアシステント(Personal Digital Assistant、PDA)、無線携帯デバイス、タブレットコンピューター(Tablet Computer)、パーソナルコンピューター(Personal Computer、PC)、MP3プレイヤー、MP4プレイヤー、ウエアラブルデバイス(例えば、スマート眼鏡、スマートウォッチ、スマートブレスレット等)等を含んでいるが、これらに限定されていない。
また、本文で用語「と/または」は、ただ関連対象の関連関係を表示するもので、三つの関係が可能である。例えば、Aと/またはBは、ただAだけ存在する場合と、AとBが同時に存在する場合と、ただBだけ存在する場合の三つの可能性がある。また、本文で符号「/」は、一般的に前後関連対象が「または」の関係であることを示す。
図1は、本発明の一実施例によるウエアラブルデバイスの着用状態の処理方法のフローチャートである。図1に示すように、以下のステップを備える。
101、ユーザーが着用したウエアラブルデバイスの空間四元数パラメータを獲得する。
102、前記空間四元数パラメータに基づいて、前記ウエアラブルデバイスの姿勢角度を獲得する。
103、前記ウエアラブルデバイスの姿勢角度に基づいて、前記ウエアラブルデバイスの測定着用状態を獲得する。
ここで、101〜103の実行主体の一部または全部は、ローカル端末にあるアプリであってもよく、またはローカル端末におけるアプリに設置したプラグインパッケージまたはソフトウェア開発キット(Software Development Kit、SDK)などの機能ユニットであってもよく、またはネットワーク側のサーバーにおける処理エンジンであってもよく、またはネットワーク側の分布式システムであってもよく、本実施例はこれを特別に限定しない。
前記アプリは、端末にインストールしたローカルネイティブアプリ(nativeApp)であってもよく、または端末上のブラウザの一つのウェブアプリ(webApp)であってもよく、本実施例はこれを限定しない。
このように、ユーザーが着用したウエアラブルデバイスの空間四元数パラメータを獲得し、さらに前記空間四元数パラメータに基づいて、前記ウエアラブルデバイスの姿勢角度を獲得し、前記ウエアラブルデバイスの姿勢角度に基づいて、前記ウエアラブルデバイスの測定着用状態を獲得する。これによって、ウエアラブルデバイスの実際着用状態を獲得するとの目的を実現する。
好ましいのは、本実施例の一可能な実施形態において、101で、具体的にセンサー装置を利用して、ユーザーが着用したウエアラブルデバイスの空間四元数パラメータを獲得する。センサー装置は、ウエアラブルデバイスに固定して設置し、ウエアラブルデバイスとの相対位置が変化しないようにしてもよい。
一具体的な実現過程で、前記センサー装置は、空間四元数の合成機能を有する慣性測定手段の第一センサー装置であってもよく、101で、具体的に第一センサー装置を利用して、ユーザーが着用したウエアラブルデバイスの空間四元数パラメータを獲得してもよい。
その中で、前記第一センサー装置は、空間四元数の合成機能を有する慣性測定手段であって、三軸加速度センサー、三軸ジャイロ及び三軸磁気センサーにおける少なくとも一つのセンサーを含んでいてもよいが、これらに限定されない。当該慣性測定手段は、具体的に収集したセンスデータを利用して融合処理を行い、ウエアラブルデバイスの空間四元数パラメータを獲得できる。これに相応して、慣性測定手段が一つのみのタイプのセンサーを含んでいる場合、前記ウエアラブルデバイスのセンスデータは三軸センスデータであってもよく、慣性測定手段が二つのタイプのセンサーを含んでいる場合、前記ウエアラブルデバイスのセンスデータは六軸センスデータであってもよく、慣性測定手段が三つのタイプのセンサーを含んでいる場合は、前記ウエアラブルデバイスのセンスデータは九軸センスデータであってもよく、本実施例ではこれを特に限定しない。
もう一つの具体的な実現過程で、前記センサー装置は、空間四元数の合成機能を有しない慣性測定手段の第二センサー装置であってもよく、101で、具体的に第二センサー装置を利用して、ユーザーが着用したウエアラブルデバイスのセンスデータを獲得し、前記センスデータを利用して前記空間四元数パラメータを獲得してもよい。具体的に、収集したセンスデータを利用して融合処理を行い、ウエアラブルデバイスの空間四元数パラメータを獲得してもよい。これに対する詳細な記載は、従来技術部分における関連記載を参照でき、ここでは重複に述べない。
ここで、前記第二センサー装置は空間四元数の合成機能を有しない慣性測定手段で、三軸加速度センサー、三軸ジャイロ及び三軸磁気センサーにおける少なくとも一つのセンサーを含んでいてもよいが、これらに限定されていない。これに相応して、慣性測定手段が一つのみのタイプのセンサーを含んでいる場合、前記ウエアラブルデバイスのセンスデータは三軸センスデータであってもよく、慣性測定手段が二つのタイプのセンサーを含んでいる場合、前記ウエアラブルデバイスのセンスデータは六軸センスデータであってもよく、慣性測定手段が三つのタイプのセンサーを含んでいる場合は、前記ウエアラブルデバイスのセンスデータは九軸センスデータであってもよく、本実施例ではこれを特に限定しない。
好ましいのは、本実施例の一可能な実施形態において、102で、獲得した前記ウエアラブルデバイスの姿勢角度は、向首角(heading)、ピッチ角(pitch)及びロール角(roll)における少なくとも一つを含んでいてもよい。
いわゆるウエアラブルデバイスの姿勢角度とは、ウエアラブルデバイスのユーザーのある位置での放置状態を示すようにしてもよい。一般的に、ウエアラブルデバイスにおけるある参照位置、例えばセンサー装置の所在位置などを参照位置とし、当該参照位置の右、前、上の三つの方向で右手系を構成し、前へ向って軸を回る回転角がロール角で、右へ向かって軸を回る回転角がピッチ角で、上へ向かって軸を回る回転角が向首角である。ここで、右へ向かう軸をウエアラブルデバイスのx軸とし、前へ向かう軸をウエアラブルデバイスのy軸とし、上へ向かう軸をウエアラブルデバイスのz軸とする。そうすると、向首角は、ウエアラブルデバイスのy軸と真北方向との角度であって、その角度範囲は0〜360°であってもよく、ピッチ角は、ウエアラブルデバイスのy軸と水平面との角度であって、その角度範囲は−90°〜90°であってもよく、ロール角は、ウエアラブルデバイスのx軸と水平面との角度で、その角度範囲は−180°〜180°であってもよい。
スマートブレスレットを例とすると、図3に示すように、スマートブレスレット上のセンサー装置を設置した位置を参照位置として定義し、当該参照位置の右、前、上の三つの方向で右手系を構成し、前へ向かう軸を回る回転角をロール角とし、右へ向かう軸を回る回転角をピッチ角とし、上へ向かう軸を回る回転角を向首角とする。ここで、右へ向かう軸をスマートブレスレットのx軸とし、前へ向かう軸をスマートブレスレットのy軸とし、上へ向かう軸をスマートブレスレットのz軸とする。そうすると、向首角は、スマートブレスレットのy軸と真北方向との角度であって、その角度範囲は0〜360°であってもよく、ピッチ角は、スマートブレスレットのy軸と水平面との角度であって、その角度範囲は−90°〜90°であってもよく、ロール角は、スマートブレスレットのx軸と水平面との角度であって、その角度範囲は−180°〜180°であってもよく、参照位置はスマートブレスレットを垂直方向で分割した一側は0〜180°で、他の一側は−180°〜0である。
具体的な実現過程で、具体的に獲得したウエアラブルデバイスの空間四元数パラメータを
Figure 0006308306
で表現し、さらに、空間四元数パラメータに基づいて、デバイス座標系b(即ち、ちウエアラブルデバイスの座標系)から地理座標系Rへ回転する座標変換マトリクス
Figure 0006308306
を獲得し、即ち、
Figure 0006308306
を、
Figure 0006308306
と記載してもよく、R系からb系への回転過程で、座標系がずっと直角座標系を保持しているので、
Figure 0006308306
は直交マトリクスであり、
Figure 0006308306
と記載する。
そして、また座標変換マトリクス
Figure 0006308306
とストラップダウン姿勢マトリクスとの関係に基づいて、ウエアラブルデバイスの姿勢角度を獲得する。
ウエアラブルデバイスのロール角θ、即ち、
Figure 0006308306
ウエアラブルデバイスの向首角Ψ、即ち、
Figure 0006308306
ウエアラブルデバイスのピッチ角φ、即ち、
Figure 0006308306
好ましいのは、本実施例の一可能な実施形態において、前記ウエアラブルデバイスの姿勢角度は、ウエアラブルデバイスのロール角であってもよい。
これに相応して、103で、具体的に前記ウエアラブルデバイスの着用した体の部位で第一位置にある時のロール角に基づいて、前記ウエアラブルデバイスの着用角度を獲得してもよい。
一つの具体的な実現過程で、ユーザーがウエアラブルデバイスを着用してから、ウエアラブルデバイスの体の部位を第一位置に置いて、この位置で一定の時間保持する。この時間で、サンプリング頻度に基づいて、ユーザーが着用したウエアラブルデバイスの一シリーズの空間四元数パラメータを獲得し、これらの空間四元数パラメータに基づいて、それぞれ前記ウエアラブルデバイスの前記第一位置にある時のロール角を獲得する。このように、獲得した全部のウエアラブルデバイスの前記第一位置にある時のロール角に基づいて、一つの統計値、例えば、中間位置または平均値などを獲得し、そして、前記統計値を前記ウエアラブルデバイスの着用角度とする。
スマートブレスレットを例とすると、ユーザーがスマートブレスレットを着用してから、スマートブレスレットを着用した腕を伸ばし、手のひらを地面に並行になるようにし、手のひらが地面に向かうようにし、この位置を位置Aとして一定時間例えば5秒間保持する。この時間内に、サンプリング頻度に基づいて、スマートブレスレットの位置Aでの一連のロール角を獲得する。このようにすると、獲得した全部のスマートブレスレットの位置Aでのロール角に基づいて、一つの統計値、例えば、中間位置または平均値などを獲得し、そして、前記統計値をスマートブレスレットの着用角度とする。
他の一つの具体的な実現過程で、さらに予めに三軸加速度センサーのぐらつき閾値amaxを設置してもよく、当該ぐらつき閾値amaxは具体的に一つの経験値例えば0.2g(gは重力加速度である)であって、収集したセンスデータの安定性を保証する。ユーザーがウエアラブルデバイスを着用してから、ウエアラブルデバイスを着用した体の部位を第一位置とし、この位置を一定時間保持する。この一定時間内に、サンプリング頻度に基づいて、ユーザーが着用したウエアラブルデバイスの一連の空間四元数パラメータを獲得し、これらの空間四元数パラメータに基づいて、それぞれ前記ウエアラブルデバイスの前記第一位置にある時のロール角を獲得する。ウエアラブルデバイスのロール角を獲得する度に、前記ぐらつき閾値amaxを利用して、収集した三軸加速度センサーのセンスデータを判断する。収集した三軸加速度センサーのセンスデータが前記ぐらつき閾値amaxより小さいと、カウンターの数値が1増加し、収集した三軸加速度センサーのセンスデータが前記ぐらつき閾値amaxより大きい又は等しい場合は、カウンターの数値をリセット処理し、同時に獲得した全部のウエアラブルデバイスの前記第一位置にある時のロール角を削除処理する。カウンターの数値が所定の閾値sizeになると、獲得した全部のウエアラブルデバイスの前記第一位置にある時のロール角に基づいて、一つの統計値例えば中間位置または平均値等を獲得し、そして、前記統計値を前記ウエアラブルデバイスの着用角度とする。
これに相応して、103で、さらに前記ウエアラブルデバイスの着用した体の部位が前記第一位置にある時のロール角と前記ウエアラブルデバイスが着用された体の部位で第二位置にある時のロール角に基づいて、前記ウエアラブルデバイスの回転変化量を獲得する。さらに、前記ウエアラブルデバイスの回転変化量に基づいて、前記ウエアラブルデバイスの回転方向を獲得する。最後に、前記ウエアラブルデバイスの回転方向に基づいて、前記ウエアラブルデバイスの着用部位を獲得する。
一つの具体的な実現過程で、さらに指示情報例えば震動指示、音声指示または灯光指示等の形式の指示情報を出力して、ユーザーにウエアラブルデバイスを着用した体の部位を第二位置に置くように指示し、この位置を一定時間保持する。この一定の時間内に、サンプリング頻度に基づいて、ユーザーが着用したウエアラブルデバイスの一連の空間四元数パラメータを獲得し、さらにこれらの空間四元数パラメータに基づいて、それぞれ前記ウエアラブルデバイスが前記第二位置にある時のロール角を獲得する。このようにすると、獲得した全部のウエアラブルデバイスが前記第二位置にある時のロール角に基づいて、一つの統計値例えば中間位置または平均値等を獲得し、そして、前記統計値を前記ウエアラブルデバイスが回転してからの回転角度とする。その後、前記ウエアラブルデバイスが回転してからの回転角度と前記ウエアラブルデバイスの着用角度との差異値を前記ウエアラブルデバイスの回転変化量とする。
スマートブレスレットを例とすると、ユーザーは指示情報を見てから、スマートブレスレットを着用した腕を伸ばし、手のひらを地面と平行させ、手のひらが地面に向かうようにし、腕を手のひらが空に向かうように回転させて、この位置を位置Bとして一定の時間例えば5秒間保持させる。この時間内に、サンプリング頻度に基づいて、スマートブレスレットの位置Bにある一連のロール角を獲得する。このようにすると、獲得した全部のスマートブレスレットが位置Bにある時のロール角に基づいて、一つの統計値例えば中間位置または平均値等を獲得し、そして、前記統計値をスマートブレスレット回転してからの回転角度とする。そして、スマートブレスレット回転してからの回転角度とスマートブレスレットの着用角度との差異値を、スマートブレスレットの回転変化量とする。
スマートブレスレットの回転変化量を獲得した後の処理方式は、具体的に、スマートブレスレットの回転変化量を判断することでもよい。スマートブレスレットの回転変化量が0より小さいと、スマートブレスレットの回転方向が逆時計回りであり、前記ウエアラブルデバイスの着用部位が左腕であることが判る。スマートブレスレットの回転変化量が0より大きいと、スマートブレスレットの回転方向が時計回りであり、前記ウエアラブルデバイスの着用部位が右腕であることが判る。
スマートブレスレットの回転変化量を獲得した後の他の処理方式は、さらに予めに変化閾値bmaxを設置し、該変化閾値bmaxは具体的に一つの経験値例えば40°であってもよく、当該変化閾値bmaxは、腕の微小な動作が産生したデータぐらつきによってスマートブレスレットの回転方向の判定を間違いにトリガーさせることを防止するために用いられる。具体的に、予めに設置した変化閾値を利用して、スマートブレスレットの回転変化量を判断する。スマートブレスレットの回転変化量が0より小さく、−bmaxより小さいまたは等しいと、スマートブレスレットの回転方向が逆時計回りであることが判り、そうすると、前記ウエアラブルデバイスの着用部位が左腕であり、スマートブレスレットの回転変化量が0より大きくて、bmaxより大きいまたは等しいと、スマートブレスレットの回転方向は時計回りであり、そうすると、前記ウエアラブルデバイスの着用部位が右腕であることが判る。そうしないと、スマートブレスレットの回転変化量が−bmaxより大きく、bmaxより小さいと、スマートブレスレットの回転変化量を再び計算する。
他の具体的な実現過程で、ウエアラブルデバイスの着用部位は左腕または右腕を含んでいてもよく、これに相応して、103で、肘と手腕との間の距離、手腕が180°回転する時に肘が回転する角度と前記ウエアラブルデバイスの回転変化量に基づいて、前記ウエアラブルデバイスの前記着用部位での位置を得られる。
ここで、肘と手腕との間の距離、手腕が180°回転する時に肘が回転した角度は予めに設置した経験値であってもよく、それぞれに児童、青年、男性、女性等の異なるユーザー主体に従って柔軟に設置してもよい。
例えば、腕が縦方向回転動作を行って、即ちウエアラブルデバイスを着用した腕を伸ばし、手のひらを地面と平行にし、手のひらが地面へ向かうようにし、腕を回転させて手のひらが空に向かうようにすると、腕の縦方向軸に沿う点毎の軸歩行回転角度と縦方向位置これら二つのパラメータの間は所定の関係、例えば線形性関係、または三角関数などの非線形性関係等を満足させる。一般的に、手腕の回転角度は最大であり、肩に近寄る位置の回転角度は0に接近する。処理を簡単化するために、腕の縦方向軸の点毎の軸方向回転角度と縦方向位置との間の線形性関係を近似に三角関数関係として処理し、図4に示すように、具体的に以下の数式に従って、ウエアラブルデバイスの前記着用部位の位置を獲得する。
Figure 0006308306
ここで、
dは、ウエアラブルデバイスの前記着用部位の位置から腕部までの距離であり、
は、肘と手腕との間の距離であり、
dθは、ウエアラブルデバイスの回転変化量であり、
θは、手腕が180°回転する時に肘が回転した角度であり、
Rは、三角関数関係の角度係数であり、予めに設置した経験値であってもよく、それぞれ児童、青年、男性、女性等の異なるユーザー主体に従って柔軟に設置してもよく、
tanRの値は、180°/肩と手腕との間の距離であってもよい。
ここで、肩と手腕との間の距離、手腕が180°回転する時に肘が回転した角度は予めに設置した経験値であってもよく、それぞれに児童、青年、男性、女性等の異なるユーザー主体に従って柔軟に設置してもよい。
以上の操作を実行することによって、ウエアラブルデバイスの測定着用状態、具体的に三つ次元のベクトル、即ち、<着用角度、着用部位、着用位置>に表示してもよい。
好ましいのは、本実施例の一可能な実施形態において、103の後に、さらに前記ウエアラブルデバイスの基準着用状態を獲得してもよく、そして、前記基準着用状態と前記測定着用状態に基づいて、前記ウエアラブルデバイスの操作を最適化してもよい。
一具体的な実現過程で、具体的に前記基準着用状態と前記測定着用状態に基づいて、着用調整指示を生成して、ユーザーに前記ウエアラブルデバイスを調整させ、前記着用調整指示、例えば震動指示、音声指示または灯光指示等の形式の指示情報を出力してもよい。
このようにして、ユーザーは、着用調整指示に従って着用したウエアラブルデバイス、例えば、着用したウエアラブルデバイスの着用角度、着用部位、着用位置等を調整して、従来技術でウエアラブルデバイスの実際の着用状態が理想的な着用状態と一致しないのでウエアラブルデバイスの動作要求を満足できなかった問題を回避でき、ウエアラブルデバイスの信頼性を有効に向上させることができる。
他の具体的な実現過程で、具体的に、前記基準着用状態と前記測定着用状態に基づいて、データ調整指示を生成して、前記データ調整指示に従って、前記ウエアラブルデバイスが収集した測定データを調整させる。
このようにして、データ調整指示に従ってウエアラブルデバイス収集した測定データを調整でき、従来の技術においてウエアラブルデバイスの実際着用状態と理想着用状態が一致しないのでウエアラブルデバイスの動作要求を満足できなかった問題を回避でき、ウエアラブルデバイスの信頼性を有効に向上させることができる。
本実施例で、ユーザーが着用したウエアラブルデバイスの空間四元数パラメータを獲得し、さらに、前記空間四元数パラメータに基づいて、前記ウエアラブルデバイスの姿勢角度を獲得し、前記ウエアラブルデバイスの姿勢角度に基づいて、前記ウエアラブルデバイスの測定着用状態を獲得するようにするこれによって、ウエアラブルデバイスの実際着用状態を得るとの目的を実現する。
ここで、前述の各方法の実施例に対して、簡単に記述するために、それらを全部一連の動作組合として記載したが、本分野の当業者であれば、本発明は、前記の動作順序の限定を受けなく、本発明によると、あるステップは他の順序を利用でき、または同時に実行できることを了解できる。次に、本分野の当業者であれば、明細書に記載した実施例は全部好ましい実施例であり、関する動作及びモジュールは本発明に必ず無ければならないものではないことも可能であることを了解すべきである。
前記実施例において、各実施例に対する記述はそれぞれ中心を持って述べており、ある実施例で詳細に記載しなかった部分は、他の実施例の関連記載を参照できる。
図2は、本発明の他の一実施例によるウエアラブルデバイスの着用状態の処理装置の構造ブロック図である。図2に示すように、本実施例のウエアラブルデバイスの着用状態の処理装置は、収集手段21と、転換手段22と、処理手段23とを含む。ここで、収集手段21は、ユーザーが着用したウエアラブルデバイスの空間四元数パラメータを獲得するものであり、転換手段22は、前記空間四元数パラメータに基づいて、前記ウエアラブルデバイスの姿勢角度を獲得するものであり、処理手段23は、前記ウエアラブルデバイスの姿勢角度に基づいて、前記ウエアラブルデバイスの測定着用状態を獲得するものである。
ここで、本実施例によるウエアラブルデバイスの着用状態の処理装置の一部または全部は、ローカル端末にあるアプリであってもよく、またはローカル端末にあるアプリにおけるプラグインパッケージまたはソフトウェア開発キット(Software Development Kit、SDK)等の機能手段であってもよく、またはネットワーク側のサーバーにおける処理エンジンであってもよく、またはネットワーク側の分布式システムであってもよく、本実施例はこれに対して特に限定していない。
前記アプリは、端末にインストールしたネイティブアプリ(nativeApp)、または端末上のブラウザの一つのウェブアプリ(webApp)であってもよく、本実施例はこれに対して限定しない。
好ましいのは、本実施例の一可能な実施形態において、前記収集手段21は、具体的に第一センサー装置を利用して、ユーザーが着用したウエアラブルデバイスの空間四元数パラメータを獲得するために用いられる。
好ましいのは、本実施例の一可能な実施形態において、前記収集手段21は、具体的に第二センサー装置を利用して、ユーザーが着用したウエアラブルデバイスのセンスデータを獲得し、前記センスデータに基づいて、前記空間四元数パラメータを獲得するために用いられる。
好ましいのは、本実施例の一可能な実施形態において、前記ウエアラブルデバイスの姿勢角度は、ウエアラブルデバイスのロール角を含んでいてもよく、これに相応して、前記処理手段23は、具体的に前記ウエアラブルデバイスが着用した体の部位で第一位置にある場合のロール角に基づいて、前記ウエアラブルデバイスの着用角度を獲得するために用いられる。
一具体的な実現過程で、前記処理手段23は、さらに、前記ウエアラブルデバイスが着用された体の部位で前記第一位置にある時のロール角と、前記ウエアラブルデバイスが着用された体の部位で第二位置にある時のロール角に基づいて、前記ウエアラブルデバイスの回転変化量を獲得し、前記ウエアラブルデバイスの回転変化量に基づいて、前記ウエアラブルデバイスの回転方向を獲得し、前記ウエアラブルデバイスの回転方向に基づいて、前記ウエアラブルデバイスの着用部位を獲得するために用いられる。
具体的に、前記着用部位は、左腕または右腕を含み、これに相応して、前記処理手段23は、さらに肘と手腕との間の距離、手腕が180°回転する時に肘が回転した角度と前記ウエアラブルデバイスの回転変化量に基づいて、前記ウエアラブルデバイスの前記着用部位の位置を獲得するために用いられる。
好ましいのは、本実施例の一可能な実施形態において、前記処理手段23は、さらに、前記ウエアラブルデバイスの基準着用状態を獲得するために用いられ、前記基準着用状態と前記測定着用状態に基づいて、着用調整指示を生成し、ユーザーに前記ウエアラブルデバイスを調整することを指示し、前記着用調整指示を出力し、または前記基準着用状態と前記測定着用状態に基づいて、データ調整指示を生成して、前記データ調整指示に従って、前記ウエアラブルデバイスが収集した測定データを調整するようにする。
ここで、図1に対応する実施例における方法は、本実施例によるウエアラブルデバイスの着用状態の処理装置によって実現できる。詳細の記載は、図1に対応する実施例における関連内容を参照でき、ここでは重複に述べない。
本実施例で、ユーザーが着用したウエアラブルデバイスの空間四元数パラメータを獲得し、さらに前記空間四元数パラメータに基づいて、前記ウエアラブルデバイスの姿勢角度を獲得し、前記ウエアラブルデバイスの姿勢角度に基づいて、前記ウエアラブルデバイスの測定着用状態を獲得するようにし、これによって、ウエアラブルデバイスの実際着用状態を獲得するとの目的を実現する。
また、本発明による技術案を利用して、ウエアラブルデバイスの測定着用状態を得た後、さらに前記ウエアラブルデバイスの基準着用状態を獲得してから、前記基準着用状態と前記測定着用状態に基づいて、着用調整指示を生成し出力して、ユーザーに前記ウエアラブルデバイスを調整することを指示する。これによって、ユーザーは着用調整指示に従って着用したウエアラブルデバイスを調整でき、従来技術でウエアラブルデバイスの実際着用状態と理想的な着用状態が一致していないことによって、ウエアラブルデバイスの動作要求を満足できなかった問題を回避でき、ウエアラブルデバイスの信頼性を有効に向上させることができる。
また、本発明による技術案を利用して、ウエアラブルデバイスの測定着用状態を獲得してから、さらに前記ウエアラブルデバイスの基準着用状態を獲得してから、前記基準着用状態と前記測定着用状態とに基づいて、データ調整指示を生成し、前記データ調整指示に従って、前記ウエアラブルデバイスが収集した測定データを調整するようにする。これによって、データ調整指示に従ってウエアラブルデバイスが収集した測定データを調整でき、従来技術でウエアラブルデバイスの実際着用状態と理想的な着用状態が一致していないことによって、ウエアラブルデバイスの動作要求を満足できなかった問題を回避でき、ウエアラブルデバイスの信頼性を有効に向上させることができる。
所属分野の当業者は、前記のシステム、装置及び手段の具体的な動作過程は、前記実施例における対応する過程を参照できることを明確に了解でき、記述の簡単化のために、ここでは重複に述べない。
本発明によるいくらの実施例で掲示したシステム、装置及び方法は、他の方式によって実現できることは理解すべきである。例えば、前記の装置の実施例はただ例示的なもので、例えば、前記手段の分割はただロジック機能による分割で、実際に実現する時には他の分割方式、例えば、複数の手段またはモジュールは他の一つのシステムに結合または集積してもよく、またはある特徴は無視または実行しなくてもよい。また、前記に記載または検討した互いの結合または直接結合または通信接続はあるインターフェースを介して行い、装置または手段の間接的な結合または通信接続は、電気的、機械的または他の形式で実現してもよい。
前記の分離部材として説明した手段は、物理的に分離しまたは分離ななくてもよく、手段として表示した部件は物理手段であってもよく物理手段でなくてもよいし、即ち、一つの部位にあってもよく、または複数のネットワークに分布してもよい。実際の要求に従って、その中の一部または全部の手段を選択して本実施例の方案の目的を実現してもよい。
また、本発明の各実施例における各機能手段は一つの処理手段に集積してもよく、各手段が物理上で単独に存在してもよく、二つまたは二つ以上の手段が一つの手段に集積されてもよい。上記集積された手段はハードウェアの形式で実現してもよく、ハードウェアにソフトウェアの機能手段を結合する形式で実現してもよい。
上記のソフトウェア機能手段の形式で実現した集積した手段は、一つのコンピューターがアクセスできる記憶媒体に記憶してもよい。上記ソフトウェア機能手段は一つの記憶媒体に記憶され、複数の命令を含んで、一つのコンピューターデバイス(パーソナルコンピューター、サーバー、またはネットワークデバイス等)またはプロセッサ−(processor)が本発明の各実施例の前記方法の一部のステップを実行させる。前述の記憶媒体は、Uディスク、ポータブルハードディスク、ROM(Read−Only Memory、ROM)、RAM(Random Access Memory、RAM)、磁気ディスクまたは光ディスク等のいろいろなプログラムコードを記憶できる媒体を含む。
最後に、以上の実施例はただ本発明の技術案を説明するためのもので、本発明に対しての限定ではない。前記の実施例を参照して本発明を詳細に説明したが、本分野の当業者であれば、前記の各実施例に記載の技術案はまだ修正でき、又はそれの一部の技術特徴に対して均等的な置換を実施でき、これらの修正又は置換は、相応する技術案の主旨が本発明の各実施例に記載した技術案の主旨及び範囲を離脱するようにしないことを了解できる。

Claims (12)

  1. ユーザーが着用したウエアラブルデバイスの空間四元数パラメータを獲得し、
    前記空間四元数パラメータに基づいて、前記ウエアラブルデバイスの姿勢角度を獲得し、
    前記ウエアラブルデバイスの姿勢角度に基づいて、前記ウエアラブルデバイスの測定着用状態を獲得し、
    前記ウエアラブルデバイスの姿勢角度に基づいて、前記ウエアラブルデバイスの測定着用状態を獲得することは、肘と手腕との間の距離、手腕が180°回転する時に肘が回転した角度と前記ウエアラブルデバイスの回転変化量に基づいて、前記ウエアラブルデバイスの着用部位の位置を獲得することを含む
    ウエアラブルデバイスの着用状態の処理方法。
  2. 前記ユーザーが着用したウエアラブルデバイスの空間四元数パラメータを獲得するには、
    第一センサー装置で、ユーザーが着用したウエアラブルデバイスの空間四元数パラメータを獲得すること、または、
    第二センサー装置で、ユーザーが着用したウエアラブルデバイスのセンスデータを獲得すること、
    及び前記センスデータに基づいて、前記空間四元数パラメータを獲得することを含む
    請求項1に記載のウエアラブルデバイスの着用状態の処理方法。
  3. 前記ウエアラブルデバイスの姿勢角度はウエアラブルデバイスのロール角を含み、前記ウエアラブルデバイスの姿勢角度に基づいて、前記ウエアラブルデバイスの測定着用状態を獲得するには、
    前記ウエアラブルデバイスが着用された体の部位で第一位置にある時のロール角に基づいて、前記ウエアラブルデバイスの着用角度を獲得することを含む
    請求項1または2に記載のウエアラブルデバイスの着用状態の処理方法。
  4. 前記ウエアラブルデバイスの姿勢角度に基づいて、前記ウエアラブルデバイスの測定着用状態を獲得するには、
    前記ウエアラブルデバイスが着用された体の部位で前記第一位置にある時のロール角と前記ウエアラブルデバイスが着用された体の部位で第二位置にある時のロール角に基づいて、前記ウエアラブルデバイスの回転変化量を獲得し、
    前記ウエアラブルデバイスの回転変化量に基づいて、前記ウエアラブルデバイスの回転方向を獲得し、
    前記ウエアラブルデバイスの回転方向に基づいて、前記ウエアラブルデバイスの着用部位を獲得することを含む
    請求項3に記載のウエアラブルデバイスの着用状態の処理方法。
  5. 前記着用部位は左腕または右腕を含み、前記ウエアラブルデバイスが着用された体の部位で前記第一位置にある時のロール角と前記ウエアラブルデバイスが着用された体の部位で第二位置にある時のロール角に基づいて、前記ウエアラブルデバイスの回転変化量を獲得する
    請求項4に記載のウエアラブルデバイスの着用状態の処理方法。
  6. 前記ウエアラブルデバイスの姿勢角度に基づいて、前記ウエアラブルデバイスの測定着用状態を獲得してから、
    前記ウエアラブルデバイスの基準着用状態を獲得し、
    前記基準着用状態と前記測定着用状態に基づいて、着用調整指示を生成して、ユーザーに前記ウエアラブルデバイスを調整させ、また前記着用調整指示を出力させ、または
    前記基準着用状態と前記測定着用状態に基づいて、データ調整指示を生成して、前記データ調整指示に基づいて、前記ウエアラブルデバイスが収集した測定データを調整させることを含む
    請求項1〜5のいずれか一項に記載のウエアラブルデバイスの着用状態の処理方法。
  7. ユーザーが着用したウエアラブルデバイスの空間四元数パラメータを獲得する収集手段と、
    前記空間四元数パラメータに基づいて、前記ウエアラブルデバイスの姿勢角度を獲得する転換手段と、
    前記ウエアラブルデバイスの姿勢角度に基づいて、前記ウエアラブルデバイスの測定着用状態を獲得する処理手段とを含み、
    前記処理手段は、
    肘と手腕との間の距離、手腕が180°回転する時に肘が回転した角度と前記ウエアラブルデバイスの回転変化量に基づいて、前記ウエアラブルデバイスの着用部位の位置を獲得する
    ウエアラブルデバイスの着用状態の処理装置。
  8. 前記収集手段は、具体的に、
    第一センサー装置で、ユーザーが着用したウエアラブルデバイスの空間四元数パラメータを獲得するために用いられ、または
    第二センサー装置で、ユーザーが着用したウエアラブルデバイスのセンスデータを獲得するために、及び前記センスデータに基づいて、前記空間四元数パラメータを獲得するために用いられる
    請求項7に記載のウエアラブルデバイスの着用状態の処理装置。
  9. 前記ウエアラブルデバイスの姿勢角度はウエアラブルデバイスのロール角を含み、前記処理手段は、具体的に、
    前記ウエアラブルデバイスが着用された体の部位で第一位置にある時のロール角に基づいて、前記ウエアラブルデバイスの着用角度を獲得するために用いられる
    請求項7または8に記載のウエアラブルデバイスの着用状態の処理装置。
  10. 前記処理手段は、さらに、
    前記ウエアラブルデバイスが着用された体の部位で前記第一位置にある時のロール角と前記ウエアラブルデバイスが着用された体の部位で第二位置にある時のロール角に基づいて、前記ウエアラブルデバイスの回転変化量を獲得し、
    前記ウエアラブルデバイスの回転変化量に基づいて、前記ウエアラブルデバイスの回転方向を獲得し、及び
    前記ウエアラブルデバイスの回転方向に基づいて、前記ウエアラブルデバイスの着用部位を獲得するために用いられる
    請求項9に記載のウエアラブルデバイスの着用状態の処理装置。
  11. 前記着用部位は左腕または右腕を含む
    請求項10に記載のウエアラブルデバイスの着用状態の処理装置。
  12. 前記処理手段は、さらに、
    前記ウエアラブルデバイスの基準着用状態を獲得し、
    前記基準着用状態と前記測定着用状態に基づいて、着用調整指示を生成して、ユーザーに前記ウエアラブルデバイスを調整させ、また前記着用調整指示を出力させ、または、
    前記基準着用状態と前記測定着用状態に基づいて、データ調整指示を生成して、前記データ調整指示に基づいて、前記ウエアラブルデバイスが収集した測定データを調整させるために用いられる
    請求項7〜11のいずれか一項に記載のウエアラブルデバイスの着用状態の処理装置。
JP2016559259A 2014-12-09 2015-12-07 ウエアラブルデバイスの着用状態の処理方法及び装置 Expired - Fee Related JP6308306B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN201410750858.X 2014-12-09
CN201410750858.XA CN104407709B (zh) 2014-12-09 2014-12-09 可穿戴设备的穿戴状态的处理方法及装置
PCT/CN2015/096536 WO2016091131A1 (zh) 2014-12-09 2015-12-07 可穿戴设备的穿戴状态的处理方法及装置

Publications (2)

Publication Number Publication Date
JP2017513130A JP2017513130A (ja) 2017-05-25
JP6308306B2 true JP6308306B2 (ja) 2018-04-11

Family

ID=52645345

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016559259A Expired - Fee Related JP6308306B2 (ja) 2014-12-09 2015-12-07 ウエアラブルデバイスの着用状態の処理方法及び装置

Country Status (6)

Country Link
US (1) US10415976B2 (ja)
EP (1) EP3232298A4 (ja)
JP (1) JP6308306B2 (ja)
KR (1) KR101838838B1 (ja)
CN (1) CN104407709B (ja)
WO (1) WO2016091131A1 (ja)

Families Citing this family (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11191453B2 (en) * 2014-10-21 2021-12-07 Kenneth Lawrence Rosenblood Posture improvement device, system, and method
CN104407709B (zh) 2014-12-09 2015-12-02 北京银河润泰科技有限公司 可穿戴设备的穿戴状态的处理方法及装置
CN104764491A (zh) * 2015-04-08 2015-07-08 深圳市康康网络技术有限公司 设备使用状态识别方法及电子设备
CN104899917B (zh) * 2015-05-13 2019-06-18 深圳彼爱其视觉科技有限公司 一种基于3d的物品虚拟穿戴的图片保存和分享方法
JP6498325B2 (ja) * 2015-05-13 2019-04-10 アライヴコア・インコーポレーテッド 不一致モニタリング
CN104898832B (zh) * 2015-05-13 2020-06-09 深圳彼爱其视觉科技有限公司 一种基于智能终端的3d实时眼镜试戴方法
CN104881114B (zh) * 2015-05-13 2019-09-03 深圳彼爱其视觉科技有限公司 一种基于3d眼镜试戴的角度转动实时匹配方法
JP6593772B2 (ja) * 2015-08-27 2019-10-23 カシオ計算機株式会社 電子機器及びその制御方法、制御プログラム
CN105573495B (zh) * 2015-12-14 2020-06-23 联想(北京)有限公司 一种信息处理方法及穿戴式设备
CN105758452B (zh) * 2016-02-04 2018-05-15 歌尔股份有限公司 一种可穿戴设备的佩戴状态检测方法和装置
US11205335B2 (en) 2016-02-16 2021-12-21 Lifeline Systems Company Lanyard device, method and personal lanyard monitoring system
CN106020445A (zh) * 2016-05-05 2016-10-12 广东小天才科技有限公司 一种自动识别左右手佩戴的方法及穿戴设备
CN105955488B (zh) * 2016-05-25 2019-03-01 北京行云时空科技有限公司 一种操控终端的方法和装置
CN105975084B (zh) * 2016-05-31 2018-09-11 北京京东方多媒体科技有限公司 环形穿戴设备的控制方法、环形穿戴设备及智能控制系统
CN106510719B (zh) * 2016-09-30 2023-11-28 歌尔股份有限公司 一种用户姿态监测方法和可穿戴设备
CN106730627A (zh) * 2016-12-01 2017-05-31 上海长海医院 足部恢复运动电子脚环
TWI613621B (zh) * 2016-12-08 2018-02-01 財團法人工業技術研究院 姿勢感測裝置及其方法
EP3375371A1 (en) * 2017-03-13 2018-09-19 Koninklijke Philips N.V. A system, apparatus and method of estimating the location and/or orientation of a handheld personal care device with respect to a user
KR101922700B1 (ko) * 2017-06-08 2018-11-27 주식회사 해치텍 가속도 센서와 지자기 센서 기반의 각속도 산출 방법 및 장치
CN108378854B (zh) * 2018-02-07 2021-10-29 北京摩高科技有限公司 一种姿态测量捕捉分析系统及其计算方法
CN109445267B (zh) * 2018-12-29 2021-06-25 北京金山安全软件有限公司 一种智能手表
CN110058692B (zh) * 2019-04-22 2022-02-22 武汉久乐科技有限公司 一种基于机器学习的穿戴数据处理方法和装置
CN110398256B (zh) * 2019-06-19 2021-12-03 北京摩高科技有限公司 一种人体单一姿态的初始校正方法
CN110517750A (zh) * 2019-08-21 2019-11-29 兰州交通大学 一种融合wifi定位与惯性传感的多人动作捕捉方法
JP7281810B2 (ja) * 2019-09-10 2023-05-26 H2L株式会社 映像表示システム
KR20210047613A (ko) * 2019-10-22 2021-04-30 삼성전자주식회사 관성 센서를 이용한 착용 감지 방법 및 장치
CN111198615A (zh) * 2020-03-04 2020-05-26 重庆一七科技开发有限公司 一种用于虚拟现实体验的便携式无线装置
CN112188003B (zh) * 2020-10-09 2022-02-01 维沃移动通信有限公司 可穿戴设备的控制方法、装置、电子设备及存储介质

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20080091373A1 (en) * 2006-07-31 2008-04-17 University Of New Brunswick Method for calibrating sensor positions in a human movement measurement and analysis system
US9037530B2 (en) * 2008-06-26 2015-05-19 Microsoft Technology Licensing, Llc Wearable electromyography-based human-computer interface
KR101483713B1 (ko) * 2008-06-30 2015-01-16 삼성전자 주식회사 모션 캡쳐 장치 및 모션 캡쳐 방법
US9289139B2 (en) * 2010-09-09 2016-03-22 Citizen Holdings Co., Ltd. Blood pressure monitor
JP2013215323A (ja) * 2012-04-06 2013-10-24 Terumo Corp 血圧計
CN103105945B (zh) * 2012-12-17 2016-03-30 中国科学院计算技术研究所 一种支持多点触摸手势的人机交互戒指
JP6209581B2 (ja) * 2013-02-13 2017-10-04 旭化成エレクトロニクス株式会社 姿勢算出装置、姿勢算出方法、携帯機器およびプログラム
WO2014145122A2 (en) * 2013-03-15 2014-09-18 Aliphcom Identification of motion characteristics to determine activity
CN103267524B (zh) * 2013-04-24 2015-10-21 华中科技大学 一种穿戴式的人员步态检测室内定位系统及方法
WO2014210210A1 (en) * 2013-06-25 2014-12-31 Lark Technologies, Inc. Method for classifying user motion
CN103976854A (zh) * 2014-05-15 2014-08-13 深圳市卡卓无线信息技术有限公司 一种盲人智能眼镜
CN103976864A (zh) 2014-05-22 2014-08-13 中国人民解放军第306医院 声波五行分类法
CN104133550B (zh) * 2014-06-27 2017-05-24 联想(北京)有限公司 一种信息处理方法及电子设备
US10652696B2 (en) * 2014-07-30 2020-05-12 Trusted Positioning, Inc. Method and apparatus for categorizing device use case for on foot motion using motion sensor data
JP6642432B2 (ja) * 2014-07-31 2020-02-05 ソニー株式会社 情報処理装置及び情報処理方法、並びに画像表示システム
CN104127187B (zh) * 2014-08-05 2017-04-05 戴厚德 用于帕金森病人主要症状定量检测的可穿戴系统
CN104407709B (zh) * 2014-12-09 2015-12-02 北京银河润泰科技有限公司 可穿戴设备的穿戴状态的处理方法及装置

Also Published As

Publication number Publication date
US20170191835A1 (en) 2017-07-06
CN104407709A (zh) 2015-03-11
JP2017513130A (ja) 2017-05-25
EP3232298A4 (en) 2018-07-11
KR101838838B1 (ko) 2018-03-14
KR20160124889A (ko) 2016-10-28
CN104407709B (zh) 2015-12-02
US10415976B2 (en) 2019-09-17
WO2016091131A1 (zh) 2016-06-16
EP3232298A1 (en) 2017-10-18

Similar Documents

Publication Publication Date Title
JP6308306B2 (ja) ウエアラブルデバイスの着用状態の処理方法及び装置
Arth et al. The history of mobile augmented reality
EP3314371B1 (en) System for tracking a handheld device in an augmented and/or virtual reality environment
CN107077548B (zh) 虚拟可穿戴物
US20180335843A1 (en) Tracking finger movements to generate inputs for computer systems
CN109074149A (zh) 用于增强或虚拟现实环境的头戴式参考系中的对象跟踪
JP7382994B2 (ja) 仮想現実システム内の仮想コントローラの位置および向きの追跡
CN116051640A (zh) 用于同时定位和映射的系统和方法
ES2811800T3 (es) Dispositivo de procesamiento de imágenes, método de procesamiento de imágenes y programa
JP2015095802A (ja) 表示制御装置、表示制御方法、およびプログラム
KR20150143659A (ko) 홀로그램 스냅 그리드
JP5800602B2 (ja) 情報処理システム、携帯電子機器、プログラム及び情報記憶媒体
US20200387227A1 (en) Length Calibration for Computer Models of Users to Generate Inputs for Computer Systems
US12101557B2 (en) Pose tracking for rolling shutter camera
US11514604B2 (en) Information processing device and information processing method
JP7078234B2 (ja) 拡張現実空間に配置される3dオブジェクトを生成する方法
Young et al. An arm-mounted inertial controller for 6DOF input: Design and evaluation
JP2022121419A (ja) コンピュータプログラム、サーバ装置及び方法
Pascu et al. Motion capture and activity tracking using smartphone-driven body sensor networks
US10386185B2 (en) Information processing method and electronic device
CN113873637A (zh) 定位方法、装置、终端和存储介质
KR20160108126A (ko) 자세 또는 동작을 인식하기 위한 방법, 디바이스, 시스템 및 비일시성의 컴퓨터 판독 가능한 기록 매체
CN117784936A (zh) 控制方法、终端设备、可穿戴设备、通信系统及存储介质
CN117170491A (zh) 在虚拟现实场景中确定虚拟光标方法、装置、设备和介质
CN116977891A (zh) 姿态处理方法、装置、电子设备及可读存储介质

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170704

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171003

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180213

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180226

R150 Certificate of patent or registration of utility model

Ref document number: 6308306

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees