JP6508061B2 - 情報処理装置、情報処理方法、およびプログラム - Google Patents

情報処理装置、情報処理方法、およびプログラム Download PDF

Info

Publication number
JP6508061B2
JP6508061B2 JP2015557708A JP2015557708A JP6508061B2 JP 6508061 B2 JP6508061 B2 JP 6508061B2 JP 2015557708 A JP2015557708 A JP 2015557708A JP 2015557708 A JP2015557708 A JP 2015557708A JP 6508061 B2 JP6508061 B2 JP 6508061B2
Authority
JP
Japan
Prior art keywords
mounting position
action
information processing
sensor
setting
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015557708A
Other languages
English (en)
Other versions
JPWO2015107737A1 (ja
Inventor
倉田 雅友
雅友 倉田
正範 勝
正範 勝
荘太 松澤
荘太 松澤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Publication of JPWO2015107737A1 publication Critical patent/JPWO2015107737A1/ja
Application granted granted Critical
Publication of JP6508061B2 publication Critical patent/JP6508061B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N7/00Computing arrangements based on specific mathematical models
    • G06N7/01Probabilistic graphical models, e.g. probabilistic networks
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/1036Measuring load distribution, e.g. podologic studies
    • A61B5/1038Measuring plantar pressure during gait
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/1123Discriminating type of movement, e.g. walking or running
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/113Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb occurring during breathing
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/24Detecting, measuring or recording bioelectric or biomagnetic signals of the body or parts thereof
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/68Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient
    • A61B5/6801Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient specially adapted to be attached to or worn on the body surface
    • A61B5/6802Sensor mounted on worn items
    • A61B5/6803Head-worn items, e.g. helmets, masks, headphones or goggles
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/68Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient
    • A61B5/6801Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient specially adapted to be attached to or worn on the body surface
    • A61B5/6802Sensor mounted on worn items
    • A61B5/681Wristwatch-type devices
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/68Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient
    • A61B5/6801Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient specially adapted to be attached to or worn on the body surface
    • A61B5/6813Specially adapted to be attached to a specific body part
    • A61B5/6814Head
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/68Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient
    • A61B5/6801Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient specially adapted to be attached to or worn on the body surface
    • A61B5/6813Specially adapted to be attached to a specific body part
    • A61B5/6822Neck
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/68Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient
    • A61B5/6801Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient specially adapted to be attached to or worn on the body surface
    • A61B5/6813Specially adapted to be attached to a specific body part
    • A61B5/6823Trunk, e.g., chest, back, abdomen, hip
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/68Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient
    • A61B5/6801Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient specially adapted to be attached to or worn on the body surface
    • A61B5/6813Specially adapted to be attached to a specific body part
    • A61B5/6824Arm or wrist
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/68Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient
    • A61B5/6801Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient specially adapted to be attached to or worn on the body surface
    • A61B5/6813Specially adapted to be attached to a specific body part
    • A61B5/6825Hand
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/68Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient
    • A61B5/6801Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient specially adapted to be attached to or worn on the body surface
    • A61B5/6813Specially adapted to be attached to a specific body part
    • A61B5/6829Foot or ankle
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7235Details of waveform analysis
    • A61B5/7264Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1626Constructional details or arrangements for portable computers with a single-body enclosure integrating a flat display, e.g. Personal Digital Assistants [PDAs]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/163Wearable computers, e.g. on a belt
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1684Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
    • G06F1/1694Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being a single or a set of motion sensors for pointer control or gesture input obtained by sensing movements of the portable computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/038Control and interface arrangements therefor, e.g. drivers or device-embedded control circuitry
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/02Knowledge representation; Symbolic representation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/23Recognition of whole body movements, e.g. for sport training
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B2562/00Details of sensors; Constructional details of sensor housings or probes; Accessories for sensors
    • A61B2562/02Details of sensors specially adapted for in-vivo measurements
    • A61B2562/0219Inertial sensors, e.g. accelerometers, gyroscopes, tilt switches
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B2562/00Details of sensors; Constructional details of sensor housings or probes; Accessories for sensors
    • A61B2562/06Arrangements of multiple sensors of different types
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0002Remote monitoring of patients using telemetry, e.g. transmission of vital signals via a communication network
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/1118Determining activity level
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/74Details of notification to user or communication with user or patient ; user input means
    • A61B5/7405Details of notification to user or communication with user or patient ; user input means using sound
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/74Details of notification to user or communication with user or patient ; user input means
    • A61B5/742Details of notification to user or communication with user or patient ; user input means using visual displays
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/74Details of notification to user or communication with user or patient ; user input means
    • A61B5/7455Details of notification to user or communication with user or patient ; user input means characterised by tactile indication, e.g. vibration or electrical stimulation
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/74Details of notification to user or communication with user or patient ; user input means
    • A61B5/7465Arrangements for interactive communication between patient and care services, e.g. by using a telephone network
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems

Description

本開示は、情報処理装置、情報処理方法、およびプログラムに関する。
ユーザの行動を認識し、認識結果を表示画面に表示させる技術が開発されている。ユーザの行動を認識し、認識結果を表示画面に表示させる技術としては、例えば下記の特許文献1に記載の技術が挙げられる。
特開2010−134802号公報
近年、スマートフォンなどの可搬型の装置だけでなく、腕時計型のデバイスなどのように、ユーザが身につけて用いることが可能なウェアラブル型の装置(以下、「ウェアラブル装置」と示す。)を用いるユーザが増えつつある。また、例えばライフログなどのように、上記のような装置に搭載されたセンサ、または、上記のような装置に取り付けられた外部センサの検出値を利用した、ユーザの行動に関するアプリケーションも実用化されている。
しかしながら、単にセンサの検出値を利用してユーザの行動認識が行われる場合、例えば、センサが搭載された装置(または、外部センサが取り付けられた装置)がユーザに装着された位置によっては、ユーザの行動を認識する精度が悪化する、または、ユーザの行動を認識することができない恐れがある。
本開示では、ユーザの行動をより高い精度で認識可能とし、認識されたユーザの行動に応じた処理を制御することが可能な、新規かつ改良された情報処理装置、情報処理方法、およびプログラムを提案する。
本開示によれば、設定対象の装置の装着位置情報に基づき、行動認識モードを設定する行動認識モード設定部と、設定された上記行動認識モードと、上記設定対象の装置に対応するセンサの検出値とに基づいて、ユーザの行動を認識する行動認識部と、認識されたユーザの行動に対応する処理の実行を制御する処理制御部と、を備える、情報処理装置が提供される。
また、本開示によれば、設定対象の装置の装着位置情報に基づき、行動認識モードを設定するステップと、設定された上記行動認識モードと、上記設定対象の装置に対応するセンサの検出値とに基づいて、ユーザの行動を認識するステップと、認識されたユーザの行動に対応する処理の実行を制御するステップと、を有する、情報処理装置により実行される情報処理方法が提供される。
また、本開示によれば、設定対象の装置の装着位置情報に基づき、行動認識モードを設定するステップ、設定された上記行動認識モードと、上記設定対象の装置に対応するセンサの検出値とに基づいて、ユーザの行動を認識するステップ、認識されたユーザの行動に対応する処理の実行を制御するステップ、をコンピュータに実行させるためのプログラムが提供される。
本開示によれば、ユーザの行動をより高い精度で認識可能とし、認識されたユーザの行動に応じた処理を制御することができる。
なお、上記の効果は必ずしも限定的なものではなく、上記の効果とともに、または上記の効果に代えて、本明細書に示されたいずれかの効果、または本明細書から把握されうる他の効果が奏されてもよい。
本実施形態に係る情報処理方法を説明するための説明図である。 本実施形態に係る情報処理方法を説明するための説明図である。 本実施形態に係る情報処理方法を説明するための説明図である。 本実施形態に係る情報処理方法を説明するための説明図である。 本実施形態に係る情報処理方法を説明するための説明図である。 本実施形態に係る情報処理方法を説明するための説明図である。 本実施形態に係る情報処理方法を説明するための説明図である。 本実施形態に係る情報処理方法を説明するための説明図である。 本実施形態に係る設定対象の装置の一例を示す説明図である。 本実施形態に係る装着位置認識処理の第1の例を説明するための説明図である。 本実施形態に係る装着位置認識処理の第1の例を説明するための説明図である。 本実施形態に係る装着位置認識処理の第1の例を説明するための説明図である。 本実施形態に係る装着位置認識処理の第1の例を説明するための説明図である。 本実施形態に係る装着位置認識処理の第1の例を説明するための説明図である。 本実施形態に係る装着位置認識処理の第2の例を説明するための説明図である。 本実施形態に係る装着位置認識処理の第3の例を説明するための説明図である。 本実施形態に係る装着位置認識処理の第3の例を説明するための説明図である。 本実施形態に係る装着位置認識処理の第5の例を説明するための説明図である。 本実施形態に係る情報処理装置の構成の一例を示すブロック図である。 本実施形態に係る情報処理装置のハードウェア構成の一例を示す説明図である。
以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
また、以下では、下記に示す順序で説明を行う。
1.本実施形態に係る情報処理方法
2.本実施形態に係る情報処理装置
3.本実施形態に係るプログラム
(本実施形態に係る情報処理方法)
本実施形態に係る情報処理装置の構成について説明する前に、まず、本実施形態に係る情報処理方法について説明する。以下では、本実施形態に係る情報処理方法に係る処理を本実施形態に係る情報処理装置が行う場合を例に挙げて、本実施形態に係る情報処理方法について説明する。
上述したように、例えば、単にセンサの検出値を利用してユーザの行動認識が行われる場合には、センサが搭載された装置(または、外部センサが取り付けられた装置。以下、同様とする。)がユーザに装着された位置によっては、ユーザの行動を認識する精度が悪化する、または、ユーザの行動を認識することができない恐れがある。
図1A〜図1Hは、本実施形態に係る情報処理方法を説明するための説明図である。図1A〜図1Hは、加速度センサとジャイロセンサとが搭載された、センサが搭載された装置における、装着位置とユーザの行動とに応じたセンサの検出値の一例を示している。
より具体的には、図1Aは、センサが搭載された装置が、ユーザの頭部に装着されている場合の検出値の一例を示しており、図1AのAは、ユーザが水泳を行っている場合の検出値、図1AのBは、ユーザがうなずいている場合の検出値を示している。
また、図1Bは、センサが搭載された装置が、ユーザの顎に装着されている場合の検出値の一例を示しており、図1BのAは、ユーザが発話を行っている場合の検出値、図1BのBは、ユーザが咀嚼している場合の検出値を示している。
また、図1Cは、センサが搭載された装置が、ユーザの首に装着されている場合の検出値の一例を示しており、図1CのAは、ユーザがスクワットを行っている場合の検出値、図1CのBは、ユーザが腕立て伏せを行っている場合の検出値を示している。また、図1Dは、センサが搭載された装置が、ユーザの首に装着されている場合の検出値の一例を示しており、図1DのAは、ユーザが腹筋運動を行っている場合の検出値、図1DのBは、ユーザが背筋運動を行っている場合の検出値を示している。
また、図1Eは、センサが搭載された装置が、ユーザの胸に装着されている場合の検出値の一例を示しており、ユーザが呼吸を行っている場合の検出値を示している。
また、図1Fは、センサが搭載された装置が、ユーザの足首に装着されている場合の検出値の一例を示しており、図1FのAは、ユーザがサッカーを行っている場合の検出値、図1FのBは、ユーザが自転車に乗っている場合の検出値を示している。
また、図1Gは、センサが搭載された装置が、ユーザの指に装着されている場合の検出値の一例を示しており、ユーザがタイピングを行っている場合の検出値を示している。
また、図1Hは、センサが搭載された装置が、ユーザの手首に装着されている場合の検出値の一例を示しており、図1HのAは、ユーザがテニスのスイングを行っている場合の検出値、図1HのBは、ユーザが野球のスイングを行っている場合の検出値を示している。
センサが搭載された装置が、ユーザに装着されている場合には、例えば図1A〜図1Hに示すような検出値が得られる。
ここで、例えば、図1AのAに示す、水泳が行われている場合における加速度センサの検出値と、図1CのAに示す、スクワットが行われている場合における加速度センサの検出値とを参照すると、加速度センサの検出値は、類似している。そのため、単にセンサの検出値を利用してユーザの行動認識が行われる場合には、ユーザが水泳を行っているのか、または、ユーザがスクワットを行っているのかを判定することができない、または、誤った判定結果が得られる恐れがある。
また、センサが搭載された装置がユーザの顎に装着されている場合には、例えば図1Bに示すように、センサの検出値の変化が、センサが搭載された装置がユーザの頭部や首などに装着されている場合よりも非常に小さい。つまり、例えば、センサが搭載された装置が、ユーザの顎に装着されている場合には、微小振動を検出した上で、ユーザの行動の認識を行う必要がある。よって、センサが搭載された装置が装着されているユーザの行動を、より精度よく検出するためには、例えば、ユーザにおけるセンサが搭載された装置の装着位置に応じて、センサの分解能の設定などを切り替えることが望ましい。
そこで、本実施形態に係る情報処理装置は、本実施形態に係る情報処理方法に係る処理として、例えば、下記に示す(1)行動認識モード設定処理、(2)行動認識処理、および(3)実行制御処理、を行うことによって、ユーザの行動をより高い精度で認識可能とし、認識されたユーザの行動に応じた処理を制御する。
(1)行動認識モード設定処理
本実施形態に係る情報処理装置は、設定対象の装置に対して、装着位置情報に基づく行動認識モードを設定する。
ここで、本実施形態に係る装着位置情報とは、設定対象の装置がユーザに装着されている装着位置を示すデータである。本実施形態に係る装着位置情報は、頭部、首など、装着位置を直接的に示すデータ(例えば、装着位置を文字列で表すデータなど)であってもよいし、装着位置を間接的に示すデータ(例えば、装着位置を示すIDなど)であってもよい。
本実施形態に係る装着位置情報は、例えば、本実施形態に係る情報処理装置が、後述する(4)装着位置認識処理を行うことにより生成される。本実施形態に係る情報処理装置が装着位置情報を生成する場合には、本実施形態に係る情報処理装置は、生成した装着位置情報を用いて、本実施形態に係る情報処理方法に係る処理を行う。
また、本実施形態に係る装着位置情報は、後述する(4)装着位置認識処理と同様の処理を行った外部装置において生成されてもよい。上記外部装置において装着位置情報が生成される場合には、本実施形態に係る情報処理装置は、例えば、通信部(後述する)や接続されている外部通信デバイスを介して、当該外部装置から通信により装着位置情報を取得し、取得された装着位置情報を用いて、本実施形態に係る情報処理方法に係る処理を行う。
また、本実施形態に係る設定対象の装置とは、行動認識モードを設定する対象の装置である。本実施形態に係る設定対象の装置としては、例えば、ユーザの行動の認識に用いられるセンサが搭載された装置や、ユーザの行動の認識に係る外部センサが取り付けられた装置が挙げられる。本実施形態に係る設定対象の装置は、本実施形態に係る情報処理装置であってもよいし、本実施形態に係る情報処理装置の外部装置であってもよい。
具体例を挙げると、本実施形態に係る設定対象の装置としては、例えば、“スマートフォンや携帯電話、タブレット型の装置などの可搬型の装置”や“ウェアラブル装置”など、ユーザが身体に直接的に装着することが可能な装置や、鞄やポケットなどのユーザが直接的に装着することが可能なものの中に入れることにより間接的に装着することが可能な装置が挙げられる。
以下では、本実施形態に係る設定対象の装置が、ウェアラブル装置である場合を例に挙げる。
図2は、本実施形態に係る設定対象の装置の一例を示す説明図であり、本実施形態に係る設定対象の装置がウェアラブル装置である場合における、ウェアラブル装置の一例を示している。図2に示すA〜Eは、それぞれウェアラブル装置の一例を示している。
本実施形態に係る設定対象の装置としての役目を果たしうる、本実施形態に係るウェアラブル装置としては、図2に示すように下記のような装置が挙げられる。なお、本実施形態に係るウェアラブル装置が、下記に示す例に限られないことは、言うまでもない。
・頭部装着型の装置(図2のA):例えば、HMD(Head Mounted Display)や、撮像装置など
・アイウェア型の装置(図2のB):例えば、HMDや、メガネ型の装置など
・首かけ型の装置(図2のC):例えば、撮像装置や、ヘッドセット、ネックレス型の装置、データロガーなど
・手首/腕装着型の装置(図2のD):例えば、時計型の装置や、データロガー、ブレスレット型の装置、リストバンド型の装置など
・手/指装着型の装置(図2のEのE1):例えば、グローブ型の装置や、リング型の装置など
・腰/上着/ポケット装着型の装置(図2のEのE2):例えば、ベルト型の装置や、クリップ/マグネット型の装置、データロガーなど
・足首/足装着型の装置(図2のEのE3):例えば、アンクレット型の装置や、データロガーなど
また、ウェアラブル装置それぞれは、行動認識に用いられるセンサSを有する。ここで、行動認識に用いられるセンサSは、ウェアラブル装置に内蔵されたセンサ(ウェアラブル装置が備えるセンサ)であってもよいし、ウェアラブル装置に接続された外部センサであってもよい。
以下では、例えば図2に示す行動認識に用いられるセンサSのような、設定対象の装置に対応する行動認識に用いられるセンサを、「設定対象の装置に対応するセンサ」と示す場合がある。
また、本実施形態に係るセンサとしては、例えば、加速度センサや、GPS(Global Positioning System)デバイス、ジャイロセンサ、気圧センサ、近接センサ、生体センサなどが挙げられる。なお、本実施形態に係るセンサは、上記に限られず、本実施形態に係る行動認識処理など、ユーザの行動認識に係る処理に用いることが可能な任意のセンサであってもよい。
また、本実施形態に係る行動認識モードとは、行動の状態を決定するためのものであり、行動認識に関する1つの設定、または、複数の行動認識に関する設定の組み合わせを示す。
本実施形態に係る行動認識モードとしては、例えば、“センサに関する設定”と“行動認識に係る処理に関する設定”との一方または双方の組み合わせが挙げられる。
本実施形態に係るセンサに関する設定としては、例えば、行動認識に用いられるセンサの種類の設定と、行動認識に用いられるセンサのパラメータの設定(例えば、サンプリングの設定や、センシングモードの設定など)との一方または双方が挙げられる。行動認識に用いられるセンサの種類の設定としては、例えば、動作させるセンサの設定(動作させないセンサの電源をオフとする設定が含まれてもよい。)が挙げられる。また、行動認識に用いられるセンサのパラメータの設定としては、例えば、サンプリングの設定や、センシングモードの設定など、センサの動作やセンサの検出値の出力に関する、任意の設定が挙げられる。
また、本実施形態に係る行動認識に係る処理に関する設定としては、例えば、設定対象の装置に対応するセンサの検出値の中から行動認識に用いる特徴量の種類の設定と、行動認識に係る処理に用いるアルゴリズムの設定と、行動認識に係る処理に用いるモデルデータの設定とのうちの、1または2以上が挙げられる。
本実施形態に係る情報処理装置は、装着位置情報を参照することによって、設定対象の装置がユーザに装着されている装着位置を認識することができる。本実施形態に係る情報処理装置は、例えば、認識された装着位置に対応する行動認識モードを、設定対象の装置に対して設定する。
本実施形態に係る情報処理装置は、例えば、装着位置と設定する行動認識モードとが対応付けられたテーブル(またはデータベース)と、装着位置情報に基づき認識された装着位置とにより、認識された装着位置に対応する行動認識モードを特定する。そして、本実施形態に係る情報処理装置は、特定された行動認識モードを、設定対象の装置に対して設定する。
なお、本実施形態に係る行動認識モードの特定方法は、上記に限られない。
例えば、装着位置に対応する行動認識モードが複数存在する場合、本実施形態に係る情報処理装置は、設定された行動認識モードの履歴や、時間、装着位置情報に対応する設定対象装置の位置のうちの1または2以上を用いて、装着位置に対応する行動認識モードを特定することも可能である。
また、装着位置に対応する行動認識モードが複数存在する場合、本実施形態に係る情報処理装置は、設定される候補となる行動認識モードを、設定対象装置のユーザに対して、視覚的および/または聴覚的に提示し、当該ユーザにより選択された行動認識モードを、装着位置に対応する行動認識モードとして特定してもよい。
装着位置に対応する行動認識モードとしては、例えば、下記に示すユーザの行動に対応する行動認識モードが挙げられる。なお、本実施形態に装着位置に対応する行動認識モードが、下記に示すユーザの行動に対応する行動認識モードに限られないことは、言うまでもない。
・装着位置が「頭部」の場合:水泳認識(泳法、ターン回数など)、うなずき認識
・装着位置が「顎」の場合:発話しているか否かの認識、咀嚼回数認識、食べ物種類認識
・装着位置が「首」の場合:トレーニング認識(スクワット、腕立てなど)
・装着位置が「胸」の場合:呼吸しているか否かの認識(体動)
・装着位置が「足首」の場合:サッカー認識(キックのモーションなど)、自転車のケイデンス認識
・装着位置が「指」の場合:タイピング認識
・装着位置が「手首」の場合:スイング認識(野球やテニス、ゴルフなど)
・装着位置が「ズボンのポケット」の場合:乗物認識(電車やバスなど)
より具体的には、本実施形態に係る情報処理装置による行動認識モードの設定に係る処理として、例えば、下記の(1−1)の処理と(1−2)の処理を行う。
(1−1)行動認識モードの設定に係る処理の第1の例:センサに関する設定の実行
本実施形態に係る情報処理装置は、設定対象の装置に対応するセンサに対して、装着位置情報に基づくセンサに関する設定を行う。
より具体的には、例えば、設定対象の装置が本実施形態に係る情報処理装置の外部装置である場合、本実施形態に係る情報処理装置は、例えば、センサに関する設定を示すデータを、設定対象の装置に対して送信させることによって、設定対象の装置に、センサに関する設定を行わせる。本実施形態に係る情報処理装置は、例えば、本実施形態に係る情報処理装置が備える通信部(後述する)や、本実施形態に係る情報処理装置に接続された外部通信デバイスに、センサに関する設定を示すデータを送信させる。
ここで、本実施形態に係るセンサに関する設定を示すデータとしては、例えば下記に示すデータの一方または双方のデータが挙げられる。なお、本実施形態に係るセンサに関する設定を示すデータは、下記に示す例に限られない。本実施形態に係るセンサに関する設定を示すデータとしては、例えば、センサの動作を制御することが可能な任意のデータ(またはデータ群)が挙げられる。
・有効とするセンサの種類を示すデータ(例えば、センサIDなど)
・センサのパラメータを示すデータ
また、本実施形態に係るセンサに関する設定を示すデータには、例えば、センサに関する設定の実行を行わせるための命令が含まれていてもよい。
また、設定対象の装置が、自装置(本実施形態に係る情報処理装置)である場合には、本実施形態に係る情報処理装置は、備えている検出部(後述する)を構成するセンサ(設定対象の装置に対応するセンサの一例)、または、接続されている外部センサ(設定対象の装置に対応するセンサの一例)に対して、センサに関する設定を行う。
(1−2)行動認識モードの設定に係る処理の第2の例:行動認識に係る処理に関する設定の実行
本実施形態に係る情報処理装置は、装着位置情報に基づく行動認識に係る処理に関する設定を行う。
本実施形態に係る情報処理装置は、例えば、設定対象の装置を示すデータと、装着位置情報に基づき認識された装着位置に対応する、行動認識に係る処理に関する設定を示すデータとを、テーブルやデータベースなどに対応付けて記録することによって、行動認識に係る処理に関する設定を行う。
ここで、本実施形態に係る設定対象の装置を示すデータとしては、例えば装置IDなどが挙げられる。
また、行動認識に係る処理に関する設定を示すデータとしては、例えば、下記に示すデータが挙げられる。なお、本実施形態に係る行動認識に係る処理に関する設定を示すデータは、下記に示す例に限られない。本実施形態に係る行動認識に係る処理に関する設定を示すデータとしては、例えば、行動認識に係る処理を制御することが可能な任意のデータ(またはデータ群)が挙げられる。
・特徴量の種類を示すデータ(例えば、特徴量を示すIDなど)
・行動認識に係る処理に用いるアルゴリズムを示すデータ(例えば、プログラムデータや、アルゴリズムを示すIDなど)
・行動認識に係る処理に用いるモデルデータを示すデータ(例えば、モデルデータそのものや、モデルデータを示すIDなど)
本実施形態に係る情報処理装置は、例えば、上記テーブルなどを参照し、設定対象の装置に対応する行動認識に係る処理に関する設定を示すデータを用いて、後述する(2)の処理(行動認識処理)を行う。
なお、設定対象の装置が本実施形態に係る情報処理装置の外部装置であり、行動認識に係る処理が当該外部装置において行われる場合には、本実施形態に係る情報処理装置は、例えば、装着位置情報に基づき認識された装着位置に対応する、行動認識に係る処理に関する設定を示すデータを、当該外部装置に対して送信させることによって、当該外部装置に、行動認識に係る処理を行わせてもよい。本実施形態に係る情報処理装置は、例えば、本実施形態に係る情報処理装置が備える通信部(後述する)や、本実施形態に係る情報処理装置に接続された外部通信デバイスに、行動認識に係る処理に関する設定を示すデータを送信させる。
本実施形態に係る情報処理装置が、設定対象の装置である上記外部装置に対して送信する行動認識に係る処理に関する設定を示すデータには、例えば、行動認識に関する設定を行わせるための命令を行わせるための命令が含まれる。
本実施形態に係る情報処理装置は、例えば、上記(1−1)に示す第1の例に係る処理や、上記(1−2)に示す第2の例に係る処理を行うことによって、設定対象の装置に対して、装着位置情報に基づく行動認識モードを設定する。
(2)行動認識処理
本実施形態に係る情報処理装置は、設定された行動認識モードと、設定対象の装置に対応するセンサの検出値とに基づいてユーザの行動を認識する。
本実施形態に係る情報処理装置は、例えば、設定された行動認識モードに従ってセンサの検出値から抽出された特徴量と、認識される候補の行動に対応する特徴量とのパターンマッチングを行うことによって、ユーザの行動を認識する。
なお、本実施形態に係る行動認識処理は、上記に限られない。例えば、本実施形態に係る情報処理装置は、閾値処理を利用した処理など、センサの検出値に基づきユーザの行動を認識することが可能な任意の技術を利用して、ユーザの行動を認識してもよい。
本実施形態に係る行動認識処理において認識されるユーザの行動としては、例えば、図1A〜図1Hに対応するユーザの行動や、水泳認識などの上述したユーザの行動の例に示す、ユーザの行動などが挙げられる。
なお、本実施形態に係る情報処理装置は、複数の装着位置において、同一のユーザの行動を認識することも可能である。複数の装着位置において認識可能な、ユーザの行動としては、例えば、ユーザがバスや電車などの乗り物に乗っていることを認識する“乗物認識”が挙げられる。
ここで、複数の装着位置において同一のユーザの行動を認識する場合には、装着位置ごとに、ユーザの行動の認識に係る処理が異なっていてもよい。例えば、行動の認識モデルや、行動の認識に用いられる辞書が、装着位置ごとに設けられることによって、ユーザの行動の認識に係る処理を装着位置ごとに変えることが可能である。また、複数の装着位置において同一のユーザの行動を認識する場合には、例えば、装着位置によらずに、ユーザの行動の認識に係る処理として設定されている所定の処理が行われることも可能である。
上述したように、例えば、図1AのAに示す、水泳が行われているときにおける加速度センサの検出値と、図1CのAに示す、スクワットが行われているときにおける加速度センサの検出値とのように、加速度センサ(設定対象の装置に対応するセンサの一例)の検出値が類似する場合はありうる。
本実施形態に係る情報処理装置は、上記(1)の処理(行動認識モード設定処理)において、装着位置情報に基づき行動認識モードを設定するので、装着位置に応じた設定に従って、ユーザの行動の認識精度を高めることができる。
また、上述したように、例えば、センサが搭載された装置がユーザの顎に装着されている場合には、微小振動を検出した上で、ユーザの行動の認識を行う必要がある。本実施形態に係る情報処理装置は、上記(1)の処理(行動認識モード設定処理)において、装着位置情報に基づき行動認識モードを設定するので、装着位置に応じて、センサの分解能の設定などを切り替えることが可能となる。よって、本実施形態に係る情報処理装置は、設定対象の装置に対応するセンサの検出値に基づいてユーザの行動をより精度よく認識することができる。
(3)実行制御処理
本実施形態に係る情報処理装置は、認識されたユーザの行動に対応する処理の実行を制御する。また、本実施形態に係る情報処理装置は、例えば、装着位置情報が示す装着位置と、認識されたユーザの行動とに対応する処理の実行を制御してもよい。以下では、本実施形態に係る実行制御処理により制御される処理を、「行動に対応する処理」と示す。
本実施形態に係る情報処理装置は、例えば、ユーザの行動、および制御対象の処理が対応付けられているテーブル(またはデータベース)と、上記(2)の処理(行動認識処理)において認識されたユーザの行動とに基づいて、行動に対応する処理を特定する。また、本実施形態に係る情報処理装置は、例えば、装着位置、ユーザの行動、および制御対象の処理が対応付けられているテーブル(またはデータベース)と、装着位置情報が示す装着位置と、上記(2)の処理(行動認識処理)において認識されたユーザの行動とに基づいて、行動に対応する処理を特定することも可能である。
そして、行動に対応する処理を実行する装置が、本実施形態に係る情報処理装置の外部装置である場合には、本実施形態に係る情報処理装置は、特定された行動に対応する処理を行わせるための処理命令を、当該外部装置に対して送信させる。上記行動に対応する処理を行わせるための処理命令を受信した外部装置は、当該処理命令に応じて、行動に対応する処理を実行する。
また、本実施形態に係る情報処理装置は、特定された行動に対応する処理に係るデータ(例えば、処理の実行に用いられるアプリケーションや、処理パラメータなど)を、上記外部装置に対して送信させてもよい。本実施形態に係る情報処理装置は、例えば、本実施形態に係る情報処理装置が備える通信部(後述する)や、本実施形態に係る情報処理装置に接続された外部通信デバイスに、行動に対応する処理を行わせるための処理命令などを送信させる。
また、行動に対応する処理を実行する装置が、自装置(本実施形態に係る情報処理装置)である場合には、本実施形態に係る情報処理装置は、特定された行動に対応する処理を実行する。
本実施形態に係る情報処理装置は、例えば上記のように、外部装置に行動に対応する処理を行わせることや、行動に対応する処理を行うことによって、行動に対応する処理の実行を制御する。
以下、行動に対応する処理を実行する装置が、ウェアラブル装置(設定対象の装置の一例)である場合を主に例に挙げて、実行制御処理の具体例を説明する。また、以下では、本実施形態に係る情報処理装置が、装着位置情報が示す装着位置と、認識されたユーザの行動とに対応する処理の実行を制御する場合を主に例に挙げて、実行制御処理の具体例を説明する。なお、本実施形態に係る実行制御処理の例が、下記に示す例に限られないことは、言うまでもない。
(a)実行制御処理の第1の例:装着位置が「首」である場合
上記(2)の処理(行動認識処理)において、スクワットや腕立てなどのトレーニング認識が行われた場合、本実施形態に係る情報処理装置は、行動に対応する処理として、例えば、“音声により励ましを行うアプリケーションを起動させる処理”を特定する。そして、本実施形態に係る情報処理装置は、ユーザが装着しているウェアラブル装置に、音声を出力させる。
ウェアラブル装置の装着位置が首である場合、例えば、ウェアラブル装置の表示画面などに文字や画像などを表示させることにより、ユーザに情報を提示しても、ウェアラブル装置を装着しているユーザには、提示される内容が伝わらない可能性が高い。そこで、本実施形態に係る情報処理装置は、ユーザが装着しているウェアラブル装置に音声を出力させることによって、ウェアラブル装置を装着しているユーザに情報を伝達する。
ここで、本実施形態に係る情報処理装置は、例えば、特定の有名人やキャラクタの声で、トレーニング回数を読み上げてくれるようなアプリケーションを、ユーザが装着しているウェアラブル装置に起動させてもよい。
(b)実行制御処理の第2の例:装着位置が「胸」である場合
上記(2)の処理(行動認識処理)において、呼吸しているか否かの認識が行われた場合、本実施形態に係る情報処理装置は、行動に対応する処理として、例えば、“呼吸のペースを友達と共有することが可能なアプリケーションを起動させる処理”を特定する。そして、本実施形態に係る情報処理装置は、ユーザが装着しているウェアラブル装置に、呼吸のペースを友達と共有することが可能なアプリケーションを起動させる。
ここで、上記呼吸のペースを友達と共有することが可能なアプリケーションは、例えば、行動ステータスに呼吸のペースを加味する機能や、アバターを制御する機能(例えば、走っていて呼吸が荒かったらアバターの汗を増やしたり、静止時に呼吸が荒かったら頬を紅潮させたりするなど)を有する。
また、上記呼吸のペースを友達と共有するアプリケーションは、例えば、ウェアラブル装置が通信可能な範囲において、同一のアプリケーションが起動されている装置との間で、データを共有する機能を有していてもよい。上記データを共有する機能を有する場合には、例えば、同一のアプリケーションが起動されているメガネ型の装置において、ウェアラブル装置を装着しているユーザの顔などに、AR(Augumented Reality)技術などが用いられることによって、ウェアラブル装置から共有されたデータの内容が重畳して表示されることなどが実現可能となる。
(c)実行制御処理の第3の例:装着位置が「胸」である場合
上記(2)の処理(行動認識処理)において、睡眠時に呼吸しているか否かの認識が行われた場合、本実施形態に係る情報処理装置は、行動に対応する処理として、例えば、“睡眠時無呼吸症候群確認用のアプリケーションを起動させる処理”を特定する。そして、本実施形態に係る情報処理装置は、ユーザが装着しているウェアラブル装置に、睡眠時無呼吸症候群確認用のアプリケーションを起動させる。
なお、睡眠判定に係る処理は、本実施形態に係る情報処理装置において行われてもよいし、外部装置が睡眠判定に係る処理を行い、本実施形態に係る情報処理装置は、当該外部装置において行われた睡眠判定に係る処理の結果を利用してもよい。
ここで、上記睡眠時無呼吸症候群確認用のアプリケーションは、例えば、睡眠の判定結果と呼吸の判定結果との両方を利用して、睡眠時無呼吸症候群の症状を検出する機能を有する。また、上記睡眠時無呼吸症候群確認用のアプリケーションは、例えば、睡眠時無呼吸症候群の症状が検出された場合に、本人や家族などの登録されているユーザに対して警告を行う機能を有していてもよい。
(d)実行制御処理の第4の例:装着位置が「足首」である場合
上記(2)の処理(行動認識処理)において、サッカー認識が行われた場合、本実施形態に係る情報処理装置は、行動に対応する処理として、例えば、“サッカーエンハンス機能に係る処理”を特定する。そして、本実施形態に係る情報処理装置は、ユーザが装着しているウェアラブル装置に、サッカーエンハンス機能に係る処理を実行させる。
ここで、本実施形態に係るサッカーエンハンス機能に係る処理としては、例えば、下記に示す処理が挙げられる。
・走量や動き方から疲労度を推定して、足首に装着されたウェアラブル装置が推定結果に応じた色の光を出力する処理:出力される光は、例えば、監督が采配を考える目安や、プレイヤーが戦略を立てる参考として用いることが可能である。
・キックスピードやインパクトの強弱を、足首に装着されたウェアラブル装置が音で提示する処理(例えば、「スパッ」(弱い場合)や、「ズドーン」(強い場合)など):キックスピードなどの強弱が音で提示されることによって、例えば、観戦において情報拡張がなされ、より楽しい観戦とすることが可能である。
(e)実行制御処理の第5の例:装着位置が「足首」である場合
上記(2)の処理(行動認識処理)において、自転車のケイデンス認識が行われた場合、本実施形態に係る情報処理装置は、行動に対応する処理として、例えば、“サイクリング機能に係る処理、または、トレーニング機能に係る処理”を特定する。本実施形態に係る情報処理装置は、例えば、ケイデンスによって特定する処理を判断する。そして、本実施形態に係る情報処理装置は、ユーザが装着しているウェアラブル装置に、サイクリング機能に係る処理、または、トレーニング機能に係る処理を実行させる。
ここで、本実施形態に係るサイクリング機能に係る処理としては、例えば、ケイデンスにあったBPM(Beats Per Minute)の曲が再生される処理と、サイクリングコースのナビゲーションを音声で出力する処理との一方または双方の処理が挙げられる。
また、本実施形態に係るトレーニング機能に係る処理としては、例えば、トレーニングメニューを自動生成する処理と、ペース配分とコースとを音声で指示する処理との一方または双方の処理が挙げられる。
(f)実行制御処理の第6の例:装着位置が「指」である場合
上記(2)の処理(行動認識処理)において、タイピング認識が行われた場合、本実施形態に係る情報処理装置は、行動に対応する処理として、例えば、“ユーザに対してフィードバック(例えば、音声(音楽も含む)、振動、文字、光などによるフィードバック)を行う処理”を特定する。そして、本実施形態に係る情報処理装置は、ユーザが装着しているウェアラブル装置に、ユーザに対してフィードバックを行う処理を実行させる。
ここで、本実施形態に係るユーザに対してフィードバックを行う処理としては、例えば、ユーザが一定時間以上タイピングを行い続けていると、休憩を促すフィードバックを行う処理が挙げられる、
(g)実行制御処理の第7の例:装着位置が「手首」である場合
上記(2)の処理(行動認識処理)において、テニスやゴルフ、野球などのスイング認識が行われた場合、本実施形態に係る情報処理装置は、行動に対応する処理として、例えば、“動画像の撮像を行う処理”を特定する。また、本実施形態に係る情報処理装置は、行動に対応する処理として、さらに“撮像された動画像を編集する処理”を特定してもよい。
そして、本実施形態に係る情報処理装置は、ユーザが装着しているウェアラブル装置に対応付けられている撮像装置に、動画像の撮像を行う処理を実行させ、また、当該ウェアラブル装置に対応付けられている画像処理装置に、撮像された動画像を編集する処理を実行させる。本実施形態に係る撮像装置は、例えば、三脚などにより、ウェアラブル装置を装着しているユーザを撮像可能な位置に配置される。なお、上記ウェアラブル装置に対応付けられている撮像装置と、上記ウェアラブル装置に対応付けられている画像処理装置とは、同一の装置であってもよい。
ここで、本実施形態に係る画像の撮像を行う処理としては、例えば、スイングをトリガーに動画像の撮像を開始する処理や、スイングが設定されている所定の時間検出されない場合に撮像を終了する処理などが挙げられる。上記のような画像の撮像を行う処理が行われることによって、常に撮像が行われる場合よりも、省エネルギー化を図ることが可能となる。
また、本実施形態に係る撮像された動画像を編集する処理としては、例えば、撮像の終了をトリガとして、撮像された動画像からダイジェスト画像を自動的に生成する処理などが挙げられる。
(h)実行制御処理の第8の例:装着位置が「ズボンのポケット」である場合
上記(2)の処理(行動認識処理)において、自転車や歩きの認識が行われた場合、本実施形態に係る情報処理装置は、行動に対応する処理として、例えば、“道をユーザに通知する処理”を特定する。そして、本実施形態に係る情報処理装置は、ズボンのポケット内で間接的に装着されている装置に、道をユーザに通知する処理を実行させる。
ここで、本実施形態に係る道をユーザに通知する処理としては、例えば、スピーカから音声を出力させることによる聴覚的なフィードバックを行う処理や、バイブレータなどを振動させることによる触覚的なフィードバックを行う処理の一方または双方が挙げられる。なお、本実施形態に係る道をユーザに通知する処理は、上記に限られない。例えば、本実施形態に係る道をユーザに通知する処理は、ズボンのポケット内からユーザへの通知を実質的に行うことが可能な任意のUI(User Interface)により、ユーザに道を通知する処理であってもよい。ここで、ズボンのポケット内からユーザへの通知を実質的に行うことが可能とは、例えば、ズボンのポケット内で間接的に装着されている装置が表示画面に地図などを表示させることなど、ユーザに対する道の通知が意味をなさない通知方法が除かれることを意味する。
本実施形態に係る情報処理装置は、本実施形態に係る実行処理として、例えば上記(a)に示す第1の例に係る処理〜上記(h)に示す第8の例に係る処理を行う。
なお、本実施形態に係る実行処理は、上記に限られない。上述したように、本実施形態に係る情報処理装置は、複数の装着位置において、例えばユーザが、バスや電車などの乗り物に乗っていることなど、同一のユーザの行動を認識することが可能である。
上記(2)の処理(行動認識処理)において、乗物認識が行われた場合、本実施形態に係る情報処理装置は、行動に対応する処理として、例えば、“ユーザへと通知する方法を制限する処理”(上記設定されている所定の処理の一例)を特定する。そして、本実施形態に係る情報処理装置は、ウェアラブル装置などに、ユーザへと通知する方法を制限する処理を実行させる。
ここで、本実施形態に係るユーザへと通知する方法を制限する処理としては、例えば、音声による聴覚的な通知を制限する処理などが挙げられる。
本実施形態に係る情報処理装置は、本実施形態に係る情報処理方法に係る処理として、例えば、上記(1)の処理(行動認識モード設定処理)、上記(2)の処理(行動認識処理)、および上記(3)の処理(実行制御処理)を行う。
ここで、本実施形態に係る情報処理装置は、上記(1)の処理(行動認識モード設定処理)において、装着位置情報に基づき行動認識モードを設定し、上記(2)の処理(行動認識処理)において、設定された行動認識モードに基づいてユーザの行動が認識される。つまり、本実施形態に係る情報処理装置は、装着位置に応じた行動認識モードに基づいて、ユーザの行動を認識することが可能である。よって、本実施形態に係る情報処理装置は、設定対象の装置に対応するセンサの検出値に基づいてユーザの行動をより精度よく認識することができる。
また、本実施形態に係る情報処理装置は、上記(3)の処理(実行制御処理)において、上記(2)の処理(行動認識処理)において認識されたユーザの行動に対応する、行動に対応する処理の実行を制御する。
したがって、本実施形態に係る情報処理装置は、上記(1)の処理(行動認識モード設定処理)、上記(2)の処理(行動認識処理)、および上記(3)の処理(実行制御処理)を行うことによって、ユーザの行動をより高い精度で認識可能とし、認識されたユーザの行動に応じた処理を制御することができる。
なお、本実施形態に係る情報処理方法に係る処理は、上記(1)の処理(行動認識モード設定処理)〜上記(3)の処理(実行制御処理)に限られない。
(4)装着位置認識処理
例えば、本実施形態に係る情報処理装置は、設定対象の装置がユーザに装着されている装着位置を認識する装着位置認識処理を、さらに行うことも可能である。
本実施形態に係る情報処理装置が、本実施形態に係る装着位置認識処理を行う場合には、本実施形態に係る情報処理装置は、上記(1)の処理(行動認識モード設定処理)において、本実施形態に係る装着位置認識処理において認識された装着位置を示す装着位置情報に基づいて、行動認識モードを設定する。また、実施形態に係る情報処理装置が、本実施形態に係る装着位置認識処理を行う場合には、本実施形態に係る情報処理装置は、上記(3)の処理(実行制御処理)において、本実施形態に係る装着位置認識処理において認識された装着位置を示す装着位置情報に基づいて、処理の実行を制御する。
以下、本実施形態に係る装着位置認識処理について、より具体的に説明する。なお、上述したように、後述する本実施形態に係る装着位置認識処理は、本実施形態に係る情報処理装置の外部装置において行われてもよい。
また、以下では、本実施形態に係る設定対象の装置が、本実施形態に係る情報処理装置の外部装置である場合を例に挙げる。なお、上述したように、本実施形態に係る設定対象の装置は、本実施形態に係る情報処理装置であってもよい。
(4−1)装着位置認識処理の第1の例
本実施形態に係る情報処理装置は、設定対象の装置に対応するセンサの検出値と、設定対象の装置に対応するセンサが装着可能な位置に対応する条件とに基づいて、装着位置を認識する。
ここで、本実施形態に係る、設定対象の装置に対応するセンサが装着可能な位置に対応する条件とは、例えば、装着可能な位置における、姿勢や速度などのセンサの検出値における制約条件である。上記制約条件は、装着可能な位置ごとに変わりうる。よって、本実施形態に係る情報処理装置は、上記制約条件を考慮することによって、設定対象の装置に対応するセンサの検出値に基づき装着位置を認識することができる。
図3は、本実施形態に係る装着位置認識処理の第1の例を説明するための説明図である。図3では、ある装着可能な位置に設けられたアタッチメントAに、行動認識に用いられるセンサを有する設定対象の装置が装着された場合における、装着位置認識処理の一例を示している。
本実施形態に係る情報処理装置は、センサの検出値を示すセンサログを、設定対象の装置から取得する(S100)。以下では、本実施形態に係る情報処理装置が、センサログとして、加速度センサの検出値と、ジャイロセンサの検出値とを得る場合を例に挙げる。
本実施形態に係る情報処理装置は、アタッチメントAでの装着時間が、条件を満たすか否かを判定する(S102)。本実施形態に係る情報処理装置は、例えば、センサログが取得され始めてからの時間が、所定の閾値以上の場合、または、センサログが取得され始めてからの時間が、所定の閾値よりも長い場合に、条件を満たすと判定する。
ステップS102において条件を満たすと判定されない場合には、本実施形態に係る情報処理装置は、ステップS100からの処理を繰り返す。
ステップS102において条件を満たすと判定された場合には、本実施形態に係る情報処理装置は、設定対象の装置を装着したユーザの動作に関するStep countの時間分布を計算する(S104)。また、本実施形態に係る情報処理装置は、X軸、Y軸、Z軸方向の加速度の平均(mean)の各時間分布を計算する(S106)。また、本実施形態に係る情報処理装置は、XY−Attitude(センサのX軸、Y軸の姿勢)、YZ−Attitude(センサのY軸、Z軸の姿勢)、ZX−Attitude(センサのZ軸、X軸の姿勢)の各時間分布を計算する(S108)。
図4、図5は、本実施形態に係る装着位置認識処理の第1の例を説明するための説明図であり、設定対象の装置が、ユーザの手首部分に装着される場合を示している。
図4のAに示すような、ユーザの手首部分に装着される設定対象の装置10を例に挙げると、XY−Attitude、YZ−Attitude、ZX−Attitudeは、下記の数式1〜数式3で算出される。また、重力方向(図4、図5に示す“Gravity”方向)は、X軸方向(図4、図5に示す“X”方向)、Y軸方向(図4、図5に示す“Y”方向)の加速度から計算される。また、X軸方向、Y軸方向、およびZ軸方向(図4に示す“Z”方向)の加速度は、水平方向の傾斜角(図4に示す“θ”(theta))に依存する。
XY−Attitude=arctan(Y−mean/|X−mean|)
・・・(数式1)
YZ−Attitude=arctan(Z−mean/|Y−mean|)
・・・(数式2)
ZX−Attitude=arctan(X−mean/|Z−mean|)
・・・(数式3)
本実施形態に係る情報処理装置は、設定対象の装置に対応するセンサの検出値に基づくステップS104〜S108の計算結果と、設定対象の装置に対応するセンサが装着可能な位置(図3に示す“装着位置X”、“装着位置Y”、…)に対応する条件とに基づいて、装着位置を認識する(S110〜S118)。
図6、図7は、本実施形態に係る装着位置認識処理の第1の例を説明するための説明図である。図6は、設定対象の装置がユーザの手首部分に装着されている場合における、設定対象の装置に対応するセンサの検出値に基づくステップS104〜S108の計算結果の一例を示している。また、図7は、設定対象の装置がユーザの腰部分に装着されている場合における、設定対象の装置に対応するセンサの検出値に基づくステップS104〜S108の計算結果の一例を示している。また、図6に示すA1、A2、B1、B2、C1、C2、および図7に示すA、B、Cは、ユーザが歩く動作を行った場合における、設定対象の装置に対応するセンサの検出値に基づくステップS104〜S108の計算結果の一例を示している。
本実施形態に係る情報処理装置は、例えば図3のステップS110、S114に示すような、設定対象の装置に対応するセンサが装着可能な位置に対応する閾値判定を行うことによって、装着位置を認識する。
具体例を挙げると、装着位置として、図5に示すようにユーザの手首部分を認識する場合には、本実施形態に係る情報処理装置は、例えば下記に示すような条件式を用いる。
・if(steps>threshold) then (e1=TRUE)
・if(th_min<XY−attitude<th_max)then(e2=TRUE)
・if(th_min<Z−mean<th_max)then(e3=TRUE)
・if(e1×e2×e3==1)then TRUE else FALSE
また、ステップS118に示すように、設定対象の装置に対応するセンサが装着可能な位置に対応する条件を満たさない場合には、本実施形態に係る情報処理装置は、装着位置不明と認識してもよい。装着位置不明と認識された場合には、本実施形態に係る情報処理装置は、例えば、上記(1)の処理(行動認識モード設定処理)、上記(3)の処理(実行制御処理)において、予め設定された処理(デフォルト処理)を行う。
(4−2)装着位置認識処理の第2の例
本実施形態に係る情報処理装置は、設定対象の装置に対応するセンサの検出値と、装着位置の認識の基準となる基準デバイスの出力とに基づいて、装着位置を認識する。
ここで、本実施形態に係る基準デバイスとしては、例えば、気圧センサなどの、設定対象の装置に対応する行動認識に用いられるセンサが挙げられる。本実施形態に係る基準デバイスが、設定対象の装置に対応する行動認識に用いられるセンサである場合には、基準デバイスの出力は、当該センサの検出値となる。
図8は、本実施形態に係る装着位置認識処理の第2の例を説明するための説明図である。図8は、基準デバイスが、ユーザの腰部分に装着される気圧センサであり、ユーザの各部分に装着されうる、設定対象の装置に対応する行動認識に用いられるセンサが、気圧センサを含む場合において、装着位置の認識に用いられるテーブルの一例を示している。
本実施形態に係る情報処理装置は、例えば、設定対象の装置に対応するセンサの検出値から、基準デバイスの出力である腰部分に装着された気圧センサの検出値を減算する。そして、減算された値が、図8に示すテーブルにおけるどの装着位置に対応するかを特定し、特定された装着位置を、装着位置として認識する。
なお、本実施形態に係る基準デバイスは、設定対象の装置に対応する行動認識に用いられるセンサに限られない。例えば、本実施形態に係る基準デバイスは、スピーカなどの音声出力デバイスなど、設定対象の装置に対応する行動認識に用いられるセンサ以外のデバイスであってもよい。本実施形態に係る基準デバイスが、例えば、音声出力デバイスである場合には、基準デバイスの出力は、音声出力デバイスから出力される音声信号となる。
例えば、本実施形態に係る基準デバイスが音声出力デバイスである場合、設定対象の装置に対応する行動認識に用いられるセンサとして、マイクロホンなどの音声入力デバイスを含む。本実施形態に係る情報処理装置は、例えば、基準デバイスである音声出力デバイスから出力された音声信号と、上記音声入力デバイスにおいて検出された音声信号との位相差を特定する。そして、本実施形態に係る情報処理装置は、例えば、図8と同様に位相差と装着位置とが対応付けられているテーブルを利用して、特定された位相差に対応する装着位置を認識する。
なお、本実施形態に係る基準デバイスが、設定対象の装置に対応する行動認識に用いられるセンサ以外のデバイスである場合における、本実施形態に係る基準デバイス、設定対象の装置に対応する行動認識に用いられるセンサは、音声信号に係るデバイスに限らない。上記の場合における本実施形態に係る基準デバイス、設定対象の装置に対応する行動認識に用いられるセンサは、例えば、信号の位相差を利用して装着位置を認識することが可能な任意のデバイスであってもよい。
(4−3)装着位置認識処理の第3の例
本実施形態に係る情報処理装置は、“設定対象の装置に対応するセンサの検出値に基づき推定されるユーザの行動の推定結果”に基づいて、装着位置を推定し、推定された装着位置を、装着位置として認識する。
図9は、本実施形態に係る装着位置認識処理の第3の例を説明するための説明図である。
本実施形態に係る情報処理装置は、装着位置初期確率を設定する(S200)。
図10は、本実施形態に係る装着位置認識処理の第3の例を説明するための説明図である。図10のAは、装着位置初期確率の一例を示しており、図10のBは、後述する図9のステップS204の処理の結果、更新された装着位置確率の一例を示している。
本実施形態に係る情報処理装置は、例えば、図10のAに示すような装着位置確率が設定されたデータを、記憶部(後述する)や接続されている外部記録媒体などから読み出すことによって、装着位置初期確率を設定する。なお、図10のAでは、各装着位置における装着確率が一定値である例を示しているが、各装着位置における装着確率を、ユーザの習慣性などを用いて偏りのある確率分布により設定してもよい。偏りのある確率分布の一例としては、例えば“ユーザが、いつも手首に設定対象の装置を装着するから手首の確率をあげておくこと”などが挙げられる。
本実施形態に係る情報処理装置は、装着位置推定終了条件を満たすか否かを判定する(S202)。本実施形態に係る情報処理装置は、装着確率の偏りが十分に大きくなったときに装着位置推定終了条件を満たすと判定する。より具体的には、本実施形態に係る情報処理装置は、例えば、ある装着位置における装着確率が設定されている閾値以上となったとき、または、ある装着位置における装着確率が設定されている閾値より大きくなったときに、装着位置推定終了条件を満たすと判定する。
ステップS202において装着位置推定終了条件を満たすと判定された場合には、本実施形態に係る情報処理装置は、第3の例に係る装着位置認識処理を終了する。
また、ステップS202において装着位置推定終了条件を満たすと判定されない場合には、本実施形態に係る情報処理装置は、設定対象の装置に対応するセンサの検出値に基づいて、ユーザの行動を推定する(S204)。
本実施形態に係る情報処理装置は、例えば、図10に示すような装着位置確率の確率分布と、設定対象の装置に対応するセンサの検出値に基づく行動の確からしさを示す値とを乗算し、乗算された値がより大きい行動を、ユーザの行動として推定する。なお、装着位置確率の確率分布において、装着確率が、設定された確率以下、または、設定された確率よりも小さい装着位置に対しては、行動の推定に係る処理を行わなくてもよい。
具体例を挙げると、例えば、ユーザが、足首におけるサッカーを認識する認識器の確からしさが50[%]、手首におけるスイングを認識する認識器の確からしさが60[%]を示すような行動をしたときには、装着位置確率の確率分布によって、下記にように行動が推定される。
・装着位置確率の確率分布が、図10のAの場合:“60[%]×12.5>50[%]×12.5”より、ユーザの行動が、スイングと推定される。
・装着位置確率の確率分布が、図10のBの場合:“60[%]×20<50[%]×30”より、ユーザの行動が、サッカーと推定される。
本実施形態に係る情報処理装置は、例えば、行動の推定結果に基づいて装着位置を推定する(S206)。本実施形態に係る情報処理装置は、例えば図10に示す装着確率を更新し、最も装着確率が大きな装着位置を、装着位置として推定する。
例えば、ステップS204において、ユーザの行動がサッカーと推定され、確からしさが80[%]である場合には、本実施形態に係る情報処理装置は、図10に示す装着位置確率の確率分布において、足首の装着確率を上げる。本実施形態に係る情報処理装置は、装着確率を所定分挙げてもよいし、確からしさに応じて装着確率の上げ方を変えてもよい。
また、例えば、ステップS204においてユーザの行動が、“設定対象の装置に対応するセンサが首に装着された場合における、スクワット”、“設定対象の装置に対応するセンサが首に装着された場合における、腕立て伏せ”と推定され、確からしさが共に30[%]以下である場合には、本実施形態に係る情報処理装置は、首の装着確率を下げる。本実施形態に係る情報処理装置は、装着確率を所定分下げてもよいし、確からしさ(または、確からしさの組み合わせ)に応じて装着確率の下げ方を変えてもよい。
本実施形態に係る情報処理装置は、装着位置確率リセット条件を満たしているか否かを判定する(S208)。ここで、装着位置確率リセット条件とは、装着位置が変更された場合に装着位置確率をリセットするための条件である。本実施形態に係る情報処理装置は、例えば、設定対象の装置が、アタッチメントから外されたことを示す信号が検出された場合に、装着位置確率リセット条件を満たすと判定する。また、本実施形態に係る情報処理装置は、例えば、確率が低い装着位置に対応する行動認識器の確からしさが、著しく高いことが検出された場合に、装着位置確率リセット条件を満たすと判定してもよい。
ステップS208において装着位置確率リセット条件を満たしていると判定された場合には、本実施形態に係る情報処理装置は、ステップS200からの処理を行う。また、ステップS208において装着位置確率リセット条件を満たしていると判定されない場合には、本実施形態に係る情報処理装置は、ステップS202からの処理を行う。
例えば、図9に示すような第3の例に係る装着位置認識処理を行うことによって、本実施形態に係る情報処理装置は、確度の高い行動が続くことによって徐々に装着位置候補を絞り込んでいくことができる。
(4−4)装着位置認識処理の第4の例
本実施形態に係る情報処理装置は、装着位置を指定するユーザ操作に基づく操作信号に基づいて、装着位置を認識する。
ここで、上記操作信号としては、例えば、本実施形態に係る情報処理装置が備える操作部(後述する)から伝達される操作信号や、リモートコントローラなどの外部操作デバイスから送信され、通信部(後述する)や接続されている外部通信デバイスにより受信された操作信号が挙げられる。
また、本実施形態に係る装着位置を指定するユーザ操作としては、例えば、ユーザがボタンなどを押下することにより装着位置を指定する操作や、ユーザが装着位置を示すジェスチャを行うジェスチャ操作、ユーザが装着位置を発話することにより装着位置を指定する音声操作など、装着位置を指定することが可能な任意の操作が挙げられる。
(4−5)装着位置認識処理の第5の例
本実施形態に係る情報処理装置は、設定対象の装置に対応するセンサの検出値に基づいて、装着位置を認識する。
ここで、装着位置認識処理の第5の例に係る、本実施形態に係る設定対象の装置に対応するセンサは、設定対象の装置が備えるセンサ、または、設定対象の装置に接続されている外部センサである。装着位置認識処理の第5の例に係るセンサとしては、例えば、ボタンや、照度センサ、近接センサ、気圧センサなどが挙げられる。装着位置認識処理の第5の例に係るセンサは、設定対象の装置に対応する行動認識に用いられるセンサに含まれていてもよいし、設定対象の装置に対応する行動認識に用いられるセンサとは別体のセンサであってもよい。
図11は、本実施形態に係る装着位置認識処理の第5の例を説明するための説明図である。
図11のAは、装着位置認識処理の第5の例に係る、設定対象の装置に対応するセンサユニットの一例を示しており、図11のAに示すS1〜S4は、装着位置認識処理の第5の例に係るセンサの一例を示している。また、図11のBは、図11のAに示すセンサユニットが装着されうるアタッチメントを示しており、図11のBに示すPは、図11のAに示すS1〜S4それぞれに対応しうる突起部を示している。
また、図11のC、Dは、図11のAに示すセンサに、図11のBに示す突起部Pが対応する場合の一例を示している。図11のAに示すセンサと図11のBに示す突起部Pとの対応関係は、例えば、装着位置に応じて変わる。ここで、図11のAに示すセンサに図11のBに示す突起部Pが対応するとは、例えば、ボタン(センサの一例)を突起部Pが押下することや、照度センサ、近接センサ、気圧センサ(センサの一例)を、突起部Pがふさぐことをいう。
例えば図11のC、Dに示すように、センサS1、S2に突起部Pが対応することによって、ボタン(センサの一例)から押下に応じた電気信号が伝達され、または、照度センサ、近接センサ、気圧センサ(センサの一例)の検出値が変化する。本実施形態に係る情報処理装置は、電気信号が伝達されたボタン(センサの一例)の位置や、照度センサ、近接センサ、気圧センサ(センサの一例)の検出値が変化した位置によって、装着位置を認識する。
なお、図11では、アタッチメント側に突起部Pが設けられる例を示しているが、アッタッチメント側にセンサ(設定対象の装置に対応するセンサの一例)が設けられ、アタッチメントに装着される設定対象の装置側に、突起部Pが設けられる構成であってもよい。
(4−6)装着位置認識処理の第6の例
本実施形態に係る情報処理装置は、設定対象の装置に対応するセンサの検出値と、当該センサが装着可能な位置それぞれにおいて予め学習されたモデルデータとに基づいて、装着位置を認識する。
本実施形態に係る情報処理装置は、例えば、事前に各装着位置でのセンサの検出値から学習したモデルデータと、設定対象の装置に対応するセンサの検出値とを用いたパターン認識などによって装着位置を認識する。また、本実施形態に係る情報処理装置は、例えば、本願出願人が出願した特開2006−340903号公報に記載の技術を用いて、センサの検出値に基づき装着位置を認識することも可能である。
(本実施形態に係る情報処理装置)
次に、上述した本実施形態に係る情報処理方法に係る処理を行うことが可能な、本実施形態に係る情報処理装置の構成の一例について説明する。
図12は、本実施形態に係る情報処理装置100の構成の一例を示すブロック図である。情報処理装置100は、例えば、通信部102と、検出部104と、制御部106とを備える。
また、情報処理装置100は、例えば、ROM(Read Only Memory。図示せず)や、RAM(Random Access Memory。図示せず)、記憶部(図示せず)、ユーザが操作可能な操作部(図示せず)、様々な画面を表示画面に表示する表示部(図示せず)などを備えていてもよい。情報処理装置100は、例えば、データの伝送路としてのバスにより上記各構成要素間を接続する。
ROM(図示せず)は、制御部106が使用するプログラムや演算パラメータなどの制御用データを記憶する。RAM(図示せず)は、制御部106により実行されるプログラムなどを一時的に記憶する。
記憶部(図示せず)は、情報処理装置100が備える記憶手段であり、例えば、図8に示すテーブルや、図10に示す装着位置確率の確率分布を示すデータなどの本実施形態に係る情報処理方法に係るデータや、アプリケーションなど様々なデータを記憶する。ここで、記憶部(図示せず)としては、例えば、ハードディスク(Hard Disk)などの磁気記録媒体や、フラッシュメモリ(flash memory)などの不揮発性メモリ(nonvolatile memory)などが挙げられる。また、記憶部(図示せず)は、情報処理装置100から着脱可能であってもよい。
操作部(図示せず)としては、後述する操作入力デバイスが挙げられる。また、表示部(図示せず)としては、後述する表示デバイスが挙げられる。
[情報処理装置100のハードウェア構成例]
図13は、本実施形態に係る情報処理装置100のハードウェア構成の一例を示す説明図である。情報処理装置100は、例えば、MPU150と、ROM152と、RAM154と、記録媒体156と、入出力インタフェース158と、操作入力デバイス160と、表示デバイス162と、通信インタフェース164と、センサ166を備える。また、情報処理装置100は、例えば、データの伝送路としてのバス168で各構成要素間を接続する。
MPU150は、例えば、MPU(Micro Processing Unit)などの演算回路で構成されるプロセッサや、各種処理回路などで構成され、情報処理装置100全体を制御する制御部106として機能する。また、MPU150は、情報処理装置100において、例えば、後述する装着位置認識部110、行動認識モード設定部112、特徴抽出部114、行動認識部116、処理制御部118の役目を果たす。
ROM152は、MPU150が使用するプログラムや演算パラメータなどの制御用データなどを記憶する。RAM154は、例えば、MPU150により実行されるプログラムなどを一時的に記憶する。
記録媒体156は、記憶部(図示せず)として機能し、例えば、図8に示すテーブルなどの本実施形態に係る情報処理方法に係るデータや、アプリケーションなど様々なデータを記憶する。ここで、記録媒体156としては、例えば、ハードディスクなどの磁気記録媒体や、フラッシュメモリなどの不揮発性メモリが挙げられる。また、記録媒体156は、情報処理装置100から着脱可能であってもよい。
入出力インタフェース158は、例えば、操作入力デバイス160や、表示デバイス162を接続する。操作入力デバイス160は、操作部(図示せず)として機能し、また、表示デバイス162は、表示部(図示せず)として機能する。ここで、入出力インタフェース158としては、例えば、USB(Universal Serial Bus)端子や、DVI(Digital Visual Interface)端子、HDMI(High-Definition Multimedia Interface)(登録商標)端子、各種処理回路などが挙げられる。
また、操作入力デバイス160は、例えば、情報処理装置100上に備えられ、情報処理装置100の内部で入出力インタフェース158と接続される。操作入力デバイス160としては、例えば、ボタンや、方向キー、ジョグダイヤルなどの回転型セレクター、あるいは、これらの組み合わせなどが挙げられる。
また、表示デバイス162は、例えば、情報処理装置100上に備えられ、情報処理装置100の内部で入出力インタフェース158と接続される。表示デバイス162としては、例えば、液晶ディスプレイ(Liquid Crystal Display)や有機ELディスプレイ(Organic Electro-Luminescence Display。または、OLEDディスプレイ(Organic Light Emitting Diode Display)ともよばれる。)などが挙げられる。
なお、入出力インタフェース158が、情報処理装置100の外部装置としての外部操作入力デバイス(例えば、キーボードやマウスなど)や外部表示デバイス、外部センサなどの、外部デバイスと接続することも可能であることは、言うまでもない。また、表示デバイス162は、例えばタッチスクリーンなど、表示とユーザ操作とが可能なデバイスであってもよい。
通信インタフェース164は、情報処理装置100が備える通信手段であり、ネットワークを介して(あるいは、直接的に)、外部の設定対象の装置などの外部装置と、無線または有線で通信を行うための通信部102として機能する。ここで、通信インタフェース164としては、例えば、通信アンテナおよびRF(Radio Frequency)回路(無線通信)や、IEEE802.15.1ポートおよび送受信回路(無線通信)、IEEE802.11ポートおよび送受信回路(無線通信)、あるいはLAN(Local Area Network)端子および送受信回路(有線通信)などが挙げられる。また、本実施形態に係るネットワークとしては、例えば、LANやWAN(Wide Area Network)などの有線ネットワーク、無線LAN(WLAN:Wireless Local Area Network)や基地局を介した無線WAN(WWAN:Wireless Wide Area Network)などの無線ネットワーク、あるいは、TCP/IP(Transmission Control Protocol/Internet Protocol)などの通信プロトコルを用いたインターネットなどが挙げられる。
センサ166は、情報処理装置100が備える行動認識に用いられるセンサであり、検出部104として機能する。ここで、センサ166としては、例えば、加速度センサや、GPSデバイス、ジャイロセンサ、気圧センサ、近接センサ、生体センサなど、ユーザの行動認識に係る処理に用いることが可能な、任意のセンサが挙げられる。また、センサ166は、複数のセンサを有するセンサ群であってもよい。
また、センサ166は、上述した(4)の処理(装着位置認識処理)に係るセンサ(上記装着位置認識処理の第5の例に係るセンサ)の役目を果たしてもよい。
情報処理装置100は、例えば図13に示す構成によって、本実施形態に係る情報処理方法に係る処理を行う。なお、本実施形態に係る情報処理装置100のハードウェア構成は、図13に示す構成に限られない。
例えば、設定対象の装置が外部装置である場合には、情報処理装置100は、センサ166を備えていなくてもよい。また、情報処理装置100が設定対象の装置である場合において、センサ166と同様の機能を有する外部センサが接続されている場合には、情報処理装置100は、センサ166を備えていなくてもよい。
また、情報処理装置100は、例えば、接続されている外部通信デバイスを介して、外部装置と通信を行う場合には、通信インタフェース164を備えていなくてもよい。また、情報処理装置100は、記憶媒体156や、操作デバイス160、表示デバイス162を備えない構成をとることも可能である。
再度図12を参照して、情報処理装置100の構成の一例について説明する。通信部102は、情報処理装置100が備える通信手段であり、ネットワークを介して(あるいは、直接的に)、外部の設定対象の装置などの外部装置と、無線または有線で通信を行う。また、通信部102は、例えば制御部106により通信が制御される。
ここで、通信部102としては、例えば、通信アンテナおよびRF回路や、LAN端子および送受信回路などが挙げられるが、通信部102の構成は、上記に限られない。例えば、通信部102は、USB端子および送受信回路など通信を行うことが可能な任意の規格に対応する構成や、ネットワークを介して外部装置と通信可能な任意の構成をとることができる。
検出部104は、情報処理装置100が備える行動認識に用いられるセンサを有し、検出値を出力する。ここで、検出部104としては、例えば、加速度センサやGPSデバイスなど、ユーザの行動認識に係る処理に用いることが可能な、任意のセンサが挙げられる。また、検出部104は、複数のセンサを有するセンサ群で構成されていてもよい。また、検出部104が有するセンサは、上述した(4)の処理(装着位置認識処理)に係るセンサ(上記装着位置認識処理の第5の例に係るセンサ)の役目を果たしてもよい。
制御部106は、例えばMPUなどで構成され、情報処理装置100全体を制御する役目を果たす。また、制御部106は、例えば、装着位置認識部110と、行動認識モード設定部112と、特徴抽出部114と、行動認識部116と、処理制御部118とを備え、本実施形態に係る情報処理方法に係る処理を主導的に行う役目を果たす。
また、制御部106は、例えば、通信部102における通信を制御する通信制御部(図示せず)をさらに備えていてもよい。通信制御部(図示せず)は、各種情報の送受信の制御を行う。なお、通信制御部(図示せず)が有する機能は、通信部102など他の構成要素が行ってもよい。
装着位置認識部110は、上記(4)の処理(装着位置認識処理)を主導的に行う役目を果たし、装着位置を認識する。装着位置認識部110は、例えば、上記(4−1)に示す第1の例に係る装着位置認識処理〜上記(4−6)に示す第6の例に係る装着位置認識処理のいずれかの処理を行うことにより、装着位置を認識する。なお、装着位置認識部110が、上記(4−3)に示す第3の例に係る装着位置認識処理を行う場合、本実施形態に係る情報処理装置は、図10のステップS204の処理を行う役目を果たし、装着位置を推定する装着位置推定部(図示せず)をさらに備えていてもよい。
行動認識モード設定部112は、上記(1)の処理(行動認識モード設定処理)を主導的に行う役目を果たし、設定対象の装置の装着位置情報に基づき、行動認識モードを設定する。行動認識モード設定部112は、例えば、上記(1−1)に示す第1の例に係る行動認識モードの設定に係る処理や、上記(1−2)に示す第2の例に係る行動認識モードの設定に係る処理を行うことにより、行動認識モードを設定する。
特徴抽出部114は、例えば、検出部104の検出結果の中から、設定された行動認識モードに対応する行動認識に用いる特徴量の種類に該当する特徴量を、抽出する。なお、本実施形態に係る情報処理装置は、特徴抽出部114を備えない構成をとることも可能である。
行動認識部116は、上記(2)の処理(行動認識処理)を主導的に行う役目を果たし、設定された行動認識モードと、検出部104の検出値などの、設定対象の装置に対応するセンサの検出値とに基づいて、ユーザの行動を認識する。行動認識部116は、例えば、設定された行動認識モードに対応するアルゴリズムやモデルデータと、特徴抽出部114により抽出された特徴量に基づいて、所定の行動を認識する。また、特徴抽出部114を備えない構成である場合には、行動認識部116は、例えば、設定された行動認識モードに対応するアルゴリズムやモデルデータと、設定対象の装置に対応するセンサの検出値に基づいて、所定の行動を認識する。
処理制御部118は、上記(3)の処理(実行制御処理)を主導的に行う役目を果たし、行動認識部116において認識されたユーザの行動に対応する処理の実行を制御する。また、処理制御部118は、例えば、装着位置情報が示す装着位置と、行動認識部116において認識されたユーザの行動とに対応する処理の実行を制御することも可能である。処理制御部118は、例えば、上記(a)に示す第1の例に係る処理〜上記(h)に示す第8の例に係る処理を行う。
制御部106は、例えば、装着位置認識部110、行動認識モード設定部112、特徴抽出部114、行動認識部116、および処理制御部118を備えることによって、本実施形態に係る情報処理方法に係る処理を主導的に行う。
情報処理装置100は、例えば図12に示す構成によって、本実施形態に係る情報処理方法に係る処理(例えば、上記(1)の処理(行動認識モード設定処理)〜上記(4)の処理(装着位置認識処理))を行う。
したがって、情報処理装置100は、例えば図12に示す構成によって、ユーザの行動をより高い精度で認識可能とし、認識されたユーザの行動に応じた処理を制御することができる。
また、例えば図12に示す構成によって、情報処理装置100は、例えば上述したような、本実施形態に係る情報処理方法に係る処理が行われることにより奏される効果を、奏することができる。
なお、本実施形態に係る情報処理装置の構成は、図12に示す構成に限られない。
例えば、図12に示す装着位置認識部110と同様の機能を有する外部装置において認識された装着位置を示す装着情報を、通信部102などを介して取得する場合には、本実施形態に係る情報処理装置は、装着位置認識部110を備えない構成であってもよい。装着位置認識部110を備えない構成であっても、本実施形態に係る情報処理装置は、上記(1)の処理(行動認識モード設定処理)〜上記(3)の処理(実行制御処理)を行うことが可能である。よって、装着位置認識部110を備えない構成であっても、本実施形態に係る情報処理装置は、ユーザの行動をより高い精度で認識可能とし、認識されたユーザの行動に応じた処理を制御することができる。
また、本実施形態に係る情報処理装置は、例えば、図12に示す装着位置認識部110、行動認識モード設定部112、特徴抽出部114、行動認識部116、および処理制御部118のうちの1または2以上を、制御部106とは個別に備える(例えば、別の処理回路で実現する)ことができる。
また、例えば、設定対象の装置が外部装置である場合には、本実施形態に係る情報処理装置は、検出部104を備えていなくてもよい。また、情報処理装置100が設定対象の装置である場合において、検出部104と同様の機能を有する外部センサが接続されている場合には、本実施形態に係る情報処理装置は、検出部104を備えていなくてもよい。
また、例えば、通信部102と同様の機能、構成を有する外部の通信デバイスを介して、外部装置と通信を行う場合には、本実施形態に係る情報処理装置は、通信部102を備えていなくてもよい。
以上、本実施形態として、情報処理装置を挙げて説明したが、本実施形態は、かかる形態に限られない。本実施形態は、例えば、携帯電話やスマートフォンなどの通信装置や、タブレット型の装置、映像/音楽再生装置(または映像/音楽記録再生装置)、ゲーム機、ノート型PC(Personal Computer)などのコンピュータなど、持ち運びが可能な様々な機器に適用することができる。また、本実施形態は、例えば、ウェアラブル装置に適用することもできる。また、本実施形態は、例えば、サーバやデスクトップ型PCなどのコンピュータなど、持ち運びが容易ではない様々な機器に適用することができる。さらに、本実施形態は、例えば、上記のような機器に組み込むことが可能な、処理IC(Integrated Circuit)に適用することも可能である。
また、例えば、設定対象の装置が外部装置である場合、情報処理装置と、1または2以上の設定対象の装置とを有する情報処理システムを、クラウドコンピューティング型の情報処理システムとして実現することが可能である。
(本実施形態に係るプログラム)
[i]情報処理装置に係るプログラム
コンピュータを、本実施形態に係る情報処理装置として機能させるためのプログラム(例えば、“上記(1)の処理(行動認識モード設定処理)〜上記(3)の処理(実行制御処理)”や、“上記(1)の処理(行動認識モード設定処理)〜上記(4)の処理(装着位置認識処理))”など、本実施形態に係る情報処理方法に係る処理を実行することが可能なプログラム)が、コンピュータにおいてプロセッサなどにより実行されることによって、ユーザの行動をより高い精度で認識可能とし、認識されたユーザの行動に応じた処理を制御することができる。また、コンピュータを、本実施形態に係る情報処理装置として機能させるためのプログラムが、コンピュータにおいてプロセッサなどにより実行されることによって、上述した本実施形態に係る情報処理方法に係る処理によって奏される効果を、奏することができる。
以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本開示の技術的範囲はかかる例に限定されない。本開示の技術分野における通常の知識を有する者であれば、請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
例えば、上記では、コンピュータを、本実施形態に係る情報処理装置として機能させるためのプログラム(コンピュータプログラム)が提供されることを示したが、本実施形態は、さらに、上記プログラムを記憶させた記録媒体も併せて提供することができる。
上述した構成は、本実施形態の一例を示すものであり、当然に、本開示の技術的範囲に属するものである。
また、本明細書に記載された効果は、あくまで説明的または例示的なものであって限定的ではない。つまり、本開示に係る技術は、上記の効果とともに、または上記の効果に代えて、本明細書の記載から当業者には明らかな他の効果を奏しうる。
なお、以下のような構成も本開示の技術的範囲に属する。
(1)
設定対象の装置の装着位置情報に基づき、行動認識モードを設定する行動認識モード設定部と、
設定された前記行動認識モードと、前記設定対象の装置に対応するセンサの検出値とに基づいて、ユーザの行動を認識する行動認識部と、
認識されたユーザの行動に対応する処理の実行を制御する処理制御部と、
を備える、情報処理装置。
(2)
前記行動認識モードは、センサに関する設定を含み、
前記行動認識モード設定部は、前記行動認識モードの設定として、前記設定対象の装置に対応する前記センサに対して、前記装着位置情報に基づく前記センサに関する設定を行う、(1)に記載の情報処理装置。
(3)
前記センサに関する設定は、センサの種類の設定と、前記センサのパラメータの設定との一方または双方を含む、(2)に記載の情報処理装置。
(4)
前記行動認識モードは、行動認識に係る処理に関する設定を含み、
前記行動認識モード設定部は、前記行動認識モードの設定として、前記装着位置情報に基づく前記行動認識に係る処理に関する設定を行う、(1)〜(3)のいずれか1つに記載の情報処理装置。
(5)
前記行動認識に係る処理に関する設定は、前記設定対象の装置に対応する前記センサの検出値の中から行動認識に用いる特徴量の種類の設定と、前記行動認識に係る処理に用いるアルゴリズムの設定と、前記行動認識に係る処理に用いるモデルデータの設定とのうちの、1または2以上を含む、(4)に記載の情報処理装置。
(6)
前記設定対象の装置がユーザに装着されている装着位置を認識する装着位置認識部をさらに備え、
前記行動認識モード設定部は、前記装着位置認識部において認識された前記装着位置を示す、前記装着位置情報に基づいて、前記行動認識モードを設定し、
前記処理制御部は、前記装着位置認識部において認識された前記装着位置を示す、前記装着位置情報に基づいて、処理の実行を制御する、(1)〜(5)のいずれか1つに記載の情報処理装置。
(7)
前記装着位置認識部は、前記設定対象の装置に対応するセンサの検出値と、前記センサが装着可能な位置に対応する条件とに基づいて、前記装着位置を認識する、(6)に記載の情報処理装置。
(8)
前記装着位置認識部は、前記設定対象の装置に対応するセンサの検出値と、前記装着位置の認識の基準となる基準デバイスの出力とに基づいて、前記装着位置を認識する、(6)に記載の情報処理装置。
(9)
前記装着位置認識部は、
前記設定対象の装置に対応するセンサの検出値に基づき推定される、ユーザの行動の推定結果に基づいて、前記装着位置を推定し、
推定された前記装着位置を、前記装着位置として認識する、(6)に記載の情報処理装置。
(10)
前記装着位置認識部は、前記装着位置を指定するユーザ操作に基づく操作信号に基づいて、前記装着位置を認識する、(6)に記載の情報処理装置。
(11)
前記装着位置認識部は、前記設定対象の装置に対応するセンサの検出値に基づいて、前記装着位置を認識する、(6)に記載の情報処理装置。
(12)
前記装着位置認識部は、前記設定対象の装置に対応するセンサの検出値と、前記センサが装着可能な位置それぞれにおいて予め学習されたモデルデータとに基づいて、前記装着位置を認識する、(6)に記載の情報処理装置。
(13)
前記設定対象の装置に対応するセンサを含む検出部をさらに備え、
前記行動認識部は、前記検出部の検出値に基づいて、ユーザの行動を認識する、(1)〜(12)のいずれか1つに記載の情報処理装置。
(14)
設定対象の装置の装着位置情報に基づき、行動認識モードを設定するステップと、
設定された前記行動認識モードと、前記設定対象の装置に対応するセンサの検出値とに基づいて、ユーザの行動を認識するステップと、
認識されたユーザの行動に対応する処理の実行を制御するステップと、
を有する、情報処理装置により実行される情報処理方法。
(15)
設定対象の装置の装着位置情報に基づき、行動認識モードを設定するステップ、
設定された前記行動認識モードと、前記設定対象の装置に対応するセンサの検出値とに基づいて、ユーザの行動を認識するステップ、
認識されたユーザの行動に対応する処理の実行を制御するステップ、
をコンピュータに実行させるためのプログラム。
100 情報処理装置
102 通信部
104 検出部
106 制御部
110装着位置認識部
112 行動認識モード設定部
114 特徴抽出部
116 行動認識部
118 処理制御部

Claims (8)

  1. 設定対象の装置の装着位置情報に基づき、行動認識モードを設定する行動認識モード設定部と、
    設定された前記行動認識モードと、前記設定対象の装置に対応するセンサの検出値とに基づいて、ユーザの行動を認識する行動認識部と、
    認識されたユーザの行動に対応する処理の実行を制御する処理制御部と、
    前記設定対象の装置がユーザに装着されている装着位置を認識する装着位置認識部と、
    を備え
    前記行動認識モード設定部は、前記装着位置認識部において認識された前記装着位置を示す、前記装着位置情報に基づいて、前記行動認識モードを設定し、
    前記処理制御部は、前記装着位置認識部において認識された前記装着位置を示す、前記装着位置情報に基づいて、処理の実行を制御し、
    前記装着位置認識部は、前記設定対象の装置に対応するセンサの検出値に基づく、前記センサが装着可能な位置に対応する閾値判定を行うことによって、前記装着位置を認識する、情報処理装置。
  2. 前記行動認識モードは、センサに関する設定を含み、
    前記行動認識モード設定部は、前記行動認識モードの設定として、前記設定対象の装置に対応する前記センサに対して、前記装着位置情報に基づく前記センサに関する設定を行う、請求項1に記載の情報処理装置。
  3. 前記センサに関する設定は、センサの種類の設定と、前記センサのパラメータの設定との一方または双方を含む、請求項2に記載の情報処理装置。
  4. 前記行動認識モードは、行動認識に係る処理に関する設定を含み、
    前記行動認識モード設定部は、前記行動認識モードの設定として、前記装着位置情報に基づく前記行動認識に係る処理に関する設定を行う、請求項1〜3のいずれか1項に記載の情報処理装置。
  5. 前記行動認識に係る処理に関する設定は、前記設定対象の装置に対応する前記センサの検出値の中から行動認識に用いる特徴量の種類の設定と、前記行動認識に係る処理に用いるアルゴリズムの設定と、前記行動認識に係る処理に用いるモデルデータの設定とのうちの、1または2以上を含む、請求項4に記載の情報処理装置。
  6. 前記設定対象の装置に対応するセンサを含む検出部をさらに備え、
    前記行動認識部は、前記検出部の検出値に基づいて、ユーザの行動を認識する、請求項1〜5のいずれか1項に記載の情報処理装置。
  7. 設定対象の装置の装着位置情報に基づき、行動認識モードを設定するステップと、
    設定された前記行動認識モードと、前記設定対象の装置に対応するセンサの検出値とに基づいて、ユーザの行動を認識するステップと、
    認識されたユーザの行動に対応する処理の実行を制御するステップと、
    前記設定対象の装置がユーザに装着されている装着位置を認識するステップと、
    を有し、
    前記行動を認識するステップでは、前記装着位置を認識するステップにおいて認識された前記装着位置を示す、前記装着位置情報に基づいて、前記行動認識モードが設定され、
    前記制御するステップでは、前記装着位置を認識するステップにおいて認識された前記装着位置を示す、前記装着位置情報に基づいて、処理の実行が制御され、
    前記装着位置を認識するステップでは、前記設定対象の装置に対応するセンサの検出値に基づく、前記センサが装着可能な位置に対応する閾値判定が行われることによって、前記装着位置が認識される、情報処理装置により実行される情報処理方法。
  8. 設定対象の装置の装着位置情報に基づき、行動認識モードを設定するステップ、
    設定された前記行動認識モードと、前記設定対象の装置に対応するセンサの検出値とに基づいて、ユーザの行動を認識するステップ、
    認識されたユーザの行動に対応する処理の実行を制御するステップ、
    前記設定対象の装置がユーザに装着されている装着位置を認識するステップ、
    をコンピュータに実行させ
    前記行動を認識するステップでは、前記装着位置を認識するステップにおいて認識された前記装着位置を示す、前記装着位置情報に基づいて、前記行動認識モードが設定され、
    前記制御するステップでは、前記装着位置を認識するステップにおいて認識された前記装着位置を示す、前記装着位置情報に基づいて、処理の実行が制御され、
    前記装着位置を認識するステップでは、前記設定対象の装置に対応するセンサの検出値に基づく、前記センサが装着可能な位置に対応する閾値判定が行われることによって、前記装着位置が認識される、プログラム。

JP2015557708A 2014-01-20 2014-10-16 情報処理装置、情報処理方法、およびプログラム Active JP6508061B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2014007920 2014-01-20
JP2014007920 2014-01-20
PCT/JP2014/077597 WO2015107737A1 (ja) 2014-01-20 2014-10-16 情報処理装置、情報処理方法、およびプログラム

Publications (2)

Publication Number Publication Date
JPWO2015107737A1 JPWO2015107737A1 (ja) 2017-03-23
JP6508061B2 true JP6508061B2 (ja) 2019-05-08

Family

ID=53542647

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015557708A Active JP6508061B2 (ja) 2014-01-20 2014-10-16 情報処理装置、情報処理方法、およびプログラム

Country Status (4)

Country Link
US (1) US10592812B2 (ja)
EP (1) EP3098688A4 (ja)
JP (1) JP6508061B2 (ja)
WO (1) WO2015107737A1 (ja)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016105166A1 (en) * 2014-12-26 2016-06-30 Samsung Electronics Co., Ltd. Device and method of controlling wearable device
US10523991B2 (en) * 2015-08-31 2019-12-31 Orcam Technologies Ltd. Systems and methods for determining an emotional environment from facial expressions
WO2017056661A1 (ja) * 2015-09-29 2017-04-06 ソニー株式会社 センシングシステム、センサ装置、及びセンサ取付具
CN107145834B (zh) * 2017-04-12 2020-06-30 浙江工业大学 一种基于物理属性的自适应行为识别方法
JP7006128B2 (ja) * 2017-10-24 2022-01-24 株式会社アイシン 情報処理装置
JP2019101811A (ja) * 2017-12-04 2019-06-24 富士通株式会社 処理プログラム、処理方法及び処理装置、並びに表示プログラム、表示方法及び表示制御装置
WO2019130755A1 (ja) * 2017-12-27 2019-07-04 ソニー株式会社 情報処理装置、情報処理方法及びプログラム
JP6525181B1 (ja) * 2018-05-27 2019-06-05 株式会社アジラ 行動推定装置
JP2020150360A (ja) * 2019-03-12 2020-09-17 パナソニックi−PROセンシングソリューションズ株式会社 ウェアラブルカメラおよび映像データ生成方法
CN110896495A (zh) * 2019-11-19 2020-03-20 北京字节跳动网络技术有限公司 用于目标设备的视图调整方法、装置、电子设备和介质

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7918808B2 (en) * 2000-09-20 2011-04-05 Simmons John C Assistive clothing
JP2004184351A (ja) 2002-12-06 2004-07-02 Toshiba Corp 動作情報計測システムおよび動作情報計測方法
KR100601981B1 (ko) * 2005-01-14 2006-07-18 삼성전자주식회사 활동패턴 감시 방법 및 장치
JP5028751B2 (ja) 2005-06-09 2012-09-19 ソニー株式会社 行動認識装置
US8170656B2 (en) 2008-06-26 2012-05-01 Microsoft Corporation Wearable electromyography-based controllers for human-computer interface
US8187182B2 (en) 2008-08-29 2012-05-29 Dp Technologies, Inc. Sensor fusion for activity identification
JP5551867B2 (ja) 2008-12-05 2014-07-16 ソニー株式会社 情報処理装置、及び情報処理方法
AU2010231550A1 (en) * 2009-04-03 2011-11-24 Koninklijke Philips Electronics N.V. Method and system for detecting a fall of a user
EP3533424A1 (en) * 2009-06-05 2019-09-04 Advanced Brain Monitoring, Inc. Systems and methods for controlling position
CA2883852A1 (en) * 2012-09-04 2014-03-13 Whoop, Inc. Systems, devices and methods for continuous heart rate monitoring and interpretation
JP6466420B2 (ja) * 2013-05-31 2019-02-06 プレジデント アンド フェローズ オブ ハーバード カレッジ 人間動作を補助するための軟性外骨格スーツ

Also Published As

Publication number Publication date
EP3098688A4 (en) 2017-07-19
US10592812B2 (en) 2020-03-17
WO2015107737A1 (ja) 2015-07-23
US20160335557A1 (en) 2016-11-17
JPWO2015107737A1 (ja) 2017-03-23
EP3098688A1 (en) 2016-11-30

Similar Documents

Publication Publication Date Title
JP6508061B2 (ja) 情報処理装置、情報処理方法、およびプログラム
JP6539272B2 (ja) コンピュータにより実現される方法、非一時的かつコンピュータが読み取り可能な媒体、および単一装置
KR102403212B1 (ko) 제거가능한 모듈을 갖는 운동 밴드
US11113515B2 (en) Information processing device and information processing method
EP3304953B1 (en) Transmitting athletic data using non-connected state of discovery signal
JP2015205072A (ja) 情報処理装置、情報処理方法及びコンピュータプログラム
US20190313176A1 (en) Portable audio equipment
WO2016196340A1 (en) Athletic data aggregation and display system
US10758801B1 (en) Method and system for proper kicking technique
JP6471694B2 (ja) 情報処理装置、情報処理方法、プログラム、および情報処理システム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170818

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180911

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181015

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20190208

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20190214

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20190222

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190305

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190318

R151 Written notification of patent or utility model registration

Ref document number: 6508061

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20190515