JPWO2015141328A1 - 情報処理装置、制御方法、およびプログラム - Google Patents

情報処理装置、制御方法、およびプログラム Download PDF

Info

Publication number
JPWO2015141328A1
JPWO2015141328A1 JP2016508591A JP2016508591A JPWO2015141328A1 JP WO2015141328 A1 JPWO2015141328 A1 JP WO2015141328A1 JP 2016508591 A JP2016508591 A JP 2016508591A JP 2016508591 A JP2016508591 A JP 2016508591A JP WO2015141328 A1 JPWO2015141328 A1 JP WO2015141328A1
Authority
JP
Japan
Prior art keywords
state
arm
information processing
processing apparatus
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016508591A
Other languages
English (en)
Inventor
宏之 水沼
宏之 水沼
祐平 滝
祐平 滝
翼 塚原
翼 塚原
山野 郁男
郁男 山野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Publication of JPWO2015141328A1 publication Critical patent/JPWO2015141328A1/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G04HOROLOGY
    • G04GELECTRONIC TIME-PIECES
    • G04G21/00Input or output devices integrated in time-pieces
    • GPHYSICS
    • G04HOROLOGY
    • G04BMECHANICALLY-DRIVEN CLOCKS OR WATCHES; MECHANICAL PARTS OF CLOCKS OR WATCHES IN GENERAL; TIME PIECES USING THE POSITION OF THE SUN, MOON OR STARS
    • G04B37/00Cases
    • G04B37/14Suspending devices, supports or stands for time-pieces insofar as they form part of the case
    • G04B37/1486Arrangements for fixing to a bracelet
    • GPHYSICS
    • G04HOROLOGY
    • G04BMECHANICALLY-DRIVEN CLOCKS OR WATCHES; MECHANICAL PARTS OF CLOCKS OR WATCHES IN GENERAL; TIME PIECES USING THE POSITION OF THE SUN, MOON OR STARS
    • G04B47/00Time-pieces combined with other articles which do not interfere with the running or the time-keeping of the time-piece
    • G04B47/06Time-pieces combined with other articles which do not interfere with the running or the time-keeping of the time-piece with attached measuring instruments, e.g. pedometer, barometer, thermometer or compass
    • GPHYSICS
    • G04HOROLOGY
    • G04DAPPARATUS OR TOOLS SPECIALLY DESIGNED FOR MAKING OR MAINTAINING CLOCKS OR WATCHES
    • G04D99/00Subject matter not provided for in other groups of this subclass
    • GPHYSICS
    • G04HOROLOGY
    • G04GELECTRONIC TIME-PIECES
    • G04G17/00Structural details; Housings
    • G04G17/08Housings
    • GPHYSICS
    • G04HOROLOGY
    • G04GELECTRONIC TIME-PIECES
    • G04G21/00Input or output devices integrated in time-pieces
    • G04G21/02Detectors of external physical values, e.g. temperature
    • GPHYSICS
    • G04HOROLOGY
    • G04GELECTRONIC TIME-PIECES
    • G04G21/00Input or output devices integrated in time-pieces
    • G04G21/04Input or output devices integrated in time-pieces using radio waves
    • GPHYSICS
    • G04HOROLOGY
    • G04GELECTRONIC TIME-PIECES
    • G04G21/00Input or output devices integrated in time-pieces
    • G04G21/06Input or output devices integrated in time-pieces using voice
    • GPHYSICS
    • G04HOROLOGY
    • G04GELECTRONIC TIME-PIECES
    • G04G9/00Visual time or date indication means
    • G04G9/0064Visual time or date indication means in which functions not related to time can be displayed
    • GPHYSICS
    • G04HOROLOGY
    • G04GELECTRONIC TIME-PIECES
    • G04G99/00Subject matter not provided for in other groups of this subclass
    • G04G99/006Electronic time-pieces using a microcomputer, e.g. for multi-function clocks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/163Wearable computers, e.g. on a belt
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1684Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
    • G06F1/1686Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being an integrated camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1684Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
    • G06F1/1694Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being a single or a set of motion sensors for pointer control or gesture input obtained by sensing movements of the portable computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/033Indexing scheme relating to G06F3/033
    • G06F2203/0339Touch strips, e.g. orthogonal touch strips to control cursor movement or scrolling; single touch strip to adjust parameter or to implement a row of soft keys

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

【課題】情報処理装置が左右いずれの腕に装着されているかを判断した上で腕の状態を認識することが可能な情報処理装置、制御方法、およびプログラムを提供する。【解決手段】ユーザの右腕または左腕のいずれに装着されているかを判断する判断部と、腕の状態を認識する認識部と、認識された腕の状態に基づいて、情報処理装置に設けられるデバイスに対して所定の制御を行う制御部と、を備え、前記認識部は、前記判断部による判断結果に応じて、前記腕の状態を認識する際に用いるパラメータの設定を切り替える、情報処理装置。【選択図】図3

Description

本開示は、情報処理装置、制御方法、およびプログラムに関する。
昨今、腕時計のように腕に装着する形態のモバイル端末(以下、「腕輪型端末」とも称する)が普及しつつある。
腕時計端末に対する操作入力は、主に端末上に設けられたタッチパネルから行われる。また、腕時計端末に関し、例えば下記特許文献1では、腕時計端末が手首に装着されている際に、「握る」や「放す」等のジェスチャを認識してコマンドとして入力することができる技術が開示されている。
特開2002−358149号公報
しかしながら、腕時計型端末が小さいために、タッチパネルからの操作入力が困難な場合があった。また、腕時計型端末は腕に装着されるので、手で把持できるスマートフォンに比べてタッチパネル操作が不安定になっていた。
さらに、腕時計型端末は腕に装着されるので、タッチパネル操作をする際にはもう一方の腕を使わざるをえなくなり、タッチパネル操作に両腕が必要になる。したがって、もう一方の腕がふさがっている状況では、腕時計型端末の操作ができなかった。
また、上記従来技術では、「握る」や「放す」等のジェスチャでコマンドを入力することについて開示されているが、いずれも操作目的(利用目的)と連動する腕の状態を認識することについては言及されていない。例えば、腕時計端末を用いて表示画面を見たり、通話を行ったり、撮影を行ったりする際、腕時計端末を装着した腕の状態がそれぞれ異なるが、このような状態の違いに応じて直感的に操作入力を行うことができれば、腕時計端末の利便性がさらに向上する。また、このような腕の状態を認識するために用いられるモーションセンサ等の検出値は、腕時計端末がユーザの右腕または左腕のいずれに装着されているかによって異なるが、従来技術では、腕時計端末が左右いずれの腕に装着されているかは考慮されていなかった。
そこで、本開示では、情報処理装置が左右いずれの腕に装着されているかを判断した上で腕の状態を認識することが可能な情報処理装置、制御方法、およびプログラムを提案する。
本開示によれば、ユーザの右腕または左腕のいずれに装着されているかを判断する判断部と、腕の状態を認識する認識部と、認識された腕の状態に基づいて、情報処理装置に設けられるデバイスに対して所定の制御を行う制御部と、を備え、前記認識部は、前記判断部による判断結果に応じて、前記腕の状態を認識する際に用いるパラメータの設定を切り替える、情報処理装置を提案する。
本開示によれば、ユーザの右腕または左腕のいずれに装着されているかを判断することと、判断結果に応じて、腕の状態を認識する際に用いるパラメータの設定を切り替えて、腕の状態を認識することと、認識された前記腕の状態に基づいて、情報処理装置に設けられるデバイスに対して所定の制御を行うこと、を含む、制御方法を提案する。
本開示によれば、コンピュータを、ユーザの右腕または左腕のいずれに装着されているかを判断する判断部と、腕の状態を認識する認識部と、認識された腕の状態に基づいて、情報処理装置に設けられるデバイスに対して所定の制御を行う制御部と、として機能させ、前記認識部は、前記判断部による判断結果に応じて、前記腕の状態を認識する際に用いるパラメータの設定を切り替える、プログラムを提案する。
以上説明したように本開示によれば、情報処理装置が左右いずれの腕に装着されているかを判断した上で腕の状態を認識することが可能となる。
なお、上記の効果は必ずしも限定的なものではなく、上記の効果とともに、または上記の効果に代えて、本明細書に示されたいずれかの効果、または本明細書から把握され得る他の効果が奏されてもよい。
情報処理装置の外観構成を示す図である。 情報処理装置の装着状態を説明する図である。 本実施形態による情報処理装置の基本構成を示すブロック図である。 加速度センサを用いた場合の左右の腕の判断について説明する図である。 状態1〜状態3について説明する図である。 状態1〜状態3の遷移を示す状態遷移図である。 状態1〜状態3における各デバイスの制御一覧を示す図である。 状態1〜状態3における各デバイスの他の制御一覧を示す図である。 状態1、状態2、状態4について説明する図である。 状態1、状態2、状態4の遷移を示す状態遷移図である。 状態1、状態2、状態4における各デバイスの制御一覧を示す図である。 状態1、状態2、状態4における各デバイスの他の制御一覧を示す図である。 腕の回転例について説明する図である。 状態1、状態2、状態5について説明する図である。 比較例による情報処理装置の表示画面の一例を示す図である。 本実施形態による左腕装着時における表示画面の一例を示す図である。 本実施形態による右腕装着時における表示画面の一例を示す図である。 タッチセンサの検出可能領域について説明する図である。 本実施形態による左腕装着時におけるズーム操作領域の割り当てについて説明する図である。 本実施形態による右腕装着時における表示画面の一例を示す図である。 状態1、状態2、状態6について説明する図である。 状態1、状態2、状態6の遷移を示す状態遷移図である。 状態1、状態2、状態6における各デバイスの制御一覧を示す図である。 状態1、状態2、状態6における各デバイスの他の制御一覧を示す図である。
以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
また、説明は以下の順序で行うものとする。
1.本開示の一実施形態による情報処理装置の概要
2.基本構成
3.状態に応じたデバイス制御例
3−1.状態1、状態2、状態3におけるデバイス制御例
3−2.状態1、状態2、状態4におけるデバイス制御例
3−3.右腕装着時(状態5)のデバイス制御例
3−4.状態6におけるデバイス制御例
4.まとめ
<<1.本開示の一実施形態による情報処理装置の概要>>
まず、本開示の一実施形態による情報処理装置の概要について図1および図2を参照して説明する。図1は、情報処理装置の外観構成を示す図であって、図2は、情報処理装置の装着状態を説明する図である。
図1および図2に示すように、本実施形態による情報処理装置10は、ユーザの腕200や手首に装着されるウェアラブル端末であって、腕時計/腕輪型端末とも称される。このような情報処理装置10において、ユーザは、情報処理装置10をカバンやポケットから取り出す行為をせずに、表示画面に表示された情報の確認や操作を即座に行うことが出来る。
また、情報処理装置10は、外周面に、表示部及び操作部の機能を有するタッチパネルディスプレイ(以下、タッチパネルとも称する)12と、スピーカ15a、15bと、マイクロフォン(以下、マイクとも称する)16a、16bと、が設けられる。
タッチパネル12は、ユーザがタッチ操作しやすいように、例えば情報処理装置10の全周のうちの一部の領域に設けられている。ただし、これに限定されず、タッチパネル12は、情報処理装置10の全周に設けられても良い。
タッチパネル12の表示部の機能は、例えば液晶ディスプレイや有機ELディスプレイ等により実現され、表示画面に文字、画像その他の情報を表示する。文字、画像、その他の情報の表示は、後述する主制御部11のデバイス制御部112によって制御される。
また、タッチパネル12の操作部の機能は、例えば表示画面に重畳され、ユーザによる接触位置を検知する操作面により実現され、操作面は、ユーザの腕の外周方向に沿った曲面となっている。また、操作面は、曲率が異なる複数の部分を含んでもよい。
腕時計型端末の情報処理装置10において様々な機能を実現するためには、タッチパネル12の面積を大きくすることが望ましいが、ユーザの腕の上下にはみ出すような大きなタッチパネルを配置すると、腕時計型端末の装着性や操作性が低下する。このため、タッチパネル12は、図2に示すように、腕200に沿うような形で幅の狭い曲面となっている。
ユーザは、図2に示すように、腕200に装着した情報処理装置10のタッチパネル12による表示画面を見ながら、表示画面に重畳して設けられた操作面にタッチ操作を行う。
スピーカ15a、15bは、音声出力機能を有し、図1および図2に示すように、情報処理装置10の外周面において、タッチパネル12の近傍に設けられる表側スピーカと、対向する半周側とに設けられる裏側スピーカとにより実現される。
マイク16a、16bは、収音機能を有し、図1および図2に示すように、情報処理装置10の外周面において、タッチパネル12の近傍に設けられる表側マイクと、対向する半周側とに設けられる裏側マイクとにより実現される。
なお、図1、図2に示すスピーカ15a、15bと、マイク16a、16bとの設置個数および位置は一例であって、本実施形態はこれに限定されず、例えばアレイスピーカ、アレイマイクを腕輪の端部に沿って設けてもよい。
(背景)
ここで、図2に示すように、一方の腕200に装着された情報処理装置10のタッチパネル12から操作入力を行う際は、もう一方の腕を使うため、両腕を使用する必要があった。したがって、腕の動きを検知することによるジェスチャ入力が可能となれば、情報処理装置10を装着した片方の腕200を動かすだけで操作入力を行うことができ、情報処理装置10の利便性が向上する。
また、情報処理装置10を用いて表示画面を見たり、通話を行ったり、撮影を行ったりする際、情報処理装置10を装着した腕200の状態がそれぞれ異なるが、このような状態の違いに応じて直感的に操作入力を行うことができれば、情報処理装置10の利便性がさらに向上する。
さらに、このような腕200の状態(動き)を認識するために用いられるモーションセンサ等の検出値は、情報処理装置10がユーザの右腕または左腕のいずれに装着されているかによって異なる。
そこで、本実施形態では、情報処理装置10が左右いずれの腕に装着されているかを判断した上で腕の状態を認識し、認識した腕の状態に基づいて情報処理装置10の各デバイスを制御することが可能になる情報処理装置10を提案する。
以上、本開示の一実施形態による情報処理装置10の概要について説明した。続いて、本開示による情報処理装置10の基本構成について図3を参照して説明する。
<<2.基本構成>>
図3は、本実施形態による情報処理装置10の基本構成を示すブロック図である。図10に示すように、情報処理装置10は、主制御部11、タッチパネルディスプレイ12、モーションセンサ13、記憶部14、スピーカ15、マイク16、および通信部17を有する。
(主制御部)
主制御部11は、例えばCPU(Central Processing Unit)、ROM(Read Only Memory)、RAM(Random Access Memory)、不揮発性メモリ、インターフェース部を備えたマイクロコンピュータにより構成され、情報処理装置10の各構成を制御する。
また、本実施形態による主制御部11は、判断部110、認識部111、およびデバイス制御部112として機能する。判断部110は、情報処理装置10が、ユーザの右腕または左腕のいずれに装着されているかを判断する。具体的には、例えば判断部110は、モーションセンサ13から出力された検出値に基づいて、情報処理装置10が、ユーザの右腕または左腕のいずれに装着されているかを判断することができる。
ここで、図4を参照して判断部110による左右の腕の判断について説明する。図4は、加速度センサを用いた場合の左右の腕の判断について説明する図である。ここでは、情報処理装置10に設けられるモーションセンサ13の一例として加速度センサが用いられる。加速度センサの向きは、例えば図4に示すように、装着者に対して表示画面が正位置になるよう情報処理装置10が手首に装着され、さらに腕を下げた状態において、右腕装着時はX軸方向の加速度が負に、左腕装着時はX軸方向の加速度が正になるよう設置される。
かかる加速度センサの向きが既知である場合、判断部110は、腕を下げた状態における加速度センサの検出値に基づき、X軸方向の加速度が負の場合は右腕に装着されていると判断し、X軸方向の加速度が正の場合は左腕に装着されていると判断することができる。
判断部110は、判断結果を認識部111に出力する。なお判断部110は、モーションセンサ13からの検出値に基づいて自動的に左右の腕を判断する他、機械学習またはユーザ入力により左右の腕を判断することも可能である。例えば、加速度センサの向きが既知でない場合、判断部110は、モーションセンサ13(一例として加速度センサ)から継続的に出力される検出値をサンプリングしてパターンを抽出し、教師データ(右腕・左腕の動き(状態)のパターン)とマッチングして機械学習を行い、左右いずれの腕に装着されているか判断する。また、判断部110は、ユーザがタッチパネル12から左右いずれの腕に装着したかを示す情報を入力、またはマイク16から音声入力した場合、当該入力された情報にしたがって、左右いずれの腕に装着されているか判断する。
認識部111は、情報処理装置10が装着された腕200の状態を認識する機能を有する。具体的には、例えば認識部111は、モーションセンサ13から出力された検出値に基づいて、腕の状態(動き)を認識することができる。また、認識部111は、腕の状態を認識する際に用いるパラメータの設定を、判断部110による判断結果に応じて切り替えることで、複雑な動きであっても、より正確に腕の状態を認識することができる。例えば認識部111は、情報処理装置10が左右いずれの腕に装着されているかによって、モーションセンサ13の一例である加速度センサから出力される検出値の正負が異なるので、左右いずれの腕に装着されているかに応じてパラメータの正負を切り替えることで、より正確に腕の状態を認識することができる。なお認識部111により認識される腕の状態のバリエーションに関しては、後述する「3.状態に応じたデバイス制御例」において具体的に説明する。また、認識部111は、認識結果をデバイス制御部112に送出する。
デバイス制御部112は、認識部111により認識された腕の状態に基づいて、情報処理装置10に設けられた各種デバイスに対して所定の制御を行う機能を有する。例えばデバイス制御部112は、タッチパネル12の表示部、操作部、モーションセンサ13、スピーカ15、およびマイク16といった各種デバイスのON/OFFや、設定の変更等を行う。後述する「3.状態に応じたデバイス制御例」で説明するように、認識部111により認識される腕の状態に基づいて、多種の機能を有する腕時計型端末である情報処理装置10の利用目的(ユーザコンテキスト)が推定されるので、デバイス制御部112は、推定される利用目的に応じたデバイス制御を行う。具体的には、デバイス制御部112は、例えば推定された利用目的に必要なデバイスをONしたり、要否に応じて出力/入力デバイスの性能レートの設定を変更したり、不要なデバイスをOFFしたりする。
これにより、タッチパネル12から改めて操作入力を行うことなく、ユーザは腕200を動かすだけで、利用目的に応じたデバイス制御を実行させることができる。すなわち、情報処理装置10を用いて表示画面を見る、通話する、撮影する、といった利用目的に応じて異なる腕の動きを認識し、当該動きをジェスチャコマンドとして認識することで、ユーザによるより自然な動きのみで、自動的に各種デバイスのON/OFFが制御され得る。
(タッチパネルディスプレイ)
タッチパネルディスプレイ12は、上述したように、表示部および操作部(例えばタッチセンサ)の機能を有する。
(モーションセンサ)
モーションセンサ13は、情報処理装置10が装着された腕200の状態(動き)を検知するセンサであって、例えば加速度センサ、ジャイロセンサ、または地磁気センサ等の空間的な動きや角度を検出するデバイスにより実現される。また、モーションセンサ13は、複数種類のセンサが組み合わせられたものであってもよい。
なおスマートフォンのように近接センサで自身の物理的な状態を判別する方法を腕時計端末に用いた場合、例えば図5を参照して後述する状態3のように、情報処理装置10を耳元に構えた状態を近接センサで認識するためには、情報処理装置10を耳元に極力近づけなければならない。しかし、このような動きは不自然であって、ユーザへの身体的な負担がかかる。そこで本実施形態では、モーションセンサを用いて腕の状態を認識することで、無理な体勢を取ることなく自然な動きで状態が認識され得る。
(通信部)
通信部17は、外部装置と接続し、データの送受信を行う機能を有する。例えば通信部17は、ユーザが所持するスマートフォンと接続してデータの送受信を行ってもよいし、ネットワークを介して所定のサーバと接続してデータの送受信を行ってもよい。また、通信部17は、携帯電話網またはインターネット網を介して、音声信号の送受信を行ってもよい。
(記憶部)
記憶部14は、主制御部11が各種処理を実行するためのプログラム等を記憶する。例えば、記憶部14は、デバイス制御部112が、認識された状態に応じて行う各種デバイスに対する所定の制御内容に関するデータを格納する。
(スピーカ)
スピーカ15は、音声(オーディオ信号)を出力する機能を有する。例えば、スピーカ15は、アラーム等によりユーザへの通知を行ったり、通話中は受話音声を出力したりする。
(マイク)
マイク16は、音声(オーディオ信号)を入力する機能を有する。例えば、マイク16は、ユーザによる音声入力を受付けたり、通話中はユーザの発話音声を収音したりする。
以上、本実施形態による情報処理装置10の構成について詳細に説明した。続いて、情報処理装置10による、状態に応じたデバイス制御例について、複数の具体例を挙げて説明する。
<<3.状態に応じたデバイス制御例>>
<3−1.状態1、状態2、状態3におけるデバイス制御例>
まず、状態1〜状態3におけるデバイス制御例について、図5〜図8を参照して説明する。図5は、状態1〜状態3について説明する図である。図5左に示す状態1は、情報処理装置10が装着された腕(手)を下げた状態を示し、図5中央に示す状態2は、腕(手)を身体の前面下部に構えた状態(情報処理装置10の表示画面を閲覧するために腕を上げた状態)を示し、状態3は、腕(手)を耳元に構えた状態(裏側スピーカ15bと裏側マイク16b(手首内側)を顔の付近に持っていき通話を行っている状態)を示す。
情報処理装置10の認識部111は、このような状態1〜状態3を、情報処理装置10に設けられたモーションセンサ13からの検出値に基づいて認識することが可能である。
図6は、状態1〜状態3の遷移を示す状態遷移図である。図6に示すように、腕を下げた状態1(D1)から腕を上げた状態2(D2)と、腕を下げた状態1(D1)から腕を耳元に構えた状態3(D3)と、腕を上げた状態2(D2)から腕を耳元に構えた状態3(D3)は、互いに遷移可能である。
情報処理装置10の認識部111は、モーションセンサ13からの検出値に基づいて、現在の状態を認識し、認識結果をデバイス制御部112に出力する。また、状態1〜状態3は、図6に示すように遷移可能であるので、認識部111は、モーションセンサ13から継続的に出力される検出値に基づいて、現在の状態をリアルタイムで認識することができる。
そして、認識された状態に応じて、デバイス制御部112は、各デバイスに対して所定の制御を行う。デバイス制御部112は、各状態において利用が想定されないデバイスの機能をOFFすることで消費電力を節約し、また、利用が想定されるデバイスの機能を、別途のON操作(例えばタッチパネル12からの明示的な操作)がなくともONにすることで、必要な時に必要なデバイスの機能を発揮させることができる。
ここで、各状態に応じたデバイス制御例について図7を参照して説明する。図7は、状態1〜状態3における各デバイスの制御一覧を示す図である。ここでは、各デバイスの例として、タッチパネル12に含まれる操作部に相当する「タッチセンサ」と、モーションセンサ13を実現する「加速度センサ」および「ジャイロセンサ」と、タッチパネル12に含まれる表示部に相当する「ディスプレイ」と、が挙げられる。さらに、スピーカ15bに相当する「裏側スピーカ」と、スピーカ15aに相当する「表側スピーカ」と、マイク16a、16bに相当する「マイク」と、が含まれる。
(3−1−1.状態1におけるデバイス制御)
図7に示すように、例えば腕を下げた状態1ではタッチ操作が行われることがないと想定されるのでタッチセンサがOFFに制御される。また、モーションセンサ13が複数のセンサ(例えば加速度センサおよびジャイロセンサ)を含む場合、一方のセンサがONにされ、他方のセンサがOFFにされる。ONにされたセンサに対しては、さらにサンプリングレートを低く制御することで、消費電力を節約することができる。サンプリングレートの低さは、状態1から状態2、または状態3への変化が検知できる程度であればよい。なお、図7に示す例では、ジャイロセンサの方が、消費電力が大きいため、ジャイロセンサをOFFにして加速度センサをONにしているが、本実施形態はこれに限定されず、逆の制御であってもよい。
また、状態1では、ディスプレイが閲覧されることがないと想定されるのでディスプレイがOFFに制御される。若しくは、時計のみなどの簡易表示に制御される。また、ユーザは閲覧していないと想定されるので、リフレッシュレート(画面の更新頻度)が低く制御される。このように、利用されていない場合のディスプレイの消費電力が節約される。
また、状態1は、通話通知やメール通知の待機状態とも言えるので、通話やメールを受信した際にユーザに通知する必要があるため、表側スピーカ15aまたは裏側スピーカ15bの少なくともいずれかがONに制御される。また、ユーザへの通知を目的とするので、出力が高く(音声が大きく)制御される。なお、通話通知やメール通知は振動によって行われてもよく、その場合はいずれのスピーカもOFFに制御され、振動部(不図示)がONに制御される。また、状態1はマイクの利用は想定されないので、OFFに制御される。
(3−1−2.状態2におけるデバイス制御)
続いて、上記状態1において通話やメールの通知があると、ユーザは腕を身体の前方に上げて情報処理装置10の表示画面を自身に向けて閲覧できる状態2に構える。このとき、認識部111は、状態1から状態2の遷移を認識し、認識結果をデバイス制御部112に出力する。デバイス制御部112は、状態2に遷移したことに応じて、各デバイスに対して所定の制御を行う。
具体的には、図7に示すように、腕を身体の前に挙げた状態2では、タッチ操作が行われることが想定されるので、タッチセンサがONに制御される。また、モーションセンサ13の制御は、状態1と同様であって、複数のセンサを含む場合は一方のセンサがONにされ、他方のセンサがOFFにされる。ONにされたセンサに対しては、さらにサンプリングレートを低く制御することで消費電力を節約する。サンプリングレートの低さは、状態2から状態1、または状態3への変化が検知できる程度であればよい。
また、状態2では、ディスプレイが閲覧されると想定されるのでディスプレイがONに制御される。また、ユーザが閲覧していると想定されるので、リフレッシュレート(画面の更新頻度)が高く制御される。ディスプレイには、例えばメール送信者名、メールタイトル、または通話発信者名、発信番号等が表示される。
また、状態2は、状態3から遷移して通話が継続中である場合も想定されるので、表側スピーカ15aがONに制御され、出力が高く(音声が大きく)制御される。これにより情報処理装置10が状態3の耳元から離れた場合にもユーザは通話を継続することができる。
また、通話が継続中である場合はマイクの利用も想定されるので、状態2では、ONに制御される。若しくは、ディスプレイでメール送信者または通話発信者を確認したユーザが音声入力により応答する場合も想定されるので、状態2においてマイクはONに制御される。この際、マイクはユーザの顔から離れた距離にあるので、マイクの感度は高く制御される。
(3−1−3.状態3におけるデバイス制御)
次に、上記状態2において通話の発信者を確認し、当該通話に応答する場合、そのまま腕を上げて、手首内側を顔の付近に持っていき、手を耳元に構える状態3(図5参照)に遷移する。このとき、認識部111は、状態2から状態3の遷移を認識し、認識結果をデバイス制御部112に出力する。デバイス制御部112は、状態3に遷移したことに応じて、各デバイスに対して所定の制御を行う。
具体的には、図7に示すように、手を耳元に構えた状態3では、タッチ操作が行われることがないと想定されるので、状態1と同様にタッチセンサがOFFに制御される。また、モーションセンサ13の制御は、状態1と同様であって、複数のセンサを含む場合は一方のセンサがONにされ、他方のセンサがOFFにされる。ONにされたセンサに対しては、さらにサンプリングレートを低く制御することで消費電力を節約する。サンプリングレートの低さは、状態3から状態1、または状態2への変化が検知できる程度であればよい。
また、状態3では、ディスプレイが閲覧されることがないと想定されるので、状態1と同様にディスプレイがOFFに制御される。若しくは、時計のみなどの簡易表示に制御される。また、ユーザは閲覧していないと想定されるので、リフレッシュレート(画面の更新頻度)が低く制御される。
また、状態2から状態3への遷移は、通話に応答したジェスチャであるので、顔側に向けられた手首内側に位置する裏側スピーカ15bがONに制御され、耳に近いために出力が低く(音声が小さく)制御される。また、デバイス制御部112は、受話音声を裏側スピーカ15bから出力するよう制御する。これにより、状態2から状態3に遷移させるという、通話を行うために必要な動作が、通話に応答するジェスチャコマンドとして同時に認識されるので、ユーザはタッチ操作等を行うことなく通話を開始することができる。
また、通話に応答した状態である状態3では、マイクがONに制御され、顔との距離が近いために感度は低く制御される。デバイス制御部112は、マイクで収音したユーザの発話音声を、通信部17を介して通話相手の情報処理端末に送信するよう制御する。
以上、状態1〜状態3のデバイス制御について説明した。なお、通話通知があって状態2に遷移した後、ユーザがディスプレイを確認し、腕を下げて状態1に遷移した場合、ユーザが通話に応答しないというジェスチャコマンドとして認識される。この場合、デバイス制御部112は、例えば「ただいま電話に出ることはできません」といったメッセージを通話相手の情報処理端末に対して流し、通信を終了する。
また、状態3に遷移して通話に応答した後、通話中に状態2に遷移した場合、ユーザが通話を継続しながらディスプレイを確認したいことが想定されるので、デバイス制御部112は、スピーカ出力を大きくすると共に、ディスプレイおよびタッチセンサをONに制御する。また、デバイス制御部112は、マイクの感度を上げて、顔から離れていてもユーザの発話音声を収音できるようにする。
ディスプレイの情報を確認し終えて、ユーザが手を耳元に構える状態3に戻ると、デバイス制御部112は、再度ディスプレイをOFFに制御し、また、スピーカ出力を小さくする。
そして、状態3から状態1に遷移すると、通話終了のジェスチャコマンドと認識し、デバイス制御部112は、通話を終了するよう制御する。
このように、本実施形態によれば、ユーザはユーザコンテキストに応じた行動を実行するだけで、各デバイスの制御が最適化され、他の操作(例えば画面のタップ操作、ハードウェアキーの操作等)をする必要がなく、操作性・利便性が向上する。ユーザコンテキストに応じた行動とは、例えば通話/メール通知があった場合に確認のためにタッチパネル12を見る動作や、通話したい際に情報処理装置10を耳元に構える動作等である。
なお、図7に示すデバイス制御は一例であって、本実施形態はこれに限定されず、例えばモーションセンサが1つであって、また、スピーカが1つであってもよい。この場合、各状態に応じたデバイス制御は例えば図8に示す通り行われる。図8は、状態1〜状態3における各デバイスの他の制御一覧を示す図である。
図8では、モーションセンサが1つの場合、状態1〜状態3の全てにおいて、ONに制御され、また、サンプリングレートは低く設定される。
また、スピーカが1つの場合、状態1においてはONに制御され、また、出力が高く設定される。状態2においてはOFFに制御される。状態3においてはONに制御され、また、出力が低く設定される。スピーカが1つの場合におけるスピーカの設置位置については特に限定しない。
<3−2.状態1、状態2、状態4におけるデバイス制御例>
次に、状態2における他のジェスチャ入力について図9〜図12を参照して説明する。図9は、状態1、状態2、状態4について説明する図である。図9左に示す状態1と、図9中央に示す状態2は、図5を参照して説明した状態1および状態2と同様である。
図9右に示す状態4は、腕(手)を身体の前面下部に構えた状態(情報処理装置10の表示画面を閲覧するために腕を上げた状態)で腕を回転する状態を示す。
情報処理装置10の認識部111は、このような状態1、状態2、状態4を、情報処理装置10に設けられたモーションセンサ13からの検出値に基づいて認識することが可能である。
図10は、状態1、状態2、状態4の遷移を示す状態遷移図である。図10に示すように、腕を下げた状態1(D1)から身体の前面に腕を上げた状態2(D2)と、身体の前面に腕を上げた状態2(D2)から身体の前面で腕を回転させる状態4(D4)は、互いに遷移可能である。
状態4は状態2から遷移するため、状態2でユーザが情報処理装置10の表示画面を閲覧している際に、次の画面や前の画面を閲覧したいというユーザコンテキストが発生した際のアクションであると想定される。そこで、本実施形態では、腕の回転状態(手前または奥への回転)に応じて、タッチパネル12の画面遷移を行うよう制御する。
図11は、状態1、状態2、状態4における各デバイスの制御一覧を示す図である。状態1における各デバイスの制御は、図7を参照して上述したので、ここでの説明は省略する。
状態2における各デバイスの制御のうち、モーションセンサに対する制御は図7に示す例と異なり、サンプリングデータが高く設定される。本実施形態では、状態2から状態4に遷移する可能性があり、腕の回転といった複雑な動きを正確に検知する必要があるので、状態2に遷移した時点でモーションセンサの検知レベルが上げられる。なお、この場合、加速度センサのサンプリングレートは低く設定したままで、ジャイロセンサをONに制御してもよい。また、状態2における他のデバイスに対する制御は、図7に示す例と同様である。
状態4では、図11に示すように、腕の回転動作(手前または奥への回転)が「戻る」または「進む」動作として受け付けられ、デバイス制御部112は、直前の画面に戻る、または次の画面に進むようディプレイを制御する。なお、ディスプレイ以外のデバイス(具体的にはタッチセンサ、モーションセンサ、スピーカ、マイク)に対しては状態2における制御が維持される。
このように、本実施形態によれば、ユーザはタッチパネルからの操作入力を行うことなく、情報処理装置10が装着された腕を回転するだけでディスプレイの画面遷移を行うことが可能である。
(補足1)
なお、図11に示すデバイス制御は一例であって、本実施形態はこれに限定されず、例えばモーションセンサが1つであって、また、スピーカが1つであってもよい。この場合、各状態に応じたデバイス制御は例えば図12に示す通り行われる。図12は、状態1、状態2、状態4における各デバイスの他の制御一覧を示す図である。
図12に示すように、状態4では、図11に示す場合と同様に、腕の回転動作(手前または奥への回転)が「戻る」または「進む」動作として受け付けられ、デバイス制御部112は、直前の画面に戻る、または次の画面に進むようディプレイを制御する。また、ディスプレイ以外のデバイス(具体的にはタッチセンサ、モーションセンサ、スピーカ、マイク)に対しては状態2における制御が維持される。
(補足2)
また、腕の回転に応じて異なるユーザコンテキストが認識されてもよい。以下、図13を参照して説明する。
図13は、腕の回転例について説明する図である。図13上に示すように、腕を大きく手前または奥に移動させる動作は、図9右に示す状態4における腕の回転であって、デバイス制御部112は画面遷移を行う。
一方、図13下に示すように、腕(手首)をねじる動作も認識部111により認識され得る。この場合、デバイス制御部112は、例えば腕の捻じり方向および度合いに応じてスピーカの出力を制御することで、ボリュームコントロールを実現できる。例えば状態3から状態2に遷移した場合、ユーザは通話を継続しながらディスプレイを確認しているためスピーカの出力が高く制御されるが、時間や場所に応じて当該スピーカの出力(音量の大きさ)を調整したい場合が想定されるためである。
<3−3.右腕装着時(状態5)のデバイス制御例>
続いて、装着された腕の左右に応じたデバイス制御例について、図14〜図20を参照して説明する。図14は、状態1、状態2、状態5について説明する図である。図14左に示す状態1と、図14中央に示す状態2は、図5を参照して説明した状態1および状態2と同様であって、いずれも左腕に情報処理装置10が装着されている。
一方、図14右に示す状態5は、右腕に情報処理装置10が装着された状態であって、右腕を身体の前面下部に構えた状態(情報処理装置10の表示画面を閲覧するために右腕を上げた状態)を示す。
左右いずれの腕に情報処理装置10を装着するかは人によって異なるが、例えばタッチパネル12からの操作を考慮すると、利き手と反対の腕に情報処理装置10を装着し、利き手でタッチパネル12の操作をすることが想定される。
この場合、例えば右利きの人が左腕に情報処理装置10を装着し、図14に示す状態2において右手でタッチパネル12を操作する場合、装着された腕を考慮しない従来の表示制御では以下のような問題が生じる。
図15は、比較例による情報処理装置100の表示画面の一例を示す図である。図15に示すように、腕時計型端末である情報処理装置100を左腕に装着して右手で操作する際、コマンド系が画面の左に表示されていると、タッチパネルの面積が小さい(腕に沿うような形で幅の狭い曲面となっている)ために、操作している右手で画面が隠れて見えなくなってしまう。
そこで、本実施形態では、情報処理装置10が左右いずれの腕に装着されたかに応じて(状態2/状態5)、ディスプレイに対する制御を異ならせることが可能である。以下、図16および図17を参照して具体的に説明する。
図16は、本実施形態による左腕装着時における表示画面の一例を示す図である。図16に示すように、腕時計型端末である情報処理装置10が左腕に装着していると判断された場合(図14に示す状態2)、コマンド系を画面(タッチパネル12)の右に表示するよう制御することで、ユーザが右手でコマンド系をタッチする際に操作している手で画面を隠してしまうことを回避することができる。
図17は、本実施形態による右腕装着時における表示画面の一例を示す図である。図17に示すように、腕時計型端末である情報処理装置10が右腕に装着していると判断された場合(図14に示す状態5)、コマンド系を画面(タッチパネル12)の左に表示するよう制御することで、ユーザが左手でコマンド系をタッチする際に操作している手で画面を隠してしまうことを回避することができる。
以上説明したように、本実施形態では、左右いずれの腕に装着されているかに応じて表示内容の切り替えを行うことで、情報処理装置10の利便性をさらに向上させることができる。なお、状態2において左右いずれの腕に装着されているかに応じて異ならせるデバイス制御は、上述したディスプレイに対する制御に限定されない。例えば、タッチセンサに対する制御を左右で切り替えてもよい。以下、図18〜図20を参照して具体的に説明する。
(タッチセンサの左右切替制御)
図18は、タッチセンサの検出可能領域について説明する図である。図18に示すように、本実施形態による情報処理装置10は、地図等の画面が表示されるタッチパネルディスプレイ12の領域外もタッチセンサの操作可能領域20とする構成であってもよい。この場合、ユーザは、画面領域外を使って地図等の画面に対するズーム操作を行うことができる。すなわち、情報処理装置10の主制御部11は、画面領域の左右にタッチ検出領域を設け、この領域に対する操作を画面のズームの操作に割り当てる。
ここで、腕時計型端末である情報処理装置10は、腕への装着による携帯性を考慮して画面領域が小さいため、ピンチイン・アウトのような複数指による操作には不向きであるので、図16に示すようなコマンドボタンによりズーム操作を実現する方法が適する。しかし、コマンドボタンにより表示画面の一部が隠れてしまうといった問題も生じるので、画面領域の左右にタッチ検出領域を設けることで、さらにズーム操作に適した操作方法を提供することができる。例えば画面領域外を上下にドラッグすることで、ズームイン/アウトを行うことができる。
この時、図15に示す比較例を用いて説明した上記操作の場合と同様に、操作する手が画面と重なる問題を回避する必要がある。そこで、本実施形態では、情報処理装置10が左右いずれの腕に装着されているかに応じて、画面領域外の左右いずれのタッチ検出領域にズーム操作に割り当てるかを制御する。以下、図19および図20を参照して具体的に説明する。
図19は、本実施形態による左腕装着時におけるズーム操作領域の割り当てについて説明する図である。図19に示すように、腕時計型端末である情報処理装置10が左腕に装着していると判断された場合(図14に示す状態2)、右側画面領域外22を、ズーム操作を検出する領域に割り当てるようタッチセンサを制御する。これにより、ユーザが右手で左側画面領域外をタッチする際に操作している手で画面を隠してしまうことを回避することができる。
図20は、本実施形態による右腕装着時における表示画面の一例を示す図である。図20に示すように、腕時計型端末である情報処理装置10が右腕に装着していると判断された場合(図14に示す状態5)、左側画面領域外24を、ズーム操作を検出する領域に割り当てるようタッチセンサを制御する。これにより、ユーザが左手で右側画面領域外をタッチする際に操作している手で画面を隠してしまうことを回避することができる。
以上説明したように、本実施形態では、左右いずれの腕に装着されているかに応じて特定の操作の検出領域を切り替えることで、情報処理装置10の利便性をさらに向上させることができる。なお、本実施形態による情報処理装置10は、ズーム操作に割り当てた画面領域外と反対側の画面外領域を、操作頻度が相対的に(ズーム操作より)低い所定の操作に割り当ててもよい。
例えば情報処理装置10のデバイス制御部112は、ズーム操作に割り当てた画面領域外と反対側の画面外領域を、画面の回転操作に割り当てるよう制御してもよい。例えば画面領域外を上下にドラッグすることで、時計回り/反時計回りに画面を回転させることができる。このように、画面を隠さずに操作できる側の画面外領域に、操作頻度が相対的に高い操作の検出を割当て、逆側に操作頻度が相対的に低い操作の検出を割り当てることで、快適な操作を提供することが可能である。
<3−4.状態6におけるデバイス制御例>
次に、情報処理装置10がカメラ機能を有している場合に、カメラを構えた状態6におけるデバイス制御例について図21〜図24を参照して説明する。本実施形態による情報処理装置10の構成は、図1〜図3に示す例に限定されず、例えば撮像部(以下、カメラと称す)をさらに有する場合も想定される。
カメラは、撮像レンズ、絞り、ズームレンズ、及びフォーカスレンズ等により構成されるレンズ系、レンズ系に対してフォーカス動作やズーム動作を行わせる駆動系、レンズ系で得られる撮像光を光電変換して撮像信号を生成する固体撮像素子アレイ等を有する。固体撮像素子アレイは、例えばCCD(Charge Coupled Device)センサアレイや、CMOS(Complementary Metal Oxide Semiconductor)センサアレイにより実現されてもよい。本実施形態によるカメラは静止画/動画の撮像が可能である。
撮像レンズの設置位置は特に図示しないが、例えば情報処理装置10の外周面において、スピーカ15aとマイク16aとの間に設けられ、図2に示すように腕200に情報処理装置10が装着された際に小指側(腕の外側)が撮像方向とされてもよい。この場合、カメラを利用する際は、ユーザは図21の状態6で示すように、情報処理装置10が装着された腕を身体の前に上げて、腕の外側(小指側)を被写体に向けて(撮像レンズを被写体に向けて)構える。
情報処理装置10の認識部111は、このような状態6を、情報処理装置10に設けられたモーションセンサ13からの検出値に基づいて認識することが可能である。
図22は、状態1、状態2、状態6の遷移を示す状態遷移図である。図22に示すように、腕を下げた状態1(D1)から腕を上げた状態2(D2)と、腕を下げた状態1(D1)からカメラを構えた状態6(D6)と、腕を上げた状態2(D2)からカメラを構えた状態6(D6)は、互いに遷移可能である。
情報処理装置10の認識部111は、モーションセンサ13からの検出値に基づいて、現在の状態を認識し、認識結果をデバイス制御部112に出力する。また、状態1、状態2、状態6は、図22に示すように遷移可能であるので、認識部111は、モーションセンサ13から継続的に出力される検出値に基づいて、現在の状態をリアルタイムで認識することができる。
そして、認識された状態に応じて、デバイス制御部112は、各デバイスに対して所定の制御を行う。デバイス制御部112は、各状態において利用が想定されないデバイスの機能をOFFすることで消費電力を節約し、また、利用が想定されるデバイスの機能を、別途のON操作(例えばタッチパネル12からの明示的な操作)がなくともONにすることで、必要な時に必要なデバイスの機能を発揮させることができる。
図23は、状態1、状態2、状態6における各デバイスの制御一覧を示す図である。図23に示すように、制御対象のデバイスには、新たにカメラが追加される。
図23に示すように、腕を下げた状態1では、カメラの利用は想定されないのでカメラはOFFに制御される。
また、腕を身体の前で水平にする状態2では、ディスプレイの閲覧が行われるので、カメラの利用は想定されず、OFFに制御される。また、モーションセンサに対しては、ジャイロセンサがONに制御される。本実施形態では、状態2から状態6に遷移する可能性があり、カメラを構えるといった複雑な動きを正確に検知する必要があるので、状態2に遷移した時点でモーションセンサの検知レベルが上げられる。なお、この場合、ジャイロセンサはOFFのままで、加速度センサのサンプリングレートを高く設定してもよい。
カメラを構えた状態3では、カメラの利用が想定されるのでカメラがONに制御される(カメラが起動される)。また、マイクに対しては、動画撮影時にはONに制御して感度を高く設定する。一方、静止画撮影時にはマイクによる収音は不要なので、マイクはOFFに制御される。なお静止画撮影および動画撮影の切り替えは、状態6においてさらに腕を振るといった動作の認識に応じて行われてもよい。
また、状態3では、タッチセンサ、ディスプレイ、スピーカ(裏側スピーカ、表側スピーカ)の利用は想定されないのでOFFに制御される。
(補足)
図23に示すデバイス制御は一例であって、本実施形態はこれに限定されず、例えばモーションセンサが1つであって、また、スピーカが1つであってもよい。この場合、各状態に応じたデバイス制御は例えば図24に示す通り行われる。図24は、状態1、状態2、状態6における各デバイスの他の制御一覧を示す図である。
図24に示す状態6では、図23に示す場合と同様に、カメラの利用が想定されるのでカメラがONに制御される(カメラが起動される)。また、マイクに対しても同様に、動画撮影時にはONに制御して感度を高く設定する。一方、静止画撮影時にはマイクによる収音は不要なので、マイクはOFFに制御される。
また、モーションセンサが1つのため、状態2では、より複雑な動き(カメラを構えるという状態6への遷移)を正確に検知するために、サンプリングレートが高く設定される。
<<5.まとめ>>
以上説明したように、本開示の実施形態による腕時計型端末の情報処理装置10は、左右いずれの腕に装着されているかを判断した上で腕の状態を認識し、認識した腕の状態に基づいて情報処理装置10の各デバイスを制御することができる。
また、腕時計型端末では小型のバッテリーしか搭載することができず、消費電力を常にセーブする必要があるところ、本実施形態による情報処理装置10は、認識した腕の状態に応じたユーザコンテキストに従って不要なデバイスをOFFに制御するので、消費電力を節約することができる。
以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本技術はかかる例に限定されない。本開示の技術分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
例えば、上述した情報処理装置10に内蔵されるCPU、ROM、およびRAM等のハードウェアに、情報処理装置10の機能を発揮させるためのコンピュータプログラムも作成可能である。また、当該コンピュータプログラムを記憶させたコンピュータ読み取り可能な記憶媒体も提供される。
また、上述した状態1〜状態6のうち、どの組み合わせの遷移であってもよい。また、各状態とデバイス制御の関係は一例であって、本実施形態によるデバイス制御部112は、認識された状態に対応付けられるユーザコンテキスト(ディスプレイを見る、電話をする、メールをする、音楽を聴く等)を満足させる制御であればよい。
また、図9の状態4で示す腕を回転する動作、また、図13下に示す腕を捻る動作に応じたデバイス制御は、上述した画面遷移(直前の画面に戻る/次の画面に進む)やボリュームコントロールに限定されない。例えば、ホーム画面への遷移、Notification画面の呼び出し、特定アプリケーションの起動(カメラ、電話、地図(ナビゲーション))、通信履歴の表示(電話、メール、SNS)等の制御であってもよい。
また、判断部110は、情報処理装置10が左右いずれの腕に装着されているかを判断することに加えて、モーションセンサの検出値に基づき、情報処理装置10のタッチパネル12(画面)の向き、すなわち上下を判断することも可能である。これにより、デバイス制御部112は、ディプレイをON制御する際に表示画面を正方向で表示することが可能である。また、上下判断に応じて認識部111による状態認識の際に用いるパラメータを切り替えることで、腕の状態をより正確に認識することができる。
また、本開示による左右判定、パラメータ変更、およびデバイス制御の技術は、左右いずれかのレンズ部分に相当する表示部を有するメガネ型HMD(情報処理装置10の一例)にも応用可能である。例えば、左右いずれの眼前にメガネ型HMDが装着されているかを判断した上で、ジェスチャを認識する際に用いるパラメータの設定が切り替えられる。また、左右いずれの眼前にメガネ型HMDが装着されているかを判断した上で、レンズ部分に相当する表示部の表示内容が制御される(例えばコマンド系を左右いずれの側に表示させるか等の制御)。
また、本明細書に記載された効果は、あくまで説明的または例示的なものであって限定的ではない。つまり、本開示に係る技術は、上記の効果とともに、または上記の効果に代えて、本明細書の記載から当業者には明らかな他の効果を奏しうる。
なお、本技術は以下のような構成も取ることができる。
(1)
ユーザの右腕または左腕のいずれに装着されているかを判断する判断部と、
腕の状態を認識する認識部と、
認識された腕の状態に基づいて、情報処理装置に設けられるデバイスに対して所定の制御を行う制御部と、
を備え、
前記認識部は、前記判断部による判断結果に応じて、前記腕の状態を認識する際に用いるパラメータの設定を切り替える、情報処理装置。
(2)
前記情報処理装置は、腕時計型デバイスである、前記(1)に記載の情報処理装置。
(3)
前記制御部は、認識された腕の状態に対応するユーザコンテキストに応じて各デバイスの制御を行う、前記(1)または(2)に記載の情報処理装置。
(4)
前記判断部は、腕の動きを検出するモーションセンサにより取得された値に基づいて、前記情報処理装置が右腕または左腕のいずれに装着されているかを判断する、前記(1)〜(3)のいずれか1項に記載の情報処理装置。
(5)
前記判断部は、腕の動きを検出するモーションセンサにより取得された値を用いた機械学習により、前記情報処理装置が右腕または左腕のいずれに装着されているかを判断する、前記(1)〜(3)のいずれか1項に記載の情報処理装置。
(6)
前記判断部は、ユーザ入力に基づいて、前記情報処理装置が右腕または左腕のいずれに装着されているかを判断する、前記(1)〜(3)のいずれか1項に記載の情報処理装置。
(7)
前記認識部は、前記判断部による判断結果に応じて、前記パラメータの正負を切り替える、前記(1)〜(6)のいずれか1項に記載の情報処理装置。
(8)
情報処理装置に設けられるデバイスは、表示部、操作部、モーションセンサ、スピーカ、マイクロフォン、および撮像部の少なくともいずれかである、前記(1)〜(7)のいずれか1項に記載の情報処理装置。
(9)
ユーザの右腕または左腕のいずれに装着されているかを判断することと、
判断結果に応じて、腕の状態を認識する際に用いるパラメータの設定を切り替えて、腕の状態を認識することと、
認識された前記腕の状態に基づいて、情報処理装置に設けられるデバイスに対して所定の制御を行うこと、
を含む、制御方法。
(10)
コンピュータを、
ユーザの右腕または左腕のいずれに装着されているかを判断する判断部と、
腕の状態を認識する認識部と、
認識された腕の状態に基づいて、情報処理装置に設けられるデバイスに対して所定の制御を行う制御部と、
として機能させ、
前記認識部は、前記判断部による判断結果に応じて、前記腕の状態を認識する際に用いるパラメータの設定を切り替える、プログラム。
10 情報処理装置
11 主制御部
110 判断部
111 認識部
112 デバイス制御部
12 タッチパネルディスプレイ
13 モーションセンサ
14 記憶部
15、15a、15b スピーカ
16、16a、16b マイクロフォン
17 通信部

Claims (10)

  1. ユーザの右腕または左腕のいずれに装着されているかを判断する判断部と、
    腕の状態を認識する認識部と、
    認識された腕の状態に基づいて、情報処理装置に設けられるデバイスに対して所定の制御を行う制御部と、
    を備え、
    前記認識部は、前記判断部による判断結果に応じて、前記腕の状態を認識する際に用いるパラメータの設定を切り替える、情報処理装置。
  2. 前記情報処理装置は、腕時計型デバイスである、請求項1に記載の情報処理装置。
  3. 前記制御部は、認識された腕の状態に対応するユーザコンテキストに応じて各デバイスの制御を行う、請求項1に記載の情報処理装置。
  4. 前記判断部は、腕の動きを検出するモーションセンサにより取得された値に基づいて、前記情報処理装置が右腕または左腕のいずれに装着されているかを判断する、請求項1に記載の情報処理装置。
  5. 前記判断部は、腕の動きを検出するモーションセンサにより取得された値を用いた機械学習により、前記情報処理装置が右腕または左腕のいずれに装着されているかを判断する、請求項1に記載の情報処理装置。
  6. 前記判断部は、ユーザ入力に基づいて、前記情報処理装置が右腕または左腕のいずれに装着されているかを判断する、請求項1に記載の情報処理装置。
  7. 前記認識部は、前記判断部による判断結果に応じて、前記パラメータの正負を切り替える、請求項1に記載の情報処理装置。
  8. 情報処理装置に設けられるデバイスは、表示部、操作部、モーションセンサ、スピーカ、マイクロフォン、および撮像部の少なくともいずれかである、請求項1に記載の情報処理装置。
  9. ユーザの右腕または左腕のいずれに装着されているかを判断することと、
    判断結果に応じて、腕の状態を認識する際に用いるパラメータの設定を切り替えて、腕の状態を認識することと、
    認識された前記腕の状態に基づいて、情報処理装置に設けられるデバイスに対して所定の制御を行うこと、
    を含む、制御方法。
  10. コンピュータを、
    ユーザの右腕または左腕のいずれに装着されているかを判断する判断部と、
    腕の状態を認識する認識部と、
    認識された腕の状態に基づいて、情報処理装置に設けられるデバイスに対して所定の制御を行う制御部と、
    として機能させ、
    前記認識部は、前記判断部による判断結果に応じて、前記腕の状態を認識する際に用いるパラメータの設定を切り替える、プログラム。
JP2016508591A 2014-03-18 2015-02-09 情報処理装置、制御方法、およびプログラム Pending JPWO2015141328A1 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2014055052 2014-03-18
JP2014055052 2014-03-18
PCT/JP2015/053564 WO2015141328A1 (ja) 2014-03-18 2015-02-09 情報処理装置、制御方法、およびプログラム

Publications (1)

Publication Number Publication Date
JPWO2015141328A1 true JPWO2015141328A1 (ja) 2017-04-06

Family

ID=54144308

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016508591A Pending JPWO2015141328A1 (ja) 2014-03-18 2015-02-09 情報処理装置、制御方法、およびプログラム

Country Status (6)

Country Link
US (4) US10345761B2 (ja)
EP (1) EP3121687A4 (ja)
JP (1) JPWO2015141328A1 (ja)
KR (1) KR102269526B1 (ja)
CN (1) CN106068488A (ja)
WO (1) WO2015141328A1 (ja)

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102244856B1 (ko) * 2014-04-22 2021-04-27 삼성전자 주식회사 웨어러블 장치와의 사용자 인터랙션을 제공하는 방법 및 이를 수행하는 웨어러블 장치
WO2016035571A1 (ja) * 2014-09-04 2016-03-10 ソニー株式会社 情報表示装置及びその情報表示方法、プログラム、並びに、通信システム
KR102273591B1 (ko) * 2014-09-29 2021-07-06 현대엠엔소프트 주식회사 네비게이션 정보를 표시하는 웨어러블 단말기 및 네비게이션 장치 및 그 표시 방법
JP6459684B2 (ja) * 2015-03-23 2019-01-30 カシオ計算機株式会社 情報出力装置、情報出力方法及びプログラム
KR20160121318A (ko) * 2015-04-10 2016-10-19 삼성전자주식회사 전자 장치 및 전자 장치의 사용자 인터페이스 제공 방법
JP6561782B2 (ja) * 2015-11-06 2019-08-21 富士通コネクテッドテクノロジーズ株式会社 電子機器及び表示制御プログラム
TWI585555B (zh) 2015-11-06 2017-06-01 Princo Corp Watch, wear device, emergency method and quick dial law
CN105955479B (zh) * 2016-04-29 2019-11-26 联想(北京)有限公司 一种信息处理方法及穿戴式设备
CN106020445A (zh) * 2016-05-05 2016-10-12 广东小天才科技有限公司 一种自动识别左右手佩戴的方法及穿戴设备
JP2018147031A (ja) * 2017-03-01 2018-09-20 株式会社メガチップス 動作解析装置、情報受付システムおよび入力受付方法
EP3732549B1 (en) * 2017-12-29 2022-06-29 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Method for predicting a motion of an object and method for generating a virtual reality view
JP2019175159A (ja) 2018-03-28 2019-10-10 カシオ計算機株式会社 電子機器、音声入力感度制御方法、及び音声入力感度制御プログラム
CN114253405A (zh) * 2020-09-22 2022-03-29 Oppo(重庆)智能科技有限公司 佩戴检测方法、装置、可穿戴设备及存储介质
JP2022153776A (ja) * 2021-03-30 2022-10-13 セイコーエプソン株式会社 装着型画像表示装置

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013061176A (ja) * 2011-09-12 2013-04-04 Seiko Epson Corp 腕装着型の電子機器およびその制御方法
EP2698686A2 (en) * 2012-07-27 2014-02-19 LG Electronics Inc. Wrist-wearable terminal and control method thereof

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002358149A (ja) 2001-06-01 2002-12-13 Sony Corp ユーザ入力装置
JP3471775B2 (ja) 2001-08-27 2003-12-02 ヤマハメタニクス株式会社 マイクホルダ
JP2009147761A (ja) * 2007-12-14 2009-07-02 Sony Ericsson Mobilecommunications Japan Inc 携帯端末
US8781791B2 (en) * 2010-09-30 2014-07-15 Fitbit, Inc. Touchscreen with dynamically-defined areas having different scanning modes
US9002420B2 (en) * 2011-01-19 2015-04-07 Ram Pattikonda Watch having an interface to a mobile communications device
US9367085B2 (en) * 2012-01-26 2016-06-14 Google Technology Holdings LLC Portable electronic device and method for controlling operation thereof taking into account which limb possesses the electronic device
US8947382B2 (en) * 2012-02-28 2015-02-03 Motorola Mobility Llc Wearable display device, corresponding systems, and method for presenting output on the same
US9229838B2 (en) * 2012-07-09 2016-01-05 International Business Machines Corporation Modeling and evaluating application performance in a new environment
KR102087137B1 (ko) * 2013-03-15 2020-03-10 엘지전자 주식회사 제어 장치 및 그것의 제어 방법
KR102043145B1 (ko) * 2012-07-27 2019-11-11 엘지전자 주식회사 이동 단말기 및 그것의 제어방법
US20140337621A1 (en) * 2013-05-07 2014-11-13 Serguei Nakhimov Wearable communication device, security complex and user interface
US9606721B2 (en) * 2013-07-22 2017-03-28 Lg Electronics Inc. Mobile terminal and control method thereof
CN103442129A (zh) * 2013-08-09 2013-12-11 宇龙计算机通信科技(深圳)有限公司 智能手表与移动终端的交互方法及系统
US10146416B2 (en) * 2014-01-29 2018-12-04 Ingenious.Ventures, LLC Systems and methods for sensory interface
US20170003765A1 (en) * 2014-01-31 2017-01-05 Apple Inc. Automatic orientation of a device
WO2015122879A1 (en) * 2014-02-11 2015-08-20 Bodhi Technology Ventures Llc Detecting the limb wearing a wearable electronic device
US20160034980A1 (en) * 2014-07-31 2016-02-04 iCracked Inc. Method and system to evaluate the condition of client equipment and accurately assess the price and extent of repairs

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013061176A (ja) * 2011-09-12 2013-04-04 Seiko Epson Corp 腕装着型の電子機器およびその制御方法
EP2698686A2 (en) * 2012-07-27 2014-02-19 LG Electronics Inc. Wrist-wearable terminal and control method thereof

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
間野 裕行 HIROYUKI MANO: "ユビキタスセンサとウェアラブルセンサによるユビキタスホーム内での行動判別と映像検索 Action Classific", 電子情報通信学会技術研究報告 VOL.106 NO.608 IEICE TECHNICAL REPORT, vol. 第106巻 第608号, JPN6018043895, 12 March 2007 (2007-03-12), JP, pages 5 - 70 *

Also Published As

Publication number Publication date
EP3121687A4 (en) 2017-11-01
WO2015141328A1 (ja) 2015-09-24
US10466654B2 (en) 2019-11-05
CN106068488A (zh) 2016-11-02
KR102269526B1 (ko) 2021-06-25
KR20160133414A (ko) 2016-11-22
US20170052512A1 (en) 2017-02-23
US10345761B2 (en) 2019-07-09
US20210247723A1 (en) 2021-08-12
US10996635B2 (en) 2021-05-04
EP3121687A1 (en) 2017-01-25
US20200026245A1 (en) 2020-01-23
US20190265654A1 (en) 2019-08-29
US11340560B2 (en) 2022-05-24

Similar Documents

Publication Publication Date Title
US11340560B2 (en) Information processing apparatus, control method, and program
KR102102647B1 (ko) 무선 리시버 및 그 제어 방법
KR101959609B1 (ko) 손목 착용 장치의 경사에 적어도 부분적으로 기초하는 동작의 수행
CN109831636B (zh) 互动视频控制方法、终端及计算机可读存储介质
US20150187357A1 (en) Natural input based virtual ui system for mobile devices
KR20150144668A (ko) 이동 단말기 및 그 제어 방법
EP2667339A1 (en) Mobile terminal and control method thereof
KR20150045257A (ko) 웨어러블 디바이스 및 그 제어 방법
TWI590640B (zh) 通話方法及其電子裝置
CN110764730A (zh) 播放音频数据的方法和装置
EP3340026B1 (en) Watch-type mobile terminal
JP2016139947A (ja) 携帯端末
WO2019062611A1 (zh) 消息处理方法、消息查看方法和终端
JP2016062600A (ja) 移動端末機及びその制御方法
CN108391007A (zh) 一种应用程序的音量设置方法及移动终端
JP5929698B2 (ja) 通信システムおよびプログラム
JP6587918B2 (ja) 電子機器、電子機器の制御方法、電子機器の制御装置、制御プログラム及び電子機器システム
JP6591167B2 (ja) 電子機器
JP2016009441A (ja) 携帯電子機器、携帯電子機器の制御方法およびプログラム
JP2019118134A (ja) 情報処理装置、通信制御方法およびコンピュータプログラム
JP6897693B2 (ja) 携帯情報端末、携帯情報端末制御方法、プログラム
CN114257680B (zh) 来电显示的方法、用户设备、存储介质及电子设备
JP2019082823A (ja) 電子機器
JP2016192136A (ja) 表示制御装置

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180112

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180112

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20181106

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181227

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20190208

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20190214

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20190222

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20190507

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20190515

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20190522