CN106068488A - 信息处理设备、控制方法及程序 - Google Patents
信息处理设备、控制方法及程序 Download PDFInfo
- Publication number
- CN106068488A CN106068488A CN201580012548.0A CN201580012548A CN106068488A CN 106068488 A CN106068488 A CN 106068488A CN 201580012548 A CN201580012548 A CN 201580012548A CN 106068488 A CN106068488 A CN 106068488A
- Authority
- CN
- China
- Prior art keywords
- state
- arm
- messaging device
- unit
- worn
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G04—HOROLOGY
- G04G—ELECTRONIC TIME-PIECES
- G04G21/00—Input or output devices integrated in time-pieces
-
- G—PHYSICS
- G04—HOROLOGY
- G04B—MECHANICALLY-DRIVEN CLOCKS OR WATCHES; MECHANICAL PARTS OF CLOCKS OR WATCHES IN GENERAL; TIME PIECES USING THE POSITION OF THE SUN, MOON OR STARS
- G04B37/00—Cases
- G04B37/14—Suspending devices, supports or stands for time-pieces insofar as they form part of the case
- G04B37/1486—Arrangements for fixing to a bracelet
-
- G—PHYSICS
- G04—HOROLOGY
- G04B—MECHANICALLY-DRIVEN CLOCKS OR WATCHES; MECHANICAL PARTS OF CLOCKS OR WATCHES IN GENERAL; TIME PIECES USING THE POSITION OF THE SUN, MOON OR STARS
- G04B47/00—Time-pieces combined with other articles which do not interfere with the running or the time-keeping of the time-piece
- G04B47/06—Time-pieces combined with other articles which do not interfere with the running or the time-keeping of the time-piece with attached measuring instruments, e.g. pedometer, barometer, thermometer or compass
-
- G—PHYSICS
- G04—HOROLOGY
- G04D—APPARATUS OR TOOLS SPECIALLY DESIGNED FOR MAKING OR MAINTAINING CLOCKS OR WATCHES
- G04D99/00—Subject matter not provided for in other groups of this subclass
-
- G—PHYSICS
- G04—HOROLOGY
- G04G—ELECTRONIC TIME-PIECES
- G04G17/00—Structural details; Housings
- G04G17/08—Housings
-
- G—PHYSICS
- G04—HOROLOGY
- G04G—ELECTRONIC TIME-PIECES
- G04G21/00—Input or output devices integrated in time-pieces
- G04G21/02—Detectors of external physical values, e.g. temperature
-
- G—PHYSICS
- G04—HOROLOGY
- G04G—ELECTRONIC TIME-PIECES
- G04G21/00—Input or output devices integrated in time-pieces
- G04G21/04—Input or output devices integrated in time-pieces using radio waves
-
- G—PHYSICS
- G04—HOROLOGY
- G04G—ELECTRONIC TIME-PIECES
- G04G21/00—Input or output devices integrated in time-pieces
- G04G21/06—Input or output devices integrated in time-pieces using voice
-
- G—PHYSICS
- G04—HOROLOGY
- G04G—ELECTRONIC TIME-PIECES
- G04G9/00—Visual time or date indication means
- G04G9/0064—Visual time or date indication means in which functions not related to time can be displayed
-
- G—PHYSICS
- G04—HOROLOGY
- G04G—ELECTRONIC TIME-PIECES
- G04G99/00—Subject matter not provided for in other groups of this subclass
- G04G99/006—Electronic time-pieces using a microcomputer, e.g. for multi-function clocks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F1/00—Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
- G06F1/16—Constructional details or arrangements
- G06F1/1613—Constructional details or arrangements for portable computers
- G06F1/163—Wearable computers, e.g. on a belt
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F1/00—Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
- G06F1/16—Constructional details or arrangements
- G06F1/1613—Constructional details or arrangements for portable computers
- G06F1/1633—Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
- G06F1/1684—Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
- G06F1/1686—Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being an integrated camera
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F1/00—Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
- G06F1/16—Constructional details or arrangements
- G06F1/1613—Constructional details or arrangements for portable computers
- G06F1/1633—Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
- G06F1/1684—Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
- G06F1/1694—Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being a single or a set of motion sensors for pointer control or gesture input obtained by sensing movements of the portable computer
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
- G06F3/04883—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/033—Indexing scheme relating to G06F3/033
- G06F2203/0339—Touch strips, e.g. orthogonal touch strips to control cursor movement or scrolling; single touch strip to adjust parameter or to implement a row of soft keys
Abstract
【问题】为了提供可以确定信息处理设备是佩戴在用户的右手臂和左手臂的哪个手臂上并且然后识别手臂的状态的信息处理设备、控制方法及程序。【解决方案】信息处理设备包括:用于确定信息处理设备是佩戴在用户的右手臂和左手臂的哪个手臂上的确定单元;用于识别手臂的状态的识别单元;以及用于基于所识别的手臂的状态对被设置在信息处理设备中的装置提供预定控制的控制单元。识别单元取决于由确定单元确定的结果来改变用于识别手臂的状态的参数的设置。
Description
技术领域
本公开涉及信息处理设备、控制方法及程序。
背景技术
佩戴在手臂上的移动终端像手表(下文中还被称为“腕带式终端”)近来已变得非常普及。
为了输入到手表终端以用于操作,主要使用设置在终端的顶部的触摸屏。或者,例如,下面的专利文献1公开了涉及手表终端的技术,使用该技术可以在手表终端被佩戴在手腕上时,识别手势如“保持”、“释放”等并且将其输入作为命令。
引文列表
专利文献
专利文献1:JP2002-358149A
发明内容
技术问题
然而,手表终端的小尺寸使得难以对触摸屏执行输入操作。此外,手表终端被佩戴在手臂上,相较于可以手持的智能电话,这使得触摸屏的操作不稳定。
此外,手表终端被佩戴在手臂上,因此,必须使用另一手臂来操作触摸屏,即,对于触摸屏操作需要两只手臂。因此,当另一手臂被占用时,不能对手表终端进行操作。
此外,虽然上述常规技术公开了手势如“保持”、“释放”等被输入作为命令,但是上述常规技术都没有提到对与操作目的(使用目的)相关联的手臂的状态进行识别。例如,在使用手表终端查看显示屏、呼叫以及拍摄期间,佩戴有手表终端的手臂处于不同状态。如果可以根据这样的不同状态来设置不同的直观输入操作,则可以进一步改进手表终端的可用性。用于识别这样的手臂状态的运动传感器等的检测值取决于手表终端是被佩戴在用户的右手臂上还是左手臂上而不同。然而,在常规技术中,并没有关注手表终端是被佩戴在左手臂上还是右手臂上。
考虑到这一点,本公开提出了使得能够基于确定信息处理设备是被佩戴在左手臂上还是右手臂上来识别手臂的状态的信息处理设备、控制方法及程序。
问题的解决方案
根据本公开内容,提供了一种信息处理设备,包括:确定单元,被配置成确定信息处理设备是被佩戴在用户的右手臂上还是左手臂上;识别单元,被配置成识别手臂的状态;以及控制单元,被配置成根据所识别的手臂的状态对包括在信息处理设备中的装置执行预定控制。识别单元根据由确定单元确定的结果来切换在手臂的状态的识别中使用的参数的设置。
根据本公开内容,提供了一种控制方法,包括:确定信息处理设备是被佩戴在用户的右手臂上还是左手臂上;根据确定的结果来切换在手臂的状态的识别中使用的参数的设置并且识别手臂的状态;以及根据所识别的手臂的状态对包括在信息处理设备中的装置执行预定控制。
根据本公开内容,提供了一种程序,所述程序用于使计算机用作:确定单元,被配置成确定信息处理设备是被佩戴在用户的右手臂上还是左手臂上;识别单元,被配置成识别手臂的状态;以及控制单元,被配置成根据所识别的手臂的状态对包括在信息处理设备中的装置执行预定控制。识别单元根据由确定单元确定的结果来切换在手臂的状态的识别中使用的参数的设置。
本发明的有益效果
如上所述,根据本公开内容,可以基于确定信息处理设备是被佩戴在左手臂上还是右手臂上来识别手臂的状态。
注意,并不一定限于上述效果,并且与上述效果一起或者代替上述效果,可以显示出在本说明书中所期望引入的任何效果或者根据本说明书预期的其他效果。
附图说明
[图1]图1是示出信息处理设备的外观和配置的图。
[图2]图2是用于描述信息处理设备当被佩戴时的图。
[图3]图3是示出根据本实施方式的信息处理设备的基本配置的框图。
[图4]图4是用于描述使用加速度传感器执行的对信息处理设备是被佩戴在右手臂上还是左手臂上的确定的图。
[图5]图5是用于描述状态1至状态3的图。
[图6]图6是示出状态1至状态3之间的转换的状态转换图。
[图7]图7是示出装置在状态1至状态3下的控制的列表的图。
[图8]图8是示出装置在状态1至状态3下的其他控制的列表的图。
[图9]图9是用于描述状态1、状态2和状态4的图。
[图10]图10是示出状态1、状态2和状态4之间的转换的状态转换图。
[图11]图11是示出装置在状态1、状态2和状态4下的控制的列表的图。
[图12]图12是示出装置在状态1、状态2和状态4下的其他控制的列表的图。
[图13]图13是用于描述手臂的转动的示例的图。
[图14]图14是用于描述状态1、状态2和状态5的图。
[图15]图15是示出根据比较例的信息处理设备的显示屏示例的图。
[图16]图16是示出根据本实施方式的信息处理设备被佩戴在左手臂上的显示屏示例的图。
[图17]图17是示出根据本实施方式的信息处理设备被佩戴在右手臂上的显示屏示例的图。
[图18]图18是用于描述触摸传感器的可检测区域的图。
[图19]图19是用于描述当根据本实施方式的信息处理设备被佩戴在左手臂上时缩放操作区域的分配的图。
[图20]图20是示出根据本实施方式的信息处理设备被佩戴在右手臂上的显示屏示例的图。
[图21]图21是用于描述状态1、状态2和状态6的图。
[图22]图22是示出状态1、状态2和状态6之间的转换的状态转换图。
[图23]图23是示出装置在状态1、状态2和状态6下的控制的列表的图。
[图24]图24是示出装置在状态1、状态2和状态6下的其他控制的列表的图。
具体实施方式
下文中,将参照附图详细描述本公开的(一个或多个)优选实施方式。在本说明书和附图中,采用相同的附图标记表示具有基本上相同功能和结构的要素,并且省略重复说明。
此外,将按下面的顺序来进行描述。
1.根据本公开的实施方式的信息处理设备的概述
2.基本配置
3.根据状态的装置控制示例
3-1.在状态1、状态2和状态3下的装置控制示例
3-2.在状态1、状态2和状态4下的装置控制示例
3-3.在被佩戴在右手臂期间(状态5)的装置控制示例
3-4.在状态6下的装置控制示例
4.结论
<<1.根据本公开的实施方式的信息处理设备的概述>>
将参照图1和图2来描述根据本公开的实施方式的信息处理设备的概述。图1是示出信息处理设备的外观和配置的图。图2是用于描述信息处理设备当被佩戴时的图。
如图1和图2所示,根据本实施方式的信息处理设备10是被佩戴在用户的手臂200或手腕上的可穿戴式终端,并且也被称为手表/腕带式终端。采用信息处理设备10,用户可以在不需要将信息处理设备10从包或兜中拿出的动作的情况下立即对显示在显示屏上的信息进行检查和操作。
信息处理设备10在其外周表面上设置有用作显示单元和操作单元的触摸面板显示器(下文中称为触摸屏)12、扬声器15a和扬声器15b、麦克风(下文中还被称为麦克风)16a和麦克风16b。
例如,触摸屏12被设置在为信息处理设备10的整个周边的一部分的区域中,以使得用户易于对触摸屏12执行触摸操作。注意,本公开不限于此,并且触摸屏12可以沿着信息处理设备10的整个周边设置。
由例如液晶显示器、有机EL显示器等实现的触摸屏12的显示单元功能在显示屏上显示字符、图像和其他信息项。对字符、图像和其他信息项的显示由稍后描述的主控制单元11的装置控制单元112进行控制。
触摸屏12的操作单元功能通过例如覆盖在显示屏的顶部上的操作表面来执行,并且对用户触摸的位置进行检测。操作表面是沿着用户的手臂的外周方向延伸的曲面。操作表面可以包括具有不同曲率的多个部分。
期望触摸屏12应该具有大的面积,以使得作为手表终端的信息处理设备10可以提供各种功能。然而,如果设置从用户的手臂向上或向下突出的大触摸屏,则手表终端的可穿戴性和可操作性变差。因此,如图2所示,触摸屏12具有曲面,该曲面具有狭窄宽度以适于手臂200。
如图2所示,用户当查看显示屏时对操作表面执行触摸操作,操作表面覆盖在被佩戴在手臂200上的信息处理设备10的触摸屏12的显示屏的顶部上。
如图1和图2所示,具有输出声音的功能的扬声器15a和扬声器15b分别被实施为前置扬声器和后置扬声器,扬声器15a和扬声器15b设置在信息处理设备10的外周表面中。前置扬声器位于触摸屏12附近,以及后置扬声器被定位在远离前置扬声器半周处。
如图1和图2所示,具有收集声音的功能的麦克风16a和麦克风16b分别被实施为前置麦克风和后置麦克风,麦克风16a和麦克风16b设置在信息处理设备10的外周表面。前置麦克风位于触摸屏12附近,以及后置麦克风被定位在远离前置麦克风半周处。
注意,图1和图2所示的扬声器15a和扬声器15b以及麦克风16a和麦克风16b的数量和位置仅是说明性的,并且本实施方式不限于此。可替选地,例如,可以沿着腕带的端部设置阵列扬声器和阵列麦克风。
(背景)
这里,如图2所示,当对被佩戴在一只手臂200上的信息处理设备10的触摸屏12执行输入操作时,另一只手臂用来进行输入操作,并且因此,需要使用两只手臂。因此,如果可以通过检测手臂的运动来输入手势,则可以通过仅移动佩戴有信息处理设备10的一只手臂200来执行输入操作,并且因此,改进了信息处理设备10的可用性。
当信息处理设备10用来执行显示屏的查看、呼叫或拍摄时,佩戴有信息处理设备10的手臂200的状态在这些动作之间不同。如果可以根据状态的不同来执行直观输入操作,则可以进一步改进信息处理设备10的可用性。
用于识别手臂200的这样的状态(运动)的运动传感器等的检测值取决于信息处理设备10是被佩戴在用户的右手臂上还是左手臂上而不同。
鉴于此,在本实施方式中,提出了信息处理设备10,信息处理设备10可以基于确定信息处理设备10是被佩戴在左手臂上还是右手臂上来识别手臂的状态,并且根据手臂的状态来控制信息处理设备10中的每个装置。
在前述中,描述了根据本公开的实施方式的信息处理设备10的概述。接下来,将参照图3来描述根据本公开的信息处理设备10的基本配置。
<<2.基本配置>>
图3是示出根据本实施方式的信息处理设备10的基本配置的框图。如图10所示,信息处理设备10具有主控制单元11、触摸面板显示器12、运动传感器13、存储单元14、扬声器15、麦克风16以及通信单元17。
(主控制单元)
例如,主控制单元11包括微型计算机,微型计算机包括中央处理单元(CPU)、只读存储器(ROM)、随机存取存储器(RAM)、非易失性存储器和接口单元。主控制单元11对信息处理设备10的部件进行控制。
根据本实施方式的主控制单元11还用作确定单元110、识别单元111和装置控制单元112。确定单元110确定信息处理设备10是被佩戴在用户的右手臂上还是左手臂上。具体地,例如,确定单元110可以基于从运动传感器13输出的检测值来确定信息处理设备10是被佩戴在用户的右手臂上还是左手臂上。
这里,将参照图4描述由确定单元110执行的对信息处理设备10是被佩戴在用户的右手臂上还是左手臂上的确定。图4是用于描述使用加速度传感器执行的对信息处理设备10是被佩戴在用户的右手臂上还是左手臂上的确定的图。这里,加速度传感器用作被设置在信息处理设备10中的运动传感器13的示例。例如,如图4所示,信息处理设备10被佩戴在手腕上使得佩戴者能够正常查看显示屏的位置,并且设置加速度传感器的取向以使得当信息处理设备10是被佩戴在右手臂上时沿X轴方向的加速度为负,以及当信息处理设备10是被佩戴在左手臂上时沿X轴方向的加速度为正,其中佩戴有信息处理设备10的手臂指向下。
当加速度传感器的取向是已知的时,基于当手臂指向下时获得的加速度传感器的检测值,如果沿X轴方向的加速度为负,则确定单元110可以确定信息处理设备10是被佩戴在右手臂上,以及如果沿X轴方向的加速度为正,则确定单元110可以确定信息处理设备10是被佩戴在左手臂上。
确定单元110将确定结果输出到识别单元111。注意,除了基于来自运动传感器13的检测值自动确定信息处理设备10是被佩戴在左手臂上还是右手臂上以外,确定单元110还可以基于机械学习或用户的输入来确定信息处理设备10是被佩戴在左手臂上还是右手臂上。例如,当加速度传感器的取向未知时,确定单元110通过对从运动传感器13(例如,加速度传感器)连续输出的检测值进行采样来提取模式,以及对所提取的模式与用于机器学习的训练数据(右手臂和左手臂的运动模式(状态))之间进行匹配,并且确定信息处理设备10是被佩戴在左手臂上还是右手臂上。或者,当用户从触摸屏12输入指示信息处理设备10是被佩戴在左手臂上还是右手臂上的信息或者当用户使用自己的语音通过麦克风16输入这样的信息时,确定单元110基于输入信息来确定信息处理设备10是被佩戴在左手臂上还是右手臂上。
识别单元111具有对佩戴有信息处理设备10的手臂200的状态进行识别的功能。具体地,例如,识别单元111基于从运动传感器13输出的检测值来识别手臂的状态(运动)。识别单元111还可以根据由确定单元110所执行的确定的结果来切换在手臂的状态识别中所使用的参数的设置,并且因此即使在运动是复杂的情况下也可以更正确地识别手臂的状态。例如,从作为运动传感器13的示例的加速度传感器输出的检测值的符号取决于信息处理设备10是被佩戴在左手臂上还是右手臂上而变化。因此,如果参数的符号根据信息处理设备10是被佩戴在左手臂上还是右手臂上而切换,则识别单元111可以更正确地识别手臂的状态。注意,将在下面的“3.根据状态的装置控制示例”中具体描述由识别单元111所识别的手臂的状态的变化。识别单元111还将识别结果发送到装置控制单元112。
装置控制单元112具有根据由识别单元111所识别的手臂的状态对设置在信息处理设备10中的各种装置执行预定控制的功能。例如,装置控制单元112针对各种装置如触摸屏12的显示单元和操作单元、运动传感器13、扬声器15和麦克风16进行开启/关闭、改变设置等。如在下面的“3.根据状态的装置控制示例”中所描述的,基于由根据识别单元111所识别的手臂的状态来估计使用信息处理设备10的目的(用户上下文),信息处理设备10是具有多个功能的手表终端。因此,装置控制单元112根据所估计的使用目的执行装置控制。具体地,例如,装置控制单元112开启所估计的使用目的所需要的装置、在需要时改变输出/输入装置的性能等级的设置、或者关闭不需要的装置。
因此,用户可以根据使用的目的在不需要考虑对触摸屏12执行输入操作的情况下仅通过移动手臂200来执行装置控制。具体地,通过使信息处理设备10识别手臂的运动并且识别该运动作为手势命令,各个装置的开启和关闭可以仅通过用户的更自然的运动来进行自动控制,手臂的运动取决于使用的目的如查看显示屏、呼叫或拍摄而变化。
(触摸面板显示器)
如上所述,触摸面板显示器12用作显示单元和操作单元(例如,触摸传感器)。
(运动传感器)
运动传感器13由用于检测空间运动或角度的装置如加速度传感器、陀螺仪传感器、地磁传感器等来实施,运动传感器13是用于检测佩戴有信息处理设备10的手臂200的状态(运动)的传感器。或者,运动传感器13可以包括不同传感器的组合。
注意,当将使用包括在装置本身中的短距离传感器确定装置的物理状态的方法(例如该方法是在智能电话中使用的)应用于手表终端时,需要将信息处理设备10保持为尽可能靠近耳朵以使得短距离传感器可以识别保持为靠近耳朵的信息处理设备10的状态,如下面参照图5所描述的状态3。然而,这样的运动是非自然的,这会导致用户的体力负荷。鉴于此,在本实施方式中,运动传感器用来识别手臂的状态以使得当在不使身体处于非自然位置的情况下执行自然运动时能够识别状态。
(通信单元)
通信单元17具有连接到外部设备并且与外部设备交换数据的功能。例如,通信单元17可以连接到用户携带的智能电话并且与智能电话交换数据,或者通信单元17可以通过网络连接到预定服务器并且与服务器交换数据。或者,通信单元17可以通过移动电话网或因特网来传递音频信号。
(存储单元)
存储单元14对用于执行由主控制单元11所执行的各种处理的程序等进行存储。例如,存储单元14对与由装置控制单元112根据所识别的状态执行的各装置的预定控制有关的数据进行存储。
(扬声器)
扬声器15具有输出声音(音频信号)的功能。例如,扬声器15向用户发出警报,或者输出在会话期间所接收的语音。
(麦克风)
麦克风16具有收集声音(音频信号)的功能。例如,麦克风16接收用户的语音输入,或者收集用户在会话期间发出的语音。
在前述中,详细描述了根据本实施方式的信息处理设备10的配置。接下来,将使用多个具体实施方式来描述根据信息处理设备10的状态的装置控制示例。
<<3.根据状态的装置控制示例>>
<3-1.在状态1、状态2和状态3下的装置控制示例>
首先,将参照图5至图8描述在状态1至状态3下的装置控制示例。图5是用于描述状态1至状态3的图。图5的左侧所示的状态1示出了佩戴有信息处理设备10的手臂(手)被放低的状态。图5的中间所示的状态2示出了手臂(手)位于身体的下部的前方的状态(抬高手臂以查看信息处理设备10的显示屏的状态)。状态3示出了手臂(手)保持靠近耳朵的状态(采用后置扬声器15b进行呼叫并且后置麦克风16b(手腕的前侧)保持靠近面部的状态)。
信息处理设备10的识别单元111可以基于来自被设置在信息处理设备10中的运动传感器13的检测值识别状态1至状态3。
图6是示出状态1至状态3之间的转换的状态转换图。如图6所示,转换可以发生在从手臂被放低的状态1(D1)到手臂被抬高的状态2(D2),反之,可以发生在从手臂被抬高的状态2(D2)到手臂被放低的状态1(D1)。转换可以发生在从手臂被放低的状态1(D1)到手臂保持靠近耳朵的状态3(D3),反之,转换可以发生在从手臂保持靠近耳朵的状态3(D3)到手臂被放低的状态1(D1)。转换可以发生在从手臂被抬高的状态2(D2)到手臂保持靠近耳朵的状态3(D3),反之,转换可以发生在从手臂保持靠近耳朵的状态3(D3)到手臂被抬高的状态2(D2)。
信息处理设备10的识别单元111基于来自运动传感器13的检测值识别当前状态,并且将识别结果输出到装置控制单元112。如图6所示,转换可以发生在状态1至状态3之间,并且因此,识别单元111可以基于从运动传感器13连续输出的检测值实时地识别当前状态。
在此之后,装置控制单元112根据所识别的状态对每个装置执行预定控制。对于每个状态,装置控制单元112可以关闭装置在该状态下不使用的功能以降低功耗,并且在不需要考虑执行打开操作(例如,对触摸屏12的显式操作)的情况下打开装置在该状态下要使用的功能,以使得当需要时显示所需装置的功能。
这里,将参照图7描述根据状态的每个装置控制示例。图7是示出装置在状态1至状态3下的控制的列表的图。这里,装置的示例包括与包括在触摸屏12中的操作单元对应的“触摸传感器”、被实施为运动传感器13的“加速度传感器”和“陀螺仪传感器”以及与包括在触摸屏12中的显示单元对应的“显示器”。装置的示例还包括与扬声器15b对应的“后置扬声器”、与扬声器部15a对应的“前置扬声器”,以及与麦克风16a和麦克风16b对应的“麦克风”。
(3-1-1.在状态1下的装置控制)
如图7所示,例如,假设在手臂被放低的状态1下没有执行触摸操作,并且因此,触摸传感器被控制为关闭。当运动传感器13包括多个传感器(例如,加速度传感器和陀螺仪传感器)时,传感器中的一个传感器是开启的而其他传感器是关闭的。如果开启的传感器被控制以使得采样率低,则可以降低功耗。采样率可以为能够检测到从状态1到状态2或状态3的转换的情况下的采样率那样低。虽然在图7所示的示例中,因为陀螺仪传感器消耗更多的功率,所以陀螺仪传感器是关闭的而加速度传感器是开启的,但是本实施方式不限于此。还可以是上述控制的相反情况。
在状态1下,因为假设未查看显示器,所以显示器被控制为关闭。或者,显示器被控制为简单地显示仅时钟等。此外,假设用户没有查看显示器,并且因此,刷新率(画面更新率)被控制为低。因此,当未使用显示器时降低显示器的功耗。
状态1还被认为是等待呼入呼叫或邮件的状态。因此,在状态1下,当接收到呼叫或邮件时,需要向用户通知接收到呼叫或邮件,并且因此,前置扬声器15a和后置扬声器15b中至少之一被控制为开启。此外,为了通知用户,输出被控制为高(大的声音)。注意,可以通过振动向用户通知呼叫或邮件。在这种情况下,所有扬声器被控制为关闭,并且振动单元(未示出)被控制为开启。在状态1下,还可以假设不使用麦克风,并且因此,麦克风被控制为关闭。
(3-1-2.在状态2下的装置控制)
接下来,当在状态1下存在呼入呼叫或邮件时,用户抬高手臂并且将手臂保持在用户身体的前方,同时使信息处理设备10的显示屏面向用户,以使得用户可以查看显示屏,这是状态2。此时,识别单元111识别出从状态1到状态2的转换,并且将识别结果输出到装置控制单元112。装置控制单元112响应于至状态2的转换对每个装置执行预定控制。
具体地,如图7所示,在手臂被抬高并且保持在身体前方的状态2下,假设执行触摸操作,并且因此,触摸传感器被控制为开启。运动传感器13如在状态1下一样被控制。当包括多个传感器时,传感器中的一个传感器是开启的而其他传感器是关闭的。开启的传感器被控制以使得采样率低,从而降低功耗。采样率可以为能够检测到从状态1到状态2或状态3的转换的情况下的采样率那样低。
在状态2下,假设查看显示器,并且因此,显示器被控制为开启。还假设用户正在查看显示器,并且因此,刷新率(画面更新率)被控制为高。显示器显示例如邮件发送者的姓名、邮件标题或者呼叫者的姓名、呼叫的号码等。
在状态2下,还假设从状态3的转换之后仍继续会话,并且因此,前置扬声器15a被控制为开启,并且输出被控制为高(大的声音)。因此,即使当信息处理设备10远离状态3的耳朵时,用户也可以继续会话。
当会话继续时,假设麦克风被使用。因此,在状态2下,麦克风被控制为开启。或者,还假设已在显示器上确认邮件发送者或呼叫者的用户可以使用音频输入进行应答。因此,在状态2下,麦克风被控制为开启。在这种情况下,麦克风远离用户的脸部,并且因此,麦克风的灵敏度被控制为高。
(3-1-3.在状态3下的装置控制)
接下来,在状态2下,当用户确认呼叫者并且然后应答呼叫时,用户在仍保持信息处理设备10的情况下抬高手臂并且将手腕的前侧移动到面部附近,并且保持手靠近耳朵,即,发生从状态2到状态3的转换(参见图5)。此时,识别单元111识别出从状态2到状态3的转换,并且将识别结果输出到装置控制单元112。装置控制单元112响应于至状态3的转换对每个装置执行预定控制。
具体地,如图7所示,在手保持靠近耳朵的状态3下,假设不执行触摸操作,并且因此,触摸传感器如在状态1下一样被控制为关闭。运动传感器13也如在状态1下一样被控制。运动传感器13包括多个传感器,传感器中的一个传感器是开启的而其他传感器是关闭的。开启的传感器被控制以使得采样率低,从而降低功耗。采样率可以为能够检测到从状态3到状态1或状态2的转换的情况下的采样率那样低。
此外,在状态3下,假设不查看显示器,并且因此,显示器如在状态1下一样被控制为关闭。或者,显示器被控制为简单地显示仅时钟等。此外,假设用户没有查看显示器,并且因此,刷新率(画面更新率)被控制为低。
此外,从状态2到状态3的转换对应于应答呼叫的手势,并且因此,位于手腕的面对面部的前侧的后置扬声器15b被控制为开启,并且因为后置扬声器15位于靠近耳朵处,所以后置扬声器15b被控制以降低输出(低的声音)。此外,装置控制单元112执行控制以使得接收到的语音从后置扬声器15b输出。因此,与用于进行会话的运动对应的从状态2到状态3的转换被同时识别为用于应答呼叫的手势命令。因此,用户可以在不执行触摸操作等的情况下开始会话。
此外,在用户应答呼叫的状态3下,麦克风被控制为开启,并且因为麦克风近距离靠近脸部,所以麦克风被控制为较不灵敏。装置控制单元112执行控制以使得由麦克风收集的用户的语音通过通信单元17发送到呼叫的另一侧的信息处理终端。
在上述中,描述了装置在状态1至状态3下的控制。注意,在向用户通知呼入呼叫以及然后发生至状态2的转换之后,用户可以检查显示器,然后放低手臂以使得发生至状态1的转换,这被识别为指示用户不应答呼叫的手势命令。在这种情况下,装置控制单元112向呼叫的另一方的信息处理终端发送例如“我现在不能应答您的呼叫”的消息,并且结束通信。
此外,可以发生至状态3的转换,其中用户应答呼叫,并且在此之后,在会话期间可以发生至状态2的转换。在这种情况下,假设用户想要查看显示器同时继续会话。因此,装置控制单元112进行控制以使得扬声器的输出增大,并且显示器和触摸传感器被控制为开启。此外,装置控制单元112增大麦克风的灵敏度,以使得麦克风可以在不受信息处理设备10远离面部的影响的情况下收集用户的语音。
当在用户完成对显示屏上的信息的查看之后手臂的状态返回到手保持靠近耳朵的状态3时,装置控制单元112执行控制以使得显示器被再次控制为关闭,并且扬声器的输出减小。
在此之后,当发生从状态3到状态1的转换时,装置控制单元112识别这样的转换作为用于结束呼叫的手势命令,并且执行控制以使得呼叫结束。
因此,根据本实施方式,当用户仅执行与用户上下文对应的动作时,各装置的控制被优化以使得用户不需要执行其他操作(例如,点击屏幕、操作硬件键等),因此改进了可操作性和可用性。与用户上下文对应的动作的示例包括如果收到任何通知则查看触摸屏12以检查呼入呼叫/邮件的动作,当需要进行会话时保持信息处理设备10靠近耳朵的动作。
注意,图7所示的装置控制仅是说明性的,并且本实施方式不限于此。例如,可以设置仅单个运动传感器,以及可以设置仅单个扬声器。在这种情况下,例如,如图8所示执行对应于每个状态的装置控制。图8是示出装置在状态1至状态3下的其他控制的列表的图。
在图8中,当使用仅单个运动传感器时,在状态1至状态3的所有状态下,运动传感器被控制为开启,并且采样率被设置为低。
此外,当使用仅单个扬声器时,在状态1下,扬声器被控制为开启,并且输出被设置为高。在状态2下,扬声器被控制为关闭。在状态3下,扬声器被控制为开启,并且输出被设置为低。当使用仅单个扬声器时,不特别限制放置扬声器的位置。
<3-2.在状态1、状态2和状态4下的装置控制示例>
接下来,将参照图9至图12描述在状态2下的其他手势输入。图9是用于描述状态1、状态2和状态4的图。图9的左侧所示的状态1和图9的中间所示的状态2类似于参照图5所描述的状态。
图9的右侧所示的状态4示出了当手臂保持在身体的下部的前方的情况下手臂(手)转动的状态(手臂被抬高以查看信息处理设备10的显示屏的状态)。
信息处理设备10的识别单元111可以基于来自被设置在信息处理设备10中的运动传感器13的检测值识别状态1、状态2和状态4。
图10是示出状态1、状态2和状态4之间的转换的状态转换图。如图10所示,转换可从发生在从手臂被放低的状态1(D1)到手臂在身体的前方被抬高的状态2(D2),反之,转换可以发生在从手臂在身体的前方被抬高的状态2(D2)到手臂被放低的状态1(D1)。转换可以发生在从手臂在身体的前方被抬高的状态2(D2)到手臂在身体的前方转动的状态4(D4),反之,转换可以发生在从手臂在身体的前方转动的状态4(D4)到手臂在身体的前方被抬高的状态2(D2)。
状态4是从状态2的转换得到的。因此,假设状态4与在发生如下用户上下文期间执行的动作对应:在该用户上下文中,在用户在状态2下正在查看信息处理设备10的显示屏的同时用户想要查看下一画面或前一画面。鉴于此,在本实施方式中,执行控制以使得根据手臂的转动的状态(朝向或远离身体转动)发生触摸屏12的画面转换。
图11是示出装置在状态1、状态2和状态4下的控制的列表的图。已经参照图7描述了各装置在状态1下的控制,并且因此在此将不再描述。
关于装置在状态2下的控制,运动传感器的控制不同于图7所示的控制,即,采样数据被设置为高。在本实施方式中,可以发生从状态2到状态4的转换,并且需要正确地检测复杂运动比如手臂的转动,并且因此,当发生至状态2的转换时,运动传感器的检测水平提高。注意,在这种情况下,当加速度传感器的采样率仍然低时,陀螺仪传感器可以被控制为开启。此外,其他装置在状态2下的控制类似于图7所示的示例。
在状态4下,如图11所示,转动手臂(朝向或远离身体转动)的动作被接受作为“返回”或“前进”的动作,以及装置控制单元112控制显示器以使得显示器返回到紧邻在前的画面或者前进到下一画面。注意,除了显示器以外的其他装置(具体地,触摸传感器、运动传感器、扬声器以及麦克风)保持状态2的控制。
因此,根据本实施方式,用户可以在不需要对触摸屏执行输入操作的情况下仅通过转动自己的佩戴有信息处理设备10的手臂来改变显示器画面。
(补充1)
注意,图11所示的装置控制仅是说明性的,并且本实施方式不限于此。例如,可以设置仅单个运动传感器,以及可以设置仅单个扬声器。在这种情况下,例如,根据如图12所示的状态执行装置控制。图12是示出装置在状态1、状态2和状态4下的其他控制的列表的图。
如图12所示,在状态4下,如图11所示的情况那样,转动手臂(朝向或远离身体转动)的动作被接受作为“返回”或“前进”的动作,以及装置控制单元112控制显示器,以使得显示器返回到紧邻在前的画面或者前进到下一画面。注意,除了显示器以外的其他装置(具体地,触摸传感器、运动传感器、扬声器以及麦克风)保持状态2的控制。
(补充2)
此外,取决于手臂的转动而变化的用户上下文可以被识别。现在将参照图13进行描述。
图13是用于描述手臂的转动的示例的图。如图13的上部所示,朝向或远离身体大幅度移动手臂的动作与图9的右侧所示的状态4下的手臂的转动对应,这使得装置控制单元112改变画面。
同时,如图13的下部所示,可以由识别单元111对扭转手臂(手腕)的动作进行识别。在这种情况下,例如,装置控制单元112可以根据手臂被扭转的方向或程度,通过控制扬声器的输出来执行音量控制。例如,当发生从状态3到状态2的转换时,用户检查显示器同时继续会话,并且因此,扬声器的输出被控制为高。在这种情况下,可能期望根据时间或地点来调整扬声器的输出(声音的音量)。
<3-3.在被佩戴在右手臂期间(状态5)的装置控制示例>
接下来,将参照图14至图20描述根据信息处理设备10是被佩戴在左手臂上还是右手臂上的装置控制示例。图14是用于描述状态1、状态2和状态5的图。图14的左侧所示的状态1和图14的中间所示的状态2类似于参照图5所描述的状态,在状态1和状态2这两个状态下信息处理设备10被佩戴在左手臂上。
同时,图14的右侧所示的状态5是信息处理设备10被佩戴在右手臂上并且右手臂保持在身体的下部的前方的状态(右手臂被抬高以查看信息处理设备10的显示屏的状态)。
信息处理设备10是被佩戴在左手臂上还是右手臂上的确定是因人而异的。然而,例如,如果考虑对触摸屏12的操作,则假设信息处理设备10是被佩戴在非惯用手的手臂上,并且惯用手用来操作触摸屏12。
在这种情况下,例如,在惯用右手的人将信息处理设备10佩戴在其左手臂上并且在图14所示的状态2下使用右手对触摸屏12进行操作的情况下,不考虑佩戴有信息处理设备10的手臂的常规的显示控制引发以下问题。
图15是示出根据比较例的信息处理设备100的显示屏示例的图。如图15所示,当作为手表终端的信息处理设备100被佩戴在左手臂上并且使用右手臂进行操作时,如果命令系统显示在屏的左侧,则因为触摸屏的区域小(具有狭窄宽度的曲面以适于手臂),所以由于右手用于进行操作,因此画面被右手遮住。
鉴于此,在本实施方式中,使得显示器能够根据信息处理设备10是被佩戴在左手臂上还是右手臂上(状态2/状态5)来以不同的方式被控制。现在将参照图16和图17进行具体描述。
图16是示出根据本实施方式的信息处理设备10被佩戴在左手臂上的显示屏示例的图。如图16所示,在确定作为手表终端的信息处理设备10是被佩戴在左手臂上时(图14所示的状态2),然后,如果对信息处理设备10进行控制以使得命令系统显示在屏(触摸屏12)的右侧,则可以避免由于用户的右手用来触摸命令系统因此画面被用户的右手遮住的情况。
图17是示出根据本实施方式的信息处理设备10被佩戴在右手臂上的显示屏示例的图。如图17所示,在确定作为手表终端的信息处理设备10是被佩戴在右手臂上的情况下(图14所示的状态5),然后,如果对信息处理设备10进行控制以使得命令系统显示在屏(触摸屏12)的左侧,则可以避免由于用户的左手用来触摸命令系统因此画面被用户的左手遮住的情况。
如上所述,在本实施方式中,根据信息处理设备10是被佩戴在左手臂上还是右手臂上来切换显示,由此,可以进一步改进信息处理设备10的可用性。注意,根据信息处理设备10是被佩戴在左手臂上还是右手臂上在状态2下切换的装置控制不限于上述显示控制。例如,可以根据信息处理设备10是被佩戴在左手臂上还是右手臂上来切换触摸传感器的控制。现在将参照图18至图20进行具体描述。
(触摸传感器的右和左切换控制)
图18是用于描述触摸传感器的可检测区域的图。如图18所示,根据本实施方式的信息处理设备10可以被配置成具有在触摸面板显示器12的区域的外部的触摸传感器的可操作区域20,在触摸面板显示器12的区域上显示画面如地图等。在这种情况下,用户可以使用画面区域外部的区域对画面如地图等执行缩放操作。具体地,信息处理设备10的主控制单元11将触摸检测区域设置到画面区域的左边和右边,并且为该区域分配画面缩放操作。
这里,考虑到被佩戴在手臂上的信息处理设备10的便携性,作为手表终端的信息处理设备10具有小画面区域。因此,小画面区域不适合使用多个手指的操作如捏紧和放开。如图16所示的用于使用命令按钮执行缩放操作的方法适用于小画面区域。然而,产生显示屏的一部分被命令按钮遮住的问题。因此,如果触摸检测区域被设置在画面区域的左边和右边,则可以提供适于缩放操作的操作方法。例如,可以通过在画面区域的外部竖直拖动来执行放大/缩小。
此时,如使用图15所示的比较例所描述的上述操作的情况一样,需要避免用于进行操作的手与画面交叠的问题。鉴于此,在本实施方式中,根据信息处理设备10是被佩戴在左手臂上还是右手臂上执行控制,以确定画面区域外部的左触摸检测区域和右触摸检测区域中的哪个被分配有缩放操作。现在将参照图19和图20进行具体描述。
图19是用于描述当根据本实施方式的信息处理设备10被佩戴在左手臂上时缩放操作区域的分配的图。如图19所示,当确定作为手表终端的信息处理设备10是被佩戴在左手臂上时(图14所示的状态2),触摸传感器被控制以使得右画面外区域22被分配有缩放操作。因此,能够避免由于用户的右手用来触摸左画面外区域因此画面被用户的右手遮住的情况。
图20是示出根据本实施方式的信息处理设备10被佩戴在右手臂上的显示屏示例的图。如图20所示,当确定作为手表终端的信息处理设备10是被佩戴在右手臂上时(图14所示的状态5),触摸传感器被控制以使得左画面外区域24被分配有缩放操作。因此,能够避免由于用户的左手用来触摸右画面外区域因此画面被用户的左手遮住的情况。
如上所述,在本实施方式中,具体操作检测区域根据信息处理设备10是被佩戴在左手臂上还是右手臂上进行切换,由此,可以进一步改进信息处理设备10的可用性。注意,在根据本实施方式的信息处理设备10中,画面外区域中的没有被分配缩放操作的一个画面外区域可以被分配有相对较不频繁使用的(相较于缩放操作较不频繁使用的)预定操作。
例如,信息处理设备10的装置控制单元112可以执行控制以使得画面外区域中的没有被分配缩放操作的一个画面外区域可以被分配有画面旋转操作。例如,可以通过在画面外区域竖直拖动使画面顺时针/逆时针旋转。因此,在可以执行操作而画面不被遮住的一侧上的画面外区域可以被分配有检测相对频繁执行的操作的任务,而在相对侧上的画面外区域可以被分配有检测相对较不频繁执行的操作的任务,由此可以提供舒适的操作。
<3-4.在状态6下的装置控制示例>
接下来,假设信息处理设备10具有摄像功能,将参照图21至图24来描述在摄像装置保持在拍摄位置的状态6下的装置控制示例。根据本实施方式的信息处理设备10的配置不限于图1至图3所示的示例。例如,假设根据本实施方式的信息处理设备10还包括成像单元(下文中称为摄像装置)。
摄像装置具有透镜系统、用于使透镜系统执行聚焦操作或缩放操作的驱动系统、用于执行对由透镜系统获得的成像光进行光电转换以生成成像信号的固态成像元件阵列,透镜系统包括成像透镜、光圈、缩放透镜、聚焦透镜等。固态成像元件阵列可以通过例如电荷耦合器件(CCD)传感器阵列或互补金属氧化物半导体(CMOS)传感器阵列来实现。根据本实施方式的摄像装置可以捕捉静止图像和运动图像。
虽然没有特别示出设置成像透镜的位置,但是成像透镜被设置在例如信息处理设备10的扬声器15a与麦克风16a之间的外周表面上,并且如图2所示,当信息处理设备10是被佩戴在手臂200上时,拍摄的方向可以是小指(手臂的外侧)面对的方向。在这种情况下,当使用摄像装置时,用户抬高且将佩戴有信息处理设备10的手臂保持在身体的前方,并且将手臂的外侧(小指)瞄准对象(将成像透镜瞄准对象),如图21的状态6所示。
信息处理设备10的识别单元111可以基于来自被设置在信息处理设备10中的运动传感器13的检测值识别状态6。
图22是示出状态1、状态2和状态6之间的转换的状态转换图。如图22所示,转换可以发生在从手臂被放低的状态1(D1)到手臂被抬高的状态2(D2),反之,转换可以发生在从手臂被抬高的状态2(D2)到手臂被放低的状态1(D1)。转换可以发生在从手臂被放低的状态1(D1)到摄像装置保持在拍摄位置的状态6(D6),反之,转换可以发生在从摄像装置保持在拍摄位置的状态6(D6)到手臂被放低的状态1(D1)。转换可以发生在从手臂被抬高的状态2(D2)到摄像装置保持在拍摄位置的状态6(D6),反之,转换可以发生在从摄像装置保持在拍摄位置的状态6(D6)到手臂被抬高的状态2(D2)。
信息处理设备10的识别单元111基于来自运动传感器13的检测值识别当前状态,并且将识别结果输出到装置控制单元112。此外,如图22所示,转换发生在状态1、状态2和状态6之间。因此,识别单元111可以基于从运动传感器13连续输出的检测值实时地识别当前状态。
在此之后,装置控制单元112根据所识别的状态对每个装置执行预定控制。对于每个状态,装置控制单元112可以关闭装置在该状态下不使用的功能以降低功耗,并且在不需要考虑执行打开操作(例如,对触摸屏12的显式操作)的情况下打开装置在该状态下要使用的功能,以使得当需要时显示所需装置的功能。
图23是示出装置在状态1、状态2和状态6下的控制的列表的图。如图23所示,摄像装置被新添加到要被控制的装置中。
如图23所示,在手臂被降低的状态1下,假设摄像装置未被使用,并且摄像装置被控制为关闭。
此外,在手臂保持在身体的前方的水平位置的状态2下,显示器被查看,并且假设摄像装置未被使用,并且摄像装置被控制为关闭。此外,关于运动传感器,陀螺仪传感器被控制为开启。在本实施方式中,可以发生从状态2到状态6的转换,并且需要正确地检测将摄像装置保持在拍摄位置的复杂运动。因此,当发生至状态2的转换时,运动传感器的检测水平提高。注意,在这种情况下,加速度传感器的采样率可以被设置为高,同时陀螺仪传感器是关闭的。
在摄像装置保持在拍摄位置的状态3下,假设摄像装置被使用并且被控制为开启(摄像装置被启动)。此外,在运动图像的拍摄期间,麦克风被控制为开启,并且麦克风的灵敏度被设置为高。同时,在静止图像的拍摄期间,不需要使用麦克风收集声音,并且麦克风被控制为关闭。注意,摄像装置可以响应于识别到在状态6下摆动手臂的附加动作在静止图像拍摄与运动图像拍摄之间进行切换。
此外,在状态3下,假设触摸传感器、显示器和扬声器(后置扬声器和前置扬声器)未被使用并且被控制为关闭。
(补充)
图23所示的装置控制仅是说明性的,并且本实施方式不限于此。例如,可以设置仅单个运动传感器,以及可以设置仅单个扬声器。在这种情况下,例如,根据如图24所示的状态执行装置控制。图24是示出装置在状态1、状态2和状态6下的其他控制的列表的图。
在图24所示的状态6下,如图23所示的情况那样,假设摄像装置被使用并且被控制为开启(摄像装置被启动)。此外,在运动图像的拍摄期间麦克风类似地被控制为开启,并且麦克风的灵敏度被设置为高。同时,在静止图像的拍摄期间,不需要使用麦克风收集声音,并且麦克风被控制为关闭。
另外,由于使用仅单个运动传感器,所以采样率在状态2下被设置为高,以便正确地检测更复杂的运动(至摄像装置保持在拍摄位置的状态6的转换)。
<<5.结论>>
如上所述,基于根据本公开的实施方式的作为手表终端的信息处理设备10是被佩戴在左手臂上还是右手臂上的确定来识别手臂的状态,并且信息处理设备10中的装置可以根据所识别的手臂的状态进行控制。
此外,在手表终端中,仅安装有小尺寸电池,并且因此,总是需要降低功耗。在这些情况下,根据本实施方式的信息处理设备10被控制以使得根据与所识别的手臂的状态对应的用户上下文关闭不需要的装置,从而能够降低功耗。
上面已经参照附图描述了本公开的(一个或多个)优选实施方式,然而本公开不限于上述实施方式。本领域技术人员可以在所附权利要求的范围内发现各种替换和修改,并且应当理解,这些替换和修改自然落在本公开的技术范围内。
例如,还可以建立计算机程序,计算机程序使得并入在上述信息处理设备10中的包括CPU、ROM和RAM的硬件能够执行信息处理设备10的功能。可以提供存储有计算机程序的存储介质。
此外,转换可以发生在状态1至状态6的任意组合之间。此外,状态之间的关系和装置控制仅是说明性的。根据本实施方式的装置控制单元112可以执行控制以使得满足与所识别的状态(查看显示器、呼叫、邮件、听音乐等)相关联的用户上下文。
此外,根据图9中状态4所示的转动手臂的动作或者图13的下部所示的扭转手臂的动作的装置控制不限于上述的画面转换(返回到紧邻在前的画面/前进到下一画面)或音量控制。例如,装置控制可以包括移动到主画面、调用通知画面、启动特定应用(摄像装置、电话、地图(导航))、显示通信历史(电话、邮件、SNS)等。
此外,确定单元110除了确定信息处理设备10是被佩戴在左手臂上还是右手臂上以外,还可以基于运动传感器的检测值确定信息处理设备10的触摸屏12(画面)的取向(即向上或向下)。因此,装置控制单元112当执行控制以使得显示器被开启时可以以正常取向显示显示画面。此外,通过根据取向(向上或向下)确定切换在由识别单元111所执行的状态识别期间所使用的参数,可以更正确地识别手臂的状态。
此外,本公开的左和右确定、参数变化以及装置控制技术适用于具有与左透镜部或右透镜部对应的显示单元的眼镜型HMD(信息处理设备10的示例)。例如,可以基于确定眼镜型HMD是被佩戴在左眼前方还是右眼前方来切换在手势的识别中所使用的参数的设置。此外,基于眼镜型HMD是被佩戴在左眼前方还是右眼前方的确定来控制与透镜部对应的显示单元的显示(例如,执行控制以确定命令系统是被显示在左侧还是右侧等)。
此外,本说明书中描述的效果仅是说明性和示例性的,而不是限制性的。换言之,与基于本说明书的效果一起或者代替基于本说明书的效果,根据本公开的技术可以显示出对本领域技术人员而言明显的其他效果。
此外,本技术还可以如下配置。
(1)一种信息处理设备,包括:
确定单元,被配置成确定所述信息处理设备是被佩戴在用户的右手臂上还是左手臂上;
识别单元,被配置成识别手臂的状态;以及
控制单元,被配置成根据所识别的手臂的状态对包括在所述信息处理设备中的装置执行预定控制,
其中,所述识别单元根据由所述确定单元确定的结果来切换在所述手臂的状态的识别中使用的参数的设置。
(2)根据(1)所述的信息处理设备,
其中,所述信息处理设备是手表装置。
(3)根据(1)或(2)所述的信息处理设备,
其中,所述控制单元根据与所识别的手臂的状态对应的用户上下文来控制每个装置。
(4)根据(1)至(3)中的任意一项所述的信息处理设备,
其中,所述确定单元基于由检测手臂的运动的运动传感器获取的值来确定所述信息处理设备是被佩戴在右手臂上还是左手臂上。
(5)根据(1)至(3)中的任意一项所述的信息处理设备,
其中,所述确定单元通过使用由检测手臂的运动的运动传感器获取的值的机械学习来确定所述信息处理设备是被佩戴在右手臂上还是左手臂上。
(6)根据(1)至(3)中的任意一项所述的信息处理设备,
其中,所述确定单元基于用户的输入来确定所述信息处理设备是被佩戴在右手臂上还是左手臂上。
(7)根据(1)至(6)中的任意一项所述的信息处理设备,
其中,所述识别单元根据由所述确定单元确定的结果来切换所述参数的符号。
(8)根据(1)至(7)中的任意一项所述的信息处理设备,
其中,包括在所述信息处理设备中的装置是下述中至少之一:显示单元、操作单元、运动传感器、扬声器、麦克风和成像单元。
(9)一种控制方法,包括:
确定信息处理设备是被佩戴在用户的右手臂上还是左手臂上;
根据所述确定的结果来切换在所述手臂的状态的识别中使用的参数的设置并且识别手臂的状态;以及
根据所识别的手臂的状态对包括在所述信息处理设备中的装置执行预定控制。
(10)一种程序,所述程序用于使计算机用作:
确定单元,被配置成确定信息处理设备是被佩戴在用户的右手臂上还是左手臂上;
识别单元,被配置成识别手臂的状态;以及
控制单元,被配置成根据所识别的手臂的状态对包括在所述信息处理设备中的装置执行预定控制,
其中,所述识别单元根据由所述确定单元确定的结果来切换在所述手臂的状态的识别中使用的参数的设置。
附图标记列表
10 信息处理设备
11 主控制单元
110 确定单元
111 识别单元
112 装置控制单元
12 触摸面板显示器
13 运动传感器
14 存储单元
15,15a,15b 扬声器
16,16a,16b 麦克风
17 通信单元
Claims (10)
1.一种信息处理设备,包括:
确定单元,被配置成确定所述信息处理设备是被佩戴在用户的右手臂上还是左手臂上;
识别单元,被配置成识别手臂的状态;以及
控制单元,被配置成根据所识别的手臂的状态对包括在所述信息处理设备中的装置执行预定控制,
其中,所述识别单元根据由所述确定单元确定的结果来切换在所述手臂的状态的识别中使用的参数的设置。
2.根据权利要求1所述的信息处理设备,
其中,所述信息处理设备是手表装置。
3.根据权利要求1所述的信息处理设备,
其中,所述控制单元根据与所识别的手臂的状态对应的用户上下文来控制每个装置。
4.根据权利要求1所述的信息处理设备,
其中,所述确定单元基于由检测手臂的运动的运动传感器获取的值来确定所述信息处理设备是被佩戴在右手臂上还是左手臂上。
5.根据权利要求1所述的信息处理设备,
其中,所述确定单元通过使用由检测手臂的运动的运动传感器获取的值的机械学习来确定所述信息处理设备是被佩戴在右手臂上还是左手臂上。
6.根据权利要求1所述的信息处理设备,
其中,所述确定单元基于用户的输入来确定所述信息处理设备是被佩戴在右手臂上还是左手臂上。
7.根据权利要求1所述的信息处理设备,
其中,所述识别单元根据由所述确定单元确定的结果来切换所述参数的符号。
8.根据权利要求1所述的信息处理设备,
其中,包括在所述信息处理设备中的装置是下述中至少之一:显示单元、操作单元、运动传感器、扬声器、麦克风和成像单元。
9.一种控制方法,包括:
确定信息处理设备是被佩戴在用户的右手臂上还是左手臂上;
根据所述确定的结果来切换在所述手臂的状态的识别中使用的参数的设置并且识别手臂的状态;以及
根据所识别的手臂的状态对包括在所述信息处理设备中的装置执行预定控制。
10.一种程序,所述程序用于使计算机用作:
确定单元,被配置成确定信息处理设备是被佩戴在用户的右手臂上还是左手臂上;
识别单元,被配置成识别手臂的状态;以及
控制单元,被配置成根据所识别的手臂的状态对包括在所述信息处理设备中的装置执行预定控制,
其中,所述识别单元根据由所述确定单元确定的结果来切换在所述手臂的状态的识别中使用的参数的设置。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014-055052 | 2014-03-18 | ||
JP2014055052 | 2014-03-18 | ||
PCT/JP2015/053564 WO2015141328A1 (ja) | 2014-03-18 | 2015-02-09 | 情報処理装置、制御方法、およびプログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
CN106068488A true CN106068488A (zh) | 2016-11-02 |
Family
ID=54144308
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201580012548.0A Pending CN106068488A (zh) | 2014-03-18 | 2015-02-09 | 信息处理设备、控制方法及程序 |
Country Status (6)
Country | Link |
---|---|
US (4) | US10345761B2 (zh) |
EP (1) | EP3121687A4 (zh) |
JP (1) | JPWO2015141328A1 (zh) |
KR (1) | KR102269526B1 (zh) |
CN (1) | CN106068488A (zh) |
WO (1) | WO2015141328A1 (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106686566A (zh) * | 2015-11-06 | 2017-05-17 | 巨擘科技股份有限公司 | 腕表、穿戴装置、紧急求救方法以及快速拨话方法 |
CN114253405A (zh) * | 2020-09-22 | 2022-03-29 | Oppo(重庆)智能科技有限公司 | 佩戴检测方法、装置、可穿戴设备及存储介质 |
Families Citing this family (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102244856B1 (ko) | 2014-04-22 | 2021-04-27 | 삼성전자 주식회사 | 웨어러블 장치와의 사용자 인터랙션을 제공하는 방법 및 이를 수행하는 웨어러블 장치 |
EP3667437A1 (en) * | 2014-09-04 | 2020-06-17 | Sony Corporation | Apparatus and method for displaying information, program, and communication system |
KR102273591B1 (ko) * | 2014-09-29 | 2021-07-06 | 현대엠엔소프트 주식회사 | 네비게이션 정보를 표시하는 웨어러블 단말기 및 네비게이션 장치 및 그 표시 방법 |
JP6459684B2 (ja) * | 2015-03-23 | 2019-01-30 | カシオ計算機株式会社 | 情報出力装置、情報出力方法及びプログラム |
KR20160121318A (ko) * | 2015-04-10 | 2016-10-19 | 삼성전자주식회사 | 전자 장치 및 전자 장치의 사용자 인터페이스 제공 방법 |
JP6561782B2 (ja) * | 2015-11-06 | 2019-08-21 | 富士通コネクテッドテクノロジーズ株式会社 | 電子機器及び表示制御プログラム |
CN105955479B (zh) * | 2016-04-29 | 2019-11-26 | 联想(北京)有限公司 | 一种信息处理方法及穿戴式设备 |
CN106020445A (zh) * | 2016-05-05 | 2016-10-12 | 广东小天才科技有限公司 | 一种自动识别左右手佩戴的方法及穿戴设备 |
JP2018147031A (ja) * | 2017-03-01 | 2018-09-20 | 株式会社メガチップス | 動作解析装置、情報受付システムおよび入力受付方法 |
CN111527465A (zh) * | 2017-12-29 | 2020-08-11 | 德国弗劳恩霍夫应用研究促进协会 | 预测对象运动的方法、校准运动模型的方法、获得预定义量的方法和生成虚拟现实视图的方法 |
JP2019175159A (ja) | 2018-03-28 | 2019-10-10 | カシオ計算機株式会社 | 電子機器、音声入力感度制御方法、及び音声入力感度制御プログラム |
JP2022153776A (ja) * | 2021-03-30 | 2022-10-13 | セイコーエプソン株式会社 | 装着型画像表示装置 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101459701A (zh) * | 2007-12-14 | 2009-06-17 | 索尼爱立信移动通信日本株式会社 | 移动终端 |
JP2013061176A (ja) * | 2011-09-12 | 2013-04-04 | Seiko Epson Corp | 腕装着型の電子機器およびその制御方法 |
US20130197681A1 (en) * | 2012-01-26 | 2013-08-01 | Motorola Mobility, Inc. | Portable electronic device and method for controlling operation thereof taking into account which limb possesses the electronic device |
US20130222270A1 (en) * | 2012-02-28 | 2013-08-29 | Motorola Mobility, Inc. | Wearable display device, corresponding systems, and method for presenting output on the same |
CN103442129A (zh) * | 2013-08-09 | 2013-12-11 | 宇龙计算机通信科技(深圳)有限公司 | 智能手表与移动终端的交互方法及系统 |
CN103581428A (zh) * | 2012-07-27 | 2014-02-12 | Lg电子株式会社 | 终端及其控制方法 |
Family Cites Families (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002358149A (ja) | 2001-06-01 | 2002-12-13 | Sony Corp | ユーザ入力装置 |
JP3471775B2 (ja) | 2001-08-27 | 2003-12-02 | ヤマハメタニクス株式会社 | マイクホルダ |
US8781791B2 (en) * | 2010-09-30 | 2014-07-15 | Fitbit, Inc. | Touchscreen with dynamically-defined areas having different scanning modes |
US9002420B2 (en) * | 2011-01-19 | 2015-04-07 | Ram Pattikonda | Watch having an interface to a mobile communications device |
US9229838B2 (en) * | 2012-07-09 | 2016-01-05 | International Business Machines Corporation | Modeling and evaluating application performance in a new environment |
KR102043145B1 (ko) * | 2012-07-27 | 2019-11-11 | 엘지전자 주식회사 | 이동 단말기 및 그것의 제어방법 |
KR102087137B1 (ko) * | 2013-03-15 | 2020-03-10 | 엘지전자 주식회사 | 제어 장치 및 그것의 제어 방법 |
US20140337621A1 (en) * | 2013-05-07 | 2014-11-13 | Serguei Nakhimov | Wearable communication device, security complex and user interface |
US9606721B2 (en) * | 2013-07-22 | 2017-03-28 | Lg Electronics Inc. | Mobile terminal and control method thereof |
US10146416B2 (en) * | 2014-01-29 | 2018-12-04 | Ingenious.Ventures, LLC | Systems and methods for sensory interface |
US20170003765A1 (en) * | 2014-01-31 | 2017-01-05 | Apple Inc. | Automatic orientation of a device |
CN105979855B (zh) * | 2014-02-11 | 2019-05-28 | 苹果公司 | 检测正在穿戴可穿戴电子设备的肢体 |
US20160034980A1 (en) * | 2014-07-31 | 2016-02-04 | iCracked Inc. | Method and system to evaluate the condition of client equipment and accurately assess the price and extent of repairs |
-
2015
- 2015-02-09 EP EP15765782.6A patent/EP3121687A4/en active Pending
- 2015-02-09 CN CN201580012548.0A patent/CN106068488A/zh active Pending
- 2015-02-09 WO PCT/JP2015/053564 patent/WO2015141328A1/ja active Application Filing
- 2015-02-09 KR KR1020167021035A patent/KR102269526B1/ko active IP Right Grant
- 2015-02-09 US US15/119,054 patent/US10345761B2/en active Active
- 2015-02-09 JP JP2016508591A patent/JPWO2015141328A1/ja active Pending
-
2019
- 2019-05-13 US US16/410,469 patent/US10466654B2/en active Active
- 2019-09-30 US US16/587,375 patent/US10996635B2/en active Active
-
2021
- 2021-04-28 US US17/243,027 patent/US11340560B2/en active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101459701A (zh) * | 2007-12-14 | 2009-06-17 | 索尼爱立信移动通信日本株式会社 | 移动终端 |
JP2013061176A (ja) * | 2011-09-12 | 2013-04-04 | Seiko Epson Corp | 腕装着型の電子機器およびその制御方法 |
US20130197681A1 (en) * | 2012-01-26 | 2013-08-01 | Motorola Mobility, Inc. | Portable electronic device and method for controlling operation thereof taking into account which limb possesses the electronic device |
US20130222270A1 (en) * | 2012-02-28 | 2013-08-29 | Motorola Mobility, Inc. | Wearable display device, corresponding systems, and method for presenting output on the same |
CN103581428A (zh) * | 2012-07-27 | 2014-02-12 | Lg电子株式会社 | 终端及其控制方法 |
CN103442129A (zh) * | 2013-08-09 | 2013-12-11 | 宇龙计算机通信科技(深圳)有限公司 | 智能手表与移动终端的交互方法及系统 |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106686566A (zh) * | 2015-11-06 | 2017-05-17 | 巨擘科技股份有限公司 | 腕表、穿戴装置、紧急求救方法以及快速拨话方法 |
CN114253405A (zh) * | 2020-09-22 | 2022-03-29 | Oppo(重庆)智能科技有限公司 | 佩戴检测方法、装置、可穿戴设备及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
US11340560B2 (en) | 2022-05-24 |
US20170052512A1 (en) | 2017-02-23 |
US20190265654A1 (en) | 2019-08-29 |
US10466654B2 (en) | 2019-11-05 |
US20200026245A1 (en) | 2020-01-23 |
WO2015141328A1 (ja) | 2015-09-24 |
JPWO2015141328A1 (ja) | 2017-04-06 |
KR20160133414A (ko) | 2016-11-22 |
US10996635B2 (en) | 2021-05-04 |
EP3121687A1 (en) | 2017-01-25 |
KR102269526B1 (ko) | 2021-06-25 |
EP3121687A4 (en) | 2017-11-01 |
US20210247723A1 (en) | 2021-08-12 |
US10345761B2 (en) | 2019-07-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN106068488A (zh) | 信息处理设备、控制方法及程序 | |
US10275023B2 (en) | Combining gaze input and touch surface input for user interfaces in augmented and/or virtual reality | |
US10423235B2 (en) | Primary device that interfaces with a secondary device based on gesture commands | |
US8884874B1 (en) | Digital device and control method thereof | |
KR102195692B1 (ko) | 이벤트에 근거하여 형상을 자동으로 변경하기 위한 방법 및 전자 장치 | |
EP3340026B1 (en) | Watch-type mobile terminal | |
CN108509037A (zh) | 一种信息显示方法及移动终端 | |
CN109151180A (zh) | 一种对象识别方法及移动终端 | |
CN109992174A (zh) | 信息处理方法及终端设备 | |
KR20190102587A (ko) | 이동 단말기 및 그 동작방법 | |
CN108289151A (zh) | 一种应用程序的操作方法及移动终端 | |
CN107688385A (zh) | 一种控制方法及装置 | |
US9342153B2 (en) | Terminal device and method for controlling operations | |
CN109451141A (zh) | 一种操作控制方法及相关终端 | |
CN108958593A (zh) | 一种确定通讯对象的方法及移动终端 | |
CN110446995B (zh) | 信息处理装置、信息处理方法及程序 | |
KR20070024657A (ko) | 선택가능한 데이터 요소의 단말기로의 촉각-제어 전송을위한 방법, 시스템 및 장치 | |
CN108270928A (zh) | 一种语音识别的方法及移动终端 | |
US20170316117A1 (en) | Controlling the output of information using a computing device | |
US11159731B2 (en) | System and method for AI enhanced shutter button user interface | |
CN109862183A (zh) | 屏幕显示方法和终端设备 | |
KR101685430B1 (ko) | 게이즈 제스처를 이용한 스마트 안경 인터페이스 시스템 및 방법 | |
CN110022408A (zh) | 一种远程指导方法及终端 | |
CN108377301A (zh) | 一种用户身份识别卡的查找方法及移动终端 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20161102 |