CN104272225B - 信息处理装置、信息处理方法 - Google Patents
信息处理装置、信息处理方法 Download PDFInfo
- Publication number
- CN104272225B CN104272225B CN201380023001.1A CN201380023001A CN104272225B CN 104272225 B CN104272225 B CN 104272225B CN 201380023001 A CN201380023001 A CN 201380023001A CN 104272225 B CN104272225 B CN 104272225B
- Authority
- CN
- China
- Prior art keywords
- finger
- finger joint
- unit
- information processor
- contact object
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 230000010365 information processing Effects 0.000 title claims description 23
- 238000003672 processing method Methods 0.000 title claims description 6
- 210000001145 finger joint Anatomy 0.000 claims abstract description 155
- 238000003384 imaging method Methods 0.000 claims abstract description 63
- 238000012545 processing Methods 0.000 claims abstract description 62
- 210000003811 finger Anatomy 0.000 claims description 89
- 210000003813 thumb Anatomy 0.000 claims description 39
- 238000003825 pressing Methods 0.000 claims description 32
- 238000001514 detection method Methods 0.000 claims description 22
- 239000013598 vector Substances 0.000 claims description 22
- 210000005224 forefinger Anatomy 0.000 claims description 21
- 230000033001 locomotion Effects 0.000 claims description 21
- 230000008859 change Effects 0.000 claims description 15
- 210000004932 little finger Anatomy 0.000 claims description 15
- 238000000034 method Methods 0.000 abstract description 5
- 238000004891 communication Methods 0.000 description 19
- 238000010586 diagram Methods 0.000 description 12
- 238000003860 storage Methods 0.000 description 10
- 238000005516 engineering process Methods 0.000 description 6
- 230000001012 protector Effects 0.000 description 6
- 210000004247 hand Anatomy 0.000 description 5
- 238000006243 chemical reaction Methods 0.000 description 3
- 230000002776 aggregation Effects 0.000 description 2
- 238000004220 aggregation Methods 0.000 description 2
- 210000001508 eye Anatomy 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 230000007774 longterm Effects 0.000 description 2
- 238000012544 monitoring process Methods 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 230000003190 augmentative effect Effects 0.000 description 1
- 238000005452 bending Methods 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 210000005252 bulbus oculi Anatomy 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 238000010411 cooking Methods 0.000 description 1
- 230000008878 coupling Effects 0.000 description 1
- 238000010168 coupling process Methods 0.000 description 1
- 238000005859 coupling reaction Methods 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 238000000151 deposition Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 210000003128 head Anatomy 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000014759 maintenance of location Effects 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000003252 repetitive effect Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/014—Hand-worn input/output arrangements, e.g. data gloves
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/02—Input arrangements using manually operated switches, e.g. using keyboards or dials
- G06F3/023—Arrangements for converting discrete items of information into a coded form, e.g. arrangements for interpreting keyboard generated codes as alphanumeric codes, operand codes or instruction codes
- G06F3/0233—Character input methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/0304—Detection arrangements using opto-electronic means
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- User Interface Of Digital Computer (AREA)
- Position Input By Displaying (AREA)
Abstract
[问题]提出一种使用户能够通过简单的结构来执行想要进行的输入操作的方法。[解决方案]一种信息处理装置,包含:成像单元,其捕获接触体与手的至少一根手指的手指关节接触的状态的图像;识别单元,其从多个输入元件中识别输入元件,所述输入元件对应于在成像单元捕获的图像中与接触体接触的手指关节;以及输出单元,其将输出结果从识别单元输出到处理装置,所述处理装置执行与所述多个输入元件相对应的输入处理。
Description
技术领域
本公开涉及信息处理装置、信息处理方法和程序。
背景技术
信息处理装置基于通过操作单元的来自用户的输入操作(诸如键入操作)执行多种处理。如今,随着各种类型的信息处理装置正在获得广泛使用,也设计了多种输入方法。
例如,专利文献1公开了一种包括附着(attach)到手套的指尖的开关和附着到手套的传感器的输入装置,所述传感器报告手套的指尖弯曲的方式。专利文献2公开了一种用于基于来自附着到手臂的电极的输入信号估计手指关节的角度的技术。专利文献3公开了一种用于对手区域的姿势执行模式识别并且使用识别结果作为输入的技术。
专利文献
专利文献1:JP 2001-242983A
专利文献2:JP 2010-125287A
专利文献3:JP 2011-221699A
发明内容
技术问题
专利文献1和2的技术要求将传感器和电极附着到手和手臂,这给用户添加了麻烦。专利文献3的技术只可以识别少量模式,使得该技术不适用于需要相当多的输入元件的字符输入等。
本公开因而提供一种用于允许用户以简单的配置执行用户想要进行的输入操作的方法。
问题的解决方案
根据本公开,提供了一种信息处理装置,包括:成像单元,被配置为拍摄示出手的至少一个或多个手指的指节与接触对象接触的状态;识别单元, 被配置为识别多个输入元件中的输入元件,所述输入元件对应于在来自所述成像单元的捕获图像中与所述接触对象接触的指节;以及输出单元,被配置为将识别结果从所述识别单元输出到执行与所述多个输入元件相对应的输入处理的处理装置。
另外,根据本公开,提供了一种信息处理方法,包括:用成像单元拍摄状态,所述状态示出手的至少一个或多个手指的指节与接触对象接触;识别多个输入元件中的输入元件,所述输入元件对应于在来自所述成像单元的捕获图像中与所述接触对象接触的指节;以及将识别结果从所述识别单元输出到执行与所述多个输入元件相对应的输入处理的处理装置。
另外,根据本公开,提供了一种程序,用于使计算机执行:用成像单元拍摄状态,所述状态示出手的至少一个或多个手指的指节与接触对象接触;识别多个输入元件中的输入元件,所述输入元件对应于在来自所述成像单元的捕获图像中与所述接触对象接触的指节;以及将识别结果从所述识别单元输出到执行与所述多个输入元件相对应的输入处理的处理装置。
本发明的有利效果
根据如上所述的本公开,用户能够以简单的配置执行想要进行的输入操作。
附图说明
图1是用于描述根据本公开实施例的信息处理系统1的概览的图。
图2是图示根据实施例的信息处理装置100的功能配置的示例的图。
图3是用于描述数字键盘上的键和指节之间的关系的图。
图4是图示数字键盘的示例的图。
图5是用于描述根据实施例的识别器114a到114l的示例的图。
图6是图示根据实施例的成像单元110拍摄的捕获图像的示例的图。
图7是用于描述被按压的指节的识别的第一修改示例的图。
图8是用于描述被按压的指节的识别的第二修改示例的图。
图9是用于描述被按压的指节的识别的第三修改示例的图。
图10是用于描述被按压的指节的识别的第四修改示例的图。
图11是图示指节的按压定时(timing)的检测的第一示例的图。
图12是图示指节的按压定时的检测的第二示例的图。
图13是用于描述相对运动矢量Vp的图。
图14是用于描述根据实施例的信息处理装置100的第一操作示例的流程图。
图15是用于描述根据实施例的信息处理装置100的第二操作示例的流程图。
图16是用于描述根据实施例的信息处理装置100的第三操作示例的流程图。
图17是用于描述根据实施例的信息处理装置100的第四操作示例的流程图。
图18是图示根据实施例的信息处理装置100的显示单元的显示示例的图。
图19是图示根据实施例的信息处理装置100的显示单元的显示示例的图。
图20是图示使用双手的示例的图。
图21是图示根据实施例的信息处理装置100的硬件配置的说明图。
具体实施方式
以下,将参考附图详细描述本发明的优选实施例。注意,在本说明书和附图中,用相同的标号表示具有基本相同的功能和结构的元件,并且省略重复的说明。
将以下面的次序进行描述。
1.信息处理系统的概览
2.信息处理装置的配置示例
3.被按压的指节的识别的修改示例
4.指节的按压定时的检测示例
5.信息处理装置的操作示例
6.硬件配置
7.结论
<1.信息处理系统的概览>
将参考图1描述根据本公开实施例的信息处理系统1的概览。图1是用于描述根据本公开实施例的信息处理系统1的概览的图。
信息处理系统1根据用户U触摸他或她的手H的手指的位置(具体地,由手指关节分开的指节中的任何一个)对处理装置150(参见图2)进行输入。换句话说,信息处理系统1允许用户用他或她的手代替数字键盘等进行输入。信息处理系统1包括识别用户U已经触摸(按压)了他或她的哪个指节的信息处理装置100。
如图1所示,信息处理装置100的示例包括用户U佩戴在眼睛前方的一副眼镜和头戴式显示器。信息处理装置100包括在与用户U的眼睛的位置相同位置处的成像单元(诸如相机),该成像单元能够拍摄用户U的手H的图像。另外,成像单元还可以设置与在用户U的眼睛的位置不同的位置处。信息处理装置100包括能够透明地显示其图像正在被拍摄的用户的手的显示单元130。
处理装置150基于信息处理装置100的识别结果来执行对应于多个输入元件(诸如,按下键)的输入处理。例如,处理装置150基于信息处理装置100的识别结果来执行字符输入。处理装置150的示例包括诸如个人计算机、智能电话、PDA和移动电话这样的装置。
即使没有附着到手用于检测手指的移动的传感器等,根据本公开的信息处理系统1也允许用户用成像单元拍摄手的图像并且使用他或她的手进行输入。这使用户即使在例如用户难以将传感器等附着到手时(例如,当用户正在做饭、开车、与孩子玩以及诸如处理某事这样的正在做些小事情时)也能够容易地输入字符等。
<2.信息处理装置的配置示例>
将参考图2描述根据本公开实施例的信息处理装置100的配置示例。图2是图示根据本公开实施例的信息处理装置100的功能配置示例的图。
如图2所示,信息处理装置100包括成像单元110、学习单元112、识别单元114、作为输出单元的示例的通信单元116,以及显示控制单元118。
(成像单元110)
成像单元110是能够拍摄静止图像和运动图像的相机,并且拍摄示出作为被摄体的用户U的手的图像。成像单元110例如可以拍摄示出接触对象按压用户U的手的至少一个或多个手指的指节的图像。接触对象是指用户的手的拇指。如图1所示,成像单元110可以拍摄示出手的拇指F1按压其他手指(食指F2、中指F3、无名指F4、小指F5)的指节的图像。
成像单元110还可以拍摄示出用户U的手的手指按压其他手的手指的指节的图像。成像单元110还可以拍摄示出笔等代替拇指按压指节的图像。成像单元110将捕获图像逐一输出到识别单元114。
(学习单元112)
学习单元112预先获取示出用户按压指节的图像,并且学习指节和包括多个输入元件的数字键盘(参见图4)之间的关系。在此假设除了拇指以外的手指(食指、中指、无名指、小指)的每个指节对应于数字键盘上的每个键(输入元件)。例如,学习单元112获取如图3所示的图像。
食指、中指、无名指和小指每个由两个关节分为三个指节。这三个指节被称为距手指根部的近节指节、中节指节和末节指节。同时,拇指被单个关节分为两个指节。这两个指节被称为距拇指根部的近节指节和末节指节。
图3是用于描述数字键盘上的键和指节之间的关系的图。图4是图示数字键盘330的示例的图。图3中的状态301到310示出触摸对应于数字键盘330上的数字“1”、“2”……“9”和“0”的指节。例如,食指的近节指节对应于数字“1”,食指的中节指节对应于数字“2”,并且食指的末节指节对应于数字“3”。以相同的方式,中指的近节指节对应于数字“4”,中指的中节指节对应于数字“5”,并且中指的末节指节对应于数字“6”。
图3中的状态311示出触摸对应于数字键盘上的符号“*”,并且状态312示出触摸对应于数字键盘上的符号“#”。另外,学习单元112还可以获取用于识别拇指没有按压食指、中指、无名指或小指的任何指节的状态的图像。
图3示出作为识别对象的示例的带140粘合到对应于预定指节的区域,带140使指节容易被识别。具体地,带140对于食指、中指、无名指和小指的十二个指节是错开的,然而这不是排他性的。也可以没有带粘合到指节。
(识别单元114)
识别单元114识别在成像单元110拍摄的捕获图像中对应于被拇指按压的指节的数字键盘上的键。识别单元114使用从成像单元110输入的捕获图像以及由学习单元112提供的关系来识别在捕获图像中另外的手指的哪个指节被拇指按压。如图5所示识别单元114包括十二个识别器114a到114l,用于识别数字键盘上的各个键。
图5是用于描述根据实施例的识别器114a到114l的示例的图。识别器114a到114c分别对应于在图1中所示的食指F2的近节指节F2a、中节指节 F2b和末节指节F2c。识别器114d到114f分别对应于在图1中所示的中指F3的近节指节F3a、中节指节F3b和末节指节F3c。同样地,识别器114g到114i分别对应于在图1中所示的无名指F4的近节指节F4a、中节指节F4b和末节指节F4c。识别器114j到114l分别对应于在图1中所示的小指F5的近节指节F5a、中节指节F5b和末节指节F5c。识别器114a到114l每个决定关于输入的捕获图像的评估值。另外,评估值的范围从0到1。
此处假设在图6中所示的捕获图像由成像单元110拍摄并且被输入到识别单元114。图6是图示根据实施例的成像单元110拍摄的捕获图像340的示例的图。换句话说,成像单元110拍摄作为接触对象的拇指F1以及在对应于另一手指的指节的区域中的带140的图像。如图6所示,用户的拇指F1按压在四根手指F2到F5中的中指F3的中节指节F3b,因此识别器114e在识别器114a到114l中具有最高评估值。
识别单元114将关于输入图像的各个识别器114a到114l的评估值(在图5中所示的评估值)输出给通信单元116。识别单元114还可以执行单独提取在已经从成像单元110输入到识别单元114的捕获图像中的手区域的图像处理以识别所提取的图像。在该情况下,识别单元114具有减小的处理负担并且可以在精确度上增强识别结果。
(通信单元116)
通信单元116将针对各个捕获图像的识别单元114的识别结果(各个识别器114a到114l的评估值)传送(输出)给处理装置150。另外,通信单元116以预定间隔逐一将识别结果传送给处理装置150。
处理装置150使用从信息处理装置100逐一接收的识别结果来决定用户按压了哪个指节。例如,处理装置150确定输入了对应于具有最高评估值的识别器的键。然后,处理装置150基于确定结果执行对应于输入的处理。另外,处理装置150还可以将输入处理的结果传送给通信单元116。
(显示控制单元118)
显示控制单元118基于从通信单元116输入的识别结果,使得显示单元130显示由处理装置150进行的输入处理的结果。另外,显示单元130透明地显示其图像正在被成像单元110拍摄的用户的手。从而,显示单元130在透明地显示用户的手的同时,显示由处理装置150进行的输入处理的结果。
虽然已经描述了处理装置150确定输入了对应于具有最高评估值的识别 器的键,但是以下确定也是可接受的。换句话说,处理装置150还可以确定输入了对应于在预定时间内最频繁地具有最高评估值的识别器的键。同时,处理装置150还可以确定输入了对应于具有最频繁地超过预定阈值的评估值的识别器的键。这允许用手进行更加精确的输入。
<3.被按压的指节的识别的修改示例>
已经描述了如图6所示那样地拍摄具有粘合到预定指节的带140的手指的图像以允许识别被按压的指节,然而这不是排他性的。可以以下面的方式识别被按压的指节。
图7是用于描述被按压的指节的识别的第一修改示例的图。在图7中,粘附物(sticker)142代替带140粘合到手指。具体地,如图7中的状态401所示,食指F2、中指F3、无名指F4和小指F5的指节每个具有粘合到其上的粘附物142。另外,在状态401无名指F4的末节指节F4c具有两个粘合到其上的粘附物142,这不同于其他指节,因为其他指节每个只具有单个粘附物142。在该情况下,无名指的末节指节用作识别每个指节的标准,从而便于识别十二个指节。
如图7中的状态402所示,粘附物142可以粘合到拇指F1(具体地,拇指的指甲)。这使得更容易识别拇指F1按压了其他手指F2到F5的指节。在图7中,粘附物直接粘合到手指,然而这不是排他性的。例如,粘附物也可以粘合在对应于手上的手套的每个指节的位置处。
图8是用于描述被按压的指节的识别第二修改示例的图。在图8中,将可识别的码162粘合在对应于手上的手套160(穿戴对象的示例)的每个指节的位置处。例如,增强实现(augmented reality,AR)码可以用作码162。码162包括用于识别每个指节的信息。这有助于识别单元114基于包括码162的捕获图像来识别被拇指按压的指节。
图9是用于描述被按压的指节的识别第三修改示例的图。当拇指按压指节时,在图9中的手上的手套160上显示码164。码164包括指示被按压的指节的识别信息。从而,成像单元110拍摄示出显示码164的图像,使得识别单元114可以容易地识别被拇指按压的指节。
图10是用于描述被按压的指节的识别第四修改示例的图。在图10中,粘合到食指F2、中指F3、无名指F4和小指F5的带140可以改变它们的颜色。带140每个可以根据被拇指F1按压的指节来显示颜色。例如,如图11 中的状态501所示,当拇指F1按压食指F2的近节指节F2a时,食指的两个带140将颜色从默认颜色改变为第一颜色。同时,中指F3、无名指F4和小指F5的带140保持默认颜色。如状态502所示,当拇指F1按压食指F2的中节指节F2b时,仅仅食指F2的两个带140将颜色从默认颜色改变为第二颜色。如状态503所示,当拇指F1按压食指F2的末节指节F2c时,仅仅食指F2的两个带140将颜色从默认颜色改变为第三颜色。
如图10中的状态504到512所示,当按压中指F3、无名指F4和小指F5的指节时,粘合到各个手指的带140也以相同的方式改变它们的颜色。例如,当按压中指、无名指和小指的近段指节F3a、F4a和F5a中的任何一个时(状态504、507和510),仅仅粘合到被按压的手指的带140将其颜色从默认颜色改变为第一颜色。另外,一旦拇指F1触摸手掌,带将颜色返回到默认颜色。然后,成像单元110拍摄根据被按压的指节由带显示的颜色的图像,使得识别单元114可以容易地识别被拇指按压的指节。已经描述了带140在第一颜色到第三颜色中改变其颜色,然而这不是排他性的。带140可以针对每个手指的每个指节改变其颜色(即,十二种颜色),或者可以改变单个颜色的亮度。
<4.指节的按压定时的检测示例>
接下来,使用一些示例来描述按压指节的按压定时的检测示例。
图11是图示指节的按压定时的检测的第一示例的图。在图11中,改变其颜色的拇指护套170(指示器的示例)附着到拇指。当拇指护套170按压另一指节时(图11中的状态422),拇指护套将其颜色改变为预定颜色(诸如红色)。拍摄拇指护套170的图像便于识别单元114检测按压指节的定时。另外,一旦拇指触摸手掌(状态421),拇指护套170就将其颜色改变为默认颜色(诸如白色)。
图12是图示指节的按压定时的检测的第二示例的图。在图12中,作为接触对象的示例的笔172代替拇指按压指节。笔172是能够发光的部件。当笔172按压指节时,笔172的尖端单元172a发光。然后,成像单元110拍摄示出笔正在发光的图像,以便识别单元114可以容易地检测笔按压指节的定时。
已经描述了一旦按压指节笔172就发光或者带140就改变其颜色,然而这不是排他性的。例如,信息处理装置100可以检测手指的运动矢量,并且可以基于所检测到的运动矢量来检测按压指节的定时。
可以以下面的表达式获得指节被按压的手指的相对运动矢量Vp。
Vp=V-Vh
其中,V代表手指的运动矢量的集合,并且Vh代表五根手指的运动矢量的平均。关于食指、中指、无名指和小指获得相对运动矢量Vp。
图13是用于描述相对运动矢量Vp的图。相对运动矢量Vp具有在按压指节之前和之后反转的矢量方向。因此,能够通过监视反转率来检测按压定时。可以通过获得这样的相对运动矢量Vp来检测按压指节的定时。
当按压指节时,被按压的指节可能改变膨胀、颜色和形状。相应地,识别单元114可以以预定间隔监视从成像单元110输入的捕获图像中的指节的膨胀、颜色和形状的改变,并且指节可以基于改变检测按压定时。这允许在不需要诸如笔和拇指护套或手指护套这样的指示器的情况下检测按压定时。
已经描述了识别单元114具有检测指节的按压定时的检测单元的功能,然而这不是排他性的。不同于识别单元114的组件可以检测指节的按压定时。
<5.信息处理装置的操作示例>
接下来,将描述根据实施例的信息处理装置100的操作示例。下面将描述第一到第四操作示例作为信息处理装置100的操作示例。一旦信息处理装置100的CPU执行存储在ROM中的程序,信息处理装置100就操作。被执行的程序也可以存储在诸如压缩盘(CD)、数字多功能盘(DVD)和存储卡这样的记录介质中,或者也可以经由因特网从服务器等下载。
(第一操作示例)
首先,将参考图14描述根据实施例的信息处理装置100的第一操作示例。图14是用于描述根据实施例的信息处理装置100的第一操作示例的流程图。图14中的流程图例如在开启成像单元110时开始。
首先,成像单元110拍摄想要输入字符等的用户的手的图像(步骤S102)。换句话说,成像单元110将捕获图像输出到识别单元114,捕获图像示出用户按压手指的任一指节。然后,识别单元114基于输入的捕获图像识别用户按压了哪个指节(步骤S104)。例如,每个都对应于数字键盘的识别器114a到114l决定关于输入的捕获图像的评估值。
接下来,通信单元116将识别结果(例如,来自识别器114a到114l的评估值)输出到处理装置150(步骤S106)。另外,通信单元116将评估值逐一输出到处理装置150。然后,处理装置150基于输入的评估结果,决定用户按压了哪个指节。例如,处理装置150确定输入了对应于具有最高评估值的 识别器的键,并且执行对应于该输入的处理。
如果输入继续(步骤S108:是),则重复上述步骤S102到S106中的处理。相反,如果输入结束,则信息处理装置100的操作完成。
根据第一操作示例,变得即使用户不具有附着到手的传感器等,也能够通过用户按压他或她的指节而不是数字键盘来识别用户想要的输入。
(第二操作示例)
图15是用于描述根据实施例的信息处理装置100的第二操作示例的流程图。
在图15中所示的第二操作示例中,认出在步骤S102中拍摄的捕获图像中的用户的手区域,并且提取认出的手区域的图像(步骤S122)。然后,识别单元114从所提取的图像识别用户按压了哪个指节(步骤S104)。
根据第二操作示例,变得能够减小要由识别单元114识别的图像的区域,并且增强确定精确度。在该情况下,学习单元112可以预先获取对应于手区域的图像。
(第三操作示例)
图16是用于描述根据实施例的信息处理装置100的第三操作示例的流程图。
在图16所示的第三操作示例中,识别单元114基于在步骤S102中拍摄的捕获图像来确定指节的按压定时(步骤S132)。具体地,,识别单元114在按压指节的指示器(诸如笔)发光时从所拍摄的捕获图像确定指节的按压定时。然后,识别单元114识别在该按压定时,用户按压了哪个指节(步骤S104)。
根据第三操作示例,变得能够限制识别单元114执行识别处理的定时,并且增强识别单元114的确定精确度。还可以削减由识别单元114进行的处理的功率消耗,使得对于诸如具有有限功率的智能电话这样的移动终端有效。
(第四操作示例)
图17是用于描述根据实施例的信息处理装置100的第四操作示例的流程图。
在图17中的第四操作示例中,识别单元114从在步骤S102中拍摄的捕获图像提取对应于每个指节的区域(步骤S142)。例如,识别单元114提取对应于食指、中指、无名指和小指的近节指节、中节指节和末节指节的十二个区域。
然后,识别单元114检测在每个所提取的区域中的指节的颜色的改变(步骤S144)。在按压指节之前,指节通常是微红的。此时,一旦按压指节,指节就变为微黄。相应地,识别单元114检测指节的颜色是否已经在红色和黄色之间变化。具体地,识别单元114参考在该区域中的R成分的像素的数量(具体地,具有关系R>G+20的像素的数量)与G成分的像素的数量(具有关系G–10<R<G+10的像素的数量)的比率来检测颜色的变化。然后,一旦识别单元114检测到颜色已经变化,识别单元114就确定按压了指节(步骤S146)。
根据第四操作示例,变得即使没有使用诸如笔或铁笔这样的指示器以及拇指护套或者手指护套,也能够通过检测指节的颜色的变化来适当地检测指节的按压定时。
(信息处理装置的显示示例)
当按压指节并且进行输入时,信息处理装置100的显示单元显示其图像正在被拍摄的用户的手以及输入信息。
图18是图示根据实施例的信息处理装置100的显示单元130的显示示例的图。在图18中所示的显示单元130透明地显示其图像正在被成像单元110拍摄的用户的手,并且显示输入屏幕132,输入屏幕132示出响应于被拇指F1按压的指节而被输入的字符。这允许用户在按压食指F2、中指F3、无名指F4或小指F5的指节的同时,检查输入到屏幕132中的字符。
图19是图示根据实施例的信息处理装置100的显示单元的显示示例的图。在图19中所示的显示单元130透明地显示其图像正在被成像单元110拍摄的用户的手,并且显示在对应于手掌的区域上的触摸板134。在所显示的触摸板134上的触摸操作允许用户代替鼠标进行输入。
另外,已经描述了进行与一只手的手指的指节相对应的输入,然而这不是排他性的。例如,如图20中所示,也可以进行与双手的手指的指节相对应的输入。在该情况下,可以进行对应于更多键的输入。图20是图示使用双手的示例的图。
已经描述了成像单元110拍摄所有五根手指的图像,然而这不是排他性的。例如,成像单元110可以只拍摄至少具有被按压的指节的手指的图像。另外,已经描述了通过拍摄示出拇指、笔等按压指节的图像来执行输入处理,然而,这不是排他性的。例如,也可以通过拍摄示出拇指、笔等接触指节的 图像来执行输入处理。
<6.硬件配置>
包括在上述信息处理装置100中的硬件配置和软件协作以实现要由信息处理装置100执行的显示控制操作。相应地,下面将描述信息处理装置100的硬件配置。
图21是图示信息处理装置100的硬件配置的说明图。如图21所示,信息处理装置100包括中央处理单元(CPU)201、只读存储器(ROM)202、随机存取存储器(RAM)203、输入设备208、输出设备210、存储设备211、驱动器213、成像设备213和通信设备215。
CPU 201用作处理设备和控制设备,并且根据多种程序来控制信息处理装置100的整体操作。CPU 201也可以是微处理器。ROM 202存储CPU 201使用的程序、操作参数等。RAM203暂时存储在CPU 201执行时使用的程序、针对执行根据需要而改变的参数等。这些通过包括CPU总线的主机总线相互连接。
输入设备208包括用户用于输入信息的输入部件(诸如鼠标、键盘、触摸面板、按钮、麦克风、开关和控制杆)以及基于来自用户的输入产生输入信号并且将输入信号输出给CPU 201的输入控制电路。信息处理装置20的用户可以输入多种数据到信息处理装置20,并且通过操作输入设备208要求信息处理装置20执行处理操作。
输出设备210包括显示设备,诸如液晶显示器(LCD)设备、有机发光二极管(OLED)设备和灯。输出设备210还包括诸如扬声器和耳机这样的音频输出设备。显示设备例如显示所拍摄的图像、所产生的图像等。同时,音频输出设备将音频数据等转换为声音,并且输出声音。
存储设备211是被配置为根据本实施例的信息处理装置100的存储单元的示例的数据存储装置。存储设备211可以包括存储介质、在存储介质上记录数据的记录设备、从存储介质读出数据的读出设备、以及删除在记录介质上记录的数据的删除设备。存储设备211存储CPU 201执行的程序和多种数据。
成像设备213包括诸如摄影镜头和聚集光的变焦镜头这样的成像光学系统以及诸如电荷耦合器件(CCD)和互补金属氧化物半导体(CMOS)这样的信号转换元件。成像光学系统聚集从被摄体发射的光以在信号转换单元上 形成被摄体的图像。信号转换元件将所形成的被摄体的图像转换为电图像信号。
通信设备215例如是包括用于连接到网络12的通信设备的通信接口。通信设备215也可以是支持无线局域网(LAN)的通信设备、支持长期演进(LTE,Long Term Evolution)的通信设备或者执行有线通信的有线通信设备。
另外,网络12是有线或无线传输路径,由此在连接到网络12的装置之间传送和接收信息。网络12可以包括诸如因特网、电话网络和卫星网络这样的公用网络、包括以太网(注册商标)的多种局域网(LAN)以及广域网(WAN)。网络12也可以包括诸如因特网协议虚拟专用网络(IP-VPN)这样的租用线路网络。
<7.结论>
如上所述,在多个输入元件(例如,数字键盘上的键)中,根据本公开的信息处理装置100识别在来自成像单元110的捕获图像中对应于与拇指接触的指节的输入元件(键)。信息处理装置100还将识别结果从识别单元114输出到执行与多个输入元件相对应的输入处理处理装置150。
在该情况下,由于用户可以通过使成像单元110拍摄示出他或她的手指的指节接触的图像来进行输入,所以不必附着传感器、电极等,从而允许用户以简单的配置进行输入。特别地,在使用四根手指(食指、中指、无名指、小指)的指节时,可以以与传统数字键盘相同的方式进行输入。因此,能够防止用户的可操作性减损。
以上参考附图描述了本发明的优选实施例,但是本发明当然不限于上述示例。本领域的技术人员可以在所附权利要求的范围内发现各种变化和修改,并且应当理解它们自然地归入本发明的技术范围。
实施例中的流程图中所示的步骤自然地包括以所述的时间先后次序执行的过程,并且还包括不必以时间先后次序来执行而是还并行地执行或者单独地执行的过程。不必说,即使在以时间先后次序来执行过程的步骤中,也能够根据需要来改变次序。
通过软件、硬件以及软件和硬件的组合中的任何一种都可以实现由在本文中所述的信息处理装置进行的处理。包括在软件中的程序例如预先存储在各个装置的内部或外部提供的记录介质中。例如,每个程序例如在执行每个程序时由随机存取存储器(RAM)读出,并且由诸如CPU这样的处理器执 行。
另外,本技术还可以配置如下:
(1)一种信息处理装置,包括:
成像单元,被配置为拍摄示出手的至少一个或多个手指的指节与接触对象接触的状态;
识别单元,被配置为识别多个输入元件中的输入元件,所述输入元件对应于在来自所述成像单元的捕获图像中与所述接触对象接触的指节;以及
输出单元,被配置为将识别结果从所述识别单元输出到执行与所述多个输入元件相对应的输入处理的处理装置。
(2)根据(1)所述的信息处理装置,
其中,手的食指、中指、无名指和小指的每个指节对应于所述多个输入元件中的每个。
(3)根据(2)所述的信息处理装置,
其中,所述多个输入元件包括在数字键盘中。
(4)根据(1)到(3)中的任一项所述的信息处理装置,
其中,所述接触对象是手的拇指。
(5)根据(1)到(3)中的任一项所述的信息处理装置,
其中,当所述接触对象与所述指节接触时,所述接触对象发光,以及
其中,所述信息处理装置进一步包括检测单元,所述检测单元被配置为基于所述接触对象的发光状态来检测所述接触对象与所述指节接触的定时。
(6)根据(1)到(4)中的任一项所述的信息处理装置,进一步包括:
检测单元,被配置为基于所述指节的膨胀的变化和所述指节的颜色的变化来检测所述接触对象与所述指节接触的定时。
(7)根据(1)到(4)中的任一项所述的信息处理装置,进一步包括:
检测单元,被配置为基于手指的运动矢量来检测所述接触对象与所述指节接触的定时。
(8)根据(1)到(7)中的任一项所述的信息处理装置,
其中,所述成像单元拍摄识别对象以及所述接触对象的图像,所述识别对象设置在与所述手指的指节相对应的区域中。
(9)根据(8)所述的信息处理装置,
其中,所述识别对象能够根据与所述接触对象接触的指节显示颜色,以 及
其中,所述成像单元拍摄示出所述识别对象所显示的颜色的图像。
(10)根据(1)到(7)中的任一项所述的信息处理装置,
其中,手戴上的穿戴对象能够在所述接触对象与指节接触时显示指示所述指节的识别信息,以及
其中,所述成像单元拍摄所述识别信息以及所述接触对象的图像。
(11)根据(1)到(10)中的任一项所述的信息处理装置,进一步包括:
显示单元,被配置为透明地显示其图像正在被所述成像单元拍摄的手指,并且显示所述处理装置基于从所述输出单元输入的识别结果来执行输入处理而获得的结果。
(12)一种信息处理方法,包括:
用成像单元拍摄状态,所述状态示出手的至少一个或多个手指的指节与接触对象接触;
识别多个输入元件中的输入元件,所述输入元件对应于在来自所述成像单元的捕获图像中与所述接触对象接触的指节;以及
将识别结果从所述识别单元输出到处理装置,所述处理装置执行与所述多个输入元件相对应的输入处理。
(13)一种程序,使计算机执行:
用成像单元拍摄状态,所述状态示出手的至少一个或多个手指的指节与接触对象接触;
识别多个输入元件中的输入元件,所述输入元件对应于在来自所述成像单元的捕获图像中与所述接触对象接触的指节;以及
将识别结果从所述识别单元输出到处理装置,所述处理装置执行与所述多个输入元件相对应的输入处理。
标号列表
1 信息处理系统
100 信息处理装置
110 成像单元
112 学习单元
114 识别单元
116 通信单元
118 显示控制单元
130 显示单元
140 带
142 粘附物
150 处理装置
160 手套
162、164 码
172 笔
Claims (11)
1.一种信息处理装置,包含:
成像单元,被配置为拍摄示出手的至少一个或多个手指的指节与接触对象接触的状态;
识别单元,被配置为识别多个输入元件中的输入元件,所述输入元件对应于在来自所述成像单元的捕获图像中与所述接触对象接触的指节;以及
输出单元,被配置为将识别结果从所述识别单元输出到执行与所述多个输入元件相对应的输入处理的处理装置;
其中,所述成像单元拍摄识别对象以及所述接触对象的图像,所述识别对象设置在与所述手指的指节相对应的区域中;
其中,基于手指的运动矢量的集合与五根手指的运动矢量的平均之间的差异来获得关于该手指的相对运动矢量,所述相对运动矢量具有在按压指节之前和之后反转的矢量方向。
2.根据权利要求1所述的信息处理装置,
其中,手的食指、中指、无名指和小指的每个指节对应于所述多个输入元件中的每个。
3.根据权利要求2所述的信息处理装置,
其中,所述多个输入元件包括在数字键盘中。
4.根据权利要求1所述的信息处理装置,
其中,所述接触对象是手的拇指。
5.根据权利要求1所述的信息处理装置,
其中,当所述接触对象与所述指节接触时,所述接触对象发光,以及
其中,所述信息处理装置进一步包括检测单元,所述检测单元被配置为基于所述接触对象的发光状态来检测所述接触对象与所述指节接触的定时。
6.根据权利要求1所述的信息处理装置,进一步包含:
检测单元,被配置为基于所述指节的膨胀的变化和所述指节的颜色的变化来检测所述接触对象与所述指节接触的定时。
7.根据权利要求1所述的信息处理装置,进一步包含:
检测单元,被配置为基于手指的相对运动矢量来检测所述接触对象与所述指节接触的定时。
8.根据权利要求1所述的信息处理装置,
其中,所述识别对象能够根据与所述接触对象接触的指节显示颜色,以及
其中,所述成像单元拍摄示出所述识别对象所显示的颜色的图像。
9.根据权利要求1所述的信息处理装置,
其中,手戴上的穿戴对象能够在所述接触对象与指节接触时显示指示所述指节的识别信息,以及
其中,所述成像单元拍摄所述识别信息以及所述接触对象的图像。
10.根据权利要求1所述的信息处理装置,进一步包含:
显示单元,被配置为透明地显示其图像正在被所述成像单元拍摄的手指,并且显示所述处理装置基于从所述输出单元输入的识别结果来执行输入处理而获得的结果。
11.一种信息处理方法,包括:
用成像单元拍摄状态,所述状态示出手的至少一个或多个手指的指节与接触对象接触;
识别多个输入元件中的输入元件,所述输入元件对应于在来自所述成像单元的捕获图像中与所述接触对象接触的指节;以及
将识别结果从识别单元输出到处理装置,所述处理装置执行与所述多个输入元件相对应的输入处理;
其中,所述成像单元拍摄识别对象以及所述接触对象的图像,所述识别对象设置在与所述手指的指节相对应的区域中;
其中,基于手指的运动矢量的集合与五根手指的运动矢量的平均之间的差异来获得关于该手指的相对运动矢量,所述相对运动矢量具有在按压指节之前和之后反转的矢量方向。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012-107410 | 2012-05-09 | ||
JP2012107410 | 2012-05-09 | ||
PCT/JP2013/060839 WO2013168508A1 (ja) | 2012-05-09 | 2013-04-10 | 情報処理装置、情報処理方法、及びプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
CN104272225A CN104272225A (zh) | 2015-01-07 |
CN104272225B true CN104272225B (zh) | 2017-11-03 |
Family
ID=49550561
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201380023001.1A Expired - Fee Related CN104272225B (zh) | 2012-05-09 | 2013-04-10 | 信息处理装置、信息处理方法 |
Country Status (5)
Country | Link |
---|---|
US (1) | US20150109197A1 (zh) |
EP (1) | EP2849035A4 (zh) |
JP (1) | JP6036817B2 (zh) |
CN (1) | CN104272225B (zh) |
WO (1) | WO2013168508A1 (zh) |
Families Citing this family (22)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102184402B1 (ko) * | 2014-03-06 | 2020-11-30 | 엘지전자 주식회사 | 글래스 타입의 이동 단말기 |
US10346992B2 (en) * | 2014-07-30 | 2019-07-09 | Sony Corporation | Information processing apparatus, information processing method, and program |
CN106575184B (zh) * | 2014-07-30 | 2020-05-19 | 索尼公司 | 信息处理装置、信息处理方法及计算机可读介质 |
JP6288372B2 (ja) * | 2015-05-21 | 2018-03-07 | 日本電気株式会社 | インタフェース制御システム、インタフェース制御装置、インタフェース制御方法、及びプログラム |
US10528138B2 (en) | 2015-11-06 | 2020-01-07 | Facebook Technologies, Llc | Virtual reality garment capable of jamming user movement |
US10572014B2 (en) * | 2015-11-09 | 2020-02-25 | Facebook Technologies, Llc | Virtual reality garment configured to restrict user movement by repositioning a rigid cuff relative to the user |
CN107632716B (zh) * | 2017-11-07 | 2024-03-08 | 王可攀 | 一种输入信息处理装置及其处理输入信息的方法 |
US11275453B1 (en) | 2019-09-30 | 2022-03-15 | Snap Inc. | Smart ring for manipulating virtual objects displayed by a wearable device |
CN111007942A (zh) * | 2019-12-25 | 2020-04-14 | 歌尔股份有限公司 | 一种可穿戴设备及其输入方法 |
US11798429B1 (en) | 2020-05-04 | 2023-10-24 | Snap Inc. | Virtual tutorials for musical instruments with finger tracking in augmented reality |
US11520399B2 (en) | 2020-05-26 | 2022-12-06 | Snap Inc. | Interactive augmented reality experiences using positional tracking |
CN111427458B (zh) * | 2020-06-11 | 2020-12-22 | 诺百爱(杭州)科技有限责任公司 | 一种基于手部动作虚拟输入字符的方法、装置和电子设备 |
JP7472734B2 (ja) | 2020-09-17 | 2024-04-23 | サクサ株式会社 | 画像処理装置及びプログラム |
US11925863B2 (en) | 2020-09-18 | 2024-03-12 | Snap Inc. | Tracking hand gestures for interactive game control in augmented reality |
US11546505B2 (en) | 2020-09-28 | 2023-01-03 | Snap Inc. | Touchless photo capture in response to detected hand gestures |
CN116724285A (zh) | 2020-12-29 | 2023-09-08 | 美国斯耐普公司 | 用于控制虚拟和图形元素的微手势 |
EP4272051A1 (en) | 2020-12-30 | 2023-11-08 | Snap, Inc. | Augmented reality precision tracking and display |
US11740313B2 (en) | 2020-12-30 | 2023-08-29 | Snap Inc. | Augmented reality precision tracking and display |
US11531402B1 (en) | 2021-02-25 | 2022-12-20 | Snap Inc. | Bimanual gestures for controlling virtual and graphical elements |
US20240168565A1 (en) * | 2021-02-25 | 2024-05-23 | Karen Stolzenberg | Single-handed gestures for reviewing virtual content |
US20220326781A1 (en) * | 2021-04-08 | 2022-10-13 | Snap Inc. | Bimanual interactions between mapped hand regions for controlling virtual and graphical elements |
EP4327185A1 (en) | 2021-04-19 | 2024-02-28 | Snap, Inc. | Hand gestures for animating and controlling virtual and graphical elements |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6771294B1 (en) * | 1999-12-29 | 2004-08-03 | Petri Pulli | User interface |
WO2006028313A1 (en) * | 2004-09-08 | 2006-03-16 | Kwang-Seok Hong | Keypad glove apparatus |
JP2010086367A (ja) * | 2008-10-01 | 2010-04-15 | Sony Corp | 位置情報入力装置、位置情報入力方法、プログラム、情報処理システム、及び電子装置 |
CN102193728A (zh) * | 2010-03-01 | 2011-09-21 | 索尼公司 | 信息处理装置、信息处理方法和程序 |
Family Cites Families (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH10207602A (ja) * | 1997-01-21 | 1998-08-07 | Canon Inc | 記号入力装置 |
JP2000112651A (ja) * | 1998-10-06 | 2000-04-21 | Olympus Optical Co Ltd | ポインティング機構 |
JP2000298544A (ja) * | 1999-04-12 | 2000-10-24 | Matsushita Electric Ind Co Ltd | 入出力装置と入出力方法 |
JP2001242983A (ja) | 2000-02-25 | 2001-09-07 | Katsutoshi Muto | コンピュータ入力装置 |
US6763320B2 (en) * | 2002-08-15 | 2004-07-13 | International Business Machines Corporation | Data input device for individuals with limited hand function |
US9274551B2 (en) * | 2005-02-23 | 2016-03-01 | Zienon, Llc | Method and apparatus for data entry input |
GB0622451D0 (en) * | 2006-11-10 | 2006-12-20 | Intelligent Earth Ltd | Object position and orientation detection device |
JP2009146333A (ja) * | 2007-12-18 | 2009-07-02 | Panasonic Corp | 空間入力動作表示装置 |
US20100060611A1 (en) * | 2008-09-05 | 2010-03-11 | Sony Ericsson Mobile Communication Ab | Touch display with switchable infrared illumination for touch position determination and methods thereof |
US8310464B2 (en) * | 2008-10-16 | 2012-11-13 | Texas Instruments Incorporated | Simultaneous multiple location touch systems |
JP5252432B2 (ja) | 2008-12-01 | 2013-07-31 | 国立大学法人岐阜大学 | 指関節角度推定装置 |
US20100177039A1 (en) * | 2009-01-10 | 2010-07-15 | Isaac Grant | Finger Indicia Input Device for Computer |
JP2011221699A (ja) | 2010-04-07 | 2011-11-04 | Yaskawa Electric Corp | 操作指示認識装置及びロボット |
US20120056805A1 (en) * | 2010-09-03 | 2012-03-08 | Intellectual Properties International, LLC | Hand mountable cursor control and input device |
US9030425B2 (en) * | 2011-04-19 | 2015-05-12 | Sony Computer Entertainment Inc. | Detection of interaction with virtual object from finger color change |
US8228315B1 (en) * | 2011-07-12 | 2012-07-24 | Google Inc. | Methods and systems for a virtual input device |
JP2013061848A (ja) * | 2011-09-14 | 2013-04-04 | Panasonic Corp | 非接触入力装置 |
US20130310717A1 (en) * | 2011-12-05 | 2013-11-21 | Northeastern University | Customized, mechanically-assistive rehabilitation apparatus and method for distal extremities of the upper and lower regions |
-
2013
- 2013-04-10 JP JP2014514411A patent/JP6036817B2/ja active Active
- 2013-04-10 US US14/398,546 patent/US20150109197A1/en not_active Abandoned
- 2013-04-10 WO PCT/JP2013/060839 patent/WO2013168508A1/ja active Application Filing
- 2013-04-10 CN CN201380023001.1A patent/CN104272225B/zh not_active Expired - Fee Related
- 2013-04-10 EP EP13787902.9A patent/EP2849035A4/en not_active Withdrawn
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6771294B1 (en) * | 1999-12-29 | 2004-08-03 | Petri Pulli | User interface |
WO2006028313A1 (en) * | 2004-09-08 | 2006-03-16 | Kwang-Seok Hong | Keypad glove apparatus |
JP2010086367A (ja) * | 2008-10-01 | 2010-04-15 | Sony Corp | 位置情報入力装置、位置情報入力方法、プログラム、情報処理システム、及び電子装置 |
CN102193728A (zh) * | 2010-03-01 | 2011-09-21 | 索尼公司 | 信息处理装置、信息处理方法和程序 |
Also Published As
Publication number | Publication date |
---|---|
JP6036817B2 (ja) | 2016-11-30 |
US20150109197A1 (en) | 2015-04-23 |
WO2013168508A1 (ja) | 2013-11-14 |
EP2849035A1 (en) | 2015-03-18 |
EP2849035A4 (en) | 2016-05-11 |
JPWO2013168508A1 (ja) | 2016-01-07 |
CN104272225A (zh) | 2015-01-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN104272225B (zh) | 信息处理装置、信息处理方法 | |
KR101514168B1 (ko) | 정보 처리 장치, 정보 처리 방법 및 기록 매체 | |
JP2020091904A (ja) | システムおよびコントローラ | |
EP2836892B1 (en) | Control of remote device based on gestures | |
WO2017047182A1 (ja) | 情報処理装置、情報処理方法、及びプログラム | |
WO2021035646A1 (zh) | 可穿戴设备及其控制方法、识别手势的方法和控制系统 | |
CN105518579A (zh) | 信息处理设备和信息处理方法 | |
US8659546B2 (en) | Method and apparatus for transferring digital content | |
CN108523281B (zh) | 用于虚拟现实系统的手套外设、方法、装置及系统 | |
WO2019221438A1 (en) | Electronic device for measuring blood pressure and operating method thereof | |
KR102526951B1 (ko) | 전자 장치에서 생체 정보 측정 방법 및 장치 | |
JP7158698B2 (ja) | 読取システム及びカメラ | |
JP7117451B2 (ja) | 視線とジェスチャを用いた情報表示装置 | |
US20150339538A1 (en) | Electronic controller, control method, and control program | |
CN112818825B (zh) | 工作状态确定方法和装置 | |
US11449695B2 (en) | Reading system and camera | |
US11237639B2 (en) | Method and system for electronic communication by persons with disabilities | |
CN115047966A (zh) | 交互方法、电子设备与交互系统 | |
CN103677313B (zh) | 电子设备以及控制方法 | |
CN104871532B (zh) | 拍摄装置及其动作控制方法 | |
CN106621323B (zh) | 信号输入装置和方法 | |
JP2016202708A (ja) | 内視鏡システム及び内視鏡検査に用いられる機器のバッテリチェック方法 | |
CN219758790U (zh) | 一种增强现实交互手套系统 | |
EP4372528A1 (en) | Power-efficient processing of neuromuscular signals to confirm occurrences of user gestures, and systems and methods of use thereof | |
KR20190000372U (ko) | 열 이미지 기능을 구비하는 웨어러블 디바이스 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20171103 |
|
CF01 | Termination of patent right due to non-payment of annual fee |