CN104272225A - 信息处理装置、信息处理方法和程序 - Google Patents

信息处理装置、信息处理方法和程序 Download PDF

Info

Publication number
CN104272225A
CN104272225A CN201380023001.1A CN201380023001A CN104272225A CN 104272225 A CN104272225 A CN 104272225A CN 201380023001 A CN201380023001 A CN 201380023001A CN 104272225 A CN104272225 A CN 104272225A
Authority
CN
China
Prior art keywords
dactylus
image
signal conditioning
finger
conditioning package
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201380023001.1A
Other languages
English (en)
Other versions
CN104272225B (zh
Inventor
高木芳德
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Publication of CN104272225A publication Critical patent/CN104272225A/zh
Application granted granted Critical
Publication of CN104272225B publication Critical patent/CN104272225B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/014Hand-worn input/output arrangements, e.g. data gloves
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/02Input arrangements using manually operated switches, e.g. using keyboards or dials
    • G06F3/023Arrangements for converting discrete items of information into a coded form, e.g. arrangements for interpreting keyboard generated codes as alphanumeric codes, operand codes or instruction codes
    • G06F3/0233Character input methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means

Abstract

提出一种使用户能够通过简单的结构来执行想要进行的输入操作的方法。一种信息处理装置,包含:成像单元,其捕获接触体与手的至少一根手指的手指关节接触的状态的图像;识别单元,其从多个输入元件中识别输入元件,所述输入元件对应于在成像单元捕获的图像中与接触体接触的手指关节;以及输出单元,其将输出结果从识别单元输出到处理装置,所述处理装置执行与所述多个输入元件相对应的输入处理。

Description

信息处理装置、信息处理方法和程序
技术领域
本公开涉及信息处理装置、信息处理方法和程序。
背景技术
信息处理装置基于通过操作单元的来自用户的输入操作(诸如键入操作)执行多种处理。如今,随着各种类型的信息处理装置正在获得广泛使用,也设计了多种输入方法。
例如,专利文献1公开了一种包括附着(attach)到手套的指尖的开关和附着到手套的传感器的输入装置,所述传感器报告手套的指尖弯曲的方式。专利文献2公开了一种用于基于来自附着到手臂的电极的输入信号估计手指关节的角度的技术。专利文献3公开了一种用于对手区域的姿势执行模式识别并且使用识别结果作为输入的技术。
专利文献
专利文献1:JP 2001-242983A
专利文献2:JP 2010-125287A
专利文献3:JP 2011-221699A
发明内容
技术问题
专利文献1和2的技术要求将传感器和电极附着到手和手臂,这给用户添加了麻烦。专利文献3的技术只可以识别少量模式,使得该技术不适用于需要相当多的输入元件的字符输入等。
本公开因而提供一种用于允许用户以简单的配置执行用户想要进行的输入操作的方法。
问题的解决方案
根据本公开,提供了一种信息处理装置,包括:成像单元,被配置为拍摄示出手的至少一个或多个手指的指节与接触对象接触的状态;识别单元,被配置为识别多个输入元件中的输入元件,所述输入元件对应于在来自所述成像单元的捕获图像中与所述接触对象接触的指节;以及输出单元,被配置为将识别结果从所述识别单元输出到执行与所述多个输入元件相对应的输入处理的处理装置。
另外,根据本公开,提供了一种信息处理方法,包括:用成像单元拍摄状态,所述状态示出手的至少一个或多个手指的指节与接触对象接触;识别多个输入元件中的输入元件,所述输入元件对应于在来自所述成像单元的捕获图像中与所述接触对象接触的指节;以及将识别结果从所述识别单元输出到执行与所述多个输入元件相对应的输入处理的处理装置。
另外,根据本公开,提供了一种程序,用于使计算机执行:用成像单元拍摄状态,所述状态示出手的至少一个或多个手指的指节与接触对象接触;识别多个输入元件中的输入元件,所述输入元件对应于在来自所述成像单元的捕获图像中与所述接触对象接触的指节;以及将识别结果从所述识别单元输出到执行与所述多个输入元件相对应的输入处理的处理装置。
本发明的有利效果
根据如上所述的本公开,用户能够以简单的配置执行想要进行的输入操作。
附图说明
图1是用于描述根据本公开实施例的信息处理系统1的概览的图。
图2是图示根据实施例的信息处理装置100的功能配置的示例的图。
图3是用于描述数字键盘上的键和指节之间的关系的图。
图4是图示数字键盘的示例的图。
图5是用于描述根据实施例的识别器114a到114l的示例的图。
图6是图示根据实施例的成像单元110拍摄的捕获图像的示例的图。
图7是用于描述被按压的指节的识别的第一修改示例的图。
图8是用于描述被按压的指节的识别的第二修改示例的图。
图9是用于描述被按压的指节的识别的第三修改示例的图。
图10是用于描述被按压的指节的识别的第四修改示例的图。
图11是图示指节的按压定时(timing)的检测的第一示例的图。
图12是图示指节的按压定时的检测的第二示例的图。
图13是用于描述相对运动矢量Vp的图。
图14是用于描述根据实施例的信息处理装置100的第一操作示例的流程图。
图15是用于描述根据实施例的信息处理装置100的第二操作示例的流程图。
图16是用于描述根据实施例的信息处理装置100的第三操作示例的流程图。
图17是用于描述根据实施例的信息处理装置100的第四操作示例的流程图。
图18是图示根据实施例的信息处理装置100的显示单元的显示示例的图。
图19是图示根据实施例的信息处理装置100的显示单元的显示示例的图。
图20是图示使用双手的示例的图。
图21是图示根据实施例的信息处理装置100的硬件配置的说明图。
具体实施方式
以下,将参考附图详细描述本发明的优选实施例。注意,在本说明书和附图中,用相同的标号表示具有基本相同的功能和结构的元件,并且省略重复的说明。
将以下面的次序进行描述。
1.信息处理系统的概览
2.信息处理装置的配置示例
3.被按压的指节的识别的修改示例
4.指节的按压定时的检测示例
5.信息处理装置的操作示例
6.硬件配置
7.结论
<1.信息处理系统的概览>
将参考图1描述根据本公开实施例的信息处理系统1的概览。图1是用于描述根据本公开实施例的信息处理系统1的概览的图。
信息处理系统1根据用户U触摸他或她的手H的手指的位置(具体地,由手指关节分开的指节中的任何一个)对处理装置150(参见图2)进行输入。换句话说,信息处理系统1允许用户用他或她的手代替数字键盘等进行输入。信息处理系统1包括识别用户U已经触摸(按压)了他或她的哪个指节的信息处理装置100。
如图1所示,信息处理装置100的示例包括用户U佩戴在眼睛前方的一副眼镜和头戴式显示器。信息处理装置100包括在与用户U的眼睛的位置相同位置处的成像单元(诸如相机),该成像单元能够拍摄用户U的手H的图像。另外,成像单元还可以设置与在用户U的眼睛的位置不同的位置处。信息处理装置100包括能够透明地显示其图像正在被拍摄的用户的手的显示单元130。
处理装置150基于信息处理装置100的识别结果来执行对应于多个输入元件(诸如,按下键)的输入处理。例如,处理装置150基于信息处理装置100的识别结果来执行字符输入。处理装置150的示例包括诸如个人计算机、智能电话、PDA和移动电话这样的装置。
即使没有附着到手用于检测手指的移动的传感器等,根据本公开的信息处理系统1也允许用户用成像单元拍摄手的图像并且使用他或她的手进行输入。这使用户即使在例如用户难以将传感器等附着到手时(例如,当用户正在做饭、开车、与孩子玩以及诸如处理某事这样的正在做些小事情时)也能够容易地输入字符等。
<2.信息处理装置的配置示例>
将参考图2描述根据本公开实施例的信息处理装置100的配置示例。图2是图示根据本公开实施例的信息处理装置100的功能配置示例的图。
如图2所示,信息处理装置100包括成像单元110、学习单元112、识别单元114、作为输出单元的示例的通信单元116,以及显示控制单元118。
(成像单元110)
成像单元110是能够拍摄静止图像和运动图像的相机,并且拍摄示出作为被摄体的用户U的手的图像。成像单元110例如可以拍摄示出接触对象按压用户U的手的至少一个或多个手指的指节的图像。接触对象是指用户的手的拇指。如图1所示,成像单元110可以拍摄示出手的拇指F1按压其他手指(食指F2、中指F3、无名指F4、小指F5)的指节的图像。
成像单元110还可以拍摄示出用户U的手的手指按压其他手的手指的指节的图像。成像单元110还可以拍摄示出笔等代替拇指按压指节的图像。成像单元110将捕获图像逐一输出到识别单元114。
(学习单元112)
学习单元112预先获取示出用户按压指节的图像,并且学习指节和包括多个输入元件的数字键盘(参见图4)之间的关系。在此假设除了拇指以外的手指(食指、中指、无名指、小指)的每个指节对应于数字键盘上的每个键(输入元件)。例如,学习单元112获取如图3所示的图像。
食指、中指、无名指和小指每个由两个关节分为三个指节。这三个指节被称为距手指根部的近节指节、中节指节和末节指节。同时,拇指被单个关节分为两个指节。这两个指节被称为距拇指根部的近节指节和末节指节。
图3是用于描述数字键盘上的键和指节之间的关系的图。图4是图示数字键盘330的示例的图。图3中的状态301到310示出触摸对应于数字键盘330上的数字“1”、“2”……“9”和“0”的指节。例如,食指的近节指节对应于数字“1”,食指的中节指节对应于数字“2”,并且食指的末节指节对应于数字“3”。以相同的方式,中指的近节指节对应于数字“4”,中指的中节指节对应于数字“5”,并且中指的末节指节对应于数字“6”。
图3中的状态311示出触摸对应于数字键盘上的符号“*”,并且状态312示出触摸对应于数字键盘上的符号“#”。另外,学习单元112还可以获取用于识别拇指没有按压食指、中指、无名指或小指的任何指节的状态的图像。
图3示出作为识别对象的示例的带140粘合到对应于预定指节的区域,带140使指节容易被识别。具体地,带140对于食指、中指、无名指和小指的十二个指节是错开的,然而这不是排他性的。也可以没有带粘合到指节。
(识别单元114)
识别单元114识别在成像单元110拍摄的捕获图像中对应于被拇指按压的指节的数字键盘上的键。识别单元114使用从成像单元110输入的捕获图像以及由学习单元112提供的关系来识别在捕获图像中另外的手指的哪个指节被拇指按压。如图5所示识别单元114包括十二个识别器114a到114l,用于识别数字键盘上的各个键。
图5是用于描述根据实施例的识别器114a到114l的示例的图。识别器114a到114c分别对应于在图1中所示的食指F2的近节指节F2a、中节指节F2b和末节指节F2c。识别器114d到114f分别对应于在图1中所示的中指F3的近节指节F3a、中节指节F3b和末节指节F3c。同样地,识别器114g到114i分别对应于在图1中所示的无名指F4的近节指节F4a、中节指节F4b和末节指节F4c。识别器114j到114l分别对应于在图1中所示的小指F5的近节指节F5a、中节指节F5b和末节指节F5c。识别器114a到114l每个决定关于输入的捕获图像的评估值。另外,评估值的范围从0到1。
此处假设在图6中所示的捕获图像由成像单元110拍摄并且被输入到识别单元114。图6是图示根据实施例的成像单元110拍摄的捕获图像340的示例的图。换句话说,成像单元110拍摄作为接触对象的拇指F1以及在对应于另一手指的指节的区域中的带140的图像。如图6所示,用户的拇指F1按压在四根手指F2到F5中的中指F3的中节指节F3b,因此识别器114e在识别器114a到114l中具有最高评估值。
识别单元114将关于输入图像的各个识别器114a到114l的评估值(在图5中所示的评估值)输出给通信单元116。识别单元114还可以执行单独提取在已经从成像单元110输入到识别单元114的捕获图像中的手区域的图像处理以识别所提取的图像。在该情况下,识别单元114具有减小的处理负担并且可以在精确度上增强识别结果。
(通信单元116)
通信单元116将针对各个捕获图像的识别单元114的识别结果(各个识别器114a到114l的评估值)传送(输出)给处理装置150。另外,通信单元116以预定间隔逐一将识别结果传送给处理装置150。
处理装置150使用从信息处理装置100逐一接收的识别结果来决定用户按压了哪个指节。例如,处理装置150确定输入了对应于具有最高评估值的识别器的键。然后,处理装置150基于确定结果执行对应于输入的处理。另外,处理装置150还可以将输入处理的结果传送给通信单元116。
(显示控制单元118)
显示控制单元118基于从通信单元116输入的识别结果,使得显示单元130显示由处理装置150进行的输入处理的结果。另外,显示单元130透明地显示其图像正在被成像单元110拍摄的用户的手。从而,显示单元130在透明地显示用户的手的同时,显示由处理装置150进行的输入处理的结果。
虽然已经描述了处理装置150确定输入了对应于具有最高评估值的识别器的键,但是以下确定也是可接受的。换句话说,处理装置150还可以确定输入了对应于在预定时间内最频繁地具有最高评估值的识别器的键。同时,处理装置150还可以确定输入了对应于具有最频繁地超过预定阈值的评估值的识别器的键。这允许用手进行更加精确的输入。
<3.被按压的指节的识别的修改示例>
已经描述了如图6所示那样地拍摄具有粘合到预定指节的带140的手指的图像以允许识别被按压的指节,然而这不是排他性的。可以以下面的方式识别被按压的指节。
图7是用于描述被按压的指节的识别的第一修改示例的图。在图7中,粘附物(sticker)142代替带140粘合到手指。具体地,如图7中的状态401所示,食指F2、中指F3、无名指F4和小指F5的指节每个具有粘合到其上的粘附物142。另外,在状态401无名指F4的末节指节F4c具有两个粘合到其上的粘附物142,这不同于其他指节,因为其他指节每个只具有单个粘附物142。在该情况下,无名指的末节指节用作识别每个指节的标准,从而便于识别十二个指节。
如图7中的状态402所示,粘附物142可以粘合到拇指F1(具体地,拇指的指甲)。这使得更容易识别拇指F1按压了其他手指F2到F5的指节。在图7中,粘附物直接粘合到手指,然而这不是排他性的。例如,粘附物也可以粘合在对应于手上的手套的每个指节的位置处。
图8是用于描述被按压的指节的识别第二修改示例的图。在图8中,将可识别的码162粘合在对应于手上的手套160(穿戴对象的示例)的每个指节的位置处。例如,增强实现(augmented reality,AR)码可以用作码162。码162包括用于识别每个指节的信息。这有助于识别单元114基于包括码162的捕获图像来识别被拇指按压的指节。
图9是用于描述被按压的指节的识别第三修改示例的图。当拇指按压指节时,在图9中的手上的手套160上显示码164。码164包括指示被按压的指节的识别信息。从而,成像单元110拍摄示出显示码164的图像,使得识别单元114可以容易地识别被拇指按压的指节。
图10是用于描述被按压的指节的识别第四修改示例的图。在图10中,粘合到食指F2、中指F3、无名指F4和小指F5的带140可以改变它们的颜色。带140每个可以根据被拇指F1按压的指节来显示颜色。例如,如图11中的状态501所示,当拇指F1按压食指F2的近节指节F2a时,食指的两个带140将颜色从默认颜色改变为第一颜色。同时,中指F3、无名指F4和小指F5的带140保持默认颜色。如状态502所示,当拇指F1按压食指F2的中节指节F2b时,仅仅食指F2的两个带140将颜色从默认颜色改变为第二颜色。如状态503所示,当拇指F1按压食指F2的末节指节F2c时,仅仅食指F2的两个带140将颜色从默认颜色改变为第三颜色。
如图10中的状态504到512所示,当按压中指F3、无名指F4和小指F5的指节时,粘合到各个手指的带140也以相同的方式改变它们的颜色。例如,当按压中指、无名指和小指的近段指节F3a、F4a和F5a中的任何一个时(状态504、507和510),仅仅粘合到被按压的手指的带140将其颜色从默认颜色改变为第一颜色。另外,一旦拇指F1触摸手掌,带将颜色返回到默认颜色。然后,成像单元110拍摄根据被按压的指节由带显示的颜色的图像,使得识别单元114可以容易地识别被拇指按压的指节。已经描述了带140在第一颜色到第三颜色中改变其颜色,然而这不是排他性的。带140可以针对每个手指的每个指节改变其颜色(即,十二种颜色),或者可以改变单个颜色的亮度。
<4.指节的按压定时的检测示例>
接下来,使用一些示例来描述按压指节的按压定时的检测示例。
图11是图示指节的按压定时的检测的第一示例的图。在图11中,改变其颜色的拇指护套170(指示器的示例)附着到拇指。当拇指护套170按压另一指节时(图11中的状态422),拇指护套将其颜色改变为预定颜色(诸如红色)。拍摄拇指护套170的图像便于识别单元114检测按压指节的定时。另外,一旦拇指触摸手掌(状态421),拇指护套170就将其颜色改变为默认颜色(诸如白色)。
图12是图示指节的按压定时的检测的第二示例的图。在图12中,作为接触对象的示例的笔172代替拇指按压指节。笔172是能够发光的部件。当笔172按压指节时,笔172的尖端单元172a发光。然后,成像单元110拍摄示出笔正在发光的图像,以便识别单元114可以容易地检测笔按压指节的定时。
已经描述了一旦按压指节笔172就发光或者带140就改变其颜色,然而这不是排他性的。例如,信息处理装置100可以检测手指的运动矢量,并且可以基于所检测到的运动矢量来检测按压指节的定时。
可以以下面的表达式获得指节被按压的手指的相对运动矢量Vp。
Vp=V-Vh
其中,V代表手指的运动矢量的集合,并且Vh代表五根手指的运动矢量的平均。关于食指、中指、无名指和小指获得相对运动矢量Vp。
图13是用于描述相对运动矢量Vp的图。相对运动矢量Vp具有在按压指节之前和之后反转的矢量方向。因此,能够通过监视反转率来检测按压定时。可以通过获得这样的相对运动矢量Vp来检测按压指节的定时。
当按压指节时,被按压的指节可能改变膨胀、颜色和形状。相应地,识别单元114可以以预定间隔监视从成像单元110输入的捕获图像中的指节的膨胀、颜色和形状的改变,并且指节可以基于改变检测按压定时。这允许在不需要诸如笔和拇指护套或手指护套这样的指示器的情况下检测按压定时。
已经描述了识别单元114具有检测指节的按压定时的检测单元的功能,然而这不是排他性的。不同于识别单元114的组件可以检测指节的按压定时。
<5.信息处理装置的操作示例>
接下来,将描述根据实施例的信息处理装置100的操作示例。下面将描述第一到第四操作示例作为信息处理装置100的操作示例。一旦信息处理装置100的CPU执行存储在ROM中的程序,信息处理装置100就操作。被执行的程序也可以存储在诸如压缩盘(CD)、数字多功能盘(DVD)和存储卡这样的记录介质中,或者也可以经由因特网从服务器等下载。
(第一操作示例)
首先,将参考图14描述根据实施例的信息处理装置100的第一操作示例。图14是用于描述根据实施例的信息处理装置100的第一操作示例的流程图。图14中的流程图例如在开启成像单元110时开始。
首先,成像单元110拍摄想要输入字符等的用户的手的图像(步骤S102)。换句话说,成像单元110将捕获图像输出到识别单元114,捕获图像示出用户按压手指的任一指节。然后,识别单元114基于输入的捕获图像识别用户按压了哪个指节(步骤S104)。例如,每个都对应于数字键盘的识别器114a到114l决定关于输入的捕获图像的评估值。
接下来,通信单元116将识别结果(例如,来自识别器114a到114l的评估值)输出到处理装置150(步骤S106)。另外,通信单元116将评估值逐一输出到处理装置150。然后,处理装置150基于输入的评估结果,决定用户按压了哪个指节。例如,处理装置150确定输入了对应于具有最高评估值的识别器的键,并且执行对应于该输入的处理。
如果输入继续(步骤S108:是),则重复上述步骤S102到S106中的处理。相反,如果输入结束,则信息处理装置100的操作完成。
根据第一操作示例,变得即使用户不具有附着到手的传感器等,也能够通过用户按压他或她的指节而不是数字键盘来识别用户想要的输入。
(第二操作示例)
图15是用于描述根据实施例的信息处理装置100的第二操作示例的流程图。
在图15中所示的第二操作示例中,认出在步骤S102中拍摄的捕获图像中的用户的手区域,并且提取认出的手区域的图像(步骤S122)。然后,识别单元114从所提取的图像识别用户按压了哪个指节(步骤S104)。
根据第二操作示例,变得能够减小要由识别单元114识别的图像的区域,并且增强确定精确度。在该情况下,学习单元112可以预先获取对应于手区域的图像。
(第三操作示例)
图16是用于描述根据实施例的信息处理装置100的第三操作示例的流程图。
在图16所示的第三操作示例中,识别单元114基于在步骤S102中拍摄的捕获图像来确定指节的按压定时(步骤S132)。具体地,,识别单元114在按压指节的指示器(诸如笔)发光时从所拍摄的捕获图像确定指节的按压定时。然后,识别单元114识别在该按压定时,用户按压了哪个指节(步骤S104)。
根据第三操作示例,变得能够限制识别单元114执行识别处理的定时,并且增强识别单元114的确定精确度。还可以削减由识别单元114进行的处理的功率消耗,使得对于诸如具有有限功率的智能电话这样的移动终端有效。
(第四操作示例)
图17是用于描述根据实施例的信息处理装置100的第四操作示例的流程图。
在图17中的第四操作示例中,识别单元114从在步骤S102中拍摄的捕获图像提取对应于每个指节的区域(步骤S142)。例如,识别单元114提取对应于食指、中指、无名指和小指的近节指节、中节指节和末节指节的十二个区域。
然后,识别单元114检测在每个所提取的区域中的指节的颜色的改变(步骤S144)。在按压指节之前,指节通常是微红的。此时,一旦按压指节,指节就变为微黄。相应地,识别单元114检测指节的颜色是否已经在红色和黄色之间变化。具体地,识别单元114参考在该区域中的R成分的像素的数量(具体地,具有关系R>G+20的像素的数量)与G成分的像素的数量(具有关系G–10<R<G+10的像素的数量)的比率来检测颜色的变化。然后,一旦识别单元114检测到颜色已经变化,识别单元114就确定按压了指节(步骤S146)。
根据第四操作示例,变得即使没有使用诸如笔或铁笔这样的指示器以及拇指护套或者手指护套,也能够通过检测指节的颜色的变化来适当地检测指节的按压定时。
(信息处理装置的显示示例)
当按压指节并且进行输入时,信息处理装置100的显示单元显示其图像正在被拍摄的用户的手以及输入信息。
图18是图示根据实施例的信息处理装置100的显示单元130的显示示例的图。在图18中所示的显示单元130透明地显示其图像正在被成像单元110拍摄的用户的手,并且显示输入屏幕132,输入屏幕132示出响应于被拇指F1按压的指节而被输入的字符。这允许用户在按压食指F2、中指F3、无名指F4或小指F5的指节的同时,检查输入到屏幕132中的字符。
图19是图示根据实施例的信息处理装置100的显示单元的显示示例的图。在图19中所示的显示单元130透明地显示其图像正在被成像单元110拍摄的用户的手,并且显示在对应于手掌的区域上的触摸板134。在所显示的触摸板134上的触摸操作允许用户代替鼠标进行输入。
另外,已经描述了进行与一只手的手指的指节相对应的输入,然而这不是排他性的。例如,如图20中所示,也可以进行与双手的手指的指节相对应的输入。在该情况下,可以进行对应于更多键的输入。图20是图示使用双手的示例的图。
已经描述了成像单元110拍摄所有五根手指的图像,然而这不是排他性的。例如,成像单元110可以只拍摄至少具有被按压的指节的手指的图像。另外,已经描述了通过拍摄示出拇指、笔等按压指节的图像来执行输入处理,然而,这不是排他性的。例如,也可以通过拍摄示出拇指、笔等接触指节的图像来执行输入处理。
<6.硬件配置>
包括在上述信息处理装置100中的硬件配置和软件协作以实现要由信息处理装置100执行的显示控制操作。相应地,下面将描述信息处理装置100的硬件配置。
图21是图示信息处理装置100的硬件配置的说明图。如图21所示,信息处理装置100包括中央处理单元(CPU)201、只读存储器(ROM)202、随机存取存储器(RAM)203、输入设备208、输出设备210、存储设备211、驱动器213、成像设备213和通信设备215。
CPU 201用作处理设备和控制设备,并且根据多种程序来控制信息处理装置100的整体操作。CPU 201也可以是微处理器。ROM 202存储CPU 201使用的程序、操作参数等。RAM 203暂时存储在CPU 201执行时使用的程序、针对执行根据需要而改变的参数等。这些通过包括CPU总线的主机总线相互连接。
输入设备208包括用户用于输入信息的输入部件(诸如鼠标、键盘、触摸面板、按钮、麦克风、开关和控制杆)以及基于来自用户的输入产生输入信号并且将输入信号输出给CPU 201的输入控制电路。信息处理装置20的用户可以输入多种数据到信息处理装置20,并且通过操作输入设备208要求信息处理装置20执行处理操作。
输出设备210包括显示设备,诸如液晶显示器(LCD)设备、有机发光二极管(OLED)设备和灯。输出设备210还包括诸如扬声器和耳机这样的音频输出设备。显示设备例如显示所拍摄的图像、所产生的图像等。同时,音频输出设备将音频数据等转换为声音,并且输出声音。
存储设备211是被配置为根据本实施例的信息处理装置100的存储单元的示例的数据存储装置。存储设备211可以包括存储介质、在存储介质上记录数据的记录设备、从存储介质读出数据的读出设备、以及删除在记录介质上记录的数据的删除设备。存储设备211存储CPU 201执行的程序和多种数据。
成像设备213包括诸如摄影镜头和聚集光的变焦镜头这样的成像光学系统以及诸如电荷耦合器件(CCD)和互补金属氧化物半导体(CMOS)这样的信号转换元件。成像光学系统聚集从被摄体发射的光以在信号转换单元上形成被摄体的图像。信号转换元件将所形成的被摄体的图像转换为电图像信号。
通信设备215例如是包括用于连接到网络12的通信设备的通信接口。通信设备215也可以是支持无线局域网(LAN)的通信设备、支持长期演进(LTE,Long Term Evolution)的通信设备或者执行有线通信的有线通信设备。
另外,网络12是有线或无线传输路径,由此在连接到网络12的装置之间传送和接收信息。网络12可以包括诸如因特网、电话网络和卫星网络这样的公用网络、包括以太网(注册商标)的多种局域网(LAN)以及广域网(WAN)。网络12也可以包括诸如因特网协议虚拟专用网络(IP-VPN)这样的租用线路网络。
<7.结论>
如上所述,在多个输入元件(例如,数字键盘上的键)中,根据本公开的信息处理装置100识别在来自成像单元110的捕获图像中对应于与拇指接触的指节的输入元件(键)。信息处理装置100还将识别结果从识别单元114输出到执行与多个输入元件相对应的输入处理处理装置150。
在该情况下,由于用户可以通过使成像单元110拍摄示出他或她的手指的指节接触的图像来进行输入,所以不必附着传感器、电极等,从而允许用户以简单的配置进行输入。特别地,在使用四根手指(食指、中指、无名指、小指)的指节时,可以以与传统数字键盘相同的方式进行输入。因此,能够防止用户的可操作性减损。
以上参考附图描述了本发明的优选实施例,但是本发明当然不限于上述示例。本领域的技术人员可以在所附权利要求的范围内发现各种变化和修改,并且应当理解它们自然地归入本发明的技术范围。
实施例中的流程图中所示的步骤自然地包括以所述的时间先后次序执行的过程,并且还包括不必以时间先后次序来执行而是还并行地执行或者单独地执行的过程。不必说,即使在以时间先后次序来执行过程的步骤中,也能够根据需要来改变次序。
通过软件、硬件以及软件和硬件的组合中的任何一种都可以实现由在本文中所述的信息处理装置进行的处理。包括在软件中的程序例如预先存储在各个装置的内部或外部提供的记录介质中。例如,每个程序例如在执行每个程序时由随机存取存储器(RAM)读出,并且由诸如CPU这样的处理器执行。
另外,本技术还可以配置如下:
(1)一种信息处理装置,包括:
成像单元,被配置为拍摄示出手的至少一个或多个手指的指节与接触对象接触的状态;
识别单元,被配置为识别多个输入元件中的输入元件,所述输入元件对应于在来自所述成像单元的捕获图像中与所述接触对象接触的指节;以及
输出单元,被配置为将识别结果从所述识别单元输出到执行与所述多个输入元件相对应的输入处理的处理装置。
(2)根据(1)所述的信息处理装置,
其中,手的食指、中指、无名指和小指的每个指节对应于所述多个输入元件中的每个。
(3)根据(2)所述的信息处理装置,
其中,所述多个输入元件包括在数字键盘中。
(4)根据(1)到(3)中的任一项所述的信息处理装置,
其中,所述接触对象是手的拇指。
(5)根据(1)到(3)中的任一项所述的信息处理装置,
其中,当所述接触对象与所述指节接触时,所述接触对象发光,以及
其中,所述信息处理装置进一步包括检测单元,所述检测单元被配置为基于所述接触对象的发光状态来检测所述接触对象与所述指节接触的定时。
(6)根据(1)到(4)中的任一项所述的信息处理装置,进一步包括:
检测单元,被配置为基于所述指节的膨胀的变化和所述指节的颜色的变化来检测所述接触对象与所述指节接触的定时。
(7)根据(1)到(4)中的任一项所述的信息处理装置,进一步包括:
检测单元,被配置为基于手指的运动矢量来检测所述接触对象与所述指节接触的定时。
(8)根据(1)到(7)中的任一项所述的信息处理装置,
其中,所述成像单元拍摄识别对象以及所述接触对象的图像,所述识别对象设置在与所述手指的指节相对应的区域中。
(9)根据(8)所述的信息处理装置,
其中,所述识别对象能够根据与所述接触对象接触的指节显示颜色,以及
其中,所述成像单元拍摄示出所述识别对象所显示的颜色的图像。
(10)根据(1)到(7)中的任一项所述的信息处理装置,
其中,手戴上的穿戴对象能够在所述接触对象与指节接触时显示指示所述指节的识别信息,以及
其中,所述成像单元拍摄所述识别信息以及所述接触对象的图像。
(11)根据(1)到(10)中的任一项所述的信息处理装置,进一步包括:
显示单元,被配置为透明地显示其图像正在被所述成像单元拍摄的手指,并且显示所述处理装置基于从所述输出单元输入的识别结果来执行输入处理而获得的结果。
(12)一种信息处理方法,包括:
用成像单元拍摄状态,所述状态示出手的至少一个或多个手指的指节与接触对象接触;
识别多个输入元件中的输入元件,所述输入元件对应于在来自所述成像单元的捕获图像中与所述接触对象接触的指节;以及
将识别结果从所述识别单元输出到处理装置,所述处理装置执行与所述多个输入元件相对应的输入处理。
(13)一种程序,使计算机执行:
用成像单元拍摄状态,所述状态示出手的至少一个或多个手指的指节与接触对象接触;
识别多个输入元件中的输入元件,所述输入元件对应于在来自所述成像单元的捕获图像中与所述接触对象接触的指节;以及
将识别结果从所述识别单元输出到处理装置,所述处理装置执行与所述多个输入元件相对应的输入处理。
标号列表
1         信息处理系统
100       信息处理装置
110       成像单元
112       学习单元
114       识别单元
116       通信单元
118       显示控制单元
130       显示单元
140       带
142       粘附物
150       处理装置
160       手套
162、164  码
172       笔

Claims (13)

1.一种信息处理装置,包含:
成像单元,被配置为拍摄示出手的至少一个或多个手指的指节与接触对象接触的状态;
识别单元,被配置为识别多个输入元件中的输入元件,所述输入元件对应于在来自所述成像单元的捕获图像中与所述接触对象接触的指节;以及
输出单元,被配置为将识别结果从所述识别单元输出到执行与所述多个输入元件相对应的输入处理的处理装置。
2.根据权利要求1所述的信息处理装置,
其中,手的食指、中指、无名指和小指的每个指节对应于所述多个输入元件中的每个。
3.根据权利要求2所述的信息处理装置,
其中,所述多个输入元件包括在数字键盘中。
4.根据权利要求1所述的信息处理装置,
其中,所述接触对象是手的拇指。
5.根据权利要求1所述的信息处理装置,
其中,当所述接触对象与所述指节接触时,所述接触对象发光,以及
其中,所述信息处理装置进一步包括检测单元,所述检测单元被配置为基于所述接触对象的发光状态来检测所述接触对象与所述指节接触的定时。
6.根据权利要求1所述的信息处理装置,进一步包含:
检测单元,被配置为基于所述指节的膨胀的变化和所述指节的颜色的变化来检测所述接触对象与所述指节接触的定时。
7.根据权利要求1所述的信息处理装置,进一步包含:
检测单元,被配置为基于手指的运动矢量来检测所述接触对象与所述指节接触的定时。
8.根据权利要求1所述的信息处理装置,
其中,所述成像单元拍摄识别对象以及所述接触对象的图像,所述识别对象设置在与所述手指的指节相对应的区域中。
9.根据权利要求8所述的信息处理装置,
其中,所述识别对象能够根据与所述接触对象接触的指节显示颜色,以及
其中,所述成像单元拍摄示出所述识别对象所显示的颜色的图像。
10.根据权利要求1所述的信息处理装置,
其中,手戴上的穿戴对象能够在所述接触对象与指节接触时显示指示所述指节的识别信息,以及
其中,所述成像单元拍摄所述识别信息以及所述接触对象的图像。
11.根据权利要求1所述的信息处理装置,进一步包含:
显示单元,被配置为透明地显示其图像正在被所述成像单元拍摄的手指,并且显示所述处理装置基于从所述输出单元输入的识别结果来执行输入处理而获得的结果。
12.一种信息处理方法,包括:
用成像单元拍摄状态,所述状态示出手的至少一个或多个手指的指节与接触对象接触;
识别多个输入元件中的输入元件,所述输入元件对应于在来自所述成像单元的捕获图像中与所述接触对象接触的指节;以及
将识别结果从所述识别单元输出到处理装置,所述处理装置执行与所述多个输入元件相对应的输入处理。
13.一种程序,使计算机执行:
用成像单元拍摄状态,所述状态示出手的至少一个或多个手指的指节与接触对象接触;
识别多个输入元件中的输入元件,所述输入元件对应于在来自所述成像单元的捕获图像中与所述接触对象接触的指节;以及
将识别结果从所述识别单元输出到处理装置,所述处理装置执行与所述多个输入元件相对应的输入处理。
CN201380023001.1A 2012-05-09 2013-04-10 信息处理装置、信息处理方法 Expired - Fee Related CN104272225B (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2012107410 2012-05-09
JP2012-107410 2012-05-09
PCT/JP2013/060839 WO2013168508A1 (ja) 2012-05-09 2013-04-10 情報処理装置、情報処理方法、及びプログラム

Publications (2)

Publication Number Publication Date
CN104272225A true CN104272225A (zh) 2015-01-07
CN104272225B CN104272225B (zh) 2017-11-03

Family

ID=49550561

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201380023001.1A Expired - Fee Related CN104272225B (zh) 2012-05-09 2013-04-10 信息处理装置、信息处理方法

Country Status (5)

Country Link
US (1) US20150109197A1 (zh)
EP (1) EP2849035A4 (zh)
JP (1) JP6036817B2 (zh)
CN (1) CN104272225B (zh)
WO (1) WO2013168508A1 (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107632716A (zh) * 2017-11-07 2018-01-26 王可攀 一种输入信息处理装置及其处理输入信息的方法
CN111007942A (zh) * 2019-12-25 2020-04-14 歌尔股份有限公司 一种可穿戴设备及其输入方法
CN111427458A (zh) * 2020-06-11 2020-07-17 诺百爱(杭州)科技有限责任公司 一种基于手部动作虚拟输入字符的方法、装置和电子设备

Families Citing this family (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102184402B1 (ko) * 2014-03-06 2020-11-30 엘지전자 주식회사 글래스 타입의 이동 단말기
US10175825B2 (en) 2014-07-30 2019-01-08 Sony Corporation Information processing apparatus, information processing method, and program for determining contact on the basis of a change in color of an image
WO2016017101A1 (ja) * 2014-07-30 2016-02-04 ソニー株式会社 情報処理装置、情報処理方法及びプログラム
US10698535B2 (en) 2015-05-21 2020-06-30 Nec Corporation Interface control system, interface control apparatus, interface control method, and program
US10528138B2 (en) 2015-11-06 2020-01-07 Facebook Technologies, Llc Virtual reality garment capable of jamming user movement
US10572014B2 (en) * 2015-11-09 2020-02-25 Facebook Technologies, Llc Virtual reality garment configured to restrict user movement by repositioning a rigid cuff relative to the user
US11275453B1 (en) 2019-09-30 2022-03-15 Snap Inc. Smart ring for manipulating virtual objects displayed by a wearable device
US11798429B1 (en) 2020-05-04 2023-10-24 Snap Inc. Virtual tutorials for musical instruments with finger tracking in augmented reality
US11520399B2 (en) 2020-05-26 2022-12-06 Snap Inc. Interactive augmented reality experiences using positional tracking
JP7472734B2 (ja) 2020-09-17 2024-04-23 サクサ株式会社 画像処理装置及びプログラム
US11925863B2 (en) 2020-09-18 2024-03-12 Snap Inc. Tracking hand gestures for interactive game control in augmented reality
US11546505B2 (en) 2020-09-28 2023-01-03 Snap Inc. Touchless photo capture in response to detected hand gestures
US11740313B2 (en) 2020-12-30 2023-08-29 Snap Inc. Augmented reality precision tracking and display
US11531402B1 (en) 2021-02-25 2022-12-20 Snap Inc. Bimanual gestures for controlling virtual and graphical elements
KR20230164185A (ko) * 2021-04-08 2023-12-01 스냅 인코포레이티드 가상 및 그래픽 요소들을 제어하기 위한 매핑된 손 영역들 사이의 양손 상호 작용들
US11861070B2 (en) 2021-04-19 2024-01-02 Snap Inc. Hand gestures for animating and controlling virtual and graphical elements

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6771294B1 (en) * 1999-12-29 2004-08-03 Petri Pulli User interface
WO2006028313A1 (en) * 2004-09-08 2006-03-16 Kwang-Seok Hong Keypad glove apparatus
CN101142617A (zh) * 2005-02-23 2008-03-12 杰龙公司 数据输入方法和装置
JP2010086367A (ja) * 2008-10-01 2010-04-15 Sony Corp 位置情報入力装置、位置情報入力方法、プログラム、情報処理システム、及び電子装置
US20100177039A1 (en) * 2009-01-10 2010-07-15 Isaac Grant Finger Indicia Input Device for Computer
CN101896877A (zh) * 2007-12-18 2010-11-24 松下电器产业株式会社 空间输入动作显示装置
CN102193728A (zh) * 2010-03-01 2011-09-21 索尼公司 信息处理装置、信息处理方法和程序

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10207602A (ja) * 1997-01-21 1998-08-07 Canon Inc 記号入力装置
JP2000112651A (ja) * 1998-10-06 2000-04-21 Olympus Optical Co Ltd ポインティング機構
JP2000298544A (ja) * 1999-04-12 2000-10-24 Matsushita Electric Ind Co Ltd 入出力装置と入出力方法
JP2001242983A (ja) 2000-02-25 2001-09-07 Katsutoshi Muto コンピュータ入力装置
US6763320B2 (en) * 2002-08-15 2004-07-13 International Business Machines Corporation Data input device for individuals with limited hand function
GB0622451D0 (en) * 2006-11-10 2006-12-20 Intelligent Earth Ltd Object position and orientation detection device
US20100060611A1 (en) * 2008-09-05 2010-03-11 Sony Ericsson Mobile Communication Ab Touch display with switchable infrared illumination for touch position determination and methods thereof
US8310464B2 (en) * 2008-10-16 2012-11-13 Texas Instruments Incorporated Simultaneous multiple location touch systems
JP5252432B2 (ja) 2008-12-01 2013-07-31 国立大学法人岐阜大学 指関節角度推定装置
JP2011221699A (ja) 2010-04-07 2011-11-04 Yaskawa Electric Corp 操作指示認識装置及びロボット
US20120056805A1 (en) * 2010-09-03 2012-03-08 Intellectual Properties International, LLC Hand mountable cursor control and input device
US9030425B2 (en) * 2011-04-19 2015-05-12 Sony Computer Entertainment Inc. Detection of interaction with virtual object from finger color change
US8228315B1 (en) * 2011-07-12 2012-07-24 Google Inc. Methods and systems for a virtual input device
JP2013061848A (ja) * 2011-09-14 2013-04-04 Panasonic Corp 非接触入力装置
WO2013086023A1 (en) * 2011-12-05 2013-06-13 Northeastern University Customized, mechanically-assistive rehabilitation apparatus and method for distal extremities of the upper and lower regions

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6771294B1 (en) * 1999-12-29 2004-08-03 Petri Pulli User interface
WO2006028313A1 (en) * 2004-09-08 2006-03-16 Kwang-Seok Hong Keypad glove apparatus
CN101142617A (zh) * 2005-02-23 2008-03-12 杰龙公司 数据输入方法和装置
CN101896877A (zh) * 2007-12-18 2010-11-24 松下电器产业株式会社 空间输入动作显示装置
JP2010086367A (ja) * 2008-10-01 2010-04-15 Sony Corp 位置情報入力装置、位置情報入力方法、プログラム、情報処理システム、及び電子装置
US20100177039A1 (en) * 2009-01-10 2010-07-15 Isaac Grant Finger Indicia Input Device for Computer
CN102193728A (zh) * 2010-03-01 2011-09-21 索尼公司 信息处理装置、信息处理方法和程序

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107632716A (zh) * 2017-11-07 2018-01-26 王可攀 一种输入信息处理装置及其处理输入信息的方法
CN107632716B (zh) * 2017-11-07 2024-03-08 王可攀 一种输入信息处理装置及其处理输入信息的方法
CN111007942A (zh) * 2019-12-25 2020-04-14 歌尔股份有限公司 一种可穿戴设备及其输入方法
CN111427458A (zh) * 2020-06-11 2020-07-17 诺百爱(杭州)科技有限责任公司 一种基于手部动作虚拟输入字符的方法、装置和电子设备

Also Published As

Publication number Publication date
EP2849035A1 (en) 2015-03-18
US20150109197A1 (en) 2015-04-23
WO2013168508A1 (ja) 2013-11-14
JP6036817B2 (ja) 2016-11-30
EP2849035A4 (en) 2016-05-11
CN104272225B (zh) 2017-11-03
JPWO2013168508A1 (ja) 2016-01-07

Similar Documents

Publication Publication Date Title
CN104272225A (zh) 信息处理装置、信息处理方法和程序
EP2836892B1 (en) Control of remote device based on gestures
CN106056081B (zh) 一种解锁控制方法及终端设备
KR101514168B1 (ko) 정보 처리 장치, 정보 처리 방법 및 기록 매체
US20040263473A1 (en) Wearable finger montion sensor for sensing finger motion and method of sensing finger motion using the same
JP2012073830A (ja) インターフェース装置
US20120144073A1 (en) Method and apparatus for transferring digital content
US20190384419A1 (en) Handheld controller, tracking method and system using the same
US20210191537A1 (en) Electronic device and feedback providing method
CN112686169A (zh) 手势识别控制方法、装置、电子设备及存储介质
CN109634438A (zh) 一种输入法的控制方法及终端设备
CN108523281B (zh) 用于虚拟现实系统的手套外设、方法、装置及系统
KR20110083770A (ko) 눈 깜빡임의 인식에 따른 단말의 기능 수행 방법 및 이를 적용한 단말
CN104077784B (zh) 提取目标对象的方法和电子设备
CN113467647A (zh) 皮肤与皮肤接触检测
JP2019016999A (ja) 読取システム及びカメラ
CN111766941B (zh) 一种基于智能戒指的手势识别方法及系统
US20200341557A1 (en) Information processing apparatus, method, and program
JP7117451B2 (ja) 視線とジェスチャを用いた情報表示装置
US11237639B2 (en) Method and system for electronic communication by persons with disabilities
US11449695B2 (en) Reading system and camera
CN115047966A (zh) 交互方法、电子设备与交互系统
CN112818825A (zh) 工作状态确定方法和装置
CN106621323B (zh) 信号输入装置和方法
CN111752372A (zh) 一种动作识别方法、装置及计算机可读存储介质

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20171103