CN103562821A - 信息处理装置、信息处理方法和记录介质 - Google Patents

信息处理装置、信息处理方法和记录介质 Download PDF

Info

Publication number
CN103562821A
CN103562821A CN201280020559.XA CN201280020559A CN103562821A CN 103562821 A CN103562821 A CN 103562821A CN 201280020559 A CN201280020559 A CN 201280020559A CN 103562821 A CN103562821 A CN 103562821A
Authority
CN
China
Prior art keywords
reference data
camera
distance
image
hand
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201280020559.XA
Other languages
English (en)
Other versions
CN103562821B (zh
Inventor
黑河尊文
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Japan Electrical Scheme Innovation Corp
Original Assignee
NEC System Technologies Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC System Technologies Ltd filed Critical NEC System Technologies Ltd
Publication of CN103562821A publication Critical patent/CN103562821A/zh
Application granted granted Critical
Publication of CN103562821B publication Critical patent/CN103562821B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/002Specific input/output arrangements not covered by G06F3/01 - G06F3/16
    • G06F3/005Input arrangements through a video camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/28Recognition of hand or arm movements, e.g. recognition of deaf sign language

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • User Interface Of Digital Computer (AREA)
  • Studio Devices (AREA)

Abstract

输入器(51)输入由照相机(2)捕获的手的捕获的图像。获取器(52)获取指示照相机(2)与手之间的距离的信息。存储器(4)针对照相机(2)与对象之间的每个距离,存储用于指定手势的参考数据和对应于手势的命令。选择器(53)从存储在存储器(4)中的参考数据选择与由获取器(52)所获取的信息所指示的距离对应的参考数据。指定器(54)查阅由选择器(53)所选择的参考数据,指定由输入器(51)所输入的捕获的图像中的手势,并且指定对应于指定的手势的命令。

Description

信息处理装置、信息处理方法和记录介质
技术领域
本发明涉及信息处理装置、信息处理方法和记录介质。
背景技术
建议通过照相机捕获用户和通过捕获的用户的手势来输入操作命令的信息处理装置。
例如,专利文献1公开了在捕获的图像中获取用户的手的轮廓,并且根据手的形状的移动和改变来移动光标至显示器上的虚拟开关并且选择虚拟开关的接口装置。
专利文献2公开了从捕获的图像识别用户的手的形状,并且当识别第一形状时显示多个可执行功能的菜单的信息处理装置。信息处理装置根据图像中识别的形状的位置来选择可执行功能,并且当识别第二形状时执行选择的功能。
进一步,专利文献3公开了一种信息处理装置,该信息处理装置标记由照相机捕获的用户的手的手掌的图像的一部分,通过标记的图像来检测手的手掌的移动,并且识别对应于手的移动的命令。
引用列表
专利文献
专利文献1:未审日本专利申请公开号2004-78977
专利文献2:未审日本专利申请公开号2008-146243
专利文献3:未审日本专利申请公开号2002-83302
发明内容
技术问题
在专利文献1-3中公开的所有信息处理装置捕获用户的手的图像,从捕获的图像抽取手的图像,并且另外识别手的移动或形状。然而,抽取用户的手的图像并且还识别手的移动或形状并不容易。例如,随着用户与照相机之间的距离变得更远,手的图像变得更小,用于抽取处理的时间占用更长,并且另外识别率变得下降。因此,输入合适的操作命令变得困难。
本发明考虑上述的多个情形并且其一个目的在于提供使得可以基于捕获的对象的状态来输入更多合适数据的信息处理装置、信息处理方法和记录介质。
问题的解决方案
根据本发明的第一方面的一种信息处理装置,包括:
输入器,所述输入器输入由照相机捕获的对象的捕获的图像;
获取器,所述获取器获取指示照相机与对象之间的距离的信息;
存储器,所述存储器针对照相机与对象之间的每个距离,存储用于指定对象的状态的参考数据和对应于状态的输入数据;
选择器,所述选择器从存储在存储器中的参考数据选择与由获取器所获取的信息所指示的距离对应的参考数据;以及
指定器,所述指定器查阅由选择器所选择的参考数据,指定由输入器所输入的捕获的图像中的对象的状态,并且指定对应于指定的状态的数据。
根据本发明的第二方面的一种信息处理方法,包括:
存储步骤,所述存储步骤用于针对照相机与对象之间的每个距离,存储用于指定由照相机所捕获的对象的状态的参考数据和对应于状态的输入数据;
输入步骤,所述输入步骤用于输入由照相机所捕获的对象的捕获的图像;
获取器,所述获取器获取指示照相机与对象之间距离的信息;
选择步骤,所述选择步骤用于从存储在存储步骤中的参考数据选择与由在获取步骤中获取的信息所指示的距离对应的参考数据;以及
指定步骤,所述指定步骤用于查阅在选择步骤中选择的参考数据,指定在输入步骤中输入的捕获的图像中的对象的状态,以及指定对应于指定的状态的数据。
根据本发明的第三方面的记录在记录介质上的一种程序,使得计算机起到以下的作用:
输入器,所述输入器输入由照相机捕获的对象的捕获的图像;
获取器,所述获取器获取指示照相机与对象之间的距离的信息;
存储器,所述存储器针对照相机与对象之间的每个距离,存储用于指定对象的状态的参考数据和对应于状态的输入数据;
选择器,所述选择器从存储在存储器中的参考数据选择与由获取器所获取的信息所指示的距离对应的参考数据;以及
指定器,所述指定器查阅由选择器所选择的参考数据,指定由输入器所输入的捕获的图像中的对象的状态,并且指定对应于指定的状态的数据。
本发明的有益效果
根据本发明,可以基于捕获的对象的状态来输入更多合适的数据。
附图说明
图1是根据本发明的一个实施例的信息处理装置的透视图;
图2是图1的信息处理装置的功能框图;
图3是将手移动的例子描绘为长距离手势的示图;
图4A、4B、4C和4D是将手形状的例子描绘为中间距离手势的示图;
图5A、5B、5C和5D是将手倾斜的例子描绘为短距离手势的示图;
图6是示出一种用于获取指示照相机与用户之间距离的信息的方法的示图;
图7是用于示出实施例中的输入处理的流程图;
图8是描绘在显示器上示例性显示手和消息的图像的示图;以及
图9是描绘在显示器上示例性显示手和可指定的手势的图像的示图。
具体实施方式
下面将参考附图来描述根据本发明的一个实施例的信息处理装置。应该注意到的是相同的标号被添加到附图中的相同或相应的部分。
根据本实施例的信息处理装置100提供有手势输入功能,该功能指定出现在充当对象的手200的移动、形状、倾斜和类似等中的手势(状态),并且输入对应于指定的手势的例如命令的输入数据。如图1中所描绘出的,信息处理装置100提供有操作器1、充当图像捕获器的照相机2和显示器3。
信息处理装置100是常用的计算机。信息处理装置100处理对应于手200的手势的输入数据以及由操作器1的操作所输入的数据。
操作器1提供有键盘、鼠标和类似等。操作器1向信息处理装置100输入对应于用户的操作输入的数据。
照相机2提供有例如CCD(电荷耦合器件)或CMOS(互补金属氧化物半导体)传感器的成像元件。照相机2为信息处理装置100例如捕获用户的手200的图像,作为位于视野内的对象。用户通过在照相机2的视野内移动手200和改变手200的形状来输入各种数据。
显示器3提供有LCD(液晶显示屏)和类似等。显示器3显示涉及由信息处理装置100所执行的应用的图像。进一步,显示器3时常地或响应于预先确定的操作来显示手势输入支持窗口3W。在手势输入支持窗口3W中显示例如菜单项、文件或图标的选择目标S和选择光标C。
图2描绘出信息处理装置100的功能配置。信息处理装置100提供有存储器4和控制器5以及操作器1、照相机2和显示器3。
存储器4提供有存储器装置或类似等,例如RAM(随机存取存储器)或硬盘。存储器4存储各种类型的数据。例如,针对照相机2与手200之间的每个距离,存储器4存储用于指定由手200形成的用户手势的参考数据和对应于手势的输入数据。为此,存储器4提供有长距离参考数据存储器41、中间距离参考数据存储器42和短距离参考数据存储器43。参考数据是用于指定由手200的移动、形状、倾斜和类似等所表达的手势的数据(也称为手势操作模式),例如图3到图5中所描绘出的那些。
长距离参考数据存储器41存储指定由手200形成的、能够甚至从长的距离指定的用户的简单手势的参考数据。长距离参考数据存储器41例如存储用于指定手200的形状和手200的向左、向右、向上和向下移动(如图3中所举例的)的参考数据。用于指定手200的形状的参考数据是例如模式数据或类似等,对于该模式数据或类似等,手的形状被转换成数据。用于指定手200的向左、向右、向上和向下移动的参考数据例如是涉及每单位时间手的重心的移动量的数据,或模式数据,该模式数据是当手被移动时关于重心的轨迹的转换数据,或类似数据等。在其中照相机2与手200之间的距离离的很远并且手200在图像数据中的区域小的情形中,存储在长距离参考数据存储器41中的参考数据用于指定由手200形成的用户的手势。
中间距离参考数据存储器42存储用于指定由手200形成的、相对难以指定的用户的手势的参考数据。中间距离参考数据存储器42例如存储用于指定手200的形状的参考数据,形状例如那些如图4A到图4D所举例的。图4A是其中所有手指伸展的手的形状。图4B是其中食指伸展并且剩余手指弯曲的手的形状。图4C是其中食指和中指伸展而剩余手指弯曲的手的形状。图4D是其中食指、中指和无名指伸展而剩余手指弯曲的手的形状。
短距离参考数据存储器43存储用于指定由手200形成的、甚至相对更难以指定的用户手势的参考数据。短距离参考数据存储器43例如存储用于指定手200的形状的参考数据,该形状例如在图5A到图5D中所举例的那些形状。图5A到图5D是其中手本身的形状都相同但手200的倾斜不同的例子。在其中照相机2和手200之间的距离接近而手200在图像数据中大的情形中,存储在短距离参考数据存储器43中的参考数据用于指定由手200形成的手势。
应该注意到的是中间距离参考数据存储器42也存储由长距离参考数据存储器41所存储的参考数据。进一步,短距离参考数据存储器43也存储由长距离参考数据存储器41所存储的参考数据以及由中间距离参考数据存储器42所存储的参考数据。换句话说,根据指定手势的难度来排列参考数据,并且如果短距离参考数据存储器43被认为是具有最高排列,而长距离参考数据存储器41被认为是具有最低排列,则最高排列参考数据包括最低排列参考数据。通过这种方式,随着照相机2与手200之间的距离变得更近,存储器4存储用于指定大量手势的参考数据。
进一步,针对照相机2与手200之间的每个距离,存储器4存储与由手200形成的用户手势关联的输入数据。什么类型的数据与由手200形成的用户手势关联是任意的。
例如,长距离参考数据存储器41关联并且存储在图3中描绘出的、由存储的参考数据所指定的手200的移动的方向,以及用于沿所述方向在手势输入支持窗口3W内移动光标C的命令。
例如,中间距离参考数据存储器42与用于指派与手势输入支持窗口3W内的手指数目匹配的菜单号的命令关联并且存储在图4A到图4D中描绘出的、由存储的参考数据所指定的手200的伸展手指的数目。除此以外,可以允许中间距离参考数据存储器42关联和存储手200的伸展手指的数目以及用于输入匹配手指的数目的数值数据的命令。
例如,短距离参考数据存储器43与这样的命令来关联和存储图5A到5D中描绘出的、由存储的参考数据所指定的手200的形状,该命令用于沿由形状中的食指所指示的方向在手势输入支持窗口3W内滚动图像。除此以外,允许短距离参考数据存储器43与这样的命令来关联和存储手200的形状,该命令例如用于沿由形状中的食指所指示的方向来移动光标。
控制器5提供有处理器(处理单元)或类似等。处理器具有辅助存储器,例如闪存、EEPROM(电可擦程序只读存储器)、或硬盘装置,并且具有作为工作存储器的RAM或类似等。处理器根据存储在EEPROM中的程序来将图像数据和其他数据暂时性地存储在RAM中,并且执行信息处理算法。
控制器5提供有输入器51、获取器52、选择器53、指定器54以及执行器55。控制器5根据存储在存储器4中的程序操作,并且根据例如由用户输入的命令的输入数据来执行各种处理。
输入器51输入由照相机2所捕获的手200的捕获的图像。输入器51将捕获的图像的模拟信号转换成数字信号并且逐帧的生成图像数据。输入器51逐帧的向显示器3输出图像数据并且将该图像数据显示为生动的视图图像。
获取器52获取指示照相机2(图像捕获器)与手200之间的距离的信息。获取器52分析由照相机2所捕获的图像数据并且获取指示照相机2与手200之间的距离的信息。获取器52获取捕获的用户脸部区域的两鬓之间的长度L1,眼之间的距离的长度L2,手200的背面的宽度L3或手腕的宽度L4(以下,称为两鬓长度L1或类似等),例如图6中绘出的那些,作为指示照相机2与手200之间距离的信息。例如,获取器52从由稍后描述的指定器54所生成的图像分析数据获取两鬓长度L1或类似等。两鬓长度L1或类似等与照相机2与用户之间的距离相关而不受个体差异的太大影响。因此,能够说照相机2与手200之间的距离变得越短,则两鬓长度L1或类似等变得越短。
选择器53选择对应于由通过获取器52所获取的L1到L4或类似等所指示的距离的参考数据。选择器53基于由获取器52所获取的L1到L4来检测照相机2与用户的手200之间的距离D。例如,在检测距离D中,首先,通过将L1到L4替换进这些距离以及照相机2与用户之间的距离的关系表达,来获得照相机2与用户之间的距离。因为照相机2与用户之间的距离大致匹配照相机2与手200之间的距离D,选择器53检测获得的距离作为照相机2与手200之间的距离D。
例如,如果检测的距离D等于或小于参考值D1,则选择器53选择存储在短距离参考数据存储器43中的参考数据。如果距离D大于参考值D1并且等于或小于参考值D2,则选择器53选择存储在中间距离参考数据存储器42中的参考数据。如果距离D大于参考值D2,则选择器53选择存储在长距离参考数据存储器41中的参考数据。
指定器54查阅由选择器53所选择的参考数据,指定在输入到输入器51的、捕获的图像中的手200所形成的用户手势,并且指定对应于指定的手势的输入数据。在指定由手200所形成的用户手势中,例如,指定器54逐帧的、从由输入器51所生成的图像数据抽取手200,并且生成图像分析数据。
这里,将详细描述图像分析数据的生成。指定器54提供有存储多个帧的图像数据的存储器。指定器54获得当前捕获帧的图像的不同图像和在前捕获帧的图像。此外,指定器54对获得的不同图像进行二进制化,并且如果围绕二进制化图像中的每个白色像素的八个相邻像素值大于预设的阈值,则指定器54扩展白色像素区。通过这样做,指定器54执行用于连接和扩展白色区域的扩展处理。进一步,如果围绕二进制化图像中的每个黑色像素的八个相邻像素值小于预设的阈值,则指定器54减小黑色像素区域。通过这样做,执行用于移除构成噪声的黑色点的减小处理。通过这种方式,指定器54通过从图像数据抽取作为具有移动的对象的手200的图像来生成图像分析数据。
进一步,允许指定器54来使用上述的不同图像以便在图像分析数据中包括涉及手200的重心的每单位时间移动量的数据,或当手200被移动时作为关于重心的轨迹的转换的数据的模式数据,或类似等的数据。通过这种方式生成的图像分析数据使用在由获取器52获取指示照相机2与用户之间距离的信息中。应该注意到的是允许指定器54通过分析关于图像数据的皮肤色度信息或亮度信息或类似等信息来抽取手200的图像并且生成图像分析数据。
指定器54在由输入器51输入的捕获图像中抽取手200的图像,并且基于由选择器53所选择的参考数据,指定由抽取的手200的图像所描绘的由手200形成的用户手势。更具体地,指定器54从生成的分析图像数据抽取对应于手200的数据,并且将抽取的数据与由选择器53所选择的参考数据进行比较。如果包括在分析图像数据中的手200所形成的用户手势匹配参考数据,则指定器54指定对应于匹配的参考数据的手200的手势。指定器54从存储器4读取与指定的手势相关联的输入数据,并且向执行器55输入输入的数据。
执行器55执行与输入数据对应的处理,该输入数据与由指定器54所指定的手200所形成的用户手势相关联。例如,执行器55查阅长距离参考数据存储器41、中间距离参考数据存储器42和短距离参考数据存储器43,并且执行与由指定器54所指定的手200的手势相关联的命令。例如,在用于移动光标C的命令的情形中,执行器55向显示器3输出用于光标C的移动命令。因此,在显示器3的手势输入支持窗口3W内的光标C移动。
下面,将描述由信息处理装置100所进行的输入处理的流程。信息处理装置100能够执行各种应用软件。为了向应用软件输入,除了来自于操作器1的输入处理,下面描述的信息处理装置100在用户通过手势执行输入的情形中执行输入处理。
控制器5以例如时分方式来执行图7中描绘出的输入处理。应该注意到的是允许控制器5随同输入处理的开始来显示手势输入支持窗口3W,或通过来自于操作器1的手势或输入来在手势输入支持窗口3W的显示和非显示之间进行切换。
当开始输入处理时,首先,指定器54存储从输入器51输出的帧的图像数据(步骤S1)。
下一步,指定器54生成图像分析数据(步骤S2)。如果经图像分析数据的分析,并不抽取手200的图像(步骤S3:否),则控制器5返回到步骤S1。另一方面,如果经图像分析数据的分析,抽取手200的图像(步骤S3:是),则获取器52获取两鬓长度L1或类似等(步骤S4)。下一步,选择器53基于两鬓长度L1或类似等来检测距离D(步骤S5)。
如果检测的距离D等于或小于参考值D1(步骤S6:是),则选择器53选择存储在短距离参考数据存储器43中的参考数据(步骤S7)。
如果检测的距离D大于参考值D1(步骤S6:否),并且检测到的距离D等于或小于参考值D2(步骤S8:是),则选择器53选择存储在中间距离参考数据存储器42中的参考数据(步骤S9)。
如果检测到的距离D大于D2(步骤S8:否),则选择器53选择存储在长距离参考数据存储器41中的参考数据(步骤S10)。
当选择器53选择参考数据时,指定器54将生成的分析图像数据与由选择器53所选择的参考数据进行比较,并且确定手200的手势是否与参考数据匹配(步骤S11)。
如果手200的手势并不匹配参考数据(步骤S11:否),则控制器5返回到步骤S1。另一方面,如果手200的手势匹配参考数据(步骤S11:是),则指定器54指定手200的手势和与指定的手势相关联的命令(步骤S12)。
下面,执行器55执行与由指定器54所指定的手200的手势相关联的命令(步骤S13)。接着,控制器5终止输入处理。
根据上述详细描述的实施例,根据照相机2与手200之间的距离来选择用于指定由手200所形成的用户手势的参考数据。因此,由于指定了可以在照相机2与手200之间的距离处指定由手200形成的用户手势,可以基于由照相机2捕获的、由手200所形成的用户手势来输入更多合适的数据。
进一步,在上述的实施例中,存储器4被配置成以便存储用于指定随着照相机2与手200之间的距离变得更近时的大量手势的参考数据。通过这样做,在其中照相机2与手200之间的距离近时,由于大量的手势能够被指定,可以输入各种各样的命令或类似等的输入数据。
在其中照相机2与手200被定位于中间距离处的情形中,尽管相比较于短距离的情形,由手200形成的可指定的用户手势的数目减小,可以减少处理负载和错误指定,因为不可指定的手势的参考模式和分析图像数据并不彼此比较。
在其中照相机2与手200之间的距离离的很远的情形中,尽管相比较于短距离和中间距离的情形,由手200形成的可指定的用户手势的数目进一步减小,可以进一步减小处理负载和错误指定,因为不可指定的手势的参考模式和分析图像数据并不彼此比较。进一步,因为即使在其中照相机2与手200之间的距离离的远的情形中,可指定的手势的参考模式和分析图像数据进行比较,与由手200形成的用户手势相关联的输入数据可以被可靠地输入。
应该注意的是在上述的实施例中,存储器4被配置成以便存储用于指定充当对象的手200的移动、形状和倾斜作为状态的参考数据。因此,用户可以输入大量类别的数据,因为可以通过能够表达各种手势的手200的移动(手势)来输入数据。
进一步,在上述的实施例中,抽取由输入器51输入的捕获的图像中的手200的图像,并且基于由选择器53所选择的参考数据来指定抽取的手200的图像所描绘的手200形成的用户手势。通过这样做,信息处理装置100可以实时地指定用户的手势,并且以迅速的方式来输入数据。
进一步,在上述的实施例中,获取器52被配置成以便分析由照相机2所捕获的图像数据并且获取指示照相机2与用户之间的距离的信息。因此,相比较于其中使用光学传感器或类似等的情形,可以以简单的方式来实现装置配置。
进一步,可以允许显示器3配置成以便显示对应于由照相机2所捕获的图像数据的图像。在该情形中,例如,如图8中所描绘出的,在手势输入支持窗口3W中显示从图像数据抽取的手200的图像。通过这样做,用户可以在确认手200的手势的同时实施操作性的输入,以便更为可靠地输入数据。此外,允许显示器3在窗口3i中显示检测的距离D和报告能够在该距离处指定的命令类型的消息。因此,用户能够知道什么类型的命令可以通过手势来输入。
进一步,允许显示器3配置成以便显示基于由选择器53所选择的参考数据来指定的手200的手势,以及与手200的手势相关联的命令或类似等。例如,如图9中所描绘出的,显示器3显示出显示手200的图像的手势输入支持窗口3W。另外,显示器3在窗口3i中显示对应于存储在中间距离参考数据存储器42中的参考数据并且能够在手200和照相机2之间的当前距离处指定的手200的手势,并且显示指定当手势被指定时输入的菜单号的命令。因此,用户可以知道能够被指定的手200所形成的手势以及关于那些手势,什么类型的命令能够被输入。
应该注意到的是在本实施例中,已经给出了其中从图像数据获得照相机2与用户之间的距离的信息,然而,允许例如获取器52配置成以便提供有红外光发射器,并且通过反射光来获取指示照相机2与用户之间距离的信息,其中从红外光发射器发射的红外线由手200反射。进一步,允许多个照相机被排列,并且允许获取器52配置成以便从多个照相机获取立体像,以基于视差来获得指示照相机2与用户之间的距离的信息。另外也允许获取器52使用例如光传感器的各种类型的传感器来获取指示照相机2与用户之间距离的信息。
进一步,也允许信息处理装置100使用红外照相机或类似等作为照相机2来捕获手200的图像。仍进一步,允许信息处理装置100使用例如测深计或类似等来捕获手200的图像,而不限于光学照相机或红外照相机或类似等。
应该注意到在本实施例中,照相机2与手200之间的距离被划分成三个阶段;然而,允许该距离被划分成两个阶段,或被划分成四个或更多的阶段。
进一步,出现在图3到图5所描绘的手200的移动、形状、倾斜和类似等中的用户的手势是例子,并且不限于这些例子。例如,允许指定器54来指定由左手或右手所形成的手势,并且指定使用两只手的手势。
进一步,相比较于没有移动的手势,伴随着高速移动的手势难以在长距离处指定。因此,例如允许指定器54被配置成以便仅在当照相机2与手200之间的距离大于预先确定的距离时手是静止时的状态中指定手的形状。就这点而言,允许指定器54被配置成以便当距离D近于预先确定的距离时,指定组合手200的形状和移动的手势。
进一步,在本实施例中已经给出其中输入通过手200的手势来实施的例子。然而,例如,允许信息处理装置100被配置成以便能够捕获眼睛、嘴、眼睑、舌头和类似等的图像,并且基于由此实现的手势或状态(例如,相对位置、移动、方向、打开程度、关闭程度和类似等)来执行输入。
应该注意到的是尽管在本实施例中,存储器4对于每个距离存储参考数据。本发明并不限于此。例如,允许存储器4通过向每个参考数据附接标识符以标识所有距离、短距离、中间距离和长距离来存储参考数据。在该情形中,根据由选择器53所检测的距离D,允许具有标识符的参考数据被读取(该标识符对应于将其附接到的距离),并且确定参考数据是否匹配包括在图像分析数据中的手200的手势。
进一步,尽管信息处理装置100和照相机2在本实施例中被配置成单个的单元,照相机也可以例如独立于信息处理装置100来设置。在这种情形中,用户通过照相机2经由通信网络向信息处理装置100发送图像数据来执行由手200的手势向信息处理装置100实现的操作性输入。通过这样做,用户能够甚至在远端操作规范中输入合适的数据,例如当照相机2被放置在远离于信息处理装置100的主体。
允许本实施例的信息处理装置100通过专用系统、或通过常规计算机系统来实现。例如,允许在计算机可读记录介质上存储和分发用于执行上述操作的程序,并且通过在计算机上安装该程序以执行上述的处理来配置输入装置100。进一步,允许存储在例如因特网的网络上的服务器装置中提供的盘装置上,并且使得可以向例如计算机下载和类似等。进一步,允许通过OS(操作系统)和应用软件之间的合作来实现上述的功能。在这种情形中,仅允许除OS外的部分在介质上存储和分发,并且进一步,允许那些部分被下载和类似等到计算机。
作为记录上述的程序的记录介质,可以使用计算机可读记录介质,例如USB存储器、软盘、CD、DVD、蓝光盘(注册商标)、MO、SD卡、记忆棒(注册商标)以及磁盘、光盘、磁光盘、半导体存储器或磁带。进一步,可以使用通常在系统或装置中固定使用的记录介质,例如硬盘或SSD(固态驱动器)或类似等。
在不偏离本发明宽的精神和范围下,本发明可以具有各种类型的实施例和修改。进一步,上述的实施例用于描述本发明,并且不限制本发明的范围。换句话说,本发明的范围不在实施例中指示,而是在权利要求中。在权利要求内实现的各种类型的修改和等同于权利要求的本发明的含义都被认为在本发明的范围内。
在不对其进行限制的情况下,可以如下面的附件那样描述一些或所有上述的实施例。
(附件1)
一种信息处理装置,包括:
输入器,所述输入器输入由照相机捕获的对象的捕获的图像;
获取器,所述获取器获取指示照相机与对象之间的距离的信息;
存储器,所述存储器针对照相机与对象之间的每个距离,而存储用于指定对象的状态的参考数据和对应于状态的输入数据;
选择器,所述选择器从存储在存储器中的参考数据,选择与由获取器所获取的信息所指示的距离对应的参考数据;以及
指定器,所述指定器查阅由选择器所选择的所述参考数据,指定由输入器所输入的捕获的图像中的对象的状态,并且指定对应于指定的所述状态的数据。
(附件2)
根据附件1的信息处理装置,其中所述存储器存储用于当所述照相机与所述对象之间的所述距离变得更近时,指定更大数目的状态的参考数据。
(附件3)
根据附件1或2所述的信息处理装置,其中所述存储器存储用于将充当对象的手的移动、形状和倾斜指定为状态的参考数据。
(附件4)
根据附件1到3的任意一项所述的信息处理装置,其中所述指定器抽取由所述输入器输入的所述捕获的图像中的所述对象的图像,并且基于由所述选择器所选择的所述参考数据,来指定由所述抽取的所述对象的所述图像所描绘的所述对象的所述状态。
(附件5)
根据附件1到4的任意一项所述的信息处理装置,其中所述获取器分析由所述图像捕获器所捕获的图像数据,并且获取指示所述照相机与所述对象之间的所述距离的所述信息。
(附件6)
根据附件1到5的任意一项所述的信息处理装置,进一步包括显示器,所述显示器显示由所述照相机所捕获的所述对象的所述捕获的图像。
(附件7)
根据附件6所述的信息处理装置,其中所述显示器显示基于由所述选择器所选择的所述参考数据而指定的对象的所述状态,以及对应于所述状态的输入数据。
(附件8)
一种信息处理方法,包括:
存储步骤,所述存储步骤用于针对照相机与对象之间的每个距离,而存储用于指定由所述照相机所捕获的所述对象的状态的参考数据和对应于状态的输入数据;
输入步骤,所述输入步骤用于输入由照相机所捕获的对象的捕获的图像;
获取器,所述获取器获取指示照相机与所述对象之间的距离的信息;
选择步骤,所述选择步骤用于从在存储步骤中存储的所述参考数据,选择与由在所述获取步骤中获取的所述信息所指示的所述距离对应的参考数据;以及
指定步骤,所述指定步骤用于查阅在选择步骤中选择的所述参考数据,指定在输入步骤中输入的捕获的图像中的对象的状态,以及指定对应于指定的状态的数据。
(附件9)
一种记录介质,所述记录介质上记录有程序,以允许计算机充当:
输入器,所述输入器输入由照相机捕获的对象的捕获的图像;
获取器,所述获取器获取指示照相机与对象之间的距离的信息;
存储器,所述存储器针对照相机与所述对象之间的每个距离,而存储用于指定对象的状态的参考数据和对应于状态的输入数据;
选择器,所述选择器从存储在存储器中的所述参考数据,选择与由获取器所获取的所述信息所指示的距离对应的参考数据;以及
指定器,所述指定器查阅由选择器所选择的参考数据,指定由输入器所输入的捕获的图像中的对象的状态,并且指定对应于指定的状态的数据。
本发明基于2011年4月28日提交的日本专利申请号2011-101894。日本专利申请号2011-101894的说明书、专利权利要求的范围和附图将通过引用整体并入在此。
工业实用性
本发明适用于信息处理装置、信息处理方法以及记录介质,利用其数据通过用户的手势来输入。
参考标号列表
1  操作器
2  照相机
3  显示器
3W  手势输入支持窗口
3i  窗口
4  存储器
5  控制器
41  长距离参考数据存储器
42  中间距离参考数据存储器
43  短距离参考数据存储器
51  输入器
52  获取器
53  选择器
54  指定器
55  执行器
100  信息处理装置
200  手

Claims (9)

1.一种信息处理装置,包括:
输入器,所述输入器输入由照相机捕获的对象的捕获的图像;
获取器,所述获取器获取指示所述照相机与所述对象之间的距离的信息;
存储器,所述存储器针对所述照相机与所述对象之间的每个距离,而存储用于指定所述对象的状态的参考数据和对应于所述状态的输入数据;
选择器,所述选择器从存储在所述存储器中的所述参考数据,选择与由所述获取器所获取的信息所指示的所述距离对应的参考数据;以及
指定器,所述指定器查阅由所述选择器所选择的所述参考数据,指定由所述输入器所输入的所述捕获的图像中的所述对象的所述状态,并且指定对应于指定的所述状态的数据。
2.根据权利要求1所述的信息处理装置,其中所述存储器存储用于当所述照相机与所述对象之间的所述距离变得更近时,指定更大数目的状态的参考数据。
3.根据权利要求1或2所述的信息处理装置,其中所述存储器存储用于将充当所述对象的手的移动、形状和倾斜指定为所述状态的参考数据。
4.根据权利要求1到3的任意一项所述的信息处理装置,其中所述指定器抽取由所述输入器输入的所述捕获的图像中的所述对象的图像,并且基于由所述选择器所选择的所述参考数据,来指定由抽取的所述对象的所述图像所描绘的所述对象的所述状态。
5.根据权利要求1到4的任意一项所述的信息处理装置,其中所述获取器分析由所述图像捕获器所捕获的图像数据,并且获取指示所述照相机与所述对象之间的所述距离的所述信息。
6.根据权利要求1到5的任意一项所述的信息处理装置,进一步包括显示器,所述显示器显示由所述照相机所捕获的所述对象的所述捕获的图像。
7.根据权利要求6所述的信息处理装置,其中所述显示器显示基于由所述选择器所选择的所述参考数据而指定的所述对象的所述状态,以及对应于所述状态的所述输入数据。
8.一种信息处理方法,包括:
存储步骤,所述存储步骤用于针对照相机与对象之间的每个距离,而存储用于指定由所述照相机所捕获的所述对象的状态的参考数据和对应于所述状态的输入数据;
输入步骤,所述输入步骤用于输入由所述照相机所捕获的所述对象的捕获的图像;
获取器,所述获取器获取指示所述照相机与所述对象之间的距离的信息;
选择步骤,所述选择步骤用于从在所述存储步骤中存储的所述参考数据,选择与由在所述获取步骤中获取的所述信息所指示的所述距离对应的参考数据;以及
指定步骤,所述指定步骤用于查阅在所述选择步骤中选择的所述参考数据,指定在所述输入步骤中输入的所述捕获的图像中的所述对象的所述状态,以及指定对应于指定的所述状态的数据。
9.一种记录介质,所述记录介质上记录有程序,所述程序使得计算机充当:
输入器,所述输入器输入由照相机捕获的对象的捕获的图像;
获取器,所述获取器获取指示所述照相机与所述对象之间的距离的信息;
存储器,所述存储器针对所述照相机与所述对象之间的每个距离,而存储用于指定所述对象的状态的参考数据和对应于所述状态的输入数据;
选择器,所述选择器从存储在所述存储器中的所述参考数据,选择与由所述获取器所获取的所述信息所指示的所述距离对应的参考数据;以及
指定器,所述指定器查阅由所述选择器所选择的所述参考数据,指定由所述输入器所输入的所述捕获的图像中的所述对象的所述状态,并且指定对应于指定的所述状态的数据。
CN201280020559.XA 2011-04-28 2012-04-27 信息处理装置、信息处理方法和记录介质 Active CN103562821B (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2011-101894 2011-04-28
JP2011101894 2011-04-28
PCT/JP2012/061470 WO2012147960A1 (ja) 2011-04-28 2012-04-27 情報処理装置、情報処理方法及び記録媒体

Publications (2)

Publication Number Publication Date
CN103562821A true CN103562821A (zh) 2014-02-05
CN103562821B CN103562821B (zh) 2016-11-09

Family

ID=47072471

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201280020559.XA Active CN103562821B (zh) 2011-04-28 2012-04-27 信息处理装置、信息处理方法和记录介质

Country Status (7)

Country Link
US (1) US9329673B2 (zh)
EP (1) EP2703949B1 (zh)
JP (1) JP5709227B2 (zh)
KR (1) KR101514168B1 (zh)
CN (1) CN103562821B (zh)
IL (1) IL229043B (zh)
WO (1) WO2012147960A1 (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107533366A (zh) * 2015-04-20 2018-01-02 三菱电机株式会社 信息显示装置和信息显示方法
CN108369451A (zh) * 2015-12-18 2018-08-03 索尼公司 信息处理装置、信息处理方法及程序
CN113630556A (zh) * 2021-09-26 2021-11-09 北京市商汤科技开发有限公司 聚焦方法、装置、电子设备以及存储介质

Families Citing this family (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10600235B2 (en) 2012-02-23 2020-03-24 Charles D. Huston System and method for capturing and sharing a location based experience
EP2817785B1 (en) * 2012-02-23 2019-05-15 Charles D. Huston System and method for creating an environment and for sharing a location based experience in an environment
JP2014097112A (ja) * 2012-11-13 2014-05-29 Takashi Yoshimine 操作装置及び操作方法
JP6110731B2 (ja) * 2013-05-31 2017-04-05 株式会社第一興商 ジェスチャーによるコマンド入力識別システム
JP6344032B2 (ja) * 2013-09-26 2018-06-20 富士通株式会社 ジェスチャ入力装置、ジェスチャ入力方法、およびジェスチャ入力プログラム
US10057483B2 (en) * 2014-02-12 2018-08-21 Lg Electronics Inc. Mobile terminal and method thereof
JP6341755B2 (ja) * 2014-05-26 2018-06-13 キヤノン株式会社 情報処理装置、方法及びプログラム並びに記録媒体
KR101636460B1 (ko) * 2014-11-05 2016-07-05 삼성전자주식회사 전자 장치 및 그 제어 방법
US11344928B2 (en) 2015-06-03 2022-05-31 Koninklijke Philips N.V. Safety improvements for UV radiation in aquatic applications
KR20170068049A (ko) * 2015-12-09 2017-06-19 원광대학교산학협력단 어플리케이션 자동구동장치
US10303259B2 (en) * 2017-04-03 2019-05-28 Youspace, Inc. Systems and methods for gesture-based interaction
US10303417B2 (en) 2017-04-03 2019-05-28 Youspace, Inc. Interactive systems for depth-based input
US10437342B2 (en) 2016-12-05 2019-10-08 Youspace, Inc. Calibration systems and methods for depth-based interfaces with disparate fields of view
US10325184B2 (en) * 2017-04-12 2019-06-18 Youspace, Inc. Depth-value classification using forests
CN109558000B (zh) * 2017-09-26 2021-01-22 京东方科技集团股份有限公司 一种人机交互方法及电子设备
US11221683B2 (en) * 2019-05-09 2022-01-11 Dell Products, L.P. Graphical user interface (GUI) manipulation using hand gestures over a hovering keyboard
KR102269466B1 (ko) * 2019-05-21 2021-06-28 이진우 동작 인식 기반의 문자 입력 방법 및 그 장치
CN112822388B (zh) * 2019-11-15 2022-07-22 北京小米移动软件有限公司 拍摄模式的触发方法、装置、设备及存储介质

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006099749A (ja) * 2004-08-31 2006-04-13 Matsushita Electric Works Ltd ジェスチャースイッチ
CN101901107A (zh) * 2009-05-28 2010-12-01 三星电子株式会社 能够基于触摸缩放的移动设备及其控制方法
CN101952818A (zh) * 2007-09-14 2011-01-19 智慧投资控股67有限责任公司 基于姿态的用户交互的处理

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5594469A (en) 1995-02-21 1997-01-14 Mitsubishi Electric Information Technology Center America Inc. Hand gesture machine control system
JP3777650B2 (ja) 1995-04-28 2006-05-24 松下電器産業株式会社 インターフェイス装置
JP2001216069A (ja) * 2000-02-01 2001-08-10 Toshiba Corp 操作入力装置および方向検出方法
JP2002083302A (ja) 2000-09-07 2002-03-22 Sony Corp 情報処理装置、動作認識処理方法及びプログラム格納媒体
JP3725460B2 (ja) * 2000-10-06 2005-12-14 株式会社ソニー・コンピュータエンタテインメント 画像処理装置、画像処理方法、記録媒体、コンピュータプログラム、半導体デバイス
US8035612B2 (en) 2002-05-28 2011-10-11 Intellectual Ventures Holding 67 Llc Self-contained interactive video display system
JP2003131785A (ja) 2001-10-22 2003-05-09 Toshiba Corp インタフェース装置および操作制御方法およびプログラム製品
JP2004356819A (ja) 2003-05-28 2004-12-16 Sharp Corp リモート操作装置
JP4723799B2 (ja) * 2003-07-08 2011-07-13 株式会社ソニー・コンピュータエンタテインメント 制御システムおよび制御方法
JP2004078977A (ja) 2003-09-19 2004-03-11 Matsushita Electric Ind Co Ltd インターフェイス装置
JP2005190283A (ja) * 2003-12-26 2005-07-14 Nec Access Technica Ltd 情報入力装置
JP2007219713A (ja) 2006-02-15 2007-08-30 Sony Corp 照会システム、撮像装置、照会装置、情報処理方法、プログラム
JP2008146243A (ja) 2006-12-07 2008-06-26 Toshiba Corp 情報処理装置、情報処理方法、及びプログラム
JP4318056B1 (ja) 2008-06-03 2009-08-19 島根県 画像認識装置および操作判定方法
US20100251171A1 (en) * 2009-03-31 2010-09-30 Parulski Kenneth A Graphical user interface which adapts to viewing distance
JP5256109B2 (ja) * 2009-04-23 2013-08-07 株式会社日立製作所 表示装置
JP5614014B2 (ja) 2009-09-04 2014-10-29 ソニー株式会社 情報処理装置、表示制御方法及び表示制御プログラム
US8564534B2 (en) * 2009-10-07 2013-10-22 Microsoft Corporation Human tracking system
JP2011192081A (ja) 2010-03-15 2011-09-29 Canon Inc 情報処理装置及びその制御方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006099749A (ja) * 2004-08-31 2006-04-13 Matsushita Electric Works Ltd ジェスチャースイッチ
CN101952818A (zh) * 2007-09-14 2011-01-19 智慧投资控股67有限责任公司 基于姿态的用户交互的处理
CN101901107A (zh) * 2009-05-28 2010-12-01 三星电子株式会社 能够基于触摸缩放的移动设备及其控制方法

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107533366A (zh) * 2015-04-20 2018-01-02 三菱电机株式会社 信息显示装置和信息显示方法
CN107533366B (zh) * 2015-04-20 2020-07-03 三菱电机株式会社 信息显示装置和信息显示方法
CN108369451A (zh) * 2015-12-18 2018-08-03 索尼公司 信息处理装置、信息处理方法及程序
US10963063B2 (en) 2015-12-18 2021-03-30 Sony Corporation Information processing apparatus, information processing method, and program
CN108369451B (zh) * 2015-12-18 2021-10-29 索尼公司 信息处理装置、信息处理方法及计算机可读存储介质
CN113630556A (zh) * 2021-09-26 2021-11-09 北京市商汤科技开发有限公司 聚焦方法、装置、电子设备以及存储介质

Also Published As

Publication number Publication date
IL229043A0 (en) 2013-12-31
EP2703949A1 (en) 2014-03-05
KR101514168B1 (ko) 2015-04-21
JP5709227B2 (ja) 2015-04-30
EP2703949B1 (en) 2017-10-25
US20140043232A1 (en) 2014-02-13
WO2012147960A1 (ja) 2012-11-01
IL229043B (en) 2018-04-30
CN103562821B (zh) 2016-11-09
KR20140002007A (ko) 2014-01-07
EP2703949A4 (en) 2014-10-22
JPWO2012147960A1 (ja) 2014-07-28
US9329673B2 (en) 2016-05-03

Similar Documents

Publication Publication Date Title
CN103562821A (zh) 信息处理装置、信息处理方法和记录介质
US10001845B2 (en) 3D silhouette sensing system
KR101514169B1 (ko) 정보 처리 장치, 정보 처리 방법 및 기록 매체
US20230367399A1 (en) Cursor mode switching
US20200225756A9 (en) System and method for close-range movement tracking
US9910498B2 (en) System and method for close-range movement tracking
US20120120066A1 (en) Instruction accepting apparatus, instruction accepting method, and recording medium
US20130187954A1 (en) Image data generation apparatus and image data generation method
EP2182469A2 (en) System and method for sensing facial gesture
EP2905680B1 (en) Information processing apparatus, information processing method, and program
JP6326847B2 (ja) 画像処理装置、画像処理方法および画像処理プログラム
JP2007034525A (ja) 情報処理装置、および情報処理方法、並びにコンピュータ・プログラム
TW201407420A (zh) 改善之視訊追蹤
CN103608761A (zh) 输入设备、输入方法以及记录介质
US20190066734A1 (en) Image processing apparatus, image processing method, and storage medium
CN109101173A (zh) 屏幕布局控制方法、装置、设备及计算机可读存储介质
JP5991538B2 (ja) データ処理装置、データ処理システム及びプログラム
JP6182930B2 (ja) 奥行き制作支援装置、奥行き制作方法、及びプログラム
CN114201034A (zh) 显示装置、记录介质、信息处理装置、系统及方法
WO2024114487A1 (zh) 一种缺陷检测方法、装置及系统
WO2022145294A1 (ja) 画像処理装置、撮像装置、画像処理方法、及びプログラム
CN118130464A (zh) 一种缺陷检测方法、装置及系统
JP5478559B2 (ja) ディスプレイ制御装置、ディスプレイ制御方法、ディスプレイ制御プログラム、およびディスプレイ
CN114610223A (zh) 一种信息输入方法、装置、存储介质及电子设备

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
ASS Succession or assignment of patent right

Owner name: JAPAN ELECTRICAL SCHEME INNOVATION CORPORATION

Free format text: FORMER OWNER: NEC SYSTEM TECHNOLOGIES LTD.

Effective date: 20141105

C41 Transfer of patent application or patent right or utility model
TA01 Transfer of patent application right

Effective date of registration: 20141105

Address after: Tokyo, Japan, Japan

Applicant after: Japan Electrical Scheme Innovation Corporation

Address before: Osaka

Applicant before: NEC System Technologies, Ltd.

C14 Grant of patent or utility model
GR01 Patent grant